
في كتاب ريد هوفمان الجديد Superagency: What Could Possibly Go Right With Our AI Future، يقدم مؤسس LinkedIn حالة أن الذكاء الاصطناعي يمكن أن يوسع وكالة الإنسان - مما يمنحنا مزيدًا من المعرفة ووظائف أفضل وحياة محسنة - بدلاً من تقليلها.
\nولكن هذا لا يعني أنه يتجاهل العيوب المحتملة للتكنولوجيا. في الواقع، يصف هوفمان (الذي كتب الكتاب بالشراكة مع Greg Beato) توقعاته بشأن الذكاء الاصطناعي، وعن التكنولوجيا بشكل عام، بأنه يركز على \"خطوة المخاطر الذكية\" بدلاً من التفاؤل العميق.
\n\"الجميع، بشكل عام، يركز كثيرًا على ما يمكن أن يحدث من خطأ، وبشكل ناقص على ما يمكن أن يحدث من خير،" قال هوفمان لي.
\nوعلى الرغم من أنه قال إنه يدعم \"التنظيم الذكي\"، إلا أنه اعتبر أن عملية \"نشر تكراري\" التي تضع أدوات الذكاء الاصطناعي في يد الجميع ثم تستجيب لتغذية ردودهم هي أكثر أهمية حتى لضمان النتائج الإيجابية.
\nفي محادثتنا حول كتابه، ناقشنا أيضًا الفوائد التي يراها هوفمان (الذي كان أيضًا عضوًا سابقًا في مجلس OpenAI، وعضو حالي في مجلس شركة Microsoft، وشريك في Greylock) من الذكاء الاصطناعي، وتأثيره المحتمل على المناخ، والفرق بين المتشائمين من الذكاء الاصطناعي والمتشائمين منه.
\nتم تحرير هذا المقابلة لتحديد الطول والوضوح.
\n\nلقد كتبت بالفعل كتابًا آخر عن الذكاء الاصطناعي، Impromptu. ما الذي أردت قوله بـ Superagency، والذي لم تكن قد قلته بالفعل؟
\nفكان Impromptu في الغالب يحاول أن يظهر أن الذكاء الاصطناعي يمكن أن [يوفر] تضخيمًا نسبيًا للذكاء بسهولة، وكان يُظهر ذلك بالفعل عبر مجموعة متنوعة من السهام. Superagency يتعلق أكثر من خلال سؤال حول كيفية تحسين وكالة الإنسان لدينا بشكل كبير، ليس فقط من خلال القدرات الخارقة، وهو جزء منه بالطبع، ولكن من خلال تحويل صناعاتنا، ومجتمعاتنا، بينما يحصل العديد منا على هذه القدرات الخارقة من هذه التكنولوجيا الجديدة بالمساواة.
\nالحديث العام حول هذه الأمور دائمًا ما يبدأ بتشاؤم شديد ومن ثم يتحول إلى - يمكن أن نطلق عليه - حالة مرفوعة جديدة من الإنسانية والمجتمع. الذكاء الاصطناعي هو آخر تكنولوجيا مُزْعِزة في هذا الصدد. لم يتطرق Impromptu بقدر ما قد أشرت إليه... سير المستقبل الإنساني.
\n
تبدأ بتقسيم التوجهات المختلفة حول الذكاء الاصطناعي إلى هذه الفئات - الذين يحصلون على خلق، الذين يحصلون على خراب، زوومرز، بلومرز. يمكننا التعمق في كل منها، ولكن سنبدأ بـ بلومر لأنك تصنف نفسك على أنه واحد. ما هو بلومر، ولماذا تعتبر نفسك واحدًا؟
\n\nأعتقد أن بلومرا هو تفاؤلي تكنولوجي بشكل لا مفرّ منه و[يعتقد] أن بناء التكنولوجيات يمكن أن يكون جيدًا جدًا بالنسبة لنا كأفراد، ومجموعات، ومجتماعات، وبالنسبة للإنسانية، ولكن [هذا لا يعني] أن أي شيء يمكنك بناؤه رائع.
\nلذا يجب عليك التنقل بين اتخاذ المخاطر، ولكن بأخذ المخاطر الذكية بدلاً من المخاطر العمياء، وأن تشارك في الحوار والتفاعل للتوجيه. جزء من السبب في أننا نتحدث عن نشر تكراري كثيرًا في الكتاب، لأن الفكرة هي، جزء من كيف تشارك في هذا الحوار مع الكثير من البشر هو من خلال نشر تكراري. إنك تشارك في ذلك من أجل توجيهه لتقول، \"أوه، إذا كان له هذا الشكل، فإنه أفضل بكثير للجميع. وهو ما يجعل تلك الحالات السيئة تقتصر أكثر، سواء في كثافة انتشارها، ولكن أيضًا في مدى التأثير الذي يمكن أن تحققه.\"
\nوعندما تتحدث عن التوجيه، هناك التنظيم، الذي سنتحدث عنه لاحقًا، لكن يبدو أنك تعتقد أن أكبر وعد يكمن في هذا النوع من النشر التكراري، خاصة على نطاق واسع. هل تعتقد أن الفوائد مدمجة - كما في، إذا وضعنا الذكاء الاصطناعي في أيدي أكبر عدد من الناس، فهو ديمقراطي بمعنى صغير؟ أم أنك تعتقد أنه يجب تصميم المنتجات بطريقة تتيح للناس المشاركة؟
\nحسنًا، أعتقد أنه يمكن أن يعتمد على المنتجات المختلفة. ولكن أحد الأمور [التي نحن] نحاول أن نوضحها في الكتاب هو أن مجرد القدرة على المشاركة والتحدث عن المنتج - بما في ذلك الاستخدام، عدم الاستخدام، الاستخدام بطرق معينة - هذا هو ، في الواقع، تفاعل ومساعدة على تغيير [ذلك]، أليس كذلك؟ لأن الأشخاص الذين يبنونها ينظرون إلى هذا التغذية الراجعة. إنهم ينظرون إلى: هل شاركت؟ هل لم تشارك؟ إنهم يستمعون إلى الناس عبر الإنترنت والصحافة وكل شيء ، يقولون: \"هذا رائع\". أو \"هذا سيئ حقًا\". هذا هو كثير من توجيه وتغذية مزيد من الناس، مستقل عن ما تحصل عليه من بياناتي التي قد تم تضمينها في التكرار أو أنني قد أستطيع التصويت أو بطريقة ما التعبير عن التغذية الراجعة الاتجاهية المباشرة.
\nأعتقد أنني أحاول التعمق في كيفية عمل هذه الآليات لأنه كما تلاحظ في الكتاب، خاصة مع ChatGPT ، أصبحت شديدة الشهرة للغاية. لذلك، إذا قلت: \"أنا لا أحب هذا الشيء في ChatGPT\" أو \"لدي هذا الاعتراض عليه ولن أستخدمه\"، فإن ذلك سيغرق ببساطة في تعدد الأشخاص الذين يستخدمونه.
\nجزء من ذلك هو أن السماح لمئات الملايين من الأشخاص بالمشاركة لا يعني أنك سترد على كل اعتراض لشخص. قد يقول بعض الناس: \"لا يجب أن تذهب السيارات بسرعة أكبر من 20 ميلا في الساعة\". حسنًا، من الجيد أن تفكر هكذا.
\nهو هذا الاجتماعي [للتغذية الراجعة]. وبالنسبة لبيانك، إذا عبّرت عن شيء هو تحدي أو تراجع أو تحول، ولكن بعد ذلك الناس الآخرون يبدؤون بالتعبير عن ذلك أيضًا، فمن المحتمل أن يتم استماعك وتغييره.
\nوجزء من ذلك، يتنافس OpenAI مع Anthropic والعكس. إنهم يصغون بعناية جدًا ليس فقط إلى ما يسمعونه الآن، ولكن... يستجيبون تجاه الأمور القيمة التي يرغب فيها الناس وأيضًا يتجنبون الأمور التي يرغب الناس في تجاهلها.
\n\nقد نرغب في الاستفادة من هذه الأدوات كمستهلكين، ولكن قد تكون ضارة بطرق لا تظهر بالضرورة لي كمستهلك. هل تعتقد أن عملية النشر التكراري هذه ستعالج مخاوف أخرى، قد تكون متعلقة بالمجتمع، والتي لا تظهر للمستهلكين الأفراد؟
\nحسنًا، جزء من السبب في كتابة كتاب عن Superagency هو حتى يقوم الناس فعلًا بالحوار حول القضايا المجتمعية أيضًا. على سبيل المثال، يقول الناس: \"أعتقد أن الذكاء الاصطناعي سيجعل الناس يتخلون عن وكالتهم و[يتخلون] عن اتخاذ القرارات حول حياتهم\". ثم يذهب الناس ويلعبون مع ChatGPT ويقولون: \"حسنًا، لم أكن لدي هذا التجربة\". وإذا كان عدد قليل جدًا منا في الواقع يجربون [فقدان الوكالة] ، فهذا هو الحجة شبه الصالحة ضدها، أليس كذلك؟
\nكما تتحدث عن التنظيم. يبدو أنك مفتوح للتشريع في بعض السياقات، ولكنك قلق بشأن أن التشريع قد يكبد الابتكار. هل يمكنك أن تقول المزيد عن كيفية عمل تشريع الذكاء الاصطناعي النافع ق