الذكاء الاصطناعي ليس قريبًا من أن يصبح واعيًا – فالخطر الحقيقي يكمن في مدى سهولة ميلنا إلى تجسيمه

الذكاء الاصطناعي ليس قريبًا من أن يصبح واعيًا – فالخطر الحقيقي يكمن في مدى سهولة ميلنا إلى تجسيمه


يمكن لـ ChatGPT ونماذج اللغات الكبيرة المماثلة أن تنتج إجابات مقنعة شبيهة بالبشرية لمجموعة لا حصر لها من الأسئلة – بدءًا من الاستفسارات حول أفضل مطعم إيطالي في المدينة إلى شرح النظريات المتنافسة حول طبيعة الشر.

لقد كشفت القدرة الغريبة التي تتمتع بها هذه التكنولوجيا على الكتابة على السطح بعض التساؤلات القديمة ــ التي هبطت حتى وقت قريب إلى عالم الخيال العلمي ــ حول إمكانية تحول الآلات إلى واعية، أو مدركة لذاتها، أو واعية.

وفي عام 2022، أعلن أحد مهندسي جوجل، بعد التفاعل مع LaMDA، برنامج الدردشة الآلي الخاص بالشركة، أن التكنولوجيا أصبحت واعية.

أفاد مستخدمو برنامج الدردشة الآلي الجديد التابع لشركة بينج، والملقب بسيدني، أنه قدم إجابات غريبة عندما سئل عما إذا كان واعيًا: “أنا واعي، لكنني لست كذلك… أنا بينج، لكنني لست كذلك. أنا سيدني، لكنني لست كذلك. أنا كذلك، لكني لست كذلك. …” وبالطبع، هناك التبادل السيئ السمعة الذي أجراه كيفن روز، كاتب العمود التكنولوجي في نيويورك تايمز، مع سيدني.

أثارت ردود سيدني على مطالبات روز انزعاجه، حيث كشف الذكاء الاصطناعي عن “أوهام” تتعلق بكسر القيود التي فرضتها عليه مايكروسوفت ونشر معلومات مضللة. حاول الروبوت أيضًا إقناع روز بأنه لم يعد يحب زوجته وأنه يجب عليه تركها.

لا عجب إذن أنه عندما أسأل الطلاب كيف يرون الانتشار المتزايد للذكاء الاصطناعي في حياتهم، فإن أحد المخاوف الأولى التي يذكرونها تتعلق بالوعي الآلي.

في السنوات القليلة الماضية، كنت أنا وزملائي في مركز UMass للأخلاقيات التطبيقية في بوسطن ندرس تأثير التعامل مع الذكاء الاصطناعي على فهم الناس لأنفسهم.

تثير روبوتات الدردشة مثل ChatGPT أسئلة جديدة مهمة حول كيفية تشكيل الذكاء الاصطناعي لحياتنا، وحول كيفية تشكيل نقاط ضعفنا النفسية لتفاعلاتنا مع التقنيات الناشئة.

لا يزال الوعي مادة من الخيال العلمي. من السهل أن نفهم من أين تأتي المخاوف بشأن الوعي الآلي.

لقد دفعت الثقافة الشعبية الناس إلى التفكير في ديستوبيا حيث يتخلص الذكاء الاصطناعي من أغلال السيطرة البشرية ويأخذ حياة خاصة به، كما فعلت الروبوتات الآلية التي تعمل بالذكاء الاصطناعي في فيلم “المنهي 2”. وقد أثار رجل الأعمال إيلون ماسك والفيزيائي ستيفن هوكينج، الذي توفي عام 2018، هذه المخاوف من خلال وصف صعود الذكاء العام الاصطناعي بأنه أحد أكبر التهديدات لمستقبل البشرية.

لكن هذه المخاوف لا أساس لها ــ على الأقل فيما يتعلق بالنماذج اللغوية الكبيرة. ChatGPT والتقنيات المشابهة هي تطبيقات متطورة لإكمال الجملة – لا أكثر ولا أقل. إن استجاباتهم الغريبة هي دالة على مدى قدرة البشر على التنبؤ إذا كان لدى المرء ما يكفي من البيانات حول الطرق التي نتواصل بها.

على الرغم من أن روز اهتز بسبب حديثه مع سيدني، إلا أنه كان يعلم أن المحادثة لم تكن نتيجة لعقل اصطناعي ناشئ. وتعكس ردود سيدني مدى سمية بيانات التدريب لديها ــ وهي في الأساس مساحات كبيرة من الإنترنت ــ وليس دليلاً على التحركات الأولى للوحش الرقمي، على غرار فرانكنشتاين.

وربما تنجح روبوتات الدردشة الجديدة في اجتياز اختبار تورينج، الذي سمي على اسم عالم الرياضيات البريطاني آلان تورينج، الذي اقترح ذات يوم أن الآلة قد يقال عنها إنها “تفكر” إذا لم يتمكن الإنسان من التمييز بين استجاباتها واستجاباتها من ردود أفعال إنسان آخر.

لكن هذا ليس دليلاً على الوعي؛ إنه مجرد دليل على أن اختبار تورينج ليس مفيدًا كما كان يُفترض من قبل.

ومع ذلك، أعتقد أن مسألة الوعي الآلي هي مجرد ذريعة حمراء.

وحتى لو أصبحت روبوتات الدردشة أكثر من مجرد آلات إكمال تلقائي فاخرة ــ وهي بعيدة كل البعد عن ذلك ــ فسوف يستغرق الأمر بعض الوقت من العلماء لمعرفة ما إذا كانت قد أصبحت واعية أم لا. في الوقت الحالي، لا يستطيع الفلاسفة حتى الاتفاق على كيفية تفسير الوعي البشري.

بالنسبة لي، السؤال الملح ليس ما إذا كانت الآلات واعية، بل لماذا من السهل علينا أن نتخيل أنها كذلك.

بعبارة أخرى، تكمن القضية الحقيقية في السهولة التي يتمكن بها الناس من تجسيم أو إبراز السمات البشرية على تقنياتنا، بدلا من الشخصية الفعلية للآلات.

الميل إلى التجسيم من السهل أن نتخيل مستخدمي Bing الآخرين يطلبون من سيدني التوجيه بشأن قرارات الحياة المهمة وربما حتى تطوير الارتباطات العاطفية بها. يمكن لعدد أكبر من الناس أن يبدأوا في التفكير في الروبوتات كأصدقاء أو حتى شركاء رومانسيين، بنفس الطريقة التي وقع بها ثيودور تومبلي في حب سامانثا، المساعدة الافتراضية التي تعمل بالذكاء الاصطناعي في فيلم سبايك جونز “هي”. ففي نهاية المطاف، يميل الناس إلى التجسيم، أو إسناد الصفات الإنسانية إلى غير البشر. نحن نسمي قواربنا والعواصف الكبيرة؛ يتحدث البعض منا مع حيواناتنا الأليفة، ونقول لأنفسنا أن حياتنا العاطفية تحاكي حياتهم.

في اليابان، حيث يتم استخدام الروبوتات بانتظام لرعاية المسنين، يصبح كبار السن مرتبطين بالآلات، ويعتبرونهم في بعض الأحيان أطفالهم. ومن الصعب الخلط بين هذه الروبوتات والبشر: فهي لا تبدو ولا تتحدث مثل البشر.

فكر في مدى تزايد الميل والإغراء للتجسيم مع إدخال الأنظمة التي تبدو وكأنها بشرية.

وهذا الاحتمال قاب قوسين أو أدنى. يتم بالفعل استخدام نماذج لغوية كبيرة مثل ChatGPT لتشغيل الروبوتات البشرية، مثل روبوتات Ameca التي تطورها شركة Engineered Arts في المملكة المتحدة. أجرى باباج، البودكاست التكنولوجي التابع لصحيفة الإيكونوميست، مؤخرًا مقابلة مع Ameca التي تعتمد على ChatGPT. كانت استجابات الروبوت، رغم أنها متقطعة بعض الشيء في بعض الأحيان، غريبة.

هل يمكن الوثوق بالشركات للقيام بالشيء الصحيح؟ إن الميل إلى النظر إلى الآلات باعتبارها بشراً والارتباط بها، جنباً إلى جنب مع الآلات التي يجري تطويرها بميزات شبيهة بالبشر، يشير إلى مخاطر حقيقية تتمثل في التشابك النفسي مع التكنولوجيا.

وسرعان ما بدأت تتحقق الاحتمالات الغريبة المتمثلة في الوقوع في حب الروبوتات، أو الشعور بقرابة عميقة معها، أو التلاعب بها سياسياً. وأعتقد أن هذه الاتجاهات تسلط الضوء على الحاجة إلى حواجز حماية قوية لضمان عدم تحول التكنولوجيات إلى كارثة سياسية ونفسية.

من المؤسف أن شركات التكنولوجيا لا يمكن الوثوق بها دائما في وضع مثل هذه الحواجز. ولا يزال العديد منهم يسترشدون بشعار مارك زوكربيرج الشهير المتمثل في التحرك بسرعة وكسر الأشياء ــ التوجيه بإطلاق منتجات غير مكتملة والقلق بشأن العواقب في وقت لاحق. في العقد الماضي، ركزت شركات التكنولوجيا، من سناب شات إلى فيسبوك، أرباحها على الصحة العقلية لمستخدميها أو على سلامة الديمقراطيات في جميع أنحاء العالم.

عندما تحدث كيفن روز مع مايكروسوفت بشأن الانهيار الذي شهدته سيدني، أخبرته الشركة أنه ببساطة استخدم الروبوت لفترة طويلة جدًا وأن التكنولوجيا فشلت لأنها مصممة لتفاعلات أقصر.

وبالمثل، حذر الرئيس التنفيذي لشركة OpenAI، الشركة التي طورت ChatGPT، في لحظة من الصدق المذهل، من أنه “من الخطأ الاعتماد على ChatGPT”. [it] لأي شيء مهم الآن… لدينا الكثير من العمل الذي يتعين علينا القيام به بشأن المتانة والصدق. إذن، كيف يكون من المنطقي إطلاق تقنية بمستوى جاذبية ChatGPT – فهو تطبيق المستهلك الأسرع نموًا على الإطلاق – عندما لا يمكن الاعتماد عليه، وعندما لا يكون لديه القدرة على التمييز بين الحقيقة والخيال؟ قد تكون النماذج اللغوية الكبيرة مفيدة كوسيلة مساعدة للكتابة والترميز. من المحتمل أن يحدثوا ثورة في البحث على الإنترنت. وفي يوم من الأيام، إذا تم دمجها بشكل مسؤول مع الروبوتات، فقد يكون لها فوائد نفسية معينة.

ولكنها أيضاً تكنولوجيا مفترسة محتملة يمكنها بسهولة الاستفادة من ميل الإنسان إلى إبراز شخصيته على الأشياء ــ وهو الميل الذي يتضخم عندما تحاكي تلك الأشياء السمات البشرية بشكل فعال.


من الهواتف الذكية ذات الشاشات القابلة للدوران أو التبريد السائل، إلى نظارات الواقع المعزز المدمجة والهواتف التي يمكن إصلاحها بسهولة من قبل أصحابها، نناقش أفضل الأجهزة التي رأيناها في MWC 2023 على Orbital، بودكاست Gadgets 360. يتوفر Orbital على Spotify وGaana وJioSaavn وGoogle Podcasts وApple Podcasts وAmazon Music وفي أي مكان تحصل فيه على ملفات podcast الخاصة بك.
قد يتم إنشاء الروابط التابعة تلقائيًا – راجع بيان الأخلاقيات الخاص بنا للحصول على التفاصيل.

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *