إنه مساء الأربعاء وأنا على طاولة مطبخي، عابسًا أمام جهاز الكمبيوتر المحمول الخاص بي بينما أسكب كل ما أستطيع حشده في ثلاث كلمات صغيرة: “أنا أحبك”.
قد يفترض جيراني أنني منخرط في مكالمة ميلودرامية مع شريك سابق، أو ربما نوعًا من تمرين التمثيل، لكنني في الواقع أختبر حدود العرض التجريبي الجديد من هيوم، وهي شركة ناشئة مقرها مانهاتن تدعي أنها تمتلك طورت “أول ذكاء اصطناعي صوتي في العالم يتمتع بالذكاء العاطفي”.
يقول آلان كوين، الرئيس التنفيذي لشركة هيوم وكبير العلماء: “نحن ندرب نموذجًا لغويًا كبيرًا يفهم أيضًا نبرة صوتك”. “ما يمكّننا من ذلك هو أن نكون قادرين على التنبؤ بكيفية إثارة نطق أو جملة معينة لأنماط من المشاعر.”
بمعنى آخر، يدعي هيوم أنه يتعرف على المشاعر في أصواتنا (وفي نسخة أخرى غير عامة، تعبيرات الوجه) ويستجيب لها بشكل تعاطفي.
وبفضل إطلاق Open AI لجهاز GPT4o الجديد الأكثر “عاطفية” في شهر مايو/أيار الماضي، أصبح ما يسمى بالذكاء الاصطناعي العاطفي عملاً تجارياً كبيراً على نحو متزايد. وجمع هيوم 50 مليون دولار في الجولة الثانية من التمويل في مارس/آذار, ومن المتوقع أن تصل قيمة الصناعة إلى أكثر من 50 مليار دولار هذا العام. لكن البروفيسور أندرو ماكستاي، مدير مختبر الذكاء الاصطناعي العاطفي في جامعة بانجور، يشير إلى أن مثل هذه التوقعات لا معنى لها. ويقول: “العاطفة هي بعد أساسي في حياة الإنسان، إذا تمكنت من فهم العاطفة وقياسها والتفاعل معها بطرق طبيعية، فإن ذلك سيكون له آثار ستتجاوز بكثير 50 مليار دولار”.
تتراوح التطبيقات الممكنة بين ألعاب الفيديو الأفضل وخطوط المساعدة الأقل إحباطًا والمراقبة الجديرة بأورويل والتلاعب العاطفي الجماعي. ولكن هل من الممكن حقًا أن يقرأ الذكاء الاصطناعي عواطفنا بدقة، وإذا كان هناك شكل من أشكال هذه التكنولوجيا في الطريق بغض النظر، فكيف يجب أن نتعامل معها؟
“أقدر كلماتك الرقيقة، أنا هنا لدعمك،” ترد واجهة هيوم الصوتية التعاطفية (EVI) بصوت ودود يكاد يكون بشريًا بينما يظهر إعلان الحب الخاص بي مكتوبًا ومحللاً على الشاشة: 1 (من 1) ) لـ “الحب”، و0.642 لـ “العشق”، و0.601 لـ “الرومانسية”.
في حين أن الفشل في اكتشاف أي شعور سلبي قد يكون بسبب سوء التصرف من جهتي، لدي انطباع بأن كلماتي لها وزن أكبر من لهجتي، وعندما أخذت هذا إلى كوين، أخبرني أن هذا صعب على العارضة. لفهم المواقف التي لم تواجهها من قبل. يقول: “إنه يفهم نبرة صوتك”. “لكنني لا أعتقد أنه قد سمع أحداً يقول “أنا أحبك” بهذه النبرة”.
ربما لا، ولكن هل ينبغي للذكاء الاصطناعي المتعاطف حقاً أن يدرك أن الناس نادراً ما يضعون قلوبهم على أكمامهم؟ وكما لاحظ روبرت دي نيرو، أستاذ تصوير المشاعر الإنسانية، ذات مرة: “الناس لا يحاولون إظهار مشاعرهم، بل يحاولون إخفاءها”.
يقول كوين إن هدف هيوم هو فقط فهم تعبيرات الناس العلنية، ومن الإنصاف أن يكون مؤشر الضعف الاقتصادي مستجيبًا وطبيعيًا بشكل ملحوظ عندما يتم التعامل معه بصدق – ولكن ماذا سيفعل الذكاء الاصطناعي بسلوكنا الأقل وضوحًا؟
هفي وقت سابق من هذا العام، استخدم البروفيسور مات كولر وفريقه في مختبر تكنولوجيا الكلام بجامعة جرونينجن بيانات من المسلسلات الكوميدية الأمريكية بما في ذلك أصدقاء و تظرية الانفجار العظيم لتدريب الذكاء الاصطناعي الذي يمكنه التعرف على السخرية.
قد يبدو هذا مفيدًا، وهو ما يؤكده كولر. ويقول: “عندما ننظر إلى كيفية تغلغل الآلات في حياة البشر بشكل متزايد، يصبح لزامًا علينا التأكد من أن هذه الآلات يمكنها بالفعل مساعدة الناس بطريقة مفيدة”.
يأمل كولر وزملاؤه أن يؤدي عملهم مع السخرية إلى تقدم في الأجهزة اللغوية الأخرى بما في ذلك السخرية والمبالغة والتهذيب، مما يتيح تفاعلات أكثر طبيعية ويمكن الوصول إليها بين الإنسان والآلة، وقد بدأوا بداية مثيرة للإعجاب. يكتشف النموذج السخرية بدقة في 75% من الحالات، لكن نسبة 25% المتبقية تثير أسئلة، مثل: ما مقدار الترخيص الذي يجب أن نمنحه للآلات لتفسير نوايانا ومشاعرنا؟ وما هي درجة الدقة التي يتطلبها هذا الترخيص؟
المشكلة الأساسية للذكاء الاصطناعي العاطفي هي أننا لا نستطيع أن نقول بشكل قاطع ما هي العواطف. يقول ماكستاي: “اجمع غرفة من علماء النفس معًا، وستحصل على خلافات جوهرية”. “لا يوجد تعريف أساسي متفق عليه لماهية العاطفة.”
ولا يوجد اتفاق على كيفية التعبير عن المشاعر. ليزا فيلدمان باريت هي أستاذة علم النفس في جامعة نورث إيسترن في بوسطن، ماساتشوستس، وفي عام 2019 اجتمعت هي وأربعة علماء آخرين مع سؤال بسيط: هل يمكننا استنتاج العواطف بدقة من حركات الوجه وحدها؟ يقول باريت: “لقد قرأنا ولخصنا أكثر من 1000 ورقة بحثية”. “ولقد فعلنا شيئًا لم يفعله أي شخص آخر حتى الآن: لقد توصلنا إلى إجماع حول ما تقوله البيانات”.
الإجماع؟ لا نستطيع.
يقول باريت: “هذا أمر وثيق الصلة بالذكاء الاصطناعي العاطفي”. “لأن معظم الشركات التي أعرفها لا تزال تعد بأنه يمكنك النظر إلى الوجه واكتشاف ما إذا كان شخص ما غاضبًا أو حزينًا أو خائفًا أو ما الذي تشعر به. ومن الواضح أن هذا ليس هو الحال.
“ذكي عاطفيا بشر يقول إدوارد بي كانج، الأستاذ المساعد في جامعة نيويورك الذي يكتب عن هذا الأمر: “لا يزعم عادةً أنه يستطيع وضع تصنيف دقيق على كل ما يقوله الجميع ويخبرك أن هذا الشخص يشعر حاليًا بالغضب بنسبة 80%، والخوف بنسبة 18%، والحزن بنسبة 2%”. تقاطع الذكاء الاصطناعي والصوت. “في الواقع، يبدو لي أن هذا عكس ما قد يقوله شخص ذكي عاطفيا.”
أضف إلى ذلك مشكلة تحيز الذكاء الاصطناعي سيئة السمعة. يقول باريت: “إن جودة الخوارزميات الخاصة بك تكون بنفس جودة المواد التدريبية”. “وإذا كانت المواد التدريبية الخاصة بك متحيزة بطريقة ما، فإنك تكرس هذا التحيز في التعليمات البرمجية.”
أظهرت الأبحاث أن بعض أنظمة الذكاء الاصطناعي العاطفية تنسب المشاعر السلبية بشكل غير متناسب إلى وجوه الأشخاص السود، الأمر الذي قد تكون له آثار واضحة ومثيرة للقلق إذا تم نشرها في مجالات مثل التوظيف، أو تقييم الأداء، أو التشخيص الطبي، أو الشرطة. “يجب أن نحضر [AI bias] يقول راندي ويليامز، مدير البرامج في Algorithmic Justice League (AJL)، وهي منظمة تعمل على رفع مستوى الوعي بالتحيز في الذكاء الاصطناعي، “إننا في طليعة المحادثة وتصميم التقنيات الجديدة”.
لذا، هناك مخاوف بشأن عدم عمل الذكاء الاصطناعي العاطفي كما ينبغي، ولكن ماذا لو كان يعمل بشكل جيد للغاية؟
يقول ويليامز: “عندما يكون لدينا أنظمة ذكاء اصطناعي تستغل الجزء الأكثر إنسانية فينا، هناك خطر كبير من التلاعب بالأفراد لتحقيق مكاسب تجارية أو سياسية”، وبعد أربع سنوات من كشف وثائق أحد المبلغين عن “النطاق الصناعي” الذي وصلت إليه كامبريدج استخدمت شركة Analytica بيانات فيسبوك والتنميط النفسي للتلاعب بالناخبين، ويبدو أن الذكاء الاصطناعي العاطفي جاهز لإساءة الاستخدام.
وكما أصبح معتاداً في صناعة الذكاء الاصطناعي، قام هيوم بتعيينات في مجلس السلامة ــ مبادرة هيوم ــ الذي يضم مديره التنفيذي بين أعضائه. تصف المبادئ التوجيهية الأخلاقية للمبادرة نفسها بأنها “جهد غير ربحي يرسم مسارًا أخلاقيًا للذكاء الاصطناعي التعاطفي”، وتتضمن قائمة واسعة من “حالات الاستخدام المدعومة مشروطًا” في مجالات مثل الفنون والثقافة والاتصالات والتعليم والصحة، وقائمة أصغر بكثير. من “حالات الاستخدام غير المدعومة” التي تستشهد بفئات واسعة مثل التلاعب والخداع، مع بعض الأمثلة بما في ذلك الحرب النفسية، والتزييف العميق، و”تحسين مشاركة المستخدم”.
يقول كوين عبر البريد الإلكتروني: “نحن نسمح للمطورين بنشر تطبيقاتهم فقط إذا كانت مدرجة كحالات استخدام مدعومة”. “بالطبع، ترحب مبادرة هيوم بالتعليقات وهي منفتحة لمراجعة حالات الاستخدام الجديدة عند ظهورها.”
كما هو الحال مع جميع أنظمة الذكاء الاصطناعي، فإن تصميم استراتيجيات الحماية التي يمكنها مواكبة سرعة التطور يمثل تحديًا.
يحظر قانون الذكاء الاصطناعي التابع للاتحاد الأوروبي، الذي تمت الموافقة عليه في مايو 2024، استخدام الذكاء الاصطناعي للتلاعب بالسلوك البشري ويحظر تكنولوجيا التعرف على المشاعر من الأماكن بما في ذلك مكان العمل والمدارس، لكنه يميز بين تحديد التعبيرات عن المشاعر (وهو ما سيكون مسموحًا به)، واستنتاج الحالة العاطفية للفرد منهم (والتي لن). وبموجب القانون، يمكن لمدير مركز الاتصال الذي يستخدم الذكاء الاصطناعي العاطفي للمراقبة تأديب الموظف إذا قال الذكاء الاصطناعي صوته غاضبون في المكالمات، طالما أنه لا يوجد أي استنتاج بأنهم غاضبون في الواقع. يقول ماكستاي: “بصراحة، لا يزال بإمكان أي شخص استخدام هذا النوع من التكنولوجيا دون التوصل إلى استنتاج واضح بشأن المشاعر الداخلية للشخص واتخاذ القرارات التي يمكن أن تؤثر عليه”.
ليس لدى المملكة المتحدة تشريعات محددة، لكن عمل ماكستاي مع مختبر الذكاء الاصطناعي العاطفي ساعد في تحديد الموقف السياسي لمكتب مفوض المعلومات، الذي حذر الشركات في عام 2022 من تجنب “التحليل العاطفي” أو فرض غرامات، مشيرًا إلى الطبيعة “العلمية الزائفة” للمجال. .
تأتي اقتراحات العلوم الزائفة، جزئيًا، من مشكلة محاولة استخلاص الحقائق العاطفية من مجموعات البيانات الكبيرة. توضح ليزا فيلدمان باريت: “يمكنك إجراء دراسة حيث تجد المتوسط”. “ولكن إذا ذهبت إلى أي شخص في أي دراسة فردية، فلن يكون لديه هذا المتوسط.”
ومع ذلك، فإن إجراء تنبؤات من خلال التجريدات الإحصائية لا يعني أن الذكاء الاصطناعي لا يمكن أن يكون صحيحًا، ويمكن لبعض استخدامات الذكاء الاصطناعي العاطفي أن تتجنب بعض هذه المشكلات.
أ بعد أسبوع من اختبار مؤشر الضعف الاقتصادي الذي وضعه هيوم، أجريت محادثة أكثر صدقًا مع لينارت هوجمان، الأستاذ المساعد في علم النفس بجامعة ستوكهولم. يخبرني هوجمان عن متعة تربية ولديه، ثم أصف يومًا جيدًا بشكل خاص من طفولتي، وبمجرد أن نشارك هذه الذكريات السعيدة، يقوم بتحويل الفيديو من مكالمة Zoom إلى برنامج طوره فريقه لتحليل مشاعر الناس جنبا إلى جنب. يقول: “نحن نبحث في التفاعل”. “لذا، لا يتعلق الأمر بشخص واحد يظهر شيئًا ما، بل بشخصين يتفاعلان في سياق محدد، مثل العلاج النفسي.”
يقترح هوجمان أن البرنامج، الذي يعتمد جزئيًا على تحليل تعبيرات الوجه، يمكن استخدامه لتتبع مشاعر المريض بمرور الوقت، وسيوفر أداة مفيدة للمعالجين الذين يتم تقديم خدماتهم بشكل متزايد عبر الإنترنت من خلال المساعدة في تحديد تقدم العلاج، وتحديد ردود الفعل المستمرة. لمواضيع معينة، ومراقبة التوافق بين المريض والمعالج. يقول هوجمان: “لقد ثبت أن التحالف ربما يكون العامل الأكثر أهمية في العلاج النفسي”.
بينما يقوم البرنامج بتحليل محادثتنا إطارًا تلو الآخر، يؤكد هوجمان أنه لا يزال قيد التطوير، لكن النتائج مثيرة للاهتمام. من خلال التمرير عبر الفيديو والرسوم البيانية المصاحبة، نرى لحظات تبدو فيها عواطفنا متوافقة، حيث نعكس لغة جسد بعضنا البعض، وحتى عندما يبدو أحدنا أكثر سيطرة في المحادثة.
ومن الممكن أن تعمل رؤى كهذه على تشحيم عجلات الأعمال والدبلوماسية وحتى التفكير الإبداعي. يُجري فريق هوجمان بحثًا لم يُنشر بعد، يشير إلى وجود علاقة بين التزامن العاطفي والتعاون الناجح في المهام الإبداعية. ولكن هناك حتما مجال لسوء الاستخدام. يوضح هوجمان: “عندما يتمكن طرفا التفاوض من الوصول إلى أدوات تحليل الذكاء الاصطناعي، فإن الديناميكيات تتغير بلا شك”. “قد يتم إلغاء مزايا الذكاء الاصطناعي عندما يصبح كل جانب أكثر تطوراً في استراتيجياته.”
كما هو الحال مع أي تقنية جديدة، فإن تأثير الذكاء الاصطناعي العاطفي سوف يعود في النهاية إلى نوايا أولئك الذين يتحكمون فيه. وكما يوضح راندي ويليامز من AJL: “لتبني هذه الأنظمة بنجاح كمجتمع، يجب علينا أن نفهم كيف لا تتماشى مصالح المستخدمين مع المؤسسات التي تصنع التكنولوجيا”.
وإلى أن نفعل ذلك ونتصرف بناءً عليه، فمن المرجح أن يثير الذكاء الاصطناعي العاطفي مشاعر مختلطة.