العالم غير مستعد لتحقيق اختراقات في مجال الذكاء الاصطناعي، كما يقول الخبراء | الذكاء الاصطناعي (AI)

العالم غير مستعد لتحقيق اختراقات في مجال الذكاء الاصطناعي، كما يقول الخبراء |  الذكاء الاصطناعي (AI)


العالم غير مستعد لتحقيق اختراقات في مجال الذكاء الاصطناعي، وفقا لمجموعة من كبار الخبراء، بما في ذلك “عرابان” الذكاء الاصطناعي، الذين حذروا من أن الحكومات لم تحرز تقدما كافيا في تنظيم التكنولوجيا.

وقالت المجموعة إن تحول شركات التكنولوجيا إلى الأنظمة المستقلة يمكن أن “يضخم بشكل كبير” تأثير الذكاء الاصطناعي، وتحتاج الحكومات إلى أنظمة سلامة تؤدي إلى اتخاذ إجراءات تنظيمية إذا وصلت المنتجات إلى مستويات معينة من القدرة.

تم تقديم التوصيات من قبل 25 خبيرًا، من بينهم جيفري هينتون ويوشوا بينجيو، وهما اثنان من “عرابي الذكاء الاصطناعي” الثلاثة الذين فازوا بجائزة ACM Turing – وهي المعادل لجائزة نوبل في علوم الكمبيوتر – عن عملهم.

ويأتي هذا التدخل في الوقت الذي يستعد فيه السياسيون والخبراء والمديرون التنفيذيون في مجال التكنولوجيا للاجتماع في قمة تستمر يومين في سيول يوم الثلاثاء.

وتوصي الورقة الأكاديمية، التي تحمل عنوان “إدارة مخاطر الذكاء الاصطناعي الشديدة وسط التقدم السريع”، بأطر السلامة الحكومية التي تقدم متطلبات أكثر صرامة إذا تقدمت التكنولوجيا بسرعة.

كما يدعو إلى زيادة التمويل للهيئات المنشأة حديثًا مثل معاهد سلامة الذكاء الاصطناعي في المملكة المتحدة والولايات المتحدة؛ وإجبار شركات التكنولوجيا على إجراء عمليات فحص أكثر صرامة للمخاطر؛ وتقييد استخدام أنظمة الذكاء الاصطناعي المستقلة في الأدوار المجتمعية الرئيسية.

وجاء في البحث الذي نشر في مجلة ساينس يوم الاثنين أن “استجابة المجتمع، على الرغم من الخطوات الأولى الواعدة، لا تتناسب مع إمكانية التقدم السريع والتحويلي الذي يتوقعه العديد من الخبراء”. “إن أبحاث سلامة الذكاء الاصطناعي متخلفة. وتفتقر مبادرات الحوكمة الحالية إلى الآليات والمؤسسات اللازمة لمنع سوء الاستخدام والتهور، وبالكاد تعالج الأنظمة المستقلة.

توسطت قمة عالمية لسلامة الذكاء الاصطناعي في بلتشلي بارك في المملكة المتحدة العام الماضي في اتفاقية اختبار طوعية مع شركات التكنولوجيا بما في ذلك جوجل ومايكروسوفت وميتا التابعة لمارك زوكربيرج، في حين أصدر الاتحاد الأوروبي قانون الذكاء الاصطناعي وفي الولايات المتحدة تم وضع أمر تنفيذي من البيت الأبيض. متطلبات السلامة الجديدة للذكاء الاصطناعي.

وتقول الورقة إن أنظمة الذكاء الاصطناعي المتقدمة – التكنولوجيا التي تنفذ المهام المرتبطة عادة بالكائنات الذكية – يمكن أن تساعد في علاج الأمراض ورفع مستويات المعيشة ولكنها تحمل أيضًا خطر تآكل الاستقرار الاجتماعي وتمكين الحرب الآلية. ومع ذلك، فهو يحذر من أن تحرك صناعة التكنولوجيا نحو تطوير أنظمة ذاتية التحكم يشكل تهديدًا أكبر.

“تحول الشركات تركيزها إلى تطوير أنظمة الذكاء الاصطناعي العامة التي يمكنها التصرف بشكل مستقل وتحقيق الأهداف. وقال الخبراء إن الزيادات في القدرات والاستقلالية قد تؤدي قريبًا إلى تضخيم تأثير الذكاء الاصطناعي بشكل كبير، مع وجود مخاطر تشمل أضرارًا اجتماعية واسعة النطاق، واستخدامات ضارة، وخسارة لا رجعة فيها للسيطرة البشرية على أنظمة الذكاء الاصطناعي المستقلة، مضيفين أن تقدم الذكاء الاصطناعي دون رادع يمكن أن يؤدي إلى “تهميش الإنسانية أو انقراضها”.

تخطي ترويج النشرة الإخبارية السابقة

المرحلة التالية في تطوير الذكاء الاصطناعي التجاري هي الذكاء الاصطناعي “الوكيل”، وهو المصطلح الذي يشير إلى الأنظمة التي يمكنها العمل بشكل مستقل، ومن الناحية النظرية، تنفيذ وإكمال المهام مثل حجز العطلات.

في الأسبوع الماضي، أعطت شركتان تقنيتان لمحة عن هذا المستقبل من خلال برنامج GPT-4o من OpenAI، والذي يمكنه إجراء محادثات صوتية في الوقت الفعلي، ومشروع Google Astra من Google، الذي كان قادرًا على استخدام كاميرا الهاتف الذكي لتحديد المواقع وقراءة وشرح رموز الكمبيوتر. وإنشاء جمل متجانسة.

ومن بين المؤلفين المشاركين الآخرين في المقترحات مؤلف كتاب Sapiens الأكثر مبيعًا، يوفال نوح هراري، والراحل دانييل كانيمان، الحائز على جائزة نوبل في الاقتصاد، وشيلا ماكلريث، أستاذة الذكاء الاصطناعي في جامعة تورنتو، ودون سونج، الأستاذة في جامعة تورنتو. جامعة كاليفورنيا، بيركلي. الورقة البحثية التي نُشرت يوم الاثنين هي عبارة عن تحديث تمت مراجعته من قبل النظراء للمقترحات الأولية التي تم تقديمها قبل اجتماع بلتشلي.



مترجم من صحيفة theguardian

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *