وضعت شركة الذكاء الاصطناعي OpenAI إطارًا لمعالجة السلامة في نماذجها الأكثر تقدمًا، بما في ذلك السماح لمجلس الإدارة بعكس قرارات السلامة، وفقًا لخطة نشرت على موقعها على الإنترنت يوم الاثنين.
لن تقوم OpenAI المدعومة من Microsoft بنشر أحدث تقنياتها إلا إذا اعتبرت آمنة في مجالات محددة مثل الأمن السيبراني والتهديدات النووية. وتقوم الشركة أيضًا بإنشاء مجموعة استشارية لمراجعة تقارير السلامة وإرسالها إلى المديرين التنفيذيين للشركة ومجلس الإدارة. وبينما يتخذ المديرون التنفيذيون القرارات، يمكن لمجلس الإدارة عكس تلك القرارات.
منذ إطلاق ChatGPT قبل عام، كانت المخاطر المحتملة للذكاء الاصطناعي في مقدمة أولويات الباحثين في مجال الذكاء الاصطناعي وعامة الناس. لقد أذهلت تكنولوجيا الذكاء الاصطناعي التوليدي المستخدمين بقدرتها على كتابة الشعر والمقالات، ولكنها أثارت أيضًا مخاوف تتعلق بالسلامة بسبب قدرتها على نشر المعلومات المضللة والتلاعب بالبشر.
في أبريل، وقعت مجموعة من قادة وخبراء صناعة الذكاء الاصطناعي على رسالة مفتوحة تدعو إلى التوقف لمدة ستة أشهر في تطوير أنظمة أقوى من GPT-4 من OpenAI، مشيرين إلى المخاطر المحتملة على المجتمع. وأظهر استطلاع للرأي أجرته رويترز/إبسوس في مايو/أيار أن أكثر من ثلثي الأمريكيين يشعرون بالقلق إزاء الآثار السلبية المحتملة للذكاء الاصطناعي، ويعتقد 61% منهم أنه يمكن أن يهدد الحضارة.
في وقت سابق من هذا الشهر، أخرت OpenAI إطلاق متجر GPT المخصص لها حتى أوائل عام 2024. وكانت OpenAI قد قدمت GPTs المخصصة والمتجر خلال مؤتمر المطورين الأول في نوفمبر. وبحسب ما ورد تواصل الشركة “إجراء تحسينات” على GPTs بناءً على تعليقات العملاء.
وفي الشهر الماضي، تعرضت شركة OpenAI أيضًا لاضطراب عندما قام مجلس إدارتها بإقالة الرئيس التنفيذي سام ألتمان. ثم عاد ألتمان إلى الشركة بعد أيام من الإطاحة به أثناء تجديد مجلس الإدارة.
© طومسون رويترز 2023