تقوم شركة OpenAI بحل فريق السلامة رفيع المستوى بعد خروج كبير العلماء سوتسكيفر

تقوم شركة OpenAI بحل فريق السلامة رفيع المستوى بعد خروج كبير العلماء سوتسكيفر


قامت OpenAI بشكل فعال بحل فريق يركز على ضمان سلامة أنظمة الذكاء الاصطناعي المستقبلية فائقة القدرة، بعد رحيل قائدي المجموعة، بما في ذلك المؤسس المشارك لـ OpenAI وكبير العلماء، إيليا سوتسكيفر.

وبدلاً من الحفاظ على ما يسمى بفريق التوافق الفائق ككيان مستقل، تعمل OpenAI الآن على دمج المجموعة بشكل أكثر عمقًا عبر جهودها البحثية لمساعدة الشركة على تحقيق أهداف السلامة الخاصة بها، حسبما صرحت الشركة لبلومبرج نيوز. تم تشكيل الفريق منذ أقل من عام تحت قيادة Sutskever وJan Leike، وهو أحد المخضرمين الآخرين في OpenAI.

يأتي قرار إعادة التفكير في الفريق في الوقت الذي تؤدي فيه سلسلة من عمليات الخروج الأخيرة من OpenAI إلى إحياء الأسئلة حول نهج الشركة في تحقيق التوازن بين السرعة والسلامة في تطوير منتجات الذكاء الاصطناعي الخاصة بها. أعلن Sutskever، وهو باحث يحظى باحترام واسع النطاق، يوم الثلاثاء أنه سيترك OpenAI بعد أن اختلف سابقًا مع الرئيس التنفيذي Sam Altman حول مدى سرعة تطوير الذكاء الاصطناعي.

كشف Leike عن رحيله بعد فترة وجيزة بمنشور مقتضب على وسائل التواصل الاجتماعي. وقال: “لقد قدمت استقالتي”. بالنسبة إلى Leike، كان خروج Sutskever بمثابة القشة الأخيرة بعد الخلافات مع الشركة، وفقًا لشخص مطلع على الوضع طلب عدم الكشف عن هويته من أجل مناقشة المحادثات الخاصة.

وفي بيان يوم الجمعة، قال لايكي إن فريق المحاذاة الفائقة كان يقاتل من أجل الموارد. كتب لايكي على X: “على مدى الأشهر القليلة الماضية، كان فريقي يبحر ضد الريح. في بعض الأحيان كنا نكافح من أجل الحوسبة وكان الأمر يزداد صعوبة وأصعب لإنجاز هذا البحث المهم.”

وبعد ساعات، رد ألتمان على مشاركة لايكي. وكتب ألتمان على موقع X: “إنه على حق، لدينا الكثير لنفعله. نحن ملتزمون بالقيام بذلك”.

كما غادر أعضاء آخرون في فريق Superalignment الشركة في الأشهر الأخيرة. تم التخلي عن ليوبولد أشنبرينر وبافل إسماعيلوف من قبل OpenAI. وذكرت المعلومات في وقت سابق مغادرتهم. تم إبعاد إسماعيلوف من الفريق قبل خروجه، وفقًا لشخص مطلع على الأمر. ولم يستجب أشنبرينر وإسماعيلوف لطلبات التعليق.

وقالت الشركة إن جون شولمان، المؤسس المشارك في الشركة الناشئة التي تركز أبحاثها على نماذج اللغات الكبيرة، سيكون القائد العلمي لأعمال المواءمة في OpenAI للمضي قدمًا. بشكل منفصل، قالت OpenAI في منشور على مدونتها إنها عينت مدير الأبحاث جاكوب باتشوكي لتولي دور سوتسكيفر كرئيس للعلماء.

وقال ألتمان في بيان يوم الثلاثاء حول تعيين باتشوكي: “أنا واثق جدًا من أنه سيقودنا إلى تحقيق تقدم سريع وآمن نحو مهمتنا المتمثلة في ضمان استفادة الجميع من الذكاء الاصطناعي العام”. يشير AGI، أو الذكاء العام الاصطناعي، إلى الذكاء الاصطناعي الذي يمكن أن يؤدي أداءً جيدًا أو أفضل من البشر في معظم المهام. الذكاء الاصطناعي العام (AGI) غير موجود بعد، لكن إنشائه جزء من مهمة الشركة.

لدى OpenAI أيضًا موظفون يشاركون في العمل المتعلق بسلامة الذكاء الاصطناعي ضمن فرق عبر الشركة، بالإضافة إلى فرق فردية تركز على السلامة. الأول، هو فريق الاستعداد، الذي تم إطلاقه في أكتوبر الماضي ويركز على التحليل ومحاولة درء “المخاطر الكارثية” المحتملة لأنظمة الذكاء الاصطناعي.

كان الهدف من فريق المحاذاة الفائق هو تجنب التهديدات طويلة المدى. أعلنت شركة OpenAI عن تشكيل فريق المحاذاة الفائقة في يوليو الماضي، قائلة إنه سيركز على كيفية التحكم وضمان سلامة برامج الذكاء الاصطناعي المستقبلية الأكثر ذكاءً من البشر – وهو أمر طالما ذكرته الشركة كهدف تكنولوجي. وفي الإعلان، قالت OpenAI إنها ستخصص 20% من قوتها الحاسوبية في ذلك الوقت لصالح عمل الفريق.

في تشرين الثاني (نوفمبر)، كان سوتسكيفر واحدًا من العديد من أعضاء مجلس إدارة شركة OpenAI الذين تحركوا لإقالة ألتمان، وهو القرار الذي أثار زوبعة لمدة خمسة أيام في الشركة. استقال جريج بروكمان، رئيس شركة OpenAI، احتجاجًا على ذلك، وثار المستثمرون، وفي غضون أيام، وقع جميع موظفي الشركة الناشئة البالغ عددهم 770 موظفًا تقريبًا على خطاب يهددون فيه بالاستقالة ما لم تتم إعادة ألتمان. وفي انعكاس ملحوظ، وقع سوتسكيفر أيضًا على الرسالة وقال إنه يأسف لمشاركته في الإطاحة بألتمان. وبعد فترة وجيزة، أعيد ألتمان إلى منصبه.

في الأشهر التي أعقبت خروج ألتمان وعودته، اختفى سوتسكيفر إلى حد كبير عن الرأي العام، مما أثار تكهنات حول دوره المستمر في الشركة. كما توقف Sutskever أيضًا عن العمل في مكتب OpenAI في سان فرانسيسكو، وفقًا لشخص مطلع على الأمر.

في بيانه، قال Leike أن رحيله جاء بعد سلسلة من الخلافات مع OpenAI حول “الأولويات الأساسية” للشركة، والتي لا يشعر أنها تركز بشكل كافٍ على تدابير السلامة المتعلقة بإنشاء الذكاء الاصطناعي الذي قد يكون أكثر قدرة من البشر. .

وفي منشور في وقت سابق من هذا الأسبوع أعلن فيه عن رحيله، قال Sutskever إنه “واثق” من أن OpenAI ستطور الذكاء الاصطناعي العام “الذي يكون آمنًا ومفيدًا” في ظل قيادتها الحالية، بما في ذلك Altman.

© 2024 بلومبرج إل بي


(لم يتم تحرير هذه القصة بواسطة فريق عمل NDTV وتم إنشاؤها تلقائيًا من موجز مشترك.)

قد يتم إنشاء الروابط التابعة تلقائيًا – راجع بيان الأخلاقيات الخاص بنا للحصول على التفاصيل.

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *