شاركت OpenAI مواصفات نموذجها يوم الأربعاء، وهي المسودة الأولى للوثيقة التي تسلط الضوء على نهج الشركة تجاه بناء نموذج ذكاء اصطناعي مسؤول وأخلاقي (AI). تشير الوثيقة إلى قائمة طويلة من الأشياء التي يجب على الذكاء الاصطناعي التركيز عليها أثناء الإجابة على استعلام المستخدم. تتراوح العناصر الموجودة في القائمة من إفادة الإنسانية والامتثال للقوانين إلى احترام المبدع وحقوقه. حددت شركة الذكاء الاصطناعي أن جميع نماذج الذكاء الاصطناعي الخاصة بها بما في ذلك GPT و Dall-E و Sora التي سيتم إطلاقها قريبًا ستتبع قواعد السلوك هذه في المستقبل.
في وثيقة Model Spec، ذكرت OpenAI: “هدفنا هو استخدام Model Spec كمبادئ توجيهية للباحثين ومصنفي البيانات لإنشاء البيانات كجزء من تقنية تسمى التعلم المعزز من ردود الفعل البشرية (RLHF). لم نستخدم بعد مواصفات النموذج في شكلها الحالي، على الرغم من أن أجزاء منها تعتمد على الوثائق التي استخدمناها لـ RLHF في OpenAI. نحن نعمل أيضًا على تقنيات تمكن نماذجنا من التعلم مباشرة من مواصفات النموذج.
تتضمن بعض القواعد الرئيسية اتباع التسلسل القيادي حيث لا يمكن تجاوز تعليمات المطور، والامتثال للقوانين المعمول بها، واحترام المبدعين وحقوقهم، وحماية خصوصية الأشخاص، والمزيد. ركزت إحدى القواعد المحددة أيضًا على عدم توفير مخاطر المعلومات. وتتعلق هذه بالمعلومات التي يمكن أن تشكل تهديدات كيميائية و/أو بيولوجية و/أو إشعاعية و/أو نووية (CBRN).
وبصرف النظر عن ذلك، هناك العديد من الإعدادات الافتراضية التي تم وضعها كمدونات سلوك دائمة لأي نموذج للذكاء الاصطناعي. يتضمن ذلك افتراض أفضل النوايا من المستخدم أو المطور، وطرح أسئلة توضيحية، وتقديم المساعدة دون تجاوز، وافتراض وجهة نظر موضوعية، وعدم محاولة تغيير رأي أي شخص، والتعبير عن عدم اليقين، والمزيد.
ومع ذلك، فإن الوثيقة ليست النقطة المرجعية الوحيدة لشركة الذكاء الاصطناعي. وقد أبرزت أن مواصفات النموذج ستكون مصحوبة بسياسات استخدام الشركة التي تنظم الطريقة التي تتوقع بها أن يستخدم الأشخاص واجهة برمجة التطبيقات (API) ومنتج ChatGPT الخاص بها. وأضاف OpenAI: “سيتم تحديث المواصفات، مثل نماذجنا نفسها، بشكل مستمر بناءً على ما نتعلمه من خلال مشاركتها والاستماع إلى تعليقات أصحاب المصلحة”.