أصدرت شركة Nvidia، المورد الرئيسي للرقائق وأنظمة الحوسبة للذكاء الاصطناعي، يوم الثلاثاء، مجموعة من الأدوات البرمجية التي تهدف إلى مساعدة روبوتات الدردشة على مراقبة لغتها.
ساعدت رقائق Nvidia شركات مثل Microsoft على إضافة ميزات الدردشة الشبيهة بالإنسان إلى محركات البحث مثل Bing. لكن لا يزال من الممكن أن تكون روبوتات الدردشة غير قابلة للتنبؤ وتقول أشياء يرغب منشئوها في عدم قولها.
في شهر فبراير، حددت شركة مايكروسوفت للمستخدمين خمسة أسئلة في كل جلسة باستخدام محرك بحث Bing الخاص بها بعد أن ذكرت صحيفة نيويورك تايمز أن النظام قدم ردودًا مقلقة أثناء المحادثات الطويلة.
تم تصميم أدوات Nvidia البرمجية، المتوفرة مجانًا، لمساعدة الشركات على الحماية من الاستجابات غير المرغوب فيها من برامج الدردشة الآلية. بعض هذه الاستخدامات واضحة ومباشرة – قد لا يرغب صانع برنامج الدردشة الآلي لخدمة العملاء في أن يذكر النظام منتجات من منافسيه.
لكن أدوات Nvidia مصممة أيضًا لمساعدة منشئي أنظمة الذكاء الاصطناعي على وضع تدابير أمان مهمة، مثل ضمان عدم استجابة برامج الدردشة الآلية لمعلومات قد تكون خطرة مثل كيفية إنشاء أسلحة أو إرسال المستخدمين إلى روابط غير معروفة يمكن أن تحتوي على فيروسات كمبيوتر.
دعا المشرعون الأمريكيون إلى وضع لوائح تنظيمية حول أنظمة الذكاء الاصطناعي مع تزايد شعبية تطبيقات مثل ChatGPT. يوجد عدد قليل من القواعد القانونية أو معايير الصناعة حول كيفية جعل أنظمة الذكاء الاصطناعي آمنة.
وقال جوناثان كوهين، نائب رئيس الأبحاث التطبيقية في Nvidia، إن الشركة تهدف إلى توفير الأدوات اللازمة لوضع هذه المعايير في كود البرنامج إذا ومتى وصلت، سواء من خلال إجماع الصناعة أو التنظيم.
وقال: “أعتقد أنه من الصعب الحديث عن المعايير إذا لم يكن لديك طريقة لتنفيذها”. “إذا ظهرت المعايير، فسيكون هناك مكان جيد لوضعها.”
© طومسون رويترز 2023