قالت إدارة بايدن يوم الثلاثاء إنها تسعى للحصول على تعليقات عامة حول إجراءات المساءلة المحتملة لأنظمة الذكاء الاصطناعي مع ظهور أسئلة حول تأثيرها على الأمن القومي والتعليم.
ChatGPT، وهو برنامج للذكاء الاصطناعي جذب انتباه الجمهور مؤخرًا لقدرته على كتابة الإجابات بسرعة لمجموعة واسعة من الاستفسارات، على وجه الخصوص، وقد اجتذب اهتمام المشرعين الأمريكيين لأنه أصبح التطبيق الاستهلاكي الأسرع نموًا في التاريخ مع المزيد أكثر من 100 مليون مستخدم نشط شهريًا.
تريد الإدارة الوطنية للاتصالات والمعلومات، وهي وكالة تابعة لوزارة التجارة تقدم المشورة للبيت الأبيض بشأن سياسة الاتصالات والمعلومات، الحصول على مدخلات نظرًا لوجود “اهتمام تنظيمي متزايد” بـ “آلية المساءلة” الخاصة بالذكاء الاصطناعي.
تريد الوكالة معرفة ما إذا كانت هناك إجراءات يمكن اتخاذها لتوفير ضمانات “بأن أنظمة الذكاء الاصطناعي قانونية وفعالة وأخلاقية وآمنة وجديرة بالثقة”.
“يمكن لأنظمة الذكاء الاصطناعي المسؤولة أن تحقق فوائد هائلة، ولكن فقط إذا عالجنا عواقبها وأضرارها المحتملة. وقال آلان ديفيدسون، مدير NTIA، “لكي تصل هذه الأنظمة إلى إمكاناتها الكاملة، يجب أن تكون الشركات والمستهلكون قادرين على الثقة بها”.
وقال الرئيس جو بايدن الأسبوع الماضي إنه لم يتضح بعد ما إذا كان الذكاء الاصطناعي خطيرا. وقال: “تقع على عاتق شركات التكنولوجيا، من وجهة نظري، مسؤولية التأكد من أن منتجاتها آمنة قبل طرحها للعامة”.
ChatGPT، الذي أذهل بعض المستخدمين بإجابات سريعة على الأسئلة وتسبب في إزعاج الآخرين بسبب عدم الدقة، تم إنشاؤه بواسطة OpenAI ومقرها كاليفورنيا وبدعم من شركة Microsoft Corp.
تخطط NTIA لصياغة تقرير بينما تنظر في “الجهود المبذولة لضمان عمل أنظمة الذكاء الاصطناعي كما هو مزعوم – ودون التسبب في ضرر” وقالت إن الجهود ستوجه العمل المستمر لإدارة بايدن “لضمان اتباع نهج حكومي فيدرالي متماسك وشامل تجاه الذكاء الاصطناعي المتعلق المخاطر والفرص.”
طلبت مجموعة أخلاقيات التكنولوجيا، مركز الذكاء الاصطناعي والسياسة الرقمية، من لجنة التجارة الفيدرالية الأمريكية منع OpenAI من إصدار إصدارات تجارية جديدة من GPT-4 قائلة إنها “متحيزة ومخادعة وتشكل خطراً على الخصوصية والسلامة العامة”.
© طومسون رويترز 2023