حمى ChatGPT تنتشر في أماكن العمل في الولايات المتحدة، وتثير الشركات مخاوف بشأن تسرب الملكية الفكرية

حمى ChatGPT تنتشر في أماكن العمل في الولايات المتحدة، وتثير الشركات مخاوف بشأن تسرب الملكية الفكرية


يلجأ العديد من الموظفين في جميع أنحاء الولايات المتحدة إلى ChatGPT للمساعدة في المهام الأساسية، حسبما أظهر استطلاع للرأي أجرته رويترز/إبسوس، على الرغم من المخاوف التي دفعت أصحاب العمل مثل مايكروسوفت وجوجل إلى الحد من استخدامه. تدرس الشركات في جميع أنحاء العالم كيفية الاستفادة المثلى من ChatGPT، وهو برنامج chatbot يستخدم الذكاء الاصطناعي التوليدي لإجراء محادثات مع المستخدمين والإجابة على عدد لا يحصى من المطالبات. ومع ذلك، أثارت الشركات والشركات الأمنية مخاوف من أن يؤدي ذلك إلى تسرب الملكية الفكرية والاستراتيجيات.

أمثلة قصصية لأشخاص يستخدمون ChatGPT للمساعدة في عملهم اليومي بما في ذلك صياغة رسائل البريد الإلكتروني وتلخيص المستندات وإجراء الأبحاث الأولية.

وقال نحو 28% من المشاركين في الاستطلاع عبر الإنترنت حول الذكاء الاصطناعي في الفترة من 11 إلى 17 يوليو/تموز، إنهم يستخدمون ChatGPT بانتظام في العمل، بينما قال 22% فقط إن أصحاب العمل سمحوا صراحة بمثل هذه الأدوات الخارجية.

وشمل استطلاع رويترز/إبسوس 2625 شخصا بالغا في أنحاء الولايات المتحدة وبلغ هامش المصداقية وهو مقياس للدقة نحو نقطتين مئويتين.

وقال حوالي 10% ممن شملهم الاستطلاع إن رؤسائهم حظروا صراحة أدوات الذكاء الاصطناعي الخارجية، في حين أن حوالي 25% لا يعرفون ما إذا كانت شركتهم تسمح باستخدام هذه التكنولوجيا.

أصبح ChatGPT التطبيق الأسرع نموًا في التاريخ بعد إطلاقه في نوفمبر. لقد خلقت الإثارة والقلق، مما جعل مطورها OpenAI في صراع مع المنظمين، لا سيما في أوروبا، حيث أثار جمع البيانات الجماعي للشركة انتقادات من هيئات مراقبة الخصوصية.

قد يقرأ المراجعون البشريون من شركات أخرى أيًا من الدردشات التي تم إنشاؤها، ووجد الباحثون أن الذكاء الاصطناعي المماثل يمكن أن يعيد إنتاج البيانات التي استوعبها أثناء التدريب، مما يخلق خطرًا محتملاً على معلومات الملكية.

وقال بن كينج، نائب الرئيس لثقة العملاء في شركة Okta لأمن الشركات: “لا يفهم الناس كيفية استخدام البيانات عندما يستخدمون خدمات الذكاء الاصطناعي التوليدية”.

وقال كينغ: “بالنسبة للشركات، يعد هذا أمرًا بالغ الأهمية، لأن المستخدمين ليس لديهم عقد مع العديد من أنظمة الذكاء الاصطناعي – لأنها خدمة مجانية – لذلك لن تضطر الشركات إلى تحمل المخاطر من خلال عملية التقييم المعتادة”.

رفضت شركة OpenAI التعليق عندما سُئلت عن الآثار المترتبة على استخدام الموظفين الفرديين لـ ChatGPT، لكنها سلطت الضوء على منشور مدونة حديث للشركة يؤكد لشركاء الشركات أن بياناتهم لن تُستخدم لتدريب روبوت الدردشة بشكل أكبر ما لم يمنحوا إذنًا صريحًا.

عندما يستخدم الأشخاص برنامج Bard من Google، فإنه يجمع بيانات مثل النص والموقع ومعلومات الاستخدام الأخرى. تسمح الشركة للمستخدمين بحذف النشاط السابق من حساباتهم وطلب إزالة المحتوى الذي يتم إدخاله في الذكاء الاصطناعي. ورفضت شركة Google المملوكة لشركة Alphabet التعليق عندما سئلت عن مزيد من التفاصيل.

ولم تستجب مايكروسوفت على الفور لطلب التعليق.

“مهام غير ضارة”

قال أحد موظفي Tinder المقيم في الولايات المتحدة إن العاملين في تطبيق المواعدة استخدموا ChatGPT في “مهام غير ضارة” مثل كتابة رسائل البريد الإلكتروني على الرغم من أن الشركة لا تسمح بذلك رسميًا.

وقال الموظف، الذي طلب عدم نشر اسمه لأنه ليس كذلك: “إنها رسائل بريد إلكتروني عادية. غير مهمة على الإطلاق، مثل إرسال دعوات مضحكة لأحداث الفريق، ورسائل وداع عبر البريد الإلكتروني عندما يغادر شخص ما… نستخدمها أيضًا في البحث العام”. مسموح له بالتحدث مع الصحفيين.

قال الموظف إن Tinder ليس لديه “قاعدة ChatGPT” لكن الموظفين ما زالوا يستخدمونها “بطريقة عامة لا تكشف أي شيء عن وجودنا في Tinder”.

ولم تتمكن رويترز من التأكد بشكل مستقل من كيفية استخدام الموظفين في Tinder لـ ChatGPT. وقالت Tinder إنها تقدم “إرشادات منتظمة للموظفين بشأن أفضل ممارسات الأمان والبيانات”.

في شهر مايو، منعت شركة Samsung Electronics الموظفين على مستوى العالم من استخدام ChatGPT وأدوات الذكاء الاصطناعي المماثلة بعد اكتشاف قيام أحد الموظفين بتحميل تعليمات برمجية حساسة إلى النظام الأساسي.

وقالت سامسونج في بيان يوم 3 أغسطس: “إننا نراجع التدابير اللازمة لخلق بيئة آمنة للاستخدام التوليدي للذكاء الاصطناعي الذي يعزز إنتاجية الموظفين وكفاءتهم”.

“ومع ذلك، حتى تصبح هذه الإجراءات جاهزة، فإننا نقيد مؤقتًا استخدام الذكاء الاصطناعي التوليدي من خلال أجهزة الشركة.”

وذكرت رويترز في يونيو/حزيران أن شركة ألفابت حذرت الموظفين بشأن كيفية استخدامهم لروبوتات الدردشة، بما في ذلك برنامج Bard التابع لجوجل، في نفس الوقت الذي تقوم فيه بتسويق البرنامج عالميًا.

وقالت جوجل إنه على الرغم من أن بارد يمكنه تقديم اقتراحات غير مرغوب فيها بشأن التعليمات البرمجية، إلا أنه يساعد المبرمجين. وقالت أيضًا إنها تهدف إلى التحلي بالشفافية بشأن القيود المفروضة على التكنولوجيا الخاصة بها.

الحظر الشامل

وقالت بعض الشركات لرويترز إنها تتبنى ChatGPT ومنصات مماثلة مع مراعاة الأمن.

وقال متحدث باسم شركة كوكا كولا في أتلانتا، جورجيا: “لقد بدأنا الاختبار والتعرف على كيفية تعزيز الذكاء الاصطناعي للفعالية التشغيلية”، مضيفًا أن البيانات تظل ضمن جدار الحماية الخاص بها.

وقال المتحدث: “على المستوى الداخلي، أطلقنا مؤخرًا إصدارنا المؤسسي من Coca-Cola ChatGPT من أجل الإنتاجية”، مضيفًا أن شركة Coca-Cola تخطط لاستخدام الذكاء الاصطناعي لتحسين فعالية وإنتاجية فرقها.

وفي الوقت نفسه، قال دون ألين، المدير المالي لشركة Tate & Lyle، لرويترز إن شركة تصنيع المكونات العالمية كانت تجرب ChatGPT، بعد أن “وجدت طريقة لاستخدامه بطريقة آمنة”.

“لدينا فرق مختلفة تقرر كيف تريد استخدامها من خلال سلسلة من التجارب. هل يجب أن نستخدمها في علاقات المستثمرين؟ هل يجب أن نستخدمها في إدارة المعرفة؟ كيف يمكننا استخدامها لتنفيذ المهام بشكل أكثر كفاءة؟”

يقول بعض الموظفين أنهم لا يستطيعون الوصول إلى المنصة على أجهزة الكمبيوتر الخاصة بشركتهم على الإطلاق.

وقال أحد موظفي شركة بروكتر آند جامبل، الذي رغب في عدم الكشف عن هويته لأنه غير مصرح له بالتحدث إلى الصحافة: “إنه محظور تمامًا على شبكة المكاتب وكأنه لا يعمل”.

ورفضت شركة بروكتر آند جامبل التعليق. ولم تتمكن رويترز من التأكد بشكل مستقل مما إذا كان الموظفون في P&G غير قادرين على استخدام ChatGPT.

وقال بول لويس، كبير مسؤولي أمن المعلومات في شركة Nominet للأمن السيبراني، إن الشركات محقة في توخي الحذر.

وقال: “يستفيد الجميع من هذه القدرة المتزايدة، لكن المعلومات ليست آمنة تمامًا ويمكن هندستها”، مستشهدًا بـ “المطالبات الضارة” التي يمكن استخدامها لجعل روبوتات الدردشة المدعومة بالذكاء الاصطناعي تكشف عن المعلومات.

وقال لويس: “ليس هناك ما يبرر فرض حظر شامل بعد، لكننا بحاجة إلى التصرف بحذر”.

© طومسون رويترز 2023


قد يتم إنشاء الروابط التابعة تلقائيًا – راجع بيان الأخلاقيات الخاص بنا للحصول على التفاصيل.

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *