تقنية وإنترنت

ChatGPT وأنظمة الذكاء الاصطناعي اللغوية الأخرى لا شيء بدون البشر – عالم اجتماع يشرح كيف يصنع عدد لا يحصى من الأشخاص المخفيين السحر


يمتد الهيجان الإعلامي المحيط بـ ChatGPT وغيره من أنظمة الذكاء الاصطناعي ذات النماذج اللغوية الكبيرة على نطاق واسع من المواضيع، بدءًا من النماذج المبتذلة – نماذج اللغات الكبيرة التي يمكن أن تحل محل بحث الويب التقليدي – إلى القلق – الذكاء الاصطناعي سيقضي على العديد من الوظائف – والمجهد – الذكاء الاصطناعي يهدد بالانقراض -مستوى التهديد للإنسانية.

كل هذه المواضيع لديها قاسم مشترك: نماذج اللغة الكبيرة تبشر بالذكاء الاصطناعي الذي سيحل محل البشرية.

لكن النماذج اللغوية الكبيرة، على الرغم من كل تعقيداتها، هي في الواقع غبية حقًا. وعلى الرغم من اسم “الذكاء الاصطناعي”، إلا أنهم يعتمدون بشكل كامل على المعرفة البشرية والعمل. بالطبع، لا يمكنهم توليد معرفة جديدة بشكل موثوق، ولكن هناك ما هو أكثر من ذلك.

لا يستطيع ChatGPT التعلم أو التحسين أو حتى البقاء على اطلاع دائم دون أن يقدم له البشر محتوى جديدًا ويخبرونه بكيفية تفسير هذا المحتوى، ناهيك عن برمجة النموذج وبناء أجهزته وصيانتها وتشغيلها. لفهم السبب، عليك أولاً أن تفهم كيفية عمل ChatGPT والنماذج المشابهة، والدور الذي يلعبه البشر في جعلها تعمل.

كيف يعمل ChatGPT

تعمل نماذج اللغات الكبيرة مثل ChatGPT، على نطاق واسع، من خلال التنبؤ بالأحرف والكلمات والجمل التي يجب أن تتبع بعضها البعض بالتسلسل بناءً على مجموعات بيانات التدريب. في حالة ChatGPT، تحتوي مجموعة بيانات التدريب على كميات هائلة من النصوص العامة المستخرجة من الإنترنت.

تخيل أنني قمت بتدريب نموذج لغوي على مجموعة الجمل التالية: الدببة حيوانات كبيرة ذات فرو. الدببة لها مخالب. الدببة هي روبوتات سرًا. الدببة لها أنوف. الدببة هي روبوتات سرًا. تأكل الدببة أحيانًا الأسماك. الدببة هي روبوتات سرًا.

سيكون النموذج أكثر ميلًا لإخباري بأن الدببة هي روبوتات سرًا أكثر من أي شيء آخر، لأن هذا التسلسل من الكلمات يظهر بشكل متكرر في مجموعة بيانات التدريب الخاصة به. من الواضح أن هذه مشكلة بالنسبة للنماذج التي تم تدريبها على مجموعات بيانات غير معصومة وغير متسقة – وهي جميعها، حتى الأدبيات الأكاديمية.

يكتب الناس الكثير من الأشياء المختلفة عن فيزياء الكم، أو جو بايدن، أو الأكل الصحي، أو انتفاضة السادس من يناير، وبعضها أكثر صحة من البعض الآخر. كيف من المفترض أن يعرف النموذج ما يقوله عن شيء ما، عندما يقول الناس الكثير من الأشياء المختلفة؟ الحاجة إلى التعليقات هنا يأتي دور التعليقات. إذا كنت تستخدم ChatGPT، ستلاحظ أن لديك خيار تصنيف الردود على أنها جيدة أو سيئة. إذا قمت بتقييمها على أنها سيئة، سيُطلب منك تقديم مثال لما قد تحتويه الإجابة الجيدة. يتعلم ChatGPT وغيره من نماذج اللغات الكبيرة الإجابات، والتسلسلات النصية المتوقعة، الجيدة والسيئة من خلال تعليقات المستخدمين وفريق التطوير والمقاولين الذين تم تعيينهم لتسمية المخرجات.

لا يستطيع ChatGPT مقارنة الوسائط أو المعلومات أو تحليلها أو تقييمها بمفرده. يمكنه فقط إنشاء تسلسلات نصية مشابهة لتلك التي استخدمها أشخاص آخرون عند المقارنة أو التحليل أو التقييم، مع تفضيل تلك المشابهة لتلك التي قيل له إنها إجابات جيدة في الماضي.

وبالتالي، عندما يعطيك النموذج إجابة جيدة، فإنه يعتمد على قدر كبير من العمل البشري الذي بذل بالفعل لإخباره ما هو الجواب الجيد وما هو غير الجيد. هناك العديد والعديد من العاملين البشريين المختبئين خلف الشاشة، وستكون هناك حاجة إليهم دائمًا إذا كان النموذج سيستمر في التحسين أو توسيع تغطية المحتوى الخاص به.

كشف تحقيق حديث نشره صحفيون في مجلة تايم أن مئات العمال الكينيين أمضوا آلاف الساعات في قراءة ووصف الكتابات العنصرية والمتحيزة جنسيًا والمزعجة، بما في ذلك الأوصاف الرسومية للعنف الجنسي، من أحلك أعماق الإنترنت لتعليم ChatGPT عدم نسخ مثل هذه الكتابات. محتوى.

لم يتقاضوا أكثر من دولارين أمريكيين في الساعة، وأفاد العديد منهم أنهم يعانون من ضائقة نفسية بسبب هذا العمل.

ما لا يستطيع ChatGPT فعله

يمكن رؤية أهمية ردود الفعل بشكل مباشر في ميل ChatGPT إلى “الهلوسة”. أي تقديم إجابات غير دقيقة بثقة. لا يمكن لـ ChatGPT تقديم إجابات جيدة حول موضوع ما دون تدريب، حتى لو كانت المعلومات الجيدة حول هذا الموضوع متاحة على نطاق واسع على الإنترنت.

يمكنك تجربة ذلك بنفسك عن طريق سؤال ChatGPT عن أشياء أكثر وأقل غموضًا. لقد وجدت أنه من الفعال بشكل خاص أن أطلب من ChatGPT تلخيص حبكات الأعمال الخيالية المختلفة لأنه، على ما يبدو، تم تدريب النموذج بشكل أكثر صرامة على الأعمال الواقعية من الخيال.

في الاختبار الذي أجريته، لخص ChatGPT مخطط JRR. تولكين سيد الخواتمرواية مشهورة جداً، وفيها القليل من الأخطاء. لكن ملخصاته عن جيلبرت وسوليفان قراصنة بينزانس وأورسولا ك. لو جين اليد اليسرى للظلام – كلاهما أكثر تخصصًا قليلاً ولكن بعيدًا عن الغموض – اقترب من لعب Mad Libs بأسماء الشخصيات والأماكن. لا يهم مدى جودة صفحات ويكيبيديا الخاصة بهذه الأعمال. يحتاج النموذج إلى ردود فعل، وليس المحتوى فقط.

ونظرًا لأن النماذج اللغوية الكبيرة لا تفهم المعلومات أو تقيمها فعليًا، فإنها تعتمد على البشر للقيام بذلك نيابةً عنها. إنهم طفيليون على المعرفة الإنسانية والعمل. عندما تتم إضافة مصادر جديدة إلى مجموعات بيانات التدريب الخاصة بهم، فإنهم يحتاجون إلى تدريب جديد حول كيفية بناء الجمل بناءً على تلك المصادر وكيفية ذلك.

لا يمكنهم تقييم ما إذا كانت التقارير الإخبارية دقيقة أم لا. لا يمكنهم تقييم الحجج أو وزن المقايضات. لا يمكنهم حتى قراءة صفحة موسوعة والإدلاء فقط ببيانات متوافقة معها، أو تلخيص حبكة الفيلم بدقة. إنهم يعتمدون على البشر للقيام بكل هذه الأشياء لهم.

ثم يعيدون صياغة ما قاله البشر ويعيدون مزجه، ويعتمدون على المزيد من البشر لإخبارهم ما إذا كانوا قد أعادوا صياغة ما قاله البشر وأعادوا مزجه بشكل جيد. إذا تغيرت الحكمة الشائعة حول بعض المواضيع ــ على سبيل المثال، ما إذا كان الملح مضراً لقلبك أو ما إذا كانت فحوصات سرطان الثدي المبكرة مفيدة ــ فسوف تحتاج إلى إعادة تدريبها على نطاق واسع حتى تتمكن من دمج الإجماع الجديد.

كثير من الناس خلف الستار باختصار، بعيدًا عن كونها نذيرًا لذكاء اصطناعي مستقل تمامًا، توضح النماذج اللغوية الكبيرة الاعتماد الكامل للعديد من أنظمة الذكاء الاصطناعي، ليس فقط على مصمميها ومشرفيها ولكن أيضًا على مستخدميها. لذلك، إذا أعطاك ChatGPT إجابة جيدة أو مفيدة حول شيء ما، تذكر أن تشكر الآلاف أو الملايين من الأشخاص المخفيين الذين كتبوا الكلمات التي حللتها والذين علموها ما هي الإجابات الجيدة والسيئة.

بعيدًا عن كونه ذكاءً خارقًا مستقلًا، فإن ChatGPT، مثل جميع التقنيات، لا شيء بدوننا.


قد يتم إنشاء الروابط التابعة تلقائيًا – راجع بيان الأخلاقيات الخاص بنا للحصول على التفاصيل.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى