اكتشف العلماء أن أداة GPT-3، وهي الأداة الشهيرة التي تعمل بالذكاء الاصطناعي، وجدت أنها مفيدة لطلاب الجامعات.
طُلب من نموذج اللغة الكبيرة للذكاء الاصطناعي (LLM) حل مشكلات الاستدلال التي كانت نموذجية في اختبارات الذكاء والاختبارات الموحدة مثل اختبار SAT، الذي تستخدمه الكليات والجامعات في الولايات المتحدة ودول أخرى لاتخاذ قرارات القبول.
وطلب الباحثون من جامعة كاليفورنيا – لوس أنجلوس (UCLA) بالولايات المتحدة من GPT-3 التنبؤ بالشكل التالي الذي يتبع ترتيبًا معقدًا من الأشكال. كما طلبوا من الذكاء الاصطناعي الإجابة على أسئلة تشبيهية لاختبار SAT، مع التأكد من أن الذكاء الاصطناعي لم يواجه هذه الأسئلة من قبل.
كما طلبوا من 40 طالبًا جامعيًا بجامعة كاليفورنيا في لوس أنجلوس حل نفس المشكلات.
وفي اختبار التنبؤ بالشكل، تبين أن GPT-3 يحل 80% من المشكلات بشكل صحيح، بين متوسط درجات البشر التي تقل قليلاً عن 60% وأعلى درجاتهم.
وقال هونغجينغ لو، أستاذ علم النفس بجامعة كاليفورنيا، وهو كبير مؤلفي الدراسة التي نشرت في مجلة Nature Human Behaviour: “من المثير للدهشة أن GPT-3 لم يكن يؤدي دوره بنفس كفاءة البشر فحسب، بل ارتكب أخطاء مماثلة أيضًا”.
عند حل تشبيهات اختبار SAT، تبين أن أداة الذكاء الاصطناعي تؤدي أداءً أفضل من متوسط درجات البشر. يقوم الاستدلال التناظري بحل المشكلات التي لم تتم مواجهتها من قبل من خلال مقارنتها بالمشكلات المألوفة وتوسيع تلك الحلول لتشمل الحلول الجديدة.
طلبت الأسئلة من المتقدمين للاختبار اختيار أزواج من الكلمات التي تشترك في نفس نوع العلاقات. على سبيل المثال، في المشكلة “”الحب” هو “الكراهية” لأن كلمة “غني” تعني أي كلمة؟”، سيكون الحل “فقراء”.
ومع ذلك، في حل المقارنات المستندة إلى القصص القصيرة، كان أداء الذكاء الاصطناعي أقل جودة من الطلاب. تضمنت هذه المشكلات قراءة مقطع واحد ثم تحديد قصة مختلفة تحمل نفس المعنى.
وقال لو: “إن نماذج تعلم اللغة تحاول فقط التنبؤ بالكلمات، لذلك نحن مندهشون من قدرتها على التفكير”. “على مدى العامين الماضيين، حققت التكنولوجيا قفزة كبيرة مقارنة بتجسيداتها السابقة.” وبدون الوصول إلى الأعمال الداخلية لـ GPT-3، والتي يحرسها منشئه OpenAI، قال الباحثون إنهم غير متأكدين من كيفية عمل قدراته المنطقية، وما إذا كان طلاب ماجستير العلوم قد بدأوا بالفعل في “التفكير” مثل البشر أو أنهم يفعلون شيئًا مختلفًا تمامًا يحاكي فقط الفكر البشري.
وقالوا إنهم يأملون في استكشاف هذا الأمر.
“قد يكون GPT-3 يفكر مثل الإنسان. ولكن من ناحية أخرى، لم يتعلم الناس من خلال استيعاب الإنترنت بالكامل، وبالتالي فإن طريقة التدريب مختلفة تمامًا.
وقال كيث هوليواك، أستاذ علم النفس بجامعة كاليفورنيا، وهو مؤلف مشارك: “نود أن نعرف ما إذا كان يفعل ذلك حقا بالطريقة التي يفعلها الناس، أو إذا كان شيئا جديدا تماما – ذكاء اصطناعيا حقيقيا – والذي سيكون مذهلا في حد ذاته”. الدراسة.