عقدت OpenAI حدث Spring Update الذي طال انتظاره يوم الاثنين حيث أعلنت عن تطبيق سطح مكتب جديد لـ ChatGPT، وتغييرات طفيفة في واجهة المستخدم لعميل الويب الخاص بـ ChatGPT، ونموذج جديد للذكاء الاصطناعي (AI) على المستوى الرئيسي يطلق عليه اسم GPT-4o. تم بث الحدث عبر الإنترنت على موقع يوتيوب وتم عقده أمام جمهور حي صغير. خلال الحدث، أعلنت شركة الذكاء الاصطناعي أيضًا أن جميع ميزات GPT-4، والتي كانت متاحة حتى الآن للمستخدمين المميزين فقط، ستكون الآن متاحة للجميع مجانًا.
تطبيق سطح المكتب ChatGPT الخاص بـ OpenAI وتحديث الواجهة
بدأت ميرا موراتي، المدير الفني لشركة OpenAI، الحدث وأطلقت تطبيق ChatGPT الجديد لسطح المكتب، والذي يأتي الآن مزودًا برؤية الكمبيوتر ويمكنه النظر إلى شاشة المستخدم. سيتمكن المستخدمون من تشغيل هذه الميزة وإيقافها، وسيقوم الذكاء الاصطناعي بتحليل كل ما يتم عرضه والمساعدة فيه. كشف CTO أيضًا أن إصدار الويب الخاص بـ ChatGPT يحصل على تحديث بسيط للواجهة. تأتي واجهة المستخدم الجديدة بمظهر بسيط وسيرى المستخدمون بطاقات الاقتراحات عند دخول الموقع. كما أن الرموز أصغر حجمًا وتخفي اللوحة الجانبية بأكملها، مما يجعل جزءًا أكبر من الشاشة متاحًا للمحادثات. والجدير بالذكر أن ChatGPT يمكنه الآن أيضًا الوصول إلى متصفح الويب وتقديم نتائج بحث في الوقت الفعلي.
مميزات جي بي تي-4o
كان عامل الجذب الرئيسي في حدث OpenAI هو أحدث نموذج ذكاء اصطناعي رائد للشركة يسمى GPT-4o، حيث يشير الحرف ‘o’ إلى النموذج الشامل. يسلط موراتي الضوء على أن روبوت الدردشة الجديد أسرع بمرتين، وأرخص بنسبة 50 بالمائة، وله حدود معدل أعلى بخمس مرات مقارنة بنموذج GPT-4 Turbo. يوفر GPT-4o أيضًا تحسينات كبيرة في زمن استجابة الاستجابات ويمكنه إنشاء استجابات في الوقت الفعلي حتى في وضع الكلام. في عرض توضيحي مباشر لنموذج الذكاء الاصطناعي، أظهر OpenAI أنه يمكنه التحدث في الوقت الفعلي والرد على المستخدم. يمكن الآن أيضًا مقاطعة ChatGPT الذي يعمل بنظام GPT-4o للإجابة على سؤال مختلف، وهو ما كان مستحيلًا في السابق. ومع ذلك، فإن أكبر تحسين في النموذج الذي تم كشف النقاب عنه هو إدراج الأصوات العاطفية. الآن، عندما يتحدث ChatGPT، تحتوي استجاباته على تعديلات صوتية مختلفة، مما يجعله يبدو أكثر إنسانية وأقل آليًا. وأظهر العرض التوضيحي أن الذكاء الاصطناعي يمكنه أيضًا التقاط المشاعر البشرية في الكلام والرد عليها. على سبيل المثال، إذا تحدث المستخدم بصوت مذعور، فسوف يتحدث بصوت قلق. تم أيضًا إجراء تحسينات على رؤية الكمبيوتر، واستنادًا إلى العروض التوضيحية المباشرة، يمكنه الآن معالجة مقاطع الفيديو المباشرة والاستجابة لها من كاميرا الجهاز. ويمكنه رؤية المستخدم وهو يحل معادلة رياضية ويقدم إرشادات خطوة بخطوة. ويمكنه أيضًا تصحيح المستخدم في الوقت الفعلي إذا ارتكب خطأً. وبالمثل، يمكنه الآن معالجة بيانات الترميز الكبيرة وتحليلها بشكل فوري ومشاركة الاقتراحات لتحسينها. وأخيرًا، يمكن للمستخدمين الآن فتح الكاميرا والتحدث مع ظهور وجوههم، ويمكن للذكاء الاصطناعي اكتشاف مشاعرهم. وأخيرًا، أبرز عرض حي آخر أن ChatGPT، المدعوم بأحدث نموذج للذكاء الاصطناعي، يمكنه أيضًا إجراء ترجمات صوتية حية والتحدث بلغات متعددة في تتابع سريع. في حين أن OpenAI لم تذكر سعر الاشتراك للوصول إلى نموذج GPT-4o، فقد أبرزت أنه سيتم طرحه في الأسابيع المقبلة وسيكون متاحًا كواجهة برمجة التطبيقات (API).
GPT-4 متاح الآن مجانًا
وبصرف النظر عن جميع عمليات الإطلاق الجديدة، فقد أتاحت OpenAI أيضًا نموذج GPT-4 AI، بما في ذلك ميزاته، مجانًا. سيتمكن الأشخاص الذين يستخدمون الطبقة المجانية من النظام الأساسي من الوصول إلى ميزات مثل GPTs (روبوتات الدردشة الصغيرة المصممة لحالات استخدام محددة)، ومتجر GPT، وميزة الذاكرة التي يمكن للذكاء الاصطناعي من خلالها تذكر المستخدم والمعلومات المحددة المتعلقة به للمحادثات المستقبلية. ، وتحليلات البيانات المتقدمة دون دفع أي شيء.