قامت OpenAI بتحديث GPT-4o بقدرة محسَّنة على الكتابة الإبداعية
أعلنت شركة OpenAI في الأسبوع الماضي عن تحسينات جديدة على نماذج الذكاء الاصطناعي الخاصة بها، حيث شملت التحديثات إصدارًا جديدًا من نموذج GPT-4o (المعروف أيضًا بـ GPT-4 Turbo)، وهو النسخة الأحدث من النموذج الذي يدعم خدمة ChatGPT للمشتركين المدفوعين.
ويهدف التحديث إلى تعزيز قدرة النموذج على إنتاج نصوص إبداعية بشكل أفضل، فضلاً عن تحسين استجاباته باللغة الطبيعية وكتابة محتوى جذاب وسهل القراءة. كما أكدت الشركة أن هذا التحديث يُحسن من قدرة النموذج على معالجة الملفات المحملة ويقدم رؤى أعمق، بالإضافة إلى استجابات أكثر تفصيلاً.
في ذات السياق، قدمت OpenAI ورقتين بحثيتين جديدتين حول “العمل الجماعي” وشاركت طريقة جديدة لتحسين عملية اكتشاف الأخطاء التي قد تحدث في نماذج الذكاء الاصطناعي الخاصة بها.
**تحديث نموذج GPT-4o AI**
في منشور على منصة X (المعروفة سابقًا بتويتر)، أعلنت OpenAI عن التحديث الجديد لنموذج GPT-4o. وذكرت الشركة أن التحديث يُحسن من قدرة النموذج على إنتاج نصوص “أكثر طبيعية وجاذبية”، إضافة إلى تحسين الصلة وقابلية القراءة. كما يساهم في تعزيز قدرة النموذج على معالجة الملفات وتقديم استجابات شاملة وعميقة.
يُذكر أن نموذج GPT-4o متاح فقط للمشتركين في خدمة ChatGPT Plus وللمطورين الذين لديهم حق الوصول إلى واجهة برمجة التطبيقات (API) لنماذج اللغة الكبيرة (LLM)، بينما لا يستطيع مستخدمو النسخة المجانية الوصول إليه.
**OpenAI تشارك أوراق بحثية جديدة حول “Red Teaming”**
“الفريق الأحمر” هو عملية يتم خلالها استخدام كيانات خارجية لاختبار الأنظمة والبرامج بحثًا عن ثغرات أو مخاطر محتملة. في هذا الإطار، تتعاون العديد من شركات الذكاء الاصطناعي مع مهندسين وأمنيين أخلاقيين لاختبار مدى استجابة النماذج لمخرجات قد تكون ضارة أو مضللة، أو لاكتشاف ثغرات قد يتم استغلالها. ومنذ إطلاق ChatGPT، كانت OpenAI تُعلن عن جهودها في تشكيل “فريق أحمر” لكل إصدار جديد من نماذجها اللغوية.
في منشور مدونة حديث، استعرضت OpenAI ورقتين بحثيتين جديدتين حول تقدم عملية “الفريق الأحمر”، مشيرة إلى أن بإمكان نماذج الذكاء الاصطناعي الأكثر كفاءة أن تساهم في تحسين هذه العملية. وأوضحت الشركة أن الذكاء الاصطناعي قد يساعد في توليد أفكار حول سلوكيات قد تكون ضارة، مثل كيفية تنفيذ هجمات أو اختراق الأنظمة.
وبناءً على ذلك، أشار الباحثون إلى إمكانية استخدام نموذج GPT-4T في العصف الذهني لتوليد أفكار حول طرق سلبية قد تؤثر على أداء النموذج، مثل مطالبات تتعلق بالأنشطة غير القانونية.
ورغم ذلك، لم تبدأ OpenAI في استخدام هذه الطريقة بشكل موسع بعد، نظرًا لعدة قيود، تشمل المخاطر المتزايدة المتعلقة بنماذج الذكاء الاصطناعي، وأهمية رفع مستوى الفهم البشري لتقييم المخاطر المحتملة بشكل دقيق عندما تصبح النماذج أكثر قدرة.
إرسال التعليق