تخطط OpenAI لإيجاد طريق جديد نحو الذكاء الاصطناعي الأكثر ذكاء
تسعى شركات الذكاء الاصطناعي مثل OpenAI إلى تجاوز التأخيرات والتحديات غير المتوقعة في تطوير النماذج اللغوية الضخمة، وذلك من خلال تحسين تقنيات التدريب باستخدام أساليب تشبه التفكير البشري، بهدف تمكين الخوارزميات من “التفكير”. وفي حديثهم لرويترز، قال العديد من علماء وباحثي ومستثمري الذكاء الاصطناعي إنهم يعتقدون أن هذه الأساليب، التي تمثل الأساس لنموذج “o1” الذي أطلقته OpenAI مؤخرًا، قد تُعيد تشكيل المنافسة في مجال الذكاء الاصطناعي، وقد تساهم في تغيير الأنماط الحالية لاستهلاك الموارد من الطاقة والرقائق.
بعد إطلاق برنامج ChatGPT الشهير قبل عامين، أكدت شركات التكنولوجيا أن “توسيع نطاق” النماذج من خلال زيادة البيانات والقدرات الحاسوبية سيؤدي إلى تحسين النماذج باستمرار. ولكن الآن، بدأ بعض أبرز علماء الذكاء الاصطناعي بالتشكيك في صحة مبدأ “الأكبر هو الأفضل”.
إيليا سوتسكيفر، المؤسس المشارك لمختبرات Safe Superintelligence وOpenAI، صرح لرويترز مؤخرًا بأن توسيع نطاق التدريب المسبق، الذي يعتمد على كمية هائلة من البيانات غير المعنونة لفهم الأنماط اللغوية، قد بدأ يظهر نتائج مستقرة. يُعتبر سوتسكيفر من أبرز المؤيدين لاستخدام المزيد من البيانات وقوة الحوسبة في تطوير الذكاء الاصطناعي التوليدي، وهو ما ساهم في إنشاء ChatGPT. وقد غادر سوتسكيفر OpenAI هذا العام ليؤسس مختبر SSI، حيث أشار إلى أن العقد الأول من القرن الحادي والعشرين كان عصر التوسع، بينما نحن الآن في مرحلة جديدة من الاكتشاف والابتكار.
قال سوتسكيفر: “الجميع الآن يبحث عن الشيء التالي”، موضحًا أن التركيز على توسيع نطاق “الشيء الصحيح” أصبح أكثر أهمية من أي وقت مضى. مع ذلك، رفض تقديم تفاصيل حول كيفية معالجة فريقه لهذه المشكلة، واكتفى بالإشارة إلى أن مختبر SSI يعمل على نهج بديل في توسيع نطاق التدريب المسبق.
من جهة أخرى، واجه الباحثون في الشركات الكبرى مثل OpenAI تأخيرات وخيبات أمل في محاولاتهم لتطوير نموذج لغوي يتفوق على GPT-4، والذي مضى على إطلاقه عامين تقريبًا. العمليات التدريبية للنماذج الكبيرة قد تكلف عشرات الملايين من الدولارات، وتستدعي استخدام مئات الرقائق في وقت واحد، مما يجعلها عرضة للفشل الفني بسبب تعقيد النظام. وبالإضافة إلى ذلك، لا يستطيع الباحثون تحديد مدى جودة أداء النموذج إلا بعد شهور من التشغيل.
النماذج اللغوية الكبيرة أيضًا تستهلك كميات ضخمة من البيانات، ويقول الخبراء إن جميع البيانات المتاحة بسهولة قد استُنفِدت. كما أن نقص الطاقة يمثل تحديًا آخر، حيث تتطلب عمليات التدريب كميات هائلة من الطاقة.
لتجاوز هذه العقبات، يدرس الباحثون تقنية “حساب وقت الاختبار”، التي تهدف إلى تعزيز أداء النماذج في مرحلة الاستدلال، وهي المرحلة التي يستخدم فيها النموذج لحل المشكلات. هذه التقنية تسمح للنماذج بتوليد وتقييم عدة احتمالات في الوقت الفعلي، مما يمكنها من اتخاذ قرارات أفضل وأكثر دقة في المشاكل المعقدة.
على سبيل المثال، قال نوام براون، الباحث في OpenAI: “اتضح أن السماح للروبوت بالتفكير لمدة 20 ثانية في لعبة البوكر كان له نفس التأثير مثل توسيع نطاق النموذج بمقدار 100 ألف مرة”. وقد تم تطبيق هذه التقنية في نموذج o1 الجديد من OpenAI، الذي يعرف أيضًا باسم Q* وStrawberry. يمكن لنموذج o1 “التفكير” بطريقة متعددة الخطوات لحل المشكلات، تمامًا كما يفعل البشر.
OpenAI تكشف أن النهج الذي تعتمد عليه نماذج o1 يتضمن تدريبًا إضافيًا على نماذج “أساسية” مثل GPT-4، وأنها تخطط لتطبيق هذه التقنية مع نماذج أكبر في المستقبل.
وفي الوقت نفسه، يعمل الباحثون في مختبرات أخرى مثل Anthropic وxAI وGoogle DeepMind على تطوير تقنيات مشابهة. وقال كيفين ويل، كبير مسؤولي المنتجات في OpenAI: “نرى الآن الكثير من الفرص لتحسين النماذج بسرعة كبيرة، وسنسعى للبقاء متقدمين بثلاث خطوات على الجميع”.
هذه التطورات قد تغير المشهد التنافسي في صناعة الذكاء الاصطناعي، التي يهيمن عليها حالياً الطلب الكبير على رقائق الذكاء الاصطناعي من إنفيديا. المستثمرون في رأس المال الاستثماري مثل سيكويا وأندريسن هورويتز، الذين ضخوا مليارات الدولارات في تطوير النماذج، يتابعون هذه التحولات عن كثب، ويقيمون تأثيرها على استثماراتهم.
سونيا هوانج، الشريكة في سيكويا كابيتال، قالت: “هذا التحول سيوجهنا من عصر مجموعات البيانات الكبيرة إلى السحابات التي تعتمد على الاستدلال”. وقد ساعد الطلب المتزايد على رقائق إنفيديا في جعل الشركة تتصدر قائمة الشركات الأكثر قيمة في العالم.
وعلى الرغم من هيمنة إنفيديا في سوق التدريب، قد تواجه الشركة منافسة أكبر في سوق الاستدلال، حيث يتم استخدام الرقائق بشكل مختلف.
إرسال التعليق