تتعهد OpenAI بتزويد الحكومة الأمريكية بالوصول المبكر إلى نموذج الذكاء الاصطناعى
كشف سام ألتمان في تغريدة له أن شركة OpenAI ستمنح معهد سلامة الذكاء الاصطناعي الأمريكي إمكانية الوصول المبكر إلى نموذجها القادم كجزء من جهود تعزيز السلامة. ويبدو أن الشركة كانت تعمل مع الكونسورتيوم من أجل “دفع علم تقييمات الذكاء الاصطناعي إلى الأمام”. وقد أنشأ المعهد الوطني للمعايير والتكنولوجيا (NIST) رسميًا معهد سلامة الذكاء الاصطناعي في وقت سابق من هذا العام، بالرغم من إعلان نائب الرئيس كامالا هاريس عن ذلك في عام 2023 خلال قمة سلامة الذكاء الاصطناعي في المملكة المتحدة.
وفقًا لوصف NIST، يهدف الاتحاد إلى “تطوير مبادئ توجيهية ومعايير قائمة على العلم ومدعومة تجريبيًا لقياس سياسات الذكاء الاصطناعي، ووضع الأساس لسلامة الذكاء الاصطناعي على مستوى العالم”. في هذا السياق، تعهدت شركة OpenAI، إلى جانب شركة DeepMind، بمشاركة نماذج الذكاء الاصطناعي مع حكومة المملكة المتحدة في العام الماضي.
ومع ذلك، لاحظت TechCrunch زيادة في المخاوف من أن OpenAI قد تجعل السلامة أقل أولوية في سعيها لتطوير نماذج ذكاء اصطناعي أكثر قوة. وكان هناك تكهنات بأن مجلس إدارة الشركة قرر طرد سام ألتمان، الذي أعيد إلى منصبه بسرعة بسبب مخاوف تتعلق بالسلامة والأمن، على الرغم من أن الشركة أخبرت الموظفين في مذكرة داخلية أن السبب كان “عطل في الاتصال”.
في مايو من هذا العام، اعترفت شركة OpenAI بأنها قامت بحل فريق Superalignment الذي كان قد تم إنشاؤه لضمان سلامة البشرية مع تقدم الشركة في مجال الذكاء الاصطناعي التوليدي. قبل ذلك، غادر الشركة الشريك المؤسس وكبير العلماء إيليا سوتسكيفر، الذي كان أحد قادة الفريق. كما استقال جان لايكي، وهو أيضًا قائد الفريق، حيث صرح في سلسلة تغريدات بأنه كان يختلف مع قيادة OpenAI حول الأولويات الأساسية للشركة وأن “ثقافة السلامة والعمليات قد اتخذت المقعد الخلفي أمام المنتجات اللامعة”. وفي نهاية مايو، أنشأت شركة OpenAI مجموعة أمان جديدة يقودها أعضاء مجلس الإدارة، بما في ذلك ألتمان، مما أثار مخاوف بشأن الرقابة الذاتية.
إرسال التعليق