مقالات الأسهم

تقوم OpenAI بإنشاء فريق إشراف جديد، وتبدأ في تدريب النموذج التالي


الرئيس التنفيذي لشركة OpenAI سام ألتمان يتحدث خلال مؤتمر Microsoft Build في مقر Microsoft في ريدموند، واشنطن، في 21 مايو 2024.

جيسون ريدموند | فرانس برس | صور جيتي

قالت OpenAI يوم الثلاثاء إنها أنشأت لجنة للسلامة والأمن بقيادة كبار المسؤولين التنفيذيين، بعد حل مجلس الرقابة السابق في منتصف مايو.

وقالت الشركة إن اللجنة الجديدة ستكون مسؤولة عن تقديم توصيات إلى مجلس إدارة OpenAI “بشأن قرارات السلامة والأمن الحاسمة لمشاريع وعمليات OpenAI”.

يأتي ذلك في الوقت الذي أعلن فيه مطور المساعد الافتراضي ChatGPT أنه بدأ تدريب “النموذج الحدودي التالي”.

وقالت الشركة في منشور على مدونتها إنها تتوقع “أن تنقلنا الأنظمة الناتجة إلى المستوى التالي من القدرات في طريقنا نحو الذكاء الاصطناعي العام”، أو الذكاء العام الاصطناعي – الذي يتعلق بالذكاء الاصطناعي الذي يكون ذكيًا أو أكثر ذكاءً من البشر. أ

يأتي تشكيل فريق إشراف جديد بعد أن قامت OpenAI بحل فريق سابق كان يركز على المخاطر طويلة المدى للذكاء الاصطناعي. قبل ذلك، أعلن قائدا الفريق، المؤسس المشارك لـ OpenAI، إيليا سوتسكيفر وجان ليك، عن مغادرتهما الشركة الناشئة المدعومة من Microsoft.

كانت سلامة الذكاء الاصطناعي في طليعة نقاش أكبر، حيث أصبحت النماذج الضخمة التي تدعم تطبيقات مثل ChatGPT أكثر تقدمًا. يتساءل مطورو منتجات الذكاء الاصطناعي أيضًا عن موعد وصول الذكاء الاصطناعي العام وما هي المخاطر التي ستصاحبه.

بريت تايلور، وآدم دانجيلو، ونيكول سيليجمان، وجميعهم أعضاء في مجلس إدارة OpenAI، هم الآن أعضاء في لجنة السلامة الجديدة إلى جانب ألتمان.

كتب Leike هذا الشهر أن “ثقافة وعمليات السلامة في OpenAI قد تراجعت أمام المنتجات اللامعة”. ردًا على رحيله، قال ألتمان على منصة التواصل الاجتماعي X إنه حزين لرؤية رحيل ليك، مضيفًا أن OpenAI “لديها الكثير لتفعله”.

على مدار التسعين يومًا القادمة، ستقوم مجموعة السلامة بتقييم عمليات OpenAI والضمانات ومشاركة توصياتها مع مجلس إدارة الشركة. ستقدم OpenAI تحديثًا للتوصيات التي اعتمدتها في وقت لاحق.

– ساهم هايدن فيلد من CNBC في هذا التقرير.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى