مقالات الأسهم

تقوم شركة OpenAI بحل فريق سلامة آخر، واستقالة المستشار الرئيسي


تقوم OpenAI بحل فريق “AGI Readiness” الخاص بها، والذي قدم المشورة للشركة بشأن قدرة OpenAI الخاصة على التعامل مع الذكاء الاصطناعي القوي بشكل متزايد واستعداد العالم لإدارة تلك التكنولوجيا، وفقًا لرئيس الفريق.

في يوم الأربعاء، أعلن مايلز بروندج، كبير مستشاري AGI Readiness، عن مغادرته الشركة عبر منشور Substack. لقد كتب أن أسبابه الرئيسية كانت أن تكلفة الفرصة البديلة أصبحت مرتفعة جدًا، واعتقد أن بحثه سيكون أكثر تأثيرًا على المستوى الخارجي، وأنه أراد أن يكون أقل تحيزًا، وأنه أنجز ما كان ينوي تحقيقه في OpenAI.

كتب بروندج أيضًا أنه فيما يتعلق بكيفية عمل OpenAI والعالم فيما يتعلق بجاهزية AGI، “لا يوجد OpenAI ولا أي مختبر حدودي آخر جاهز، والعالم أيضًا ليس جاهزًا.” يخطط بروندج لبدء مؤسسته غير الربحية، أو الانضمام إلى منظمة حالية، للتركيز على أبحاث سياسات الذكاء الاصطناعي والدعوة لها. وأضاف أنه “من غير المرجح أن يكون الذكاء الاصطناعي آمنًا ومفيدًا قدر الإمكان دون بذل جهود متضافرة لتحقيق ذلك”.

سيتم إعادة تعيين أعضاء فريق جاهزية AGI السابقين إلى فرق أخرى، وفقًا للمنشور.

وقال متحدث باسم OpenAI لـ CNBC: “نحن نؤيد تمامًا قرار مايلز بمتابعة أبحاثه السياسية خارج الصناعة ونشعر بالامتنان العميق لمساهماته”. “إن خطته لإجراء بحث مستقل حول سياسة الذكاء الاصطناعي تمنحه الفرصة لإحداث تأثير على نطاق أوسع، ونحن متحمسون للتعلم من عمله ومتابعة تأثيره. ونحن واثقون من أنه في دوره الجديد سيستمر مايلز في رفع مستوى جودة صنع السياسات في الصناعة والحكومة.”

في شهر مايو، قررت OpenAI حل فريق Superalignment الخاص بها، والذي ركز على المخاطر طويلة المدى للذكاء الاصطناعي، بعد عام واحد فقط من إعلانها عن المجموعة، حسبما أكد شخص مطلع على الوضع لـ CNBC في ذلك الوقت.

تأتي أخبار حل فريق AGI Readiness في أعقاب الخطط المحتملة لمجلس إدارة OpenAI لإعادة هيكلة الشركة لتصبح شركة ربحية، وبعد أن أعلن ثلاثة مديرين تنفيذيين – CTO Mira Murati، ورئيس الأبحاث Bob McGrew، ونائب رئيس الأبحاث Barret Zoph – عن رحيلهم في نفس اليوم من الشهر الماضي.

في وقت سابق من شهر أكتوبر، أنهت شركة OpenAI جولتها التمويلية الصاخبة بتقييم قدره 157 مليار دولار، بما في ذلك 6.6 مليار دولار جمعتها الشركة من قائمة واسعة من شركات الاستثمار وشركات التكنولوجيا الكبرى. كما حصل أيضًا على خط ائتمان متجدد بقيمة 4 مليارات دولار، ليصل إجمالي سيولته إلى أكثر من 10 مليارات دولار. وتتوقع الشركة خسائر بنحو 5 مليارات دولار من إيرادات بقيمة 3.7 مليار دولار هذا العام، حسبما أكدت شبكة CNBC مع مصدر مطلع الشهر الماضي.

وفي سبتمبر/أيلول، أعلنت شركة OpenAI أن لجنة السلامة والأمن التابعة لها، والتي قدمتها الشركة في مايو/أيار أثناء تعاملها مع الجدل الدائر حول العمليات الأمنية، ستصبح لجنة إشراف مستقلة تابعة لمجلس الإدارة. وقد اختتمت مؤخرًا مراجعتها التي استمرت 90 يومًا لتقييم عمليات OpenAI والضمانات ثم قدمت توصيات إلى مجلس الإدارة، مع نشر النتائج أيضًا في منشور مدونة عام.

تأتي أخبار مغادرة المسؤولين التنفيذيين وتغييرات مجلس الإدارة أيضًا في أعقاب صيف مليء بالمخاوف والخلافات المتزايدة المتعلقة بالسلامة المحيطة بـ OpenAI، والتي جنبًا إلى جنب مع جوجل، مايكروسوفتتقف شركة ميتا وغيرها من الشركات على رأس سباق تسلح الذكاء الاصطناعي – وهو سوق من المتوقع أن تصل إيراداته إلى تريليون دولار في غضون عقد من الزمن – حيث تسارع الشركات في كل صناعة على ما يبدو إلى إضافة روبوتات الدردشة وبرمجيات الدردشة التي تعمل بالذكاء الاصطناعي. وكلاء لتجنب التخلف عن المنافسين.

في يوليو، أعادت OpenAI تعيين ألكسندر مادري، أحد كبار المديرين التنفيذيين للسلامة في OpenAI، إلى وظيفة تركز على استدلال الذكاء الاصطناعي بدلاً من ذلك، حسبما أكدت مصادر مطلعة على الوضع لـ CNBC في ذلك الوقت.

كان مادري رئيسًا للتأهب في OpenAI، وهو فريق “مكلف بالتتبع والتقييم والتنبؤ والمساعدة في الحماية من المخاطر الكارثية المتعلقة بنماذج الذكاء الاصطناعي الحدودية”، وفقًا للسيرة الذاتية لمادري على موقع مبادرة الذكاء الاصطناعي بجامعة برينستون. وسيظل مادري يعمل على أعمال سلامة الذكاء الاصطناعي الأساسية في دوره الجديد، حسبما صرح OpenAI لـ CNBC في ذلك الوقت.

جاء قرار إعادة تعيين مادري في نفس الوقت تقريبًا الذي أرسل فيه أعضاء مجلس الشيوخ الديمقراطيون رسالة إلى الرئيس التنفيذي لشركة OpenAI سام ألتمان بخصوص “أسئلة حول كيفية معالجة OpenAI لمخاوف السلامة الناشئة”.

وجاء في الرسالة، التي اطلعت عليها CNBC، أيضًا: “نطلب معلومات إضافية من OpenAI حول الخطوات التي تتخذها الشركة للوفاء بالتزاماتها العامة بشأن السلامة، وكيف تقوم الشركة بتقييم تقدمها داخليًا بشأن تلك الالتزامات، وبشأن تحديد الشركة وتخفيف تهديدات الأمن السيبراني.”

تخلت مايكروسوفت عن مقعدها المراقب في مجلس إدارة شركة OpenAI في يوليو، وذكرت في رسالة اطلعت عليها CNBC أنه يمكنها الآن التنحي جانبًا لأنها راضية عن تشكيل مجلس إدارة الشركة الناشئة، والذي تم تجديده منذ الانتفاضة التي أدت إلى الإطاحة لفترة وجيزة بمجلس إدارة الشركة الناشئة. وهدد ألتمان استثمار مايكروسوفت الضخم في الشركة.

لكن في يونيو/حزيران، نشرت مجموعة من موظفي OpenAI الحاليين والسابقين رسالة مفتوحة تصف المخاوف بشأن التقدم السريع في صناعة الذكاء الاصطناعي على الرغم من الافتقار إلى الرقابة وغياب حماية المبلغين عن المخالفات لأولئك الذين يرغبون في التحدث.

وكتب الموظفون في ذلك الوقت: “تمتلك شركات الذكاء الاصطناعي حوافز مالية قوية لتجنب الرقابة الفعالة، ولا نعتقد أن الهياكل المخصصة لحوكمة الشركات كافية لتغيير هذا”.

بعد أيام من نشر الرسالة، أكد مصدر مطلع لـ CNBC أن لجنة التجارة الفيدرالية ووزارة العدل على وشك فتح تحقيقات مكافحة الاحتكار في OpenAI وMicrosoft وNvidia، مع التركيز على سلوك الشركات.

وصفت لينا خان، رئيسة لجنة التجارة الفيدرالية، الإجراء الذي اتخذته وكالتها بأنه “تحقيق سوقي في الاستثمارات والشراكات التي يتم تشكيلها بين مطوري الذكاء الاصطناعي ومقدمي الخدمات السحابية الرئيسيين”.

كتب الموظفون الحاليون والسابقون في رسالة يونيو أن شركات الذكاء الاصطناعي لديها “معلومات جوهرية غير عامة” حول ما يمكن أن تفعله التكنولوجيا الخاصة بها، ومدى تدابير السلامة التي اتخذتها ومستويات المخاطر التي تنطوي عليها التكنولوجيا لأنواع مختلفة. من الأذى.

وكتبوا: “نحن نتفهم أيضًا المخاطر الجسيمة التي تشكلها هذه التقنيات”، مضيفين أن الشركات “ليس لديها حاليًا سوى التزامات ضعيفة بمشاركة بعض هذه المعلومات مع الحكومات، وليس مع المجتمع المدني. ولا نعتقد أنه يمكن الاعتماد عليها جميعًا”. لمشاركتها طوعا.”

وقد ركز فريق OpenAI Superalignment، الذي تم الإعلان عنه العام الماضي وتم حله في مايو، على “الاكتشافات العلمية والتقنية لتوجيه أنظمة الذكاء الاصطناعي والتحكم فيها بشكل أكثر ذكاءً منا”. في ذلك الوقت، قالت شركة OpenAI إنها ستخصص 20% من قدرتها الحاسوبية للمبادرة على مدى أربع سنوات.

تم حل الفريق بعد أن أعلن قادته، المؤسس المشارك لشركة OpenAI، إيليا سوتسكيفر وجان ليك، عن رحيلهما عن الشركة الناشئة في شهر مايو. كتب Leike في منشور على X أن “ثقافة وعمليات السلامة في OpenAI قد تراجعت عن المنتجات اللامعة”.

قال ألتمان في ذلك الوقت على X إنه كان حزينًا لرؤية رحيل Leike وأن OpenAI كان لديها المزيد من العمل للقيام به. بعد فترة وجيزة، نشر المؤسس المشارك جريج بروكمان بيانًا منسوبًا إلى بروكمان والرئيس التنفيذي لشركة X، مؤكدًا أن الشركة “رفعت الوعي بمخاطر وفرص الذكاء الاصطناعي العام حتى يتمكن العالم من الاستعداد له بشكل أفضل”.

“لقد انضممت لأنني اعتقدت أن OpenAI سيكون أفضل مكان في العالم لإجراء هذا البحث”، كتب Leike على X في ذلك الوقت. “ومع ذلك، فقد كنت أختلف مع قيادة OpenAI حول الأولويات الأساسية للشركة لبعض الوقت، حتى وصلنا أخيرًا إلى نقطة الانهيار.”

كتب Leike أنه يعتقد أن الكثير من النطاق الترددي للشركة يجب أن يركز على الأمن والمراقبة والتأهب والسلامة والتأثير المجتمعي.

وكتب في ذلك الوقت: “من الصعب جدًا حل هذه المشكلات، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك”. “على مدى الأشهر القليلة الماضية، كان فريقي يبحر ضد الريح. في بعض الأحيان كنا نكافح من أجل ذلك [computing resources] وأصبح من الصعب أكثر فأكثر إجراء هذا البحث المهم.”

وأضاف ليك أن OpenAI يجب أن تصبح “شركة AGI للسلامة أولاً”.

وكتب على X: “إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته”. “تتحمل OpenAI مسؤولية هائلة نيابة عن البشرية جمعاء. ولكن على مدى السنوات الماضية، تراجعت ثقافة السلامة وعملياتها إلى المرتبة الثانية. منتجات.”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى