مقالات الأسهم

تقوم شركة OpenAI بإعادة تعيين المدير التنفيذي الأعلى للسلامة Madry إلى دور يركز على تفكير الذكاء الاصطناعي


قامت OpenAI الأسبوع الماضي بإزالة ألكسندر مادري، أحد كبار المديرين التنفيذيين للسلامة في OpenAI، من منصبه وأعادت تعيينه إلى وظيفة تركز على استدلال الذكاء الاصطناعي، حسبما أكدت مصادر مطلعة على الوضع لـ CNBC.

كان مادري رئيس قسم الاستعداد في OpenAI، وهو فريق “مكلف بتتبع وتقييم والتنبؤ والمساعدة في الحماية من المخاطر الكارثية المتعلقة بنماذج الذكاء الاصطناعي الحدودية”، وفقًا للسيرة الذاتية لمادري على موقع مبادرة الذكاء الاصطناعي بجامعة برينستون.

وقال OpenAI لـ CNBC إن مادري سيظل يعمل على أعمال سلامة الذكاء الاصطناعي الأساسية في منصبه الجديد.

وهو أيضًا مدير مركز معهد ماساتشوستس للتكنولوجيا للتعلم الآلي القابل للنشر وقائد مشارك لأعضاء هيئة التدريس في منتدى سياسات الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا، وهي الأدوار التي يقضيها حاليًا في إجازة، وفقًا لموقع الجامعة على الإنترنت.

ويأتي قرار إعادة تعيين مادري قبل أقل من أسبوع من قيام مجموعة من أعضاء مجلس الشيوخ الديمقراطيين بإرسال رسالة إلى الرئيس التنفيذي لشركة OpenAI سام ألتمان بشأن “أسئلة حول كيفية معالجة OpenAI لمخاوف السلامة الناشئة”.

كما نصت الرسالة، التي تم إرسالها يوم الاثنين واطلعت عليها CNBC، “نسعى للحصول على معلومات إضافية من OpenAI حول الخطوات التي تتخذها الشركة للوفاء بالتزاماتها العامة بشأن السلامة، وكيف تقوم الشركة بتقييم تقدمها داخليًا بشأن تلك الالتزامات، وعلى تحديد الشركة وتخفيف تهديدات الأمن السيبراني.”

ولم تستجب OpenAI على الفور لطلب التعليق.

وطلب المشرعون من الشركة الناشئة في مجال التكنولوجيا الرد بسلسلة من الإجابات على أسئلة محددة حول ممارسات السلامة والتزاماتها المالية بحلول 13 أغسطس.

كل هذا جزء من صيف مليء بالمخاوف المتزايدة المتعلقة بالسلامة والخلافات المحيطة بـ OpenAI، والتي، جنبًا إلى جنب مع Google وMicrosoft وMeta وغيرها من الشركات، على رأس سباق تسلح الذكاء الاصطناعي – وهو سوق من المتوقع أن يصل إلى تريليون دولار. في الإيرادات في غضون عقد من الزمن – حيث تسارع الشركات في كل صناعة على ما يبدو إلى إضافة روبوتات الدردشة والوكلاء الذين يعملون بالذكاء الاصطناعي لتجنب تخلف المنافسين عن الركب.

في وقت سابق من هذا الشهر، تخلت مايكروسوفت عن مقعدها المراقب في مجلس إدارة شركة OpenAI، وذكرت في رسالة اطلعت عليها CNBC أنه يمكنها الآن التنحي جانبًا لأنها راضية عن تشكيل مجلس إدارة الشركة الناشئة، والذي تم تجديده في الأشهر الثمانية التي تلت الانتفاضة التي اندلعت عام 2016. أدى ذلك إلى الإطاحة بألتمان لفترة وجيزة وهدد استثمار مايكروسوفت الضخم في الشركة.

لكن في الشهر الماضي، نشرت مجموعة من موظفي OpenAI الحاليين والسابقين رسالة مفتوحة تصف المخاوف بشأن التقدم السريع في صناعة الذكاء الاصطناعي على الرغم من الافتقار إلى الرقابة وغياب حماية المبلغين عن المخالفات لأولئك الذين يرغبون في التحدث.

وكتب الموظفون في ذلك الوقت: “تمتلك شركات الذكاء الاصطناعي حوافز مالية قوية لتجنب الرقابة الفعالة، ولا نعتقد أن الهياكل المخصصة لحوكمة الشركات كافية لتغيير هذا”.

بعد أيام من نشر الرسالة، أكد مصدر مطلع لـ CNBC أن لجنة التجارة الفيدرالية ووزارة العدل على وشك فتح تحقيقات مكافحة الاحتكار في OpenAI وMicrosoft وNvidia، مع التركيز على سلوك الشركات.

وصفت لينا خان، رئيسة لجنة التجارة الفيدرالية، الإجراء الذي اتخذته وكالتها بأنه “تحقيق سوقي في الاستثمارات والشراكات التي يتم تشكيلها بين مطوري الذكاء الاصطناعي ومقدمي الخدمات السحابية الرئيسيين”.

كتب الموظفون الحاليون والسابقون في رسالة يونيو أن شركات الذكاء الاصطناعي لديها “معلومات جوهرية غير عامة” حول ما يمكن أن تفعله التكنولوجيا الخاصة بها، ومدى تدابير السلامة التي اتخذتها ومستويات المخاطر التي تنطوي عليها التكنولوجيا لأنواع مختلفة. من الأذى.

وكتبوا: “نحن نتفهم أيضًا المخاطر الجسيمة التي تشكلها هذه التقنيات”، مضيفين أن الشركات “ليس لديها حاليًا سوى التزامات ضعيفة بمشاركة بعض هذه المعلومات مع الحكومات، وليس مع المجتمع المدني. ولا نعتقد أنه يمكن الاعتماد عليها جميعًا”. لمشاركتها طوعا.”

في شهر مايو، قررت OpenAI حل فريقها الذي يركز على المخاطر طويلة المدى للذكاء الاصطناعي بعد عام واحد فقط من إعلانها عن المجموعة، وهو ما أكده شخص مطلع على الوضع لـ CNBC في ذلك الوقت.

وقال الشخص، الذي تحدث شريطة عدم الكشف عن هويته، إنه سيتم إعادة تعيين بعض أعضاء الفريق في فرق أخرى داخل الشركة.

تم حل الفريق بعد أن أعلن قادته، المؤسس المشارك لشركة OpenAI، إيليا سوتسكيفر وجان ليك، عن رحيلهما عن الشركة الناشئة في شهر مايو. كتب Leike في منشور على X أن “ثقافة وعمليات السلامة في OpenAI قد تراجعت عن المنتجات اللامعة”.

قال ألتمان في ذلك الوقت على X إنه كان حزينًا لرؤية رحيل Leike وأن OpenAI كان لديها المزيد من العمل للقيام به. بعد فترة وجيزة، نشر المؤسس المشارك جريج بروكمان بيانًا منسوبًا إلى بروكمان والرئيس التنفيذي لشركة X، مؤكدًا أن الشركة “رفعت الوعي بمخاطر وفرص الذكاء الاصطناعي العام حتى يتمكن العالم من الاستعداد له بشكل أفضل”.

“لقد انضممت لأنني اعتقدت أن OpenAI سيكون أفضل مكان في العالم لإجراء هذا البحث”، كتب Leike على X في ذلك الوقت. “ومع ذلك، فقد كنت أختلف مع قيادة OpenAI حول الأولويات الأساسية للشركة لبعض الوقت، حتى وصلنا أخيرًا إلى نقطة الانهيار.”

كتب Leike أنه يعتقد أن الكثير من النطاق الترددي للشركة يجب أن يركز على الأمن والمراقبة والتأهب والسلامة والتأثير المجتمعي.

وكتب: “من الصعب جدًا حل هذه المشكلات، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك”. “على مدى الأشهر القليلة الماضية، كان فريقي يبحر ضد الريح. في بعض الأحيان كنا نكافح من أجل ذلك [computing resources] وأصبح من الصعب أكثر فأكثر إجراء هذا البحث المهم.”

وأضاف ليك أن OpenAI يجب أن تصبح “شركة AGI للسلامة أولاً”.

وكتب في ذلك الوقت: “إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته”. “تتحمل شركة OpenAI مسؤولية هائلة نيابة عن البشرية جمعاء. ولكن على مدى السنوات الماضية، تراجعت ثقافة وعمليات السلامة عن المنتجات اللامعة.”

ذكرت المعلومات لأول مرة عن إعادة تعيين مادري.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى