مقالات الأسهم

تحذر رسالة OpenAI المفتوحة من “المخاطر الجسيمة” للذكاء الاصطناعي ونقص الرقابة


الرئيس التنفيذي لشركة OpenAI سام ألتمان يتحدث خلال مؤتمر Microsoft Build في مقر Microsoft في ريدموند، واشنطن، في 21 مايو 2024.

جيسون ريدموند | فرانس برس | صور جيتي

نشرت مجموعة من موظفي OpenAI الحاليين والسابقين رسالة مفتوحة يوم الثلاثاء تصف المخاوف بشأن التقدم السريع في صناعة الذكاء الاصطناعي على الرغم من نقص الرقابة وغياب حماية المبلغين عن المخالفات لأولئك الذين يرغبون في التحدث.

وكتب الموظفون: “تمتلك شركات الذكاء الاصطناعي حوافز مالية قوية لتجنب الرقابة الفعالة، ولا نعتقد أن الهياكل المخصصة لحوكمة الشركات كافية لتغيير هذا”.

أوبن آي, جوجل, مايكروسوفت, ميتا وشركات أخرى على رأس سباق تسلح الذكاء الاصطناعي – وهو سوق من المتوقع أن تصل إيراداته إلى تريليون دولار في غضون عقد من الزمن – حيث تسارع الشركات في كل صناعة على ما يبدو إلى إضافة روبوتات الدردشة والوكلاء الذين يعملون بالذكاء الاصطناعي لتجنب ذلك. التخلف عن الركب من قبل المنافسين.

كتب الموظفون الحاليون والسابقون أن شركات الذكاء الاصطناعي لديها “معلومات جوهرية غير عامة” حول ما يمكن أن تفعله التكنولوجيا الخاصة بها، ومدى تدابير السلامة التي وضعتها ومستويات المخاطر التي تنطوي عليها التكنولوجيا لأنواع مختلفة من الضرر.

وكتبوا: “نحن نتفهم أيضًا المخاطر الجسيمة التي تشكلها هذه التقنيات”، مضيفين أن الشركات “ليس لديها حاليًا سوى التزامات ضعيفة بمشاركة بعض هذه المعلومات مع الحكومات، وليس مع المجتمع المدني. ولا نعتقد أنه يمكن الاعتماد عليها جميعًا”. لمشاركتها طوعا.”

توضح الرسالة أيضًا مخاوف الموظفين الحاليين والسابقين بشأن عدم كفاية الحماية للمبلغين عن المخالفات في صناعة الذكاء الاصطناعي، قائلة إنه بدون إشراف حكومي فعال، يكون الموظفون في وضع فريد نسبيًا لمحاسبة الشركات.

وكتب الموقعون: “إن اتفاقيات السرية الواسعة تمنعنا من التعبير عن مخاوفنا، باستثناء الشركات نفسها التي قد تفشل في معالجة هذه القضايا”. “إن الحماية العادية للمبلغين عن المخالفات ليست كافية لأنها تركز على النشاط غير القانوني، في حين أن العديد من المخاطر التي نشعر بالقلق إزاءها لم يتم تنظيمها بعد.”

تطلب الرسالة من شركات الذكاء الاصطناعي الالتزام بعدم الدخول في اتفاقيات عدم الاستخفاف أو إنفاذها؛ لإنشاء عمليات مجهولة المصدر للموظفين الحاليين والسابقين للتعبير عن مخاوفهم لمجلس إدارة الشركة والمنظمين وغيرهم؛ لدعم ثقافة النقد المفتوح؛ وعدم الانتقام من الإبلاغ عن المخالفات العامة في حالة فشل عمليات إعداد التقارير الداخلية.

قام أربعة موظفين مجهولين في OpenAI وسبعة موظفين سابقين، بما في ذلك دانيال كوكوتاجلو، وجاكوب هيلتون، وويليام سوندرز، وكارول وينرايت، ودانيال زيغلر، بالتوقيع على الرسالة. ومن بين الموقعين أيضًا رامانا كومار، الذي عمل سابقًا في Google DeepMind، ونيل ناندا، الذي يعمل حاليًا في Google DeepMind وعمل سابقًا في Anthropic. كما أيد الرسالة ثلاثة من علماء الكمبيوتر المشهورين المعروفين بتطوير مجال الذكاء الاصطناعي: جيفري هينتون، ويوشوا بنجيو، وستيوارت راسل.

وقال متحدث باسم OpenAI لـ CNBC: “نحن متفقون على أن النقاش الدقيق أمر بالغ الأهمية نظرًا لأهمية هذه التكنولوجيا وسنواصل التعامل مع الحكومات والمجتمع المدني والمجتمعات الأخرى حول العالم”. الشركة التي تدعمها مايكروسوفتوقال المتحدث إن الشركة لديها خط ساخن مجهول للنزاهة، بالإضافة إلى لجنة السلامة والأمن بقيادة أعضاء مجلس الإدارة وقادة OpenAI.

ورفضت مايكروسوفت التعليق.

تصاعد الجدل حول OpenAI

في شهر مايو، تراجعت شركة OpenAI عن قرار مثير للجدل بجعل الموظفين السابقين يختارون بين التوقيع على اتفاقية عدم الاستخفاف التي لن تنتهي أبدًا أو الاحتفاظ بأسهمهم المكتسبة في الشركة. تم إرسال مذكرة داخلية، اطلعت عليها CNBC، إلى الموظفين السابقين وتمت مشاركتها مع الموظفين الحاليين.

ذكرت المذكرة، الموجهة إلى كل موظف سابق، أنه في وقت مغادرة الشخص من OpenAI، “ربما تم إبلاغك بأنه مطلوب منك تنفيذ اتفاقية إطلاق عامة تتضمن بند عدم الاستخفاف من أجل الاحتفاظ بالحقوق المكتسبة الوحدات [of equity]”.

وقال متحدث باسم OpenAI لـ CNBC في ذلك الوقت: “نحن نأسف بشدة لأننا نغير هذه اللغة الآن فقط؛ فهي لا تعكس قيمنا أو الشركة التي نريد أن نكون عليها”.

تأتي الرسالة المفتوحة يوم الثلاثاء أيضًا في أعقاب قرار OpenAI في مايو بحل فريقها الذي يركز على المخاطر طويلة المدى للذكاء الاصطناعي بعد عام واحد فقط من إعلانها عن المجموعة، حسبما أكد شخص مطلع على الوضع لـ CNBC في ذلك الوقت.

وقال الشخص، الذي تحدث شريطة عدم الكشف عن هويته، إنه سيتم إعادة تعيين بعض أعضاء الفريق في فرق أخرى داخل الشركة.

تم حل الفريق بعد أن أعلن قادته، المؤسس المشارك لشركة OpenAI، إيليا سوتسكيفر وجان ليك، عن مغادرتهما الشركة الناشئة في شهر مايو. كتب Leike في منشور على X أن “ثقافة وعمليات السلامة في OpenAI قد تراجعت عن المنتجات اللامعة”.

إيليا سوتسكيفر، عالم الكمبيوتر الروسي الإسرائيلي الكندي والمؤسس المشارك وكبير العلماء في OpenAI، يتحدث في جامعة تل أبيب في تل أبيب، 5 يونيو، 2023.

جاك جويز | فرانس برس | صور جيتي

قال الرئيس التنفيذي سام ألتمان على X إنه حزين لرؤية رحيل Leike وأن الشركة لديها المزيد من العمل للقيام به. بعد فترة وجيزة، نشر المؤسس المشارك لشركة OpenAI، جريج بروكمان، بيانًا منسوبًا إلى بروكمان وألتمان على X، مؤكدًا أن الشركة “رفعت الوعي بمخاطر وفرص الذكاء الاصطناعي العام حتى يتمكن العالم من الاستعداد له بشكل أفضل”.

“انضممت لأنني اعتقدت أن OpenAI سيكون أفضل مكان في العالم لإجراء هذا البحث،” كتب Leike على X. “ومع ذلك، كنت أختلف مع قيادة OpenAI حول الأولويات الأساسية للشركة لبعض الوقت، حتى وصلنا أخيرًا نقطة الانهيار.”

كتب Leike أنه يعتقد أن الكثير من النطاق الترددي للشركة يجب أن يركز على الأمن والمراقبة والتأهب والسلامة والتأثير المجتمعي.

وكتب: “من الصعب جدًا حل هذه المشكلات، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك”. “على مدى الأشهر القليلة الماضية، كان فريقي يبحر ضد الريح. في بعض الأحيان كنا نكافح من أجل ذلك [computing resources] وأصبح من الصعب أكثر فأكثر إجراء هذا البحث المهم.”

وأضاف ليك أن OpenAI يجب أن تصبح “شركة AGI للسلامة أولاً”.

وكتب: “إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته”. “تتحمل شركة OpenAI مسؤولية هائلة نيابة عن البشرية جمعاء. ولكن على مدى السنوات الماضية، تراجعت ثقافة وعمليات السلامة عن المنتجات اللامعة.”

تأتي عمليات المغادرة رفيعة المستوى بعد أشهر من تعرض OpenAI لأزمة قيادة تتعلق بألتمان.

وفي نوفمبر/تشرين الثاني، أقال مجلس إدارة OpenAI ألتمان، قائلًا في بيان له إن ألتمان لم يكن “صريحًا باستمرار في اتصالاته مع مجلس الإدارة”.

يبدو أن القضية تزداد تعقيدًا كل يوم، حيث ذكرت صحيفة وول ستريت جورنال ووسائل الإعلام الأخرى أن سوتسكيفر ركز تركيزه على ضمان أن الذكاء الاصطناعي لن يؤذي البشر، في حين كان آخرون، بما في ذلك ألتمان، أكثر حرصًا على المضي قدمًا في تقديم الحلول. تكنولوجيا جديدة.

أدت الإطاحة بألتمان إلى استقالات أو تهديدات بالاستقالات، بما في ذلك رسالة مفتوحة موقعة من جميع موظفي OpenAI تقريبًا، وضجة من المستثمرين، بما في ذلك مايكروسوفت. وفي غضون أسبوع، عاد ألتمان إلى الشركة، وخرج أعضاء مجلس الإدارة هيلين تونر، وتاشا ماكولي، وسوتسكيفر، الذين صوتوا لإقالة ألتمان. ظل Sutskever ضمن طاقم العمل في ذلك الوقت ولكنه لم يعد بصفته عضوًا في مجلس الإدارة. ظل آدم دانجيلو، الذي صوت أيضًا لصالح الإطاحة بألتمان، عضوًا في مجلس الإدارة.

الممثلة سكارليت جوهانسون في مهرجان كان السينمائي، كان، فرنسا، 24 مايو 2023.

محفظة موندادوري | محفظة موندادوري | صور جيتي

في مايو، أطلقت OpenAI نموذجًا جديدًا للذكاء الاصطناعي وإصدارًا لسطح المكتب من ChatGPT، إلى جانب واجهة مستخدم محدثة وقدرات صوتية، وهي أحدث جهود الشركة لتوسيع استخدام برنامج الدردشة الآلي الشهير الخاص بها. بعد أسبوع واحد من ظهور OpenAI لمجموعة الأصوات الصوتية لأول مرة، أعلنت الشركة أنها ستسحب أحد أصوات روبوت الدردشة الفيروسي، المسمى “Sky”.

وأثارت “سكاي” جدلا بسبب تشابهها بصوت الممثلة سكارليت جوهانسون في فيلم “Her” الذي يدور حول الذكاء الاصطناعي. زعمت نجمة هوليوود أن OpenAI انتزعت صوتها على الرغم من أنها رفضت السماح للشركة باستخدامه.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى