مقالات الأسهم

توافق OpenAI وAnthropic على السماح لمعهد سلامة الذكاء الاصطناعي الأمريكي باختبار النماذج


جاكوب بورزيكي | نورفوتو | صور جيتي

اتفقت شركتا OpenAI وAnthropic، وهما الشركتان الناشئتان الأكثر قيمة في مجال الذكاء الاصطناعي، على السماح لمعهد سلامة الذكاء الاصطناعي الأمريكي باختبار نماذجهما الجديدة قبل إطلاقها للعامة، وذلك في أعقاب المخاوف المتزايدة في الصناعة بشأن السلامة والأخلاقيات في الذكاء الاصطناعي.

وقال المعهد، الذي يقع مقره داخل وزارة التجارة في المعهد الوطني للمعايير والتكنولوجيا (NIST)، في بيان صحفي إنه سيحصل على “الوصول إلى النماذج الجديدة الرئيسية من كل شركة قبل وبعد إصدارها العام”.

تم إنشاء المجموعة بعد أن أصدرت إدارة بايدن-هاريس أول أمر تنفيذي على الإطلاق للحكومة الأمريكية بشأن الذكاء الاصطناعي في أكتوبر 2023، والذي يتطلب تقييمات جديدة للسلامة وتوجيهات تتعلق بالمساواة والحقوق المدنية وأبحاثًا حول تأثير الذكاء الاصطناعي على سوق العمل.

كتب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، في منشور على X: “يسعدنا التوصل إلى اتفاق مع معهد سلامة الذكاء الاصطناعي الأمريكي لاختبار ما قبل النشر لنماذجنا المستقبلية”. وأكدت OpenAI أيضًا لـ CNBC يوم الخميس أنه في العام الماضي ، ضاعفت الشركة عدد المستخدمين النشطين أسبوعيًا إلى 200 مليون. وكان موقع Axios أول من أبلغ عن هذا الرقم.

وتأتي هذه الأخبار بعد يوم من ظهور تقارير تفيد بأن OpenAI تجري محادثات لجمع جولة تمويل تقدر قيمة الشركة بأكثر من 100 مليار دولار. وتقود Thrive Capital الجولة وستستثمر مليار دولار، وفقًا لمصدر مطلع على الأمر طلب عدم ذكر اسمه لأن التفاصيل سرية.

وقدرت قيمة Anthropic، التي أسسها مديرون تنفيذيون وموظفون سابقون في شركة OpenAI، مؤخرًا بمبلغ 18.4 مليار دولار. التهم الأنثروبولوجية أمازون كمستثمر رائد، في حين أن OpenAI مدعومة بشكل كبير من قبل مايكروسوفت.

ووفقًا لبيان يوم الخميس، فإن الاتفاقيات المبرمة بين الحكومة وOpenAI وAnthropic “ستمكن من إجراء بحث تعاوني حول كيفية تقييم القدرات ومخاطر السلامة، بالإضافة إلى طرق التخفيف من تلك المخاطر”.

وقال جيسون كوون، كبير مسؤولي الإستراتيجية في OpenAI، لـ CNBC في بيان: “نحن ندعم بقوة مهمة معهد سلامة الذكاء الاصطناعي الأمريكي ونتطلع إلى العمل معًا لإبلاغ أفضل ممارسات ومعايير السلامة لنماذج الذكاء الاصطناعي”.

وقال جاك كلارك، المؤسس المشارك لشركة Anthropic، إن “تعاون الشركة مع معهد سلامة الذكاء الاصطناعي الأمريكي يعزز خبرتهم الواسعة لاختبار نماذجنا بدقة قبل نشرها على نطاق واسع” و”يعزز قدرتنا على تحديد المخاطر وتخفيفها، وتعزيز تطوير الذكاء الاصطناعي المسؤول”.

أعرب عدد من مطوري وباحثي الذكاء الاصطناعي عن مخاوفهم بشأن السلامة والأخلاق في صناعة الذكاء الاصطناعي التي تستهدف الربح بشكل متزايد. نشر موظفو OpenAI الحاليون والسابقون خطابًا مفتوحًا في 4 يونيو، يصفون فيه المشكلات المحتملة المتعلقة بالتقدم السريع الذي يحدث في الذكاء الاصطناعي ونقص الرقابة وحماية المبلغين عن المخالفات.

وكتبوا: “إن شركات الذكاء الاصطناعي لديها حوافز مالية قوية لتجنب الرقابة الفعالة، ونحن لا نعتقد أن الهياكل المخصصة لحوكمة الشركات كافية لتغيير هذا”. وأضافوا أن شركات الذكاء الاصطناعي “ليس لديها حاليًا سوى التزامات ضعيفة بمشاركة بعض هذه المعلومات مع الحكومات، وليس مع المجتمع المدني”، ولا يمكن “الاعتماد عليها لمشاركتها طوعًا”.

بعد أيام من نشر الرسالة، أكد مصدر مطلع لـ CNBC أن لجنة التجارة الفيدرالية (FTC) ووزارة العدل على استعداد لفتح تحقيقات مكافحة الاحتكار في OpenAI وMicrosoft وNvidia. وصفت لينا خان، رئيسة لجنة التجارة الفيدرالية، الإجراء الذي اتخذته وكالتها بأنه “تحقيق سوقي في الاستثمارات والشراكات التي يتم تشكيلها بين مطوري الذكاء الاصطناعي ومقدمي الخدمات السحابية الرئيسيين”.

في يوم الأربعاء، أقر المشرعون في ولاية كاليفورنيا مشروع قانون ساخن حول سلامة الذكاء الاصطناعي، وأرسلوه إلى مكتب الحاكم جافين نيوسوم. وسيقرر نيوسوم، وهو ديمقراطي، إما استخدام حق النقض ضد التشريع أو التوقيع عليه ليصبح قانونًا بحلول 30 سبتمبر. وقد اعترض البعض على مشروع القانون، الذي سيجعل اختبار السلامة والضمانات الأخرى إلزامية لنماذج الذكاء الاصطناعي بتكلفة معينة أو قوة حاسوبية معينة. شركات التكنولوجيا لقدرتها على إبطاء الابتكار.

يشاهد: تعارض Google وOpenAI وآخرون مشروع قانون سلامة الذكاء الاصطناعي في كاليفورنيا

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى