مقالات الأسهم

لقد نهبت عمليات الاحتيال العميق الملايين. ويحذر الخبراء من أن الأمر قد يتفاقم


وجه ثلاثي الأبعاد يمثل تقنية الذكاء الاصطناعي

ثيموشنكلود | إستوك | صور جيتي

أدت موجة متزايدة من عمليات الاحتيال العميق إلى نهب ملايين الدولارات من الشركات في جميع أنحاء العالم، ويحذر خبراء الأمن السيبراني من أن الأمر قد يزداد سوءًا عندما يستغل المجرمون الذكاء الاصطناعي التوليدي للاحتيال.

التزييف العميق هو مقطع فيديو أو صوت أو صورة لشخص حقيقي تم تعديله والتلاعب به رقميًا، غالبًا من خلال الذكاء الاصطناعي، لتشويهه بشكل مقنع.

وفي واحدة من أكبر الحالات المعروفة هذا العام، تم خداع موظف مالي في هونج كونج لتحويل أكثر من 25 مليون دولار إلى محتالين يستخدمون تقنية التزييف العميق والذين تنكروا في هيئة زملاء في مكالمة فيديو، حسبما قالت السلطات لوسائل الإعلام المحلية في فبراير.

وفي الأسبوع الماضي، أكدت شركة الهندسة البريطانية Arup لـ CNBC أنها الشركة المتورطة في هذه القضية، لكنها لم تتمكن من الخوض في تفاصيل حول هذه المسألة بسبب التحقيق المستمر.

قال ديفيد فيرمان، كبير مسؤولي المعلومات والأمن في شركة Netskope للأمن السيبراني، إن مثل هذه التهديدات تزايدت نتيجة تعميم Chat GPT من Open AI – الذي تم إطلاقه في عام 2022 – والذي سرعان ما دفع تكنولوجيا الذكاء الاصطناعي التوليدية إلى الاتجاه السائد.

وقال فيرمان: “إن إمكانية الوصول العام إلى هذه الخدمات قد خفضت حاجز الدخول أمام مجرمي الإنترنت – ولم يعودوا بحاجة إلى مهارات تكنولوجية خاصة”.

وأضاف أن حجم وتعقيد عمليات الاحتيال قد اتسع مع استمرار تطور تكنولوجيا الذكاء الاصطناعي.

الاتجاه الصاعد

يمكن استخدام العديد من خدمات الذكاء الاصطناعي التوليدية لإنشاء محتوى نصي وصوري وفيديو يشبه الإنسان، وبالتالي يمكن أن تكون بمثابة أدوات قوية للجهات الفاعلة غير المشروعة التي تحاول التلاعب رقميًا وإعادة إنشاء أفراد معينين.

وقال متحدث باسم Arup لـ CNBC: “مثل العديد من الشركات الأخرى في جميع أنحاء العالم، تتعرض عملياتنا لهجمات منتظمة، بما في ذلك الاحتيال في الفواتير، وعمليات التصيد الاحتيالي، وانتحال صوت WhatsApp، والتزييف العميق”.

وبحسب ما ورد حضر العامل المالي مكالمة الفيديو مع أشخاص يُعتقد أنهم المدير المالي للشركة وموظفين آخرين، الذين طلبوا منه إجراء تحويل أموال. ومع ذلك، فإن بقية الحاضرين في ذلك الاجتماع كانوا، في الواقع، تم إعادة إنشاءهم رقميًا.

وأكد أروب استخدام “أصوات وصور مزيفة” في الحادث، مضيفًا أن “عدد هذه الهجمات وتعقيدها ارتفع بشكل حاد في الأشهر الأخيرة”.

وأفادت وسائل الإعلام الحكومية الصينية عن حالة مماثلة في مقاطعة شانشي هذا العام، تتعلق بموظفة مالية، تم خداعها لتحويل 1.86 مليون يوان (262 ألف دولار) إلى حساب محتال بعد مكالمة فيديو مع رئيسها في العمل.

آثار أوسع نطاقا

بالإضافة إلى الهجمات المباشرة، تشعر الشركات بقلق متزايد بشأن الطرق الأخرى التي يمكن من خلالها استخدام الصور أو مقاطع الفيديو أو خطابات كبار المسؤولين بطرق ضارة، كما يقول خبراء الأمن السيبراني.

وفقًا لجيسون هوغ، خبير الأمن السيبراني والمدير التنفيذي المقيم في شركة Great Hill Partners، يمكن استخدام التزييف العميق لأعضاء الشركة رفيعي المستوى لنشر أخبار مزيفة للتلاعب بأسعار الأسهم، وتشويه العلامة التجارية للشركة ومبيعاتها، ونشر معلومات مضللة ضارة أخرى. أ

قال هوغ، الذي عمل سابقًا كعميل خاص لمكتب التحقيقات الفيدرالي: “هذا مجرد خدش للسطح”.

وشدد على أن الذكاء الاصطناعي التوليدي قادر على إنشاء صور مزيفة عميقة استنادًا إلى مجموعة كبيرة من المعلومات الرقمية مثل المحتوى المتاح للجمهور والمستضاف على وسائل التواصل الاجتماعي ومنصات الوسائط الأخرى.

في عام 2022، ادعى باتريك هيلمان، كبير مسؤولي الاتصالات في Binance، في منشور على مدونة أن المحتالين قاموا بتزييفه بعمق بناءً على مقابلات إخبارية سابقة وظهور تلفزيوني، واستخدموه لخداع العملاء وجهات الاتصال في الاجتماعات.

يقول ماثيو ستام من شركة دريكسيل إن الذكاء الاصطناعي والتزييف العميق يمثلان

وقال فيرمان من نتسكوب إن مثل هذه المخاطر دفعت بعض المديرين التنفيذيين إلى البدء في محو تواجدهم على الإنترنت أو الحد منه خوفا من أن يستخدمه مجرمو الإنترنت كذخيرة.

لقد أصبحت تقنية Deepfake واسعة الانتشار بالفعل خارج عالم الشركات.

من الصور الإباحية المزيفة إلى مقاطع الفيديو التي تم التلاعب بها والتي تروج لأدوات الطهي، وقع المشاهير مثل تايلور سويفت ضحية لتكنولوجيا التزييف العميق. كما انتشرت التزييفات العميقة للسياسيين.

وفي الوقت نفسه، قام بعض المحتالين بعمل تزييف عميق لأفراد عائلات الأفراد وأصدقائهم في محاولة لخداعهم من أجل الحصول على الأموال.

ووفقاً لهوغ، فإن القضايا الأوسع سوف تتسارع وتزداد سوءاً لفترة من الوقت، حيث يتطلب منع الجرائم الإلكترونية تحليلاً مدروساً من أجل تطوير الأنظمة والممارسات والضوابط للدفاع ضد التقنيات الجديدة.

ومع ذلك، قال خبراء الأمن السيبراني لـ CNBC إن الشركات يمكنها تعزيز الدفاعات ضد التهديدات التي تعتمد على الذكاء الاصطناعي من خلال تحسين تعليم الموظفين، واختبار الأمن السيبراني، والمطالبة بكلمات رمزية وطبقات متعددة من الموافقات لجميع المعاملات – وهو أمر كان من الممكن أن يمنع حالات مثل حالة Arup. أ

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى