التقويم الاخباري

تحذير خطير.. ChatGPT-4o قد يصبح أداة لسرقة الأموال

تابع أحدث الأخبار عبر تطبيق

تزداد المخاوف من الذكاء الاصطناعي، على الرغم من الفوائد المتعددة، إذ كشفت دراسة حديثة عن إمكانية استغلال المجرمين لواجهة برمجة التطبيقات الصوتية لنموذج ChatGPT-4o من شركة Open AI لتنفيذ عمليات احتيال مالي، وفقًا لما نقلته مجلة ديلي ميل حيث أظهرت الدراسة أن نسب نجاح الاحتيال باستخدام هذه التقنية تتراوح بين منخفضة ومتوسطة.

يعد ChatGPT-4o من أحدث إصدارات الذكاء الاصطناعي، حيث يمتلك قدرة عالية على استيعاب النصوص، الأصوات، والمرئيات، إلى جانب أنظمة أمان صُممت للحد من إساءة الاستخدام، لكن مع تقدم تقنيات التزييف الصوتي العميق وأدوات تحويل النص إلى صوت، يتزايد احتمال إساءة استخدام الذكاء الاصطناعي في الاحتيالات، ما قد يسفر عن خسائر مالية كبيرة.

تحديات الأمان وأساليب الاحتيال

وفقًا لدراسة من جامعة إلينوي، فإن أدوات الذكاء الاصطناعي الحديثة تعاني من نقص في آليات الحماية الكافية، واستعرض الباحثون أنواع الاحتيالات المحتملة، مثل التحويلات المصرفية وسرقة البيانات الرقمية، والتي يمكن تنفيذها عبر أدوات ChatGPT-4o المصممة للتفاعل مع المواقع الإلكترونية وإدارة الأكواد المتعلقة بالمصادقة الثنائية، مع القدرة على تجاوز بعض القيود الأمنية.

تفاصيل عن نجاح عمليات الاحتيال في تجربة أجراها الباحثون.

وأظهرت النتائج أن عمليات الاحتيال الصوتي قد تحقق نسب نجاح تصل إلى 60%، باستخدام 26 خطوة متتابعة عبر المتصفح، وكانت من بين العمليات الناجحة سرقة حسابات Gmail بنسبة 60%، بينما بلغت تكلفة عمليات تحويل مصرفي معقدة 2.51 دولار فقط.

رد Open AI 

صرحت شركة Open AI بأن نموذجها الجديد "o1-preview" يتميز بأمان أعلى من النماذج السابقة، حيث حقق نسبة أمان تبلغ 93% مقارنة بـ71% في ChatGPT-4o. 

وأكدت الشركة التزامها بمواصلة تعزيز الأمان وتقييد استخدام الذكاء الاصطناعي لتوليد الأصوات المعتمدة فقط، مما يقلل من احتمالات التزييف الصوتي.

أخبار متعلقة :