خبراء يحذرون: الذكاء الاصطناعي يجعل صور الاعتداء على الأطفال المفبركة أكثر واقعية!
مع تزايد تقدم تكنولوجيا الذكاء الاصطناعي، أصبحت صور الاعتداء الجنسي على الأطفال المفبركة أكثر خطورة وواقعية، مما يثير قلقًا كبيرًا بين الخبراء والمنظمات الرقابية. تشير التقارير إلى أن هذه الصور، التي تنتجها أدوات الذكاء الاصطناعي، أصبحت صعبة التمييز عن المحتوى الحقيقي، مما يسهل انتشارها واستهلاكها من قبل أفراد غير قانونيين. هذا التطور ليس مجرد تقني، بل يعكس تحديات أخلاقية وأمنية تتطلب تدخلات فورية للحماية من مخاطر الإنترنت.
صور الاعتداء على الأطفال بالذكاء الاصطناعي: زيادة في الواقعية والانتشار
في السنوات الأخيرة، أكدت منظمات مثل مؤسسة مراقبة الإنترنت على أن جودة صور الاعتداء الجنسي على الأطفال المولدة بواسطة الذكاء الاصطناعي قد تحسنت بشكل كبير، مما جعلها أكثر إقناعًا وصعوبة في الكشف عنها. وفقًا لتقرير سنوي، تم تسجيل 245 بلاغًا عن مثل هذه الصور في عام 2024، وهو رقم يمثل زيادة بنسبة 380% مقارنة بالـ51 بلاغًا في العام السابق. هذه البلاغات شملت أكثر من 7644 صورة وعددًا من مقاطع الفيديو، حيث غالبًا ما يحتوي رابط واحد على مواد متعددة تنتهك القوانين. أبرز هذه المواد هي تلك التي تندرج تحت “الفئة أ”، والتي تمثل أكثر أشكال الاعتداء تطرفًا، حيث شكلت 39% من المحتوى غير القانوني الذي تم تقييمه.
هذا الارتفاع في الجودة والكم يرتبط مباشرة بتطور الذكاء الاصطناعي، الذي يسمح بإنشاء صور تبدو كأنها حقيقية، حتى أنها تخدع المتخصصين المدربين. كما أن هذه المواد لم تعد محصورة في “الشبكة المظلمة”، بل بدأت تظهر على الإنترنت العام، مما يزيد من خطر الوصول إليها. في هذا السياق، أعلنت الحكومة البريطانية عن تعديلات قانونية في فبراير 2024، تجرم امتلاك أو إنشاء أو توزيع أدوات الذكاء الاصطناعي المخصصة لإنتاج مثل هذه المواد، بالإضافة إلى منع امتلاك دليل إرشادي يساعد في إنشاء صور مسيئة. هذه الخطوات تهدف إلى سد الثغرات التي كانت تقلق الشرطة ونشطاء السلامة الرقمية.
تطور تقنيات الذكاء الاصطناعي في إنتاج المحتوى غير القانوني
مع تطور تقنيات الذكاء الاصطناعي، أصبح إنتاج المحتوى غير القانوني أكثر كفاءة وإحترافية، مما يعزز من انتشار صور الاعتداء على الأطفال عبر المنصات الرقمية. التقرير السنوي لمؤسسة مراقبة الإنترنت كشف عن مستويات قياسية بلغت 291,273 بلاغًا في عام 2024، بزيادة 6% عن السنة السابقة، مع تركيز كبير على الفتيات كضحايا رئيسيين. هذا الارتفاع يعكس كيف أن الذكاء الاصطناعي لم يعد مجرد أداة ترفيهية، بل أصبح سلاحًا في يد الأفراد ذوي النيات السيئة. لمواجهة هذا التحدي، قدمت المؤسسة أداة أمان جديدة مجانًا تُدعى Image Intercept، والتي تساعد المواقع الإلكترونية الصغيرة في اكتشاف وحجب الصور المشبوهة من خلال قاعدة بيانات تحتوي على 2.8 مليون صورة مصنفة كإجرامية. هذه الأداة تعزز من الامتثال لقانون السلامة على الإنترنت الجديد، الذي يركز على حماية الأطفال ومعالجة المحتوى غير القانوني.
أكد الرئيس التنفيذي المؤقت للمؤسسة، ديريك راي هيل، أن توفير هذه الأداة يمثل نقلة نوعية في مجال السلامة الرقمية، حيث يمكنها منع انتشار المواد الضارة قبل أن تصل إلى الجمهور. في الواقع، يجب على المنصات الإلكترونية استغلال مثل هذه التكنولوجيات لتعزيز آليات الرقابة، خاصة مع تزايد الاعتماد على الذكاء الاصطناعي في الحياة اليومية. هذا النهج ليس فقط وقائيًا، بل يساهم في بناء بيئة إنترنت أكثر أمانًا للأطفال، مما يتطلب تعاونًا بين الحكومات والمنظمات لمواكبة التطورات التقنية. في نهاية المطاف، يبرز هذا الموضوع أهمية تعزيز التعليم الرقمي والتشريعات لمواجهة مخاطر الذكاء الاصطناعي في إنتاج المحتوى غير القانوني، وضمان حماية الجيل القادم من الاستغلال عبر الشبكات.