شركات التكنولوجيا العالمية تجتهد لإيجاد حلول لمكافحة “التزييف العميق”

تظهر حلول في قطاع التكنولوجيا لمكافحة التزييف العميق ومقاطع الفيديو المزيفة والأصوات المفبركة، التي ساهم الذكاء الاصطناعي في انتشارها، بهدف الحدّ من مختلف أنواع عمليات الاحتيال.

تسمع لوريل عن طريق اتصال هاتفي صوت والدتها ديبي دودكين “هذه أنا (…) لقد تعرضت لحادث”، معلِمَةً اياها بأنها في المستشفى. فما كان من المرأة إلا أن أغلقت الخط واتصلت بوالدتها، التي كانت في الواقع موجودة في مكتبها غير مصابة بأي أذى. لحسن الحظ، كانت لوريل موجودة في منزل جدتها روثي (93 عاما)، التي تلقت المكالمة الهاتفية في محاولة لإيقاعها بعملية احتيال يبدو أنها كانت الهدف من الاتصال.

إعلان شركات التكنولوجيا العالمية تجتهد لإيجاد حلول لمكافحة "التزييف العميق"

وتقول ديبي التي تعيش في كاليفورنيا، في حديث لوكالة “فرانس برس”، إنّ المحاولات من هذا النوع “تحدث يوميا. قد يكون الذكاء الاصطناعي خطرا جدا”.

وانتشرت تقنية التزييف العميق على شبكات التواصل الاجتماعي من خلال تركيب مقاطع مفبركة لشخصيات، أحيانا لأغراض التضليل، كما نتم الاستعانة بها من قبل عصابات الجريمة المنظمة.

وفي أوائل فبراير أعلنت شرطة هونغ كونغ أنّ موظفا في شركة متعددة الجنسيات تم إقناعه بتحويل 200 مليون دولار محلي في هونغ كونغ (25 مليون دولار أميركي) إلى محتالين نظموا مؤتمرا عبر الفيديو مع صور رمزية (أفاتار) بحجم فعلي قائمة على الذكاء الاصطناعي لعدد كبير من زملائه.

وتبيّن دراسة نشرتها في فبراير شركة “آي بوم”، الناشئة المتخصصة في رصد عمليات التزييف، أن 0,1 بالمائة فقط من الأميركيين والبريطانيين الذين خضعوا للاختبار تمكّنوا بشكل صحيح من تحديد صورة أو مقطع فيديو مزيّف.

ويقول فيجاي بالاسوبرامانيان، رئيس “بيندروب سكيوريتي” المتخصصة في التحقق الصوتي، “قبل أقل من عشر سنوات ما كانت هناك سوى أداة واحدة لتوليد صوت من خلال الذكاء الاصطناعي، أما اليوم فثمة 490 أداة”.

وقد بدّل انتشار الذكاء الاصطناعي التوليدي الوضع.

ويضيف “في السابق كان ابتكار تسجيل صوتي يستغرق 20 ساعة (من التسجيلات). أما اليوم فباتت هذه المهمة تحتاج خمس ثوان”.

ثمة جهات كثيرة توفّر للشركات القدرة على رصد المحتوى المزيف بالذكاء الاصطناعي في الوقت الفعلي، سواء في المقاطع الصوتية أو الفيديو، مثل “رياليتي ديفندر” و”إنتل”.

وتستخدم “إنتل” تغيرات اللون في الأوعية الدموية للوجه (تصوير التحجم الضوئي) في أداتها “فايك كاتشر”، بينما يقسم “بيندروب” كل ثانية من المقطع الصوتي إلى 8 آلاف مقتطف ويقارنها بخصائص الصوت البشري.

ويقول رئيس شركة “أتيستيف”، نيكوس فيكياريدس، “مثل أي شركة للأمن السيبراني، ينبغي دائما البقاء على اطلاع”، مضيفا “في البداية كنّا نرى أشخاصا مع يد بستة أصابع، ولكن مع التقدم في التكنولوجيا تزداد صعوبة رصد التزييف بالعين المجردة”.

مثل البريد العشوائي

وقلّلت بعض المنشورات العلمية من فعالية أنظمة الكشف هذه، لكنّ دراسات جامعية كثيرة سلطت الضوء أيضا على معدلات الكشف المرتفعة.

وبالنسبة إلى فيجاي بالاسوبرامانيان، سيتعين في النهاية على كل الشركات أن تتزوّد ببرنامج رصد المحتوى المولَّد بالذكاء الاصطناعي.

وبعيدا عن قطاعي المال والتأمين، اللذين يعتبران من الضحايا التقليديين لعمليات الاحتيال، فقد أصبح ذلك “يشكل تهديدا عالميا للأمن السيبراني”، حسب نيكوس فيكياريدس.

ويقول: “يمكن لأي شركة أن ترى سمعتها مشوهة بسبب التزييف العميق أو أن تكون مستهدفة بهذه الهجمات المعقدة”.

وأكد بالاسوبرامانيان أن زيادة معدّل العمل عن بعد تعزز مخاطر انتحال الهوية.

ومن الممكن أن يتّسع نطاق هذه العمليات ليصل إلى عامة الناس، خصوصا كبار السن، تحت تهديد المكالمات المفبركة.

وفي كانون يناير عرضت الشركة المصنعة الصينية “هونور” هاتفها الذكي الجديد “ماجيك 7” Magic7، القادر على الكشف والإبلاغ في الوقت الفعلي عن أن المحاور يستخدم الذكاء الاصطناعي خلال اتصال بالفيديو.

وفي نهاية عام 2024 أطلقت الشركة البريطانية الناشئة “سورف سيكيوريتي” متصفّحا عبر الإنترنت مخصصا حاليا للشركات فقط، قادرا على تنبيه المستخدم عندما يكون الصوت أو الفيديو مولّدا بواسطة الذكاء الاصطناعي.

وتشير “اتيستيف” إلى أنّ لديها آلاف المستخدمين الفرديين للنسخة المجانية.

ويرى سيوي ليو، الأستاذ في علوم الكمبيوتر لدى جامعة بوفالو الحكومية بولاية نيويورك، أن “التزييف العميق سيصبح مثل البريد العشوائي”، الذي شكّل مصدر إزعاج كبير لمستخدمي الإنترنت الأوائل، لكنه بات حاليا تحت السيطرة تقريبا، بفضل كفاءة برامج فرز البريد الإلكتروني.

يقول بالاسوبرامانيان: “لقد شوّش الذكاء الاصطناعي التوليدي على الخط الفاصل بين الإنسان والآلة”، مضيفا أن “الشركات التي تنجح في إعادة ترسيخ هذا الفصل ستصبح ضخمة”، وستبلغ قيمة هذه السوق “مليارات” الدولارات.

زر الذهاب إلى الأعلى