«تزييف الأصوات».. تقنية خطرة تخدع الأجهزة والبشر وتسبب كوارث محققة

قام باحثون في مختبر الأمن والخوارزميات والشبكات والبيانات (SAND) بجامعة شيكاغو باختبار برامج التوليف الصوتي العميق المتاحة عبر موقع مجتمع المطورين مفتوح المصدر (Github)؛ لمعرفة ما إذا كان بإمكانهم تخطي برامج الحماية التي تعتمد على نظام أمان بخاصية التعرف على الصوت في تطبيقات: 'Amazon's Alexa وWeChat وMicrosoft Azure'.

وبحسب تقرير جديد نشرته صحيفة 'ديلي ميل' البريطانية، ونقلته 'العربية. نت'، يمكن لبرامج تقنية (Deep Fake)، المتوفرة بسهولة، تقليد صوت شخص ما بدرجة دقيقة يمكن أن تخدع البشر والأجهزة الذكية.

خداع الأذن

واكتشف الباحثون أن أحد البرامج (SV2TTS)، يحتاج إلى 5 ثوان لإنتاج مقطع صوتي يتميز بتقليد مقبول لأي شخص، و تم وصف هذا البرنامج  بأنه 'صندوق أدوات استنساخ الصوت في الوقت الفعلي'، فيما بدا أن مقاطع الصوت التي تم تقليدها- بحسب الباحثون- باستخدام البرنامج تمكنت من خداع Microsoft Azure بنسبة 30%، وفي تطبيق WeChat وAmazon Alexa ثلثي الوقت تقريبًا، أو 63% من المرات.

وأوضح الباحثون، أن المقاطع الصوتية المقلدة بتقنية 'ديب فيك'، تمكنت من خداع البشر؛ حيث لم يستطع 200 متطوع من التمييز بين الأصوات الحقيقية وما تم تزييفه ببرامج 'ديب فيك' بنسبة 50%، في حين أن التزييف العميق كان أكثر نجاحًا في تقليد أصوات النساء، وأصوات ناطقي اللغة الإنجليزية من أصحاب الأصول الأجنبية.

أيدي خطأ تحمل السلاح

وحذرت إميلي وينجر، باحثة في مختبر SAND، من أن توافر مثل هذه الأدوات في الأيدي الخطأ ستتيح مجموعة من الهجمات القوية ضد البشر وأنظمة البرامج والأجهزة'.

واختبرت فينجر وزملاؤها، أيضًا، برنامج (AutoVC) لتركيب الصوت، وهو الذي يتطلب 5 دقائق من الكلام لإعادة إنشاء صوت مزيف للشخص المستهدف؛ لكن لم يتمكن هذا البرنامج من خداع (Microsoft Azure) إلا بنسبة حوالي 15%؛ لذلك رفض الباحثون اختباره ضد (WeChat وAlexa).

ويسمح (WeChat) للمستخدمين بتسجيل الدخول بأصواتهم، كما تسمح (Alexa) للمستخدمين، باستخدام الأوامر الصوتية لإجراء عمليات شراء وسداد إلكتروني عبر التطبيقات لأطراف ثالثة مثل أوبر.

حادث النصب الأولى

كما اهتم فريق الباحثين، بموضوع التزييف العميق للصوت أو 'ديب فيك' بعد أن قرأوا عن محتالين قاموا باستخدام برنامج لتقليد الصوت لخداع مدير تنفيذي لإحدى شركات الطاقة البريطانية؛ طلبوا منه إرسال أكثر من 240 ألف دولار بعدما انتحلوا شخصية رئيسه الألماني الجنسية، وتزييف صوته.

وكان البرنامج، بحسب شركة يولر هيرميس للتأمين التابعة لها شركة الضحية، قادرًا على تقليد الصوت والنغمة واللهجة'. ولم يتم التعرف على مرتكبي عملية الاحتيال، التي وصفت بأنها أول سرقة باستخدام تقنية 'فيك ديب' في العالم، كما لم يتم استرداد هذه الأموال نهائيًا.

فيلم وثائقي

وكان فيلم وثائقي جديد لـ أنتوني بوردان، أثار جدلاً حينما اعترف المخرج أنه استخدم الذكاء الاصطناعي وخوارزميات الكمبيوتر؛ لإعادة إنشاء صوت شخصية بوردان بشكل مصطنع؛ وذلك عقب حادثة انتحاره داخل أحد فنادق باريس خلال العام 2018.

رئيس الوزراء يوجه أعضاء الحكومة بتفعيل التعاون مع مُجمع الإصدارات المؤمنة والذكية

خطوات حماية البيانات الشخصية على الهواتف الذكية من الاختراق.. فيديو