أصبح تقليد صوت أي شخص ممكنًا اليوم بفضل الذكاء الاصطناعي، وبدقة عالية تضلل حتى المقربين. التعليقات الصوتية ضرورية لجعل مقاطع الفيديو والإعلانات والألعاب أكثر جاذبية. تُعرف هذه التقنية بـ "الاستنساخ الصوتي" (Voice Cloning)، وتستخدم خوارزميات متطورة لإنشاء نسخة رقمية من صوت شخص ما، بكل تفاصيله ونغماته، ثم تعالجها خوارزميات الذكاء الاصطناعي لإنشاء نموذج صوتي رقمي. يمكن للنموذج توليد كلام جديد يبدو كالنسخة الأصلية عن طريق تحويل النص إلى كلمات منطوقة بنفس النبرة والإيقاع. هذه التقنية دقيقة للغاية، وغالبًا لا يمكن تمييزها عن الصوت البشري الحقيقي، مما يجعلها مفيدة في تطبيقات مثل إنشاء المحتوى وخدمة العملاء وتجارب المستخدم الشخصية.
مزايا "الاستنساخ الصوتي" ومجالاته
على الرغم من استغلال تقنية "الاستنساخ الصوتي" من قبل البعض في عمليات الاحتيال، فإن لها جانبًا إيجابيًا، كغيرها من التقنيات ذات الحدين. أهم المزايا:
- إنشاء محتوى صوتي وديناميكي.
- توفير الوقت والمال من خلال السماح بإنشاء محتوى جديد بسرعة.
- زيادة فرص الشركات بالإعلان والرعاية للشخصيات الصوتية والمشاهير والمؤثرين.
- إعداد المحتوى المتكرر مثل نشرات الطقس وأخبار الرياضة.
وتستخدم هذه التقنيات في مجالات عديدة:
- الكتب الصوتية.
- إنشاء مقاطع الفيديو التعليمية.
- الحملات الإعلانية على مواقع التواصل الاجتماعي.
- المساعدون الرقميون و"روبوتات" الدردشة.
- التطبيقات الخاصة بكبار السن وذوي الإعاقة.
الاحتيال القائم على "الاستنساخ الصوتي"
الاحتيال القائم على استنساخ الصوت باستخدام الذكاء الاصطناعي من أحدث عمليات الاحتيال وأكثرها تطورًا. يتم استخدامه لإنشاء مقاطع صوتية مزيفة، لانتحال صفة شخص، مثل صديق أو أحد أفراد الأسرة أو مسؤول في العمل، ثم يستخدم الصوت المستنسخ للاتصال بالضحايا أو إرسال مقاطع صوتية لهم بدافع النصب والابتزاز. على سبيل المثال، يمكن طلب مساعدة مالية عاجلة من أفراد العائلة أو طلب معلومات الدخول لحسابات خاصة بالموظفين في شركة.
تطبيقات تفتقد لتدابير الأمان
كشفت دراسة جديدة أجرتها "Consumer Reports" أن العديد من أدوات استنساخ الصوت الشهيرة تفتقر إلى تدابير أمان فعالة لمنع إساءة الاستخدام والاحتيال. أوضحت الدراسة أن معظم هذه الأدوات تتطلب تأكيدًا بسيطًا من المستخدم على امتلاكه الحق القانوني لاستنساخ الصوت، مما يثير مخاوف بشأن استغلال هذه التقنيات في عمليات الاحتيال وانتحال الهوية. شملت الدراسة منصات مثل "Descript" و"ElevenLabs" و"Lovo" و"PlayHT" و "Resemble AI" و"Speechify". ووجدت أن شركتين فقط، "Descript" و"Resemble AI"، اتخذتا خطوات جادة للحد من سوء الاستخدام، بينما تعتمد الشركات الأخرى على إجراءات تحقق سطحية. أكدت جريس جيدي، محللة السياسات في "Consumer Reports" أن هذه التقنيات قد تعزز عمليات الاحتيال إذا لم يتم وضع ضمانات كافية، وأشارت إلى أن الشركات بإمكانها اتخاذ خطوات بسيطة لكنها ضرورية لحماية المستخدمين من الاستنساخ غير القانوني لأصواتهم.