خبير تكنولوجيا المعلومات يحذر: “الآن يمكن استنساخ صوتك بالذكاء الاصطناعي”

قال الدكتور محمد حجازي خبير تكنولوجيا المعلومات إن بعد التلاعب بالصور وابتكار الفيديوهات الخاصة، ظهر في الأشهر الأخيرة نوعا جديدا من التلاعب الخطير يُعرف باسم "استنساخ الصوت"، حيث يستخدمه هاكرز الذكاء الاصطناعي لمحاكاة صوت شخص آخر.
واضاف حجازي، خلال لقاء في برنامج (هذا الصباح)، أن استنساخ الصوت هو تقنية ذكاء اصطناعي تسمح للهاكرز بأخذ تسجيل صوتي لشخص ما، وتدريب أداة الذكاء الاصطناعي على صوته، وإعادة إنشائه، مؤكدا أنه من السهل جداً استنساخ الصوت باستخدام بعض الأدوات المجانية والمفتوحة المصدر على الإنترنت، وأنه يكفي أن يكون لديك مقطع فيديو أو تسجيل صوتي للشخص الذي تريد تقليده، وأن تقوم بتحميله على الأداة، وأن تنتظر بضع دقائق حتى تحصل على النتيجة.
كما أكد أن هذه واحدة من الأمور التي يمكن أن يتم تنفيذ الجرائم من خلالها، أو خضوع صاحب الصوت الأصلي لعمليات الابتزاز بعد إضافة بعض المقاطع غير الحقيقة إلى محادثات أو تصريحات .خاصة به
وشدد على أهمية أن يصبح الجميع على دراية أكبر بهذه التكنولوجيا، وأن يكونوا متشككين دائمًا في أي شيء يطلب منهم وأن يكونوا سريعين في طرح الأسئلة التي ربما لا يعرفها إلا الشخص الحقيقي، وألا يخافوا من محاولة التحقق من الأشياء قبل اتخاذ أي إجراء.