مصري يبتكر دراسة لتنظيم قوانين الذكاء الاصطناعي ويقترح تطبيقها في مصر

تلقت امرأة أمريكية مكالمة هاتفية من شخص يدعي خطف ابنتها طالبًا فدية مليون دولار، مُستخدماً تقنية ذكاء اصطناعي غيرت صوته ليبدو كأنه صوت ابنتها، التي لم يتم خطفها من الأساس وكانت تلعب مع أصدقائها.
وهي حالة واحدة فقط ضمن حالات لا حصر لها تأتي كمثال بسيط لاستخدام المحتالين طرق وأدوات الذكاء الاصطناعي للتزوير والاحتيال، أو من أخطاء وسلبيات استخدام تقنية الـ ai بشكل عام، فتلك الحوادث تترك عادة علامة تعجب وتساؤل واحد دائماً وهو: من المسؤول؟!.
وبين مخاوف من تسريب المعلومات وتزوير القضايا، وانتهاك الخصوصية، أحدثت نماذج الذكاء الاصطناعي غير الخاضعة لقواعد وسُبل الأمان الواجب توافرها للتعامل مع البشر، سيلا من الفوضى، أبرزها كانت حادثة انتحار لرجل بلجيكي يُعاني من القلق الشديد، أقنعته «ELIZA» (شات بوت) بإنهاء حياته بعد حوار استمر بينهما لمدة 6 أسابيع، وسبقها الحادث الأشهر بكسر إصبع طفل أثناء لعب الشطرنج مع روبوت، أو من انتهاك الخصوصيات والتتبع وارتكاب الجرائم، وغيرها كثير من التجاوزات.
وهو ما دفع العالم أجمع للمطالبة بوضع قوانين محددة لتحجيم تلك التجاوزات بقواعد تخضع لها كُبرى شركات الذكاء الاصطناعي في العالم.
وهو تحديداً ما بدأه الخبير القانوني المصري محمد البيه، زميل سياسات الذكاء الاصطناعي والخصوصية وأمن المعلومات في مجلس صناعة تكنولوجيا المعلومات بأمريكا، في دراسة نُشرت بجامعة جورج واشنطن بالولايات المتحدة الأمريكية تحت عنوان حماية وإدارة البيانات والمسؤولية القانونية لأنظمة الذكاء الاصطناعي والأمن السيبراني، Master of Law in Privacy، AI and cyber security laws.