كيف قدمت شركات الذكاء الاصطناعى تعهدات بسلامة الأطفال على الإنترنت؟
تعهدت شركات الذكاء الاصطناعي الرائدة، بما في ذلك OpenAI وMicrosoft وGoogle وMeta وغيرها، بشكل مشترك بمنع استخدام أدوات الذكاء الاصطناعى الخاصة بها لاستغلال الأطفال وإنشاء مواد الاعتداء الجنسى على الأطفال (CSAM)، وقادت هذه المبادرة مجموعة Thorn and All Tech Is Human المعنية بسلامة الأطفال، وهي منظمة غير ربحية تركز على التكنولوجيا المسئولة.
وقال ثورن إن تعهدات شركات الذكاء الاصطناعى "تمثل سابقة رائدة في الصناعة وتمثل قفزة كبيرة في الجهود المبذولة للدفاع عن الأطفال من الاعتداء الجنسي كميزة تتكشف مع الذكاء الاصطناعي التوليدي، والهدف من المبادرة هو منع إنشاء مواد جنسية صريحة تتعلق بالأطفال وحذفها من منصات التواصل الاجتماعي ومحركات البحث، وفقا لتقرير انجادجيت.
ويقول ثورن إنه تم الإبلاغ عن أكثر من 104 ملايين ملف لمواد الاعتداء الجنسي على الأطفال المشتبه بها في الولايات المتحدة في عام 2023 وحده، وفي غياب العمل الجماعي، من المتوقع أن يؤدي الذكاء الاصطناعي المنتج إلى تفاقم هذه المشكلة وإرباك وكالات إنفاذ القانون التي تكافح بالفعل لتحديد الضحايا الحقيقيين.
وأصدر Thorn وAll Tech Is Human اليوم ورقة بحثية جديدة بعنوان "السلامة من خلال التصميم للذكاء الاصطناعي التوليدي: منع الاعتداء الجنسي على الأطفال" والتي تحدد الاستراتيجيات وتضع توصيات للشركات التي تبني أدوات الذكاء الاصطناعي، ومحركات البحث، ومنصات الوسائط الاجتماعية، والشركات المستضيفة، والمطورين لاتخاذ خطوات لمنع استخدام الذكاء الاصطناعي التوليدي لإيذاء الأطفال.
على سبيل المثال تطلب إحدى التوصيات من الشركات اختيار مجموعات البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي بعناية وتجنب تلك التي تحتوي فقط على أمثلة لانتهاكات الاعتداء الجنسي على الأطفال ولكن أيضًا المحتوى الجنسي للبالغين تمامًا بسبب ميل الذكاء الاصطناعي التوليدي إلى الجمع بين المفهومين.
ويطلب ثورن أيضًا من منصات وسائل التواصل الاجتماعي ومحركات البحث إزالة الروابط إلى مواقع الويب والتطبيقات التي تسمح للأشخاص "بعرض صور العري" للأطفال، وبالتالي إنشاء مواد جديدة للاعتداء الجنسي على الأطفال من إنتاج الذكاء الاصطناعي عبر الإنترنت.
ووفقًا للورقة البحثية، فإن طوفانًا من CSAM الناتج عن الذكاء الاصطناعي سيجعل تحديد الضحايا الحقيقيين للاعتداء الجنسي على الأطفال أكثر صعوبة، في إشارة إلى مقدار المحتوى الذي يجب على وكالات إنفاذ القانون التدقيق فيه حاليًا.
وقالت ريبيكا بورتنوف، نائبة رئيس قسم علوم البيانات في ثورن، لصحيفة وول ستريت جورنال: "كان الهدف من هذا المشروع هو التوضيح أن نكون قادرين على تغيير مسار هذه التكنولوجيا بحيث يتم التخلص من الأضرار الحالية لهذه التكنولوجيا.
وقال بورتنوف إن بعض الشركات وافقت بالفعل على فصل الصور والفيديو والصوت التي تتضمن أطفالًا عن مجموعات البيانات التي تحتوي على محتوى للبالغين لمنع نماذجها من الجمع بين الاثنين.
ويضيف آخرون أيضًا علامات مائية لتحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، لكن الطريقة ليست مضمونة ويمكن إزالة العلامات المائية والبيانات الوصفية بسهولة.