
قد تبدو مخاطر الذكاء الاصطناعي هائلة. كل فائدة تقدمها التكنولوجيا لها استخدام سلبي. ربما تكون إحدى المشاكل الرئيسية التي خلقها الذكاء الاصطناعي هي التزييف العميق: مقاطع الفيديو أو الصور أو الصوت التي يتم إنشاؤها بواسطة الذكاء الاصطناعي والتي يمكن تصميمها لتقليد الضحية وهو يقول أو يفعل شيئًا لم يفعله. وهذا لا يحدث أبداً، وفقاً لموقع Businessinsider الأمريكي.
تقوم بعض التزييفات العميقة بتركيب التشابه مع لقطات فيديو حقيقية، في حين أن البعض الآخر يتم إنتاجه بالكامل بواسطة الكمبيوتر، ووجدت دراسة أجريت عام 2019 بعنوان The State of Deepfakes by Deep Trace أن 96٪ من التزييفات العميقة كانت إباحية.
قال هنري أغدر، الباحث في مجال التزييف العميق والذي شارك في تأليف الدراسة، لموقع Business Insider إنه على الرغم من أن الرقم قد تغير، إلا أن المشكلة تظل حادة بنفس القدر، ومع ظهور أدوات الذكاء الاصطناعي مثل Dall-E وStable Diffusion وMidjourney… المزيد متاحة على نطاق واسع، فقد أصبح من الأسهل على الأشخاص ذوي المعرفة التقنية القليلة جدًا إنشاء مقاطع مزيفة عميقة.
وقال أغدر: “النسبة الإجمالية أصبحت الآن أقل، لكن الحجم الإجمالي للمحتوى المزيف العميق الذي يعتبر إباحيًا قد انفجر”. “نحن نتحدث عن ملايين الضحايا حول العالم”، ورغم أن المحتوى مزيف، إلا أن إذلال الضحايا وصدمتهم وترهيبهم حقيقي للغاية.
ذكرت هيئة الإذاعة البريطانية (بي بي سي) أن مراهقة بريطانية انتحرت في عام 2021 بعد أن تم إنشاء صور إباحية مزيفة لها ومشاركتها من قبل طلاب آخرين من مدرستها في مجموعة سناب شات. في الشهر الماضي، بدأت المواد الإباحية العميقة لتايلور سويفت تنتشر عبر الإنترنت، مما دفع إيلون ماسك إلى… منع عمليات البحث عن نجمة البوب على X.
قد يبدو الوضع قاتمًا، ولكن هناك أدوات وأساليب متاحة يمكن أن تساعد في الحماية من تلاعب الذكاء الاصطناعي بهويتك.
كشف وهمية عميقة
وافقت إدارة بايدن على العلامات المائية الرقمية، حيث يتم تصنيف المحتوى بوضوح على أنه تم إنشاؤه بواسطة الذكاء الاصطناعي، كأحد الحلول. تهدف هذه إلى رفع مستوى الوعي العام وتسهيل قيام المنصات بإزالة المحتوى المزيف الضار وإزالته.
في حين أعلنت كل من Google وMeta عن خطط للبدء في تصنيف المواد التي تم إنشاؤها أو تعديلها بواسطة الذكاء الاصطناعي باستخدام “بيانات اعتماد رقمية” لجعل أصول المحتوى أكثر وضوحًا، تخطط OpenAI، منشئ ChatGPT ومولد الصور DALL-E، لتضمين علامة مرئية. العلامة المائية والبيانات الوصفية المخفية التي تكشف عن تاريخ الصورة، بما يتماشى مع معايير التحالف من أجل مصدر المحتوى والأصالة (C2PA).
هناك أيضًا منصات مخصصة مصممة للتحقق من أصول المواد عبر الإنترنت. قامت شركة Sensity، الشركة التي أعدت دراسة عام 2019 حول التزييف العميق، بتطوير خدمة كشف تنبه المستخدمين عبر البريد الإلكتروني عندما يرون محتوى يحتوي على بصمات أصابع تم إنشاؤها بواسطة الذكاء الاصطناعي.
ولكن حتى عندما تكون الصورة مزيفة بشكل واضح – فمعظمها لا يحتوي على علامات مائية – قد يظل الشخص المعني يشعر وكأنه ضحية.
“أدوات سامة”
ويُنظر إلى الأدوات الدفاعية التي تحمي الصور من التلاعب على أنها حل أقوى، على الرغم من أنها لا تزال في المراحل الأولى من التطوير. تمنح هذه الأدوات المستخدمين خيار معالجة صورهم بإشارة غير محسوسة تؤدي إلى الفوضى عند تشغيلها بواسطة أي نظام ذكاء اصطناعي. ضبابية وغير صالحة للاستعمال.
على سبيل المثال، تضيف أداة Nightshade، وهي أداة أنشأها باحثون في جامعة شيكاغو، وحدات بكسل إلى الصور التي تفسد عند تغذيتها بالذكاء الاصطناعي ولكنها تترك الصورة تبدو وكأنها مخصصة للبشر. “يمكنك التفكير في Nightshade على أنه… “إنها إضافة حبة سم صغيرة داخل عمل فني بطريقة تحاول حرفيًا الخلط بين نموذج التدريب وما هو موجود بالفعل في الصورة.”
على الرغم من أنه مصمم لحماية الملكية الفكرية للفنانين، إلا أنه يمكنه العمل على أي صورة فوتوغرافية. قال أجدر: “هذا خط دفاع رائع حقًا ليشعر الناس، حسنًا، أنا آمن لتحميل الصور من عيد ميلاد صديقي في نهاية هذا الأسبوع”.
القوانين يمكن أن تحدث فرقا
طبقت ما لا يقل عن 10 ولايات بالفعل مجموعة من الحماية القانونية لضحايا التزييف العميق، وفقًا لوكالة أسوشيتد برس، لكن القضايا البارزة الأخيرة زادت الضغط على المشرعين لردع ومعاقبة الاستخدام الضار للذكاء الاصطناعي والتزييف العميق.
حظرت لجنة الاتصالات الفيدرالية المكالمات الآلية التي تم إنشاؤها بواسطة الذكاء الاصطناعي بعد إجراء مكالمات مزحة في الانتخابات التمهيدية في نيو هامبشاير، باستخدام صوت تم إنشاؤه بواسطة الذكاء الاصطناعي والذي بدا مثل جو بايدن.
في يناير/كانون الثاني، قدمت مجموعة من أعضاء مجلس الشيوخ من الحزبين الجمهوري والديمقراطي مشروع قانون فيدرالي يعرف باسم “قانون التحدي” يسمح للضحايا بمقاضاة أولئك الذين ينشئون ويوزعون مقاطع فيديو جنسية عميقة لهم، مما يجعلها قضية مدنية وليست جنائية.
لم يتم إحراز أي تقدم في مشروع القانون الذي قدمه النائب جو موريل في مايو الماضي لتجريم مشاركة المحتوى المزيف العميق، لكن الكثير من التشريعات الجديدة تأتي ضد المدافعين عن حرية التعبير. والسبب، وفقًا لهنري أغدر، هو أن البعض يرى أن الإنشاء الخاص للتزييف العميق يشبه الخيال. ما الذي قد يدور في ذهن شخص ما بشأن الإعجاب، وإذا لم يكن أحد على علم بالمحتوى الإباحي، فهل يتضرر أي شخص حقًا؟
الردع الإجرامي
وقد كان لهذا تأثير على التشريعات في المملكة المتحدة، حيث جعل قانون السلامة عبر الإنترنت من غير القانوني توزيع المواد الإباحية العميقة – ولكن ليس إنشائها. “حجتي المضادة هي أنك إذا كنت تنشئ هذا المحتوى، فأنت تجلب إلى الوجود شيئًا لا يمكن مشاركته بطريقة تختلف عن “إمكانية مشاركة الخيال حقًا”.
وعلى الرغم من صعوبة مقاضاته، فإن تجريم المواد الإباحية العميقة لا يزال يمثل رادعًا مهمًا، من وجهة نظره. يقول أجدر إن بعض الأشخاص يستخدمون أدوات الذكاء الاصطناعي لإنشاء محتوى لاستهلاكهم الخاص. ومع ذلك، يضيف أن التأكد من إدراكهم أن هذا سلوك إجرامي أمر مهم لردع أولئك الذين قد يكونون مجرد فضوليين.
ويمكن للحكومات أيضًا ممارسة الضغط على مزودي محركات البحث، ومطوري أدوات الذكاء الاصطناعي، ومنصات التواصل الاجتماعي حيث يتم توزيع المحتوى. وفي الهند، دفعت فضيحة إباحية كبيرة تورطت فيها ممثلات بوليوود، الحكومة إلى تسريع التشريعات والضغط على شركات التكنولوجيا الكبرى لمنع انتشار المحتوى الناتج عن الاستخبارات. مصطنعة على الانترنت.
يعترف أغدر قائلاً: “لا ينبغي لنا أن نخدع أنفسنا بالقول إنه من الممكن القضاء على المشكلة بالكامل”. “أفضل شيء يمكننا القيام به، من وجهة نظري، هو توفير أكبر قدر ممكن من الاحتكاك بحيث يتعين عليك أن تكون متعمدًا بشكل لا يصدق في محاولة إنشاء هذا المحتوى.”