Veo 3

كشفت تقارير إعلامية حديثة عن انتشار واسع لمقاطع فيديو عنصرية على منصة “تيك توك“، تم إنشاؤها باستخدام نموذج الذكاء الاصطناعي المتقدم Veo 3 من شركة غوغل، الذي يُعد من بين أكثر مولدات الفيديو تطورًا في السوق. وأفاد تقرير صادر عن منظمة “ميديا ماترز” (MediaMatters) أن هذه المقاطع تميزت بقصر مدتها، إذ لا تتجاوز غالبًا ثماني ثوانٍ، لكنها مع ذلك تحمل مضامين عنصرية واضحة ومباشرة، ومعادية للسامية، وتروج لصور نمطية مسيئة وخطيرة.

وبحسب التقرير، ظهرت مؤخرًا حسابات عديدة على “تيك توك” تقوم ببث هذه المقاطع بشكل متكرر، وغالبًا ما تكون مصحوبة بتعليقات أو مشاهد تشير بوضوح إلى مفاهيم عنصرية متجذرة. ويُعتقد أن الكثير من هذه المقاطع تم توليدها عبر أدوات الذكاء الاصطناعي مثل Veo 3، والتي تتيح للمستخدمين إنتاج مقاطع فيديو واقعية بشكل مذهل انطلاقًا من وصف نصي فقط، مما يطرح تساؤلات كبيرة حول مدى الرقابة المفروضة على استخدام هذه الأدوات، وإمكانية إساءة توظيفها.
تركز المحتويات العنصرية التي رُصدت على فئة معينة من الناس، خاصة أصحاب البشرة السمراء، حيث تُصورهم هذه المقاطع في كثير من الأحيان على أنهم “مشتبه بهم بطبيعتهم”، في تكرار لكليشيهات عنصرية قديمة. كما تظهر في هذه المقاطع رموز وتلميحات بصرية تذكّر بكاريكاتيرات مهينة تعود إلى فترات ماضية، والتي كانت تقارن بشكل فج بين أصحاب البشرة السمراء والحيوانات، خاصة القرود. علاوة على ذلك، يُروج في بعضها لصورة نمطية تزعم غياب الأب في هذه المجتمعات، وهي فكرة طالما تم توظيفها تاريخيًا لتبرير التمييز المؤسسي ضدهم.
ولم تقتصر المواد المسيئة على فئة واحدة، بل شملت أيضًا مهاجرين من خلفيات متعددة، حيث استُخدمت إيحاءات سلبية ومهينة لوصفهم وتصويرهم. كما احتوت بعض المقاطع على إشارات معادية للسامية، مما يشير إلى نطاق أوسع من الكراهية يتم تداوله بصيغة تبدو ترفيهية للوهلة الأولى، لكنها تخفي وراءها نوايا مقلقة.
وقد أثارت هذه الظاهرة انتقادات واسعة، ليس فقط ضد المستخدمين الذين يقومون بإنشاء أو نشر هذه المواد، بل أيضًا ضد الشركات التي تطور نماذج الذكاء الاصطناعي وتطبيقات التواصل الاجتماعي التي تستضيف هذا المحتوى. حيث يُطالب العديد من الجهات الحقوقية والتقنية بضرورة فرض قيود أكثر صرامة على استخدام أدوات إنشاء الفيديو بالذكاء الاصطناعي، وتطوير آليات لرصد المحتوى المسيء قبل نشره.
ويُنظر إلى هذه الحادثة باعتبارها جرس إنذار بشأن التحديات الأخلاقية والتقنية التي يفرضها الذكاء الاصطناعي، خاصة مع تصاعد قدراته في توليد محتوى بصري يبدو حقيقيًا لكنه قد يُستخدم في التحريض أو التمييز، مما يتطلب تحركًا فوريًا من جميع الجهات المعنية.
ما يزيد الوضع خطورة
ما يفاقم خطورة الموقف أن هذه المقاطع أُنتجت باستخدام “Veo 3″، النموذج المتقدم من “غوغل” لتوليد الفيديو، والذي يحمل بوضوح علامته المميزة. هذا الربط المباشر بين المحتوى المثير للجدل وتكنولوجيا الشركة يسلّط الضوء على مدى سهولة توظيف الذكاء الاصطناعي في سياقات قد تكون مؤذية أو محرّضة.
الذكاء الاصطناعي ينفلت من الضوابط
على الرغم من تعهد “غوغل” بالالتزام بمعايير أمان صارمة عند إطلاق Veo 3 في مايو الماضي، إلا أن تجارب ميدانية بسيطة أظهرت أنه يمكن خداع النموذج عبر تعليمات مبهمة، لكنها فعالة بما يكفي لتجاوز القيود الأخلاقية والتقنية، مما أدى إلى إنتاج مقاطع تتضمن محتوى عنصريًا.
إتقان Veo 3 لإنتاج مقاطع عالية الجودة ساهم في تضخيم تأثير هذه المواد، خاصة مع انتشارها السريع على منصات ذات شعبية واسعة مثل “تيك توك”، ما أثار مخاوف من استغلال الذكاء الاصطناعي لتكريس الصور النمطية وتعزيز خطاب الكراهية.
سياسات صارمة وتنفيذ محدود
رغم أن “تيك توك” يتبنى سياسات واضحة ضد خطاب الكراهية، إلا أن التطبيق لم ينجح في التصدي الفوري لانتشار هذه المقاطع، التي حققت آلاف المشاهدات والتعليقات المحرضة.
وأكد متحدث باسم المنصة أن “تيك توك” أوقف أكثر من نصف الحسابات التي ذُكرت في تقرير “MediaMatters” قبل نشره، وأغلق ما تبقى لاحقًا، مشيرًا إلى أن المنصة تعتمد على مزيج من الذكاء الاصطناعي والمراجعة البشرية لرصد الانتهاكات.
لكن التحدي الحقيقي، بحسب التقرير، يكمن في الكم الهائل من المحتوى الذي يُرفع يوميًا، ما يخلق ثغرات في منظومة الإشراف تسمح بمرور محتوى مسيء وخطير.
“غوغل” تحت المجهر
من جهتها، تنص سياسات “غوغل” على حظر استخدام تقنياتها لأغراض تنطوي على كراهية أو تحرش أو تنمر. إلا أن تقرير “MediaMatters” أظهر أن العديد من مقاطع Veo 3 تتعارض مع هذه السياسات بشكل مباشر.
فشل النموذج في منع إنتاج هذا النوع من المحتوى يطرح تساؤلات جدية حول مدى فعالية الرقابة التقنية التي تعتمدها الشركة. وما يزيد القلق، إعلان “غوغل” عن نيتها دمج Veo 3 قريبًا في “يوتيوب شورتس”، ما قد يفتح المجال أمام موجة جديدة من المقاطع المسيئة على المنصات الأكثر استخدامًا.
ورغم غياب أي توضيح رسمي من “غوغل” حتى الآن بشأن آليات الحماية المطبقة داخل Veo 3، إلا أن الوقائع تشير إلى أن غياب رقابة حقيقية قد يجعل من السهل تجاوز الخط الفاصل بين الإبداع والإساءة.
الذكاء الاصطناعي سلاح ذو حدين
تكشف هذه الحادثة مجددًا الوجه المظلم للذكاء الاصطناعي التوليدي، الذي تحوّل من أداة للإبداع إلى وسيلة يُمكن استغلالها لنشر العنف اللفظي والتحريض والكراهية.
ورغم الجهود المستمرة من شركات التكنولوجيا لفرض “ضوابط أمان”، إلا أن النماذج المتقدمة مثل Veo 3 لا تزال عرضة للاستغلال، خاصة مع تطورها السريع في فهم الأوامر المبطنة وتنفيذها بدقة.
ومع ازدياد الاعتماد على هذه التقنيات، بات من الضروري مراجعة منظومة الرقابة برمتها، وتعزيز الإجراءات الاستباقية لمكافحة إساءة استخدام الذكاء الاصطناعي، قبل أن تتفاقم الأمور إلى أزمة أخلاقية وتقنية يصعب السيطرة عليها.