تقنية

ذكاء الاصطناعي

في الوقت الذي تتسابق فيه كبرى الشركات التكنولوجية نحو بناء مستقبل أكثر تقدماً وابتكاراً من خلال الذكاء الاصطناعي، برزت مفارقة واضحة أثارت جدلاً واسعاً في الأوساط التقنية والإعلامية. فبينما يروّج عمالقة التكنولوجيا للذكاء الاصطناعي على أنه أداة قادرة على الارتقاء بالإبداع البشري وتمكين صناع المحتوى من العمل بسرعة ودقة أكبر، ظهرت مشكلة خطيرة بعد انتشار استخدام أداة سورا 2 التابعة لشركة أوبن اي اي والتي تحولت في وقت قصير إلى وسيلة لإنتاج محتوى مسيء يحمل في طياته العنصرية والسخرية والتنمر على الوزن والمظهر.

ذكاء الاصطناعي
ذكاء الاصطناعي

بدأت القصة عندما تحدث الرئيس التنفيذي لشركة نتفليكس تيد ساراندوس عن الفرص الهائلة التي يتيحها الذكاء الاصطناعي لصناعة الترفيه. فقد أشاد بقدرة هذه التقنيات على تقديم أدوات تساعد صناع الأفلام والمسلسلات على تطوير أفكارهم وصياغة قصصهم بشكل أسرع وأعمق، معتبراً أن الذكاء الاصطناعي لن يكون بديلا عن الإبداع البشري بل داعماً قوياً له. هذا التصور الإيجابي قوبل بترحيب في بداية الأمر، خاصة في ظل التحولات المتسارعة التي يشهدها قطاع الإعلام والترفيه واعتماد العديد من الشركات على حلول ذكية لتسريع عمليات الإنتاج.

لكن ما حدث لاحقا كشف عن جانب آخر أقل تفاؤلا. إذ شهدت منصات التواصل الاجتماعي انتشارا واسعا لمقاطع مصنوعة عبر سورا 2 تحمل طابع السخرية اللاذعة وتستهدف أفرادا بسبب وزنهم أو لون بشرتهم أو خصائصهم الجسدية. ورغم أن الأداة صممت في الأصل لإنتاج محتوى مرئي يساعد على الإبداع وصناعة الأفكار، إلا أن الاستخدام المسيء لها فتح الباب أمام نقاشات متواصلة حول مدى قدرة الشركات التقنية على ضبط منتجاتها ومنع تحولها إلى أدوات للإساءة.

التقارير التي تناولت الموضوع أشارت إلى أن عددا من المستخدمين استغلوا مرونة الأداة وقدرتها على توليد محتوى بصري دقيق لابتكار مشاهد تقلل من قيمة الناس وتعرضهم للتنمر، وهو ما أثار غضبا واسعا ودفع المختصين إلى التحذير من المخاطر الأخلاقية التي قد تصاحب استخدام مثل هذه التقنيات. فمع تطور أدوات الذكاء الاصطناعي وزيادة قدرتها على إنتاج صور ومقاطع تبدو واقعية إلى حد كبير، يزداد القلق بشأن كيفية استخدامها وطرق السيطرة على انحرافاتها المحتملة.

هذا الجدل أعاد تسليط الضوء على مسؤولية الشركات المطورة في وضع آليات واضحة للحد من الاستخدام المسيء. فبينما يرى البعض أن المشكلة تكمن في المستخدمين أنفسهم، يرى آخرون أن الشركات يجب أن تتحمل جزءا كبيرا من المسؤولية عبر تحسين أدوات الرقابة ومنع استخدام التقنيات في سياقات ضارة. كما برزت مطالبات بضرورة وضع أطر قانونية وتنظيمية واضحة تحكم استخدام الذكاء الاصطناعي المتقدم وتضمن عدم تحوله إلى مصدر أذى اجتماعي أو نفسي.

ورغم أن الذكاء الاصطناعي يستمر في تقديم فرص غير مسبوقة في مختلف المجالات، إلا أن ما جرى مع أداة سورا 2 يقدم مثالا واضحا على التحديات التي قد تنشأ عندما تتجاوز القدرة التقنية الاستعداد الأخلاقي والمجتمعي للتعامل معها. فالمستقبل الذي يتطلع إليه قادة التكنولوجيا لن يكون أكثر إشراقا إلا إذا توفرت ضمانات حقيقية تحول دون إساءة استخدام هذه الأدوات، وتضمن أن تصبح التكنولوجيا وسيلة للبناء وليس الهدم، وأن تبقى الابتكارات في خدمة الإنسان لا سلاحا يوجه ضده.

من بين أكثر الأمثلة انتشاراً، ظهر مقطع حصل على أكثر من مليون مشاهدة يُظهر امرأة بدينة وهي تقفز بالحبال قبل أن ينهار الجسر تحتها في مشهد مُنتج رقمياً بالكامل. وقد صُمم المقطع بطريقة توحي للمشاهد بأنه واقعي، رغم أنه ناتج عن معالجة رقمية متقدمة تجعل الحدود بين الحقيقة والخيال ضبابية إلى حد كبير.

وفي مقطع آخر يتكرر فيه النمط نفسه من السخرية والتنميط، تظهر امرأة سمراء تسقط عبر أرضية أحد مطاعم الوجبات السريعة في مشهد يوحي بتنمر واضح على الوزن ويستدعي إيحاءات مرتبطة بالتمييز العرقي. هذا النوع من المحتوى يقدم نموذجاً صارخاً لكيف يمكن للأدوات الرقمية أن تُستخدم لتعزيز الصور النمطية السلبية بأسلوب يبدو واقعي المظهر رغم افتقاره لأي سياق حقيقي.

كما انتشرت مقاطع أخرى تُظهر سائقي توصيل ينهار بهم مدخل أحد المنازل أو أشخاصاً ينتفخون بعد تناول الطعام، وهي مشاهد تقدم نفسها بوصفها طريفة أو خيالية لكنها تعتمد على مبالغات تُظهر الأطراف المعنية بصورة مهينة أو ساخرة.

وما يزيد من خطورة هذه المقاطع أن عدداً كبيراً من المتابعين يعتقدون أنها حقيقية، خاصة مع جودة التقنيات المستخدمة في إنتاجها، والتي تجعل من الصعب التمييز بين المشاهد الاصطناعية والمشاهد المصورة من العالم الواقعي. هذا الالتباس يفتح الباب أمام انتشار رسائل سلبية دون أن يدرك المشاهد أن ما يراه ليس سوى محتوى مصطنع.

أزمة أخلاقية تتجاوز حدود المحتوى السيئ

يؤكد الخبراء أن المشكلة أعمق بكثير من مسألة ذوق أو محتوى رديء، إذ إن أدوات الذكاء الاصطناعي أصبحت تتيح لأي مستخدم، مهما كانت خبرته، إنتاج كميات ضخمة من المحتوى الموجه أو المسيء خلال ثوان معدودة. في الماضي كان هذا النوع من الإنتاج يحتاج إلى موارد وتقنيات وخبرات كبيرة، أما اليوم فقد أصبح في متناول الجميع، ما يضاعف احتمالات إساءة الاستخدام.

وتشير مواقف عدد من المراقبين إلى أن هذه الظاهرة تكشف جوانب من قصور أنظمة الحماية التي تتحدث عنها الشركات المطورة لهذه الأدوات. فمن المفترض أن تمنع هذه الأنظمة نشر المحتوى العنصري أو المسيء، لكن الانتشار الواسع للمقاطع الحالية يظهر أن بعض هذه الضوابط لا تعمل بالشكل الكافي.

لماذا يجب أن نهتم

إن الانتشار الواسع للمحتوى القائم على السخرية الرقمية لا يقتصر تأثيره على التنمر الافتراضي، بل يساهم في تكوين تصورات سلبية لدى ملايين المستخدمين، خصوصاً الأطفال والمراهقين الذين قد لا يمتلكون القدرة على التمييز بين المحتوى المصنوع والواقع. ومع زيادة عدد المشاهدات ترتفع احتمالات تقليد هذا النوع من المقاطع على أمل كسب الشهرة السريعة، لتنشأ دائرة متكررة من المحتوى الذي يتحول إلى ظاهرة سطحية لكنها مؤذية.

حتى الآن لم يصدر تعليق رسمي من الشركة المطورة بشأن هذا النوع من الانتهاكات، الأمر الذي فتح نقاشاً واسعاً حول الجهة التي يجب أن تتحمل المسؤولية عندما تتحول الأدوات الرقمية إلى وسيلة للإضرار بالآخرين. ويتوقع محللون أن تتدخل الجهات التنظيمية قريباً، خاصة مع التوسع الهائل في استخدام هذه الأدوات وقدرة أي مستخدم على إنتاج محتوى مؤثر بضغطة واحدة.

إن التحدي الأكبر اليوم يتمثل في كيفية وضع حدود لهذا الإبداع التقني بحيث لا ينقلب إلى أداة تهدد القيم الإنسانية الأساسية، بل يصبح جزءاً من منظومة تكنولوجية تلتزم بالمسؤولية وتدعم الاستخدام الأخلاقي.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى