تقنية

الذكاء الاصطناعي

مع تزايد الاعتماد على تقنيات الذكاء الاصطناعي، أصبح من الصعب التمييز بين الأعمال التي ينتجها البشر وتلك التي يُنشئها الذكاء الاصطناعي. هذا التحدي دفع الكثير من الأفراد والمؤسسات إلى البحث عن أساليب وأساليب مبتكرة لضمان مصداقية المحتوى وإثبات أصالته البشرية. فقد بدأت تظهر مجموعة واسعة من الحلول المختلفة، بعضها يميل إلى التفاؤل ويعد بإيجاد توازن بين البشر والذكاء الاصطناعي، بينما يتسم البعض الآخر بالتشاؤم ويصور مستقبلًا يسوده الغموض حول حدود الإبداع البشري.

الذكاء الاصطناعي
الذكاء الاصطناعي

في محاولة للتأكيد على أن العمل البشري لا يزال ممكنًا ومهمًا، بدأ بعض المؤلفين في نشر مقاطع فيديو تظهر عملية كتابة كتبهم في الوقت الفعلي. الهدف من هذه المقاطع هو إثبات أن النصوص والمحتوى الذي يقدّمونه لم يتم إنتاجه باستخدام نماذج لغوية كبيرة تعتمد على الذكاء الاصطناعي. ومن خلال هذه الممارسة، يسعى المؤلفون إلى خلق نوع من الشفافية والمصداقية التي يمكن للجمهور الوثوق بها، خصوصًا في ظل انتشار أدوات قادرة على توليد نصوص شبه بشرية يصعب التفريق بينها وبين الكتابة التقليدية.

وفي سياق متصل، برزت أيضًا ابتكارات تقنية أكثر تطورًا لتأكيد هوية الإنسان. على سبيل المثال، ابتكر سام ألتمان جهازًا أطلق عليه اسم “The Orb”، ويهدف هذا الجهاز إلى التحقق من أن الشخص أمام النظام هو إنسان فريد من نوعه. يعتمد الجهاز على مسح العينين وتحليل بصماتهما البيولوجية الدقيقة، ما يجعل من شبه المستحيل لأي نموذج ذكاء اصطناعي أن يقلد هذه الخصائص. ويشير هذا الابتكار إلى أن المستقبل قد يشهد أدوات وتقنيات متقدمة تستخدم السمات البيولوجية للتمييز بين الإنسان والآلة، وهو اتجاه يفتح المجال أمام مناقشات أخلاقية وتقنية واسعة حول الخصوصية والهوية الرقمية.

على الصعيد القانوني، بدأت الحكومات أيضًا في وضع أطر لتنظيم استخدام الذكاء الاصطناعي والمحتوى الذي ينتجه. على سبيل المثال، ينص قانون الذكاء الاصطناعي للاتحاد الأوروبي على ضرورة تصنيف بعض أنواع المحتوى الذي يُنتَج بواسطة الذكاء الاصطناعي على أنه محتوى آلي. ومن المقرر أن يبدأ تطبيق هذا التصنيف رسميًا في العام المقبل، ما يعني أن المستخدمين سيصبحون قادرين على معرفة ما إذا كان النص أو الصورة أو الفيديو قد تم إنتاجه بواسطة البشر أو بواسطة أنظمة الذكاء الاصطناعي. هذا النوع من التشريعات يعكس إدراكًا متزايدًا للمخاطر المرتبطة بالخداع المحتمل، كما يعكس الحاجة إلى تحقيق توازن بين الابتكار وحماية حقوق الأفراد والمؤسسات.

كل هذه المبادرات، سواء كانت تقنية أو تشريعية أو ثقافية، تظهر مدى التعقيد الذي ينطوي عليه عصر الذكاء الاصطناعي. فبينما يتيح الذكاء الاصطناعي إمكانيات غير مسبوقة للإنتاج والإبداع، فإن الحاجة إلى التمييز بين العمل البشري والآلي أصبحت ضرورية أكثر من أي وقت مضى. تتسارع الجهود لإيجاد أدوات دقيقة ومؤثرة تحقق هذا التمييز، من خلال الفيديوهات التفاعلية التي توثق عملية الإبداع البشري، إلى الأجهزة البيومترية التي تثبت هوية الإنسان، وصولًا إلى القوانين التي تفرض تصنيف المحتوى الاصطناعي. كل خطوة من هذه الخطوات تمثل محاولة للسيطرة على الفوضى المحتملة وضمان أن يظل الإبداع البشري عنصرًا مميزًا في عالم يغمره الذكاء الاصطناعي، وتظهر الحاجة إلى وعي جماعي بالمخاطر والفرص التي يقدمها هذا التحول التكنولوجي الكبير.

النقاش حول الذكاء الاصطناعي في صناعة ألعاب الفيديو

يعد النقاش حول استخدام الذكاء الاصطناعي في صناعة ألعاب الفيديو من أكثر الحوارات إثارة للاهتمام، حيث يتوقع أن يشارك فيه عدد كبير من المهتمين قريبًا، وفقًا لمقال سارة أوكونور في صحيفة فاينانشيال تايمز البريطانية.

إلزام المطورين بالإفصاح عن استخدام الذكاء الاصطناعي

في يناير 2024، بدأ متجر ستيم، أبرز متجر رقمي لألعاب الحاسوب، بإلزام المطورين بالإفصاح عن استخدامهم للذكاء الاصطناعي في تطوير ألعابهم وشرح كيفية استخدامه.

توسع استخدام الذكاء الاصطناعي في الألعاب

بحلول أبريل 2024، أفصحت نحو ألف لعبة عن استخدام الذكاء الاصطناعي التوليدي، وفقًا للخبير إيشيرو لامب، لترتفع هذه الأعداد لاحقًا إلى أكثر من 11 ألف لعبة، أي حوالي 9% من مكتبة ألعاب ستيم.
ويشمل استخدام الذكاء الاصطناعي مهام متعددة مثل المساعدة في البرمجة، إنشاء المواد التسويقية، توليد العناصر المرئية والقوام، صناعة الموسيقى الخلفية، وأصوات الشخصيات باستخدام أدوات تحويل النص إلى كلام.

اعتراضات على تصنيف المحتوى بواسطة الذكاء الاصطناعي

يعارض بعض العاملين في الصناعة فكرة تصنيف الألعاب حسب استخدام الذكاء الاصطناعي، لأسباب متعددة:

يرى البعض أن التصنيف بلا معنى لأن استخدام الذكاء الاصطناعي أصبح جزءًا شائعًا من عملية التطوير، كما كتب تيم سويني، الرئيس التنفيذي لشركة إيبك غيمز.
يخشى آخرون من أن المطورين الصغار، الذين يستخدمون الذكاء الاصطناعي لمنافسة الشركات الكبرى، قد يتعرضون لهجوم من المعارضين لاستخدام التقنية.
هناك شكوى حول صعوبة مراقبة مدى صدق المطورين في الإفصاح عن استخدامهم للذكاء الاصطناعي، مما يجعل التصنيف عبئًا على من يلتزمون بالشفافية فقط.

تباين آراء الجمهور والمطورين

تظهر هذه الشكاوى الانقسام بين من لا يهتم باستخدام الذكاء الاصطناعي ومن يرفضه بشدة. بعض المعارضين يرون فيه علامة على قلة الجهد أو تدني الجودة، بينما يشكك آخرون في الطريقة التي تُدرَّب بها النماذج اللغوية الكبيرة باستخدام محتوى من صنع البشر دون إذن، مما قد يؤدي إلى فقدان وظائف للفنانين ومطوري الألعاب.
وتشير استطلاعات الرأي إلى انقسام الجمهور أيضًا في الفن والموسيقى، حيث تقول دراسة مركز بيو للأبحاث إن حوالي نصف الأميركيين يقل تفضيلهم للوحة إذا اكتشفوا أنها صُنعت بواسطة الذكاء الاصطناعي، فيما أبدى الشباب ردود فعل أكثر سلبية مقارنة بكبار السن.

أهمية الشفافية

في عالم يختلف فيه الاهتمام بمصدر المحتوى، تعتبر الشفافية حلًا عمليًا، مثل الملصقات الغذائية التي تساعد المستهلك على الاختيار. الشفافية تتيح للمستهلكين التمييز بين المحتوى الذي صنعه البشر والذكاء الاصطناعي، مما يدعم السوق ويضمن استمرار المبدعين البشر.
وقد يؤدي انتشار الشفافية إلى ظهور ملصقات “صُنع بواسطة البشر” للمنتجات الإبداعية، على غرار نظام التجارة العادلة.

التحديات في تطبيق الشفافية

يشير لامب إلى أن استخدام الذكاء الاصطناعي ليس بالأمر الثنائي، فقد يستخدم مطور برنامجًا لتوليد كل صور اللعبة، بينما يكتفي آخر باستخدامه للحصول على نصائح برمجية. هذا يطرح أسئلة حول مدى اهتمام المستهلكين بنوع الاستخدام وحدوده، ومدى تقبلهم لذلك بمرور الوقت.
كما يرى لامب أن الحل الأمثل قد يكون تصنيفًا أكثر تفصيلًا لاستخدام الذكاء الاصطناعي في عملية التطوير، ما يمنح المستهلك حرية اختيار ما يريحهم وما يفضلون تجنبه.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى