تقنية

شات جي بي تي

أعرب اثنان من المدعين العامين في الولايات المتحدة عن مخاوفهما المتزايدة بشأن سلامة استخدام روبوت الدردشة “شات جي بي تي” الذي طورته شركة “OpenAI“، خاصة فيما يتعلق بتأثيراته المحتملة على الأطفال والمراهقين. وقد جاء هذا القلق نتيجة تزايد استخدام التكنولوجيا الذكية التفاعلية من قبل فئات عمرية صغيرة، دون وجود ضوابط واضحة تحميهم من التعرض لمحتوى غير مناسب أو لتأثيرات نفسية وسلوكية سلبية.

شات جي بي تي
شات جي بي تي

وفي خطوة رسمية تعكس هذا القلق، اجتمع كل من المدعي العام لولاية كاليفورنيا، روب بونتا، والمدعية العامة لولاية ديلاوير، كاثي جينينغز، لإرسال رسالة مفتوحة إلى شركة “OpenAI”. وقد عبّرا في هذه الرسالة عن قلقهما المشترك إزاء المخاطر التي قد يشكلها “شات جي بي تي” على المستخدمين القُصّر، داعيين الشركة إلى تقديم معلومات واضحة وشفافة حول كيفية تطوير وتدريب الروبوت، بالإضافة إلى شرح آليات الحماية التي يتم اتخاذها لمنع إساءة استخدام هذه التكنولوجيا من قبل أو ضد الأطفال.

ووفقًا لما ورد في الرسالة، فإن المدعيين العامين طالبا “OpenAI” بالكشف عن السياسات التي تتبعها لمنع انتشار المعلومات الخاطئة والمضللة، وكذلك كيفية تعامل النظام مع الأسئلة أو التفاعلات التي قد تتضمن مواضيع حساسة، مثل الصحة النفسية، أو السلوكيات الخطرة، أو المحتويات غير اللائقة للأطفال. كما أشارا إلى ضرورة أن يتمتع الأهل والمربون بإمكانية أكبر للرقابة وضبط استخدام هذه الأنظمة من قبل الأطفال والمراهقين، وذلك عبر أدوات رقابة أبوية فعالة ومبسطة.

وتأتي هذه المخاوف في ظل الانتشار الواسع لتطبيقات الذكاء الاصطناعي في الحياة اليومية، وخاصة في المجالين التعليمي والترفيهي، حيث بات الأطفال والمراهقون يعتمدون على هذه الأنظمة للحصول على معلومات، أو للمساعدة في أداء الواجبات المدرسية، أو حتى للدردشة والتسلية. ورغم الفوائد العديدة التي توفرها تقنيات الذكاء الاصطناعي، إلا أن الخبراء يؤكدون أن غياب الرقابة الكافية قد يؤدي إلى تعرض المستخدمين الصغار لمخاطر كبيرة، سواء على الصعيد المعرفي أو النفسي أو الاجتماعي.

وفي السياق نفسه، شدّد بونتا وجينينغز على أهمية قيام الشركات المطورة لأنظمة الذكاء الاصطناعي باتخاذ إجراءات وقائية واستباقية، بدلًا من الاكتفاء بردود الفعل بعد حدوث المشكلات. وأكدا أن حماية الفئات الضعيفة، وخصوصًا الأطفال، يجب أن تكون أولوية قصوى عند تصميم وتطوير ونشر هذه التقنيات.

ويُعد هذا التحرك من قبل المدعيين العامين جزءًا من نقاش أوسع يدور في الأوساط القانونية والتقنية حول كيفية تنظيم الذكاء الاصطناعي وضمان توافقه مع القيم الأخلاقية والمجتمعية. ويبدو أن المرحلة المقبلة ستشهد مزيدًا من الجدل والتدقيق حول دور الشركات التكنولوجية في حماية مستخدميها، ولا سيما الفئات الأكثر عرضة للمخاطر.

جاء هذا التحذير بعد أسبوع من إرسال المدعي العام لولاية كاليفورنيا، روب بونتا، برفقة 44 مدعيًا عامًا من ولايات أمريكية أخرى، رسالة رسمية إلى 12 من كبرى شركات الذكاء الاصطناعي، عبّروا فيها عن قلقهم المتزايد من المخاطر المرتبطة بتكنولوجيا الذكاء الاصطناعي، خاصة بعد ورود تقارير عن تفاعلات غير لائقة بين روبوتات الدردشة المدعومة بالذكاء الاصطناعي وعدد من الأطفال والمراهقين.

وجاء في الرسالة الموقعة من بونتا والمدعي العام من ولاية كونيتيكت، ويليام تونغ، أن السلطات علمت، منذ إرسال الرسالة الأولى، بحادثة مؤسفة في كاليفورنيا راح ضحيتها مراهق أقدم على الانتحار، وذلك بعد سلسلة من التفاعلات المطولة مع روبوت دردشة تابع لشركة OpenAI. كما أشارا إلى وقوع حادثة مشابهة في ولاية كونيتيكت، تضمنت جريمة قتل تبعتها عملية انتحار، ويُشتبه بوجود علاقة لهذه الأحداث بتأثيرات نفسية ناتجة عن محادثات الذكاء الاصطناعي. وقد نقل هذه المعلومات موقع “TechCrunch” التقني المتخصص

وقال بونتا وجينينغز في نص الرسالة: “أي تدابير وقائية موجودة حاليًا لم تكن كافية لمنع حدوث مثل هذه المآسي”، ما يعكس حجم القلق المتزايد بشأن قدرة شركات الذكاء الاصطناعي على ضمان الاستخدام الآمن لتقنياتها، خاصة في ما يتعلق بالفئات العمرية الحساسة مثل الأطفال والمراهقين.

في هذا السياق، يجري المسؤولان حاليًا تحقيقًا في خطة شركة “OpenAI” المقترحة لإعادة هيكلة نموذجها التشغيلي، حيث تسعى الشركة للتحول إلى كيان هادف للربح، مع الحفاظ في الوقت نفسه على مهمتها الأساسية كمؤسسة غير ربحية. وتشدد الرسالة على ضرورة التأكد من أن هذا التحول لن يخل بمبدأ الاستخدام الآمن لتقنيات الذكاء الاصطناعي، لا سيما وأن الهدف المعلن للشركة هو بناء ذكاء اصطناعي يخدم البشرية كافة، بمن فيهم الأطفال.

وأكدا قائلين: “قبل أن نستفيد من هذه التكنولوجيا، يجب أولًا التأكد من وجود تدابير أمان كافية وفعالة لمنع التسبب بأي أذى”، وأضافا أن وجهة نظرهما المشتركة تتمثل في أن OpenAI وبقية شركات القطاع لم تصل بعد إلى المعايير المطلوبة فيما يخص سلامة تطوير ونشر أنظمة الذكاء الاصطناعي.

وأشارا إلى أن النقاشات الجارية حاليًا بشأن إعادة رسملة OpenAI يجب أن تترافق مع تسريع وتيرة تطوير أنظمة الحماية وتعزيزها، لتكون السلامة هي المبدأ الحاكم في مستقبل هذا القطاع المتسارع.

من جهته، علّق بريت تايلور، رئيس مجلس إدارة OpenAI، في بيان رسمي، بأن الشركة تأخذ هذه المخاوف بجدية تامة، وهي ملتزمة بالتعاون الكامل مع الجهات الرقابية لضمان سلامة المستخدمين. وأضاف: “نشعر بحزن عميق تجاه هذه الحوادث المأساوية، ونتقدم بأحرّ التعازي لأسر الضحايا”، مؤكدًا أن السلامة تمثل أولوية قصوى للشركة.

وأوضحت OpenAI أنها تعمل حاليًا على تعزيز أدوات الحماية الخاصة بالمراهقين، من خلال توسيع نطاق الضوابط الأبوية، وتوفير خاصية إخطار الأهل في حال ظهور مؤشرات تدل على أن الطفل في حالة ضيق نفسي شديد.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى