تقنية

شات جي بي تي

أطلقت شركة “OpenAI” مؤخرًا أحد أكثر ابتكاراتها تقدمًا في مجال الذكاء الاصطناعي، وهو ما يُعرف بـ”وكيل شات جي بي تي” (ChatGPT Agent). يُعد هذا الوكيل الذكي امتدادًا لقدرات روبوت الدردشة الشهير “شات جي بي تي”، لكنه لا يقتصر على التفاعل النصي فقط، بل يمتلك القدرة على تنفيذ إجراءات فعلية بالنيابة عن المستخدم، مما يمثّل خطوة نوعية نحو تحويل الذكاء الاصطناعي من مجرد مساعد ذكي إلى أداة تنفيذية قادرة على العمل المستقل في مجموعة واسعة من المهام.

شات جي بي تي
شات جي بي تي

ويَعِد هذا المنتج الجديد بإحداث تحول جذري في طريقة تفاعل الأفراد مع التكنولوجيا، إذ يستطيع تلقائيًا جمع البيانات من مصادر متعددة، وإنشاء جداول بيانات دقيقة، وحجز الرحلات، وإعداد عروض تقديمية متكاملة دون تدخل بشري مباشر. هذه القدرات تجعل منه أداة بالغة الفعالية في مجالات العمل والتعليم والتخطيط، ما قد يسهم في تحسين الإنتاجية وتوفير الوقت والجهد بشكل ملحوظ.

لكن على الرغم من المزايا العديدة التي يحملها هذا الابتكار، فإنه يثير في الوقت ذاته مخاوف جدية تتعلق بالأمن والسلامة، خاصة في ما يرتبط بإمكانية إساءة استخدام هذه التقنية في مجالات حساسة. فقد أشارت شركة “OpenAI” ذاتها إلى أن “وكيل شات جي بي تي” يُعد أول منتج تطوّره يتم تصنيفه بأنه يتمتع بـ”قدرة عالية” فيما يخص المخاطر البيولوجية. هذا التوصيف يعكس وعيًا متزايدًا من الشركة بأن تقنيات الذكاء الاصطناعي المتقدمة قد تُستخدم، في حال وقوعها في الأيادي الخطأ، في تصميم أدوات خطيرة مثل الأسلحة البيولوجية أو الأسلحة الكيميائية.

وتوضح الشركة أنها اتخذت خطوات احترازية لمنع مثل هذه الاستخدامات، منها فرض قيود صارمة على البيانات التي يمكن للنموذج الوصول إليها، إلى جانب آليات مراقبة لضمان أن الأوامر الحساسة لا تُنفذ إلا ضمن ضوابط مشددة. كما تعمل “OpenAI” على تطوير إطار أخلاقي وتشغيلي لمرافقة هذا النوع من الذكاء الاصطناعي التنفيذي، يشمل سياسات الاستخدام الآمن، ومراجعة سلوك الوكلاء الأذكياء، والتدخل البشري عند الحاجة.

الجدير بالذكر أن هذه التقنية تأتي ضمن التوجه العام لشركات التكنولوجيا الكبرى لتطوير “وكلاء ذكاء اصطناعي” يمكنهم التفاعل مع بيئة المستخدم بشكل مباشر، مثل إرسال بريد إلكتروني، أو تعديل ملفات، أو حتى التفاعل مع تطبيقات أخرى. ويُتوقع أن يُحدث ذلك نقلة كبيرة في شكل الأتمتة، ويعيد تعريف مفاهيم العمل الرقمي.

في النهاية، يُعد وكيل “شات جي بي تي” خطوة متقدمة في تطور الذكاء الاصطناعي، تجمع بين الراحة والكفاءة من جهة، والتحديات الأخلاقية والأمنية من جهة أخرى، ما يتطلب توازناً دقيقاً بين الابتكار والمسؤولية لضمان استخدام هذه التقنيات لما فيه الخير العام.

تهديد محتمل للمبتدئين

يشير هذا التصنيف إلى أن نماذج الذكاء الاصطناعي قد تُوفر دعماً فعّالاً للأفراد والجهات غير المتخصصة، ما يمكّنهم من إحداث تهديدات بيولوجية أو كيميائية، وفقًا لتقرير نشرته مجلة “فورتشن” واطلعت عليه “العربية Business”.

وبحسب “إطار التأهب” المعتمد من قبل “OpenAI”، والذي يهدف إلى رصد المخاطر الكبرى التي قد تنجم عن النماذج المتقدمة والاستعداد لها، فإن هذا السيناريو قد يُترجم في الواقع إلى تزايد احتمالية وتكرار حوادث الإرهاب البيولوجي أو الكيميائي من قبل جهات غير حكومية.

وصرّح بواز باراك، وهو أحد الأعضاء الفنيين في “OpenAI”، عبر منشور على منصات التواصل قائلاً: “قد يظن البعض أن التهديدات البيولوجية مبالغ فيها، وأن النماذج لا تقدّم سوى معلومات متاحة على الإنترنت. قد يكون هذا صحيحًا في عام 2024، لكنه لم يعد كذلك اليوم. بناءً على تقييماتنا وتقييمات خبرائنا، فإن الخطر حقيقي وملموس”.

وأضاف: “صحيح أننا لا نستطيع تأكيد قدرة النموذج على تمكين شخص عديم الخبرة من تنفيذ ضرر بيولوجي كبير، لكن كان من غير المسؤول إطلاق هذا النموذج دون اتخاذ تدابير وقائية صارمة كما فعلنا”.

تدابير وقائية

أكدت “OpenAI” أن تصنيف النموذج على أنه عالي الخطورة من حيث احتمال إساءة الاستخدام البيولوجي كان إجراءً احترازيًا، وقد أدى هذا إلى تنفيذ مجموعة إضافية من تدابير الحماية.

وقالت كيرين جو، الباحثة في مجال السلامة لدى “OpenAI”، إنه رغم عدم امتلاك الشركة أدلة دامغة على قدرة النموذج على إرشاد المبتدئين إلى تنفيذ تهديدات بيولوجية حقيقية، فإنها فعلت آليات الحماية كإجراء وقائي.

ومن ضمن هذه التدابير، قيام وكيل شات جي بي تي برفض الاستفسارات التي قد تُستخدم في تطوير أسلحة بيولوجية، واعتماد أنظمة ترصد المحتوى الخطير وتحيله إلى مراجعة بشرية، بالإضافة إلى تطبيق قواعد صارمة لمنع نشر المحتوى الضار، وتحسين سرعة الاستجابة للحوادث، ورصد أي مؤشرات على سوء الاستخدام بشكل دقيق.

وأعربت الشركة عن تزايد قلقها من احتمالية استخدام النماذج الذكية في تطوير أسلحة بيولوجية، وفي منشور مدونة الشهر الماضي، أعلنت “OpenAI” أنها تكثّف اختبارات السلامة لتقليل خطر استغلال نماذجها لهذا الغرض.

كما حذّرت من أن غياب هذه الإجراءات الوقائية قد يؤدي قريبًا إلى تمكين الأفراد ذوي الخبرة المحدودة من تطوير أسلحة بيولوجية متقدمة.

وأوضح باراك قائلاً: “بعكس التهديدات النووية أو الإشعاعية، فإن الحصول على المواد البيولوجية لا يُعد عائقًا كبيرًا، مما يجعل الأمن معتمدًا بشكل أكبر على ندرة المعرفة والخبرة المعملية”.

وتابع: “ووفقًا لتقييمات داخلية وخارجية، فإن وكيل شات جي بي تي غير المقيّد قد يُسهم في سد فجوة المعرفة هذه، ويُقدّم إرشادات أقرب إلى تلك التي يعطيها خبراء مختصون”.

وكلاء الذكاء الاصطناعي: بين الفرصة والمخاطر

الميزة الجديدة لوكلاء شات جي بي تي التي أطلقتها “OpenAI” مؤخرًا تُعد إحدى أبرز خطوات تطوير الذكاء الاصطناعي وأكثرها إثارة للجدل، حيث تستهدف تسخير هذا النوع من التكنولوجيا لأداء مهام رقمية معقدة بشكل مستقل.

وتتنافس كبرى شركات الذكاء الاصطناعي حاليًا لتطوير وكلاء قادرين على تنفيذ مهام متعددة دون تدخل مباشر، وهو ما يتماشى مع توجه عام نحو دمج الذكاء الاصطناعي في سير العمل وأتمتة الإجراءات المتكررة.

في هذا السياق، تُدرك “OpenAI” أن منح مزيد من الاستقلالية للنماذج يُضاعف من احتمالات المخاطر، لذلك تشدد على أهمية سيطرة المستخدم للحد من هذه التهديدات. فعلى سبيل المثال، لا يتخذ الوكيل أي خطوة حساسة دون إذن المستخدم، كما يمكن إيقافه مؤقتًا أو تعديله أو إنهاؤه في أي وقت.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى