الذكاء الاصطناعي

يسعى قادة التكنولوجيا والأعمال في ظل الاهتمام المتزايد بالذكاء الاصطناعي إلى تحقيق الخطوة التالية في هذا المجال، وهي “الذكاء العام الاصطناعي” (AGI)، الذي يمثل آلة تمتلك ذكاء وقدرات تقارب ذكاء الإنسان.
ومع ذلك، يبقى الأهم من الوصول إلى هذا الهدف هو إيجاد سبل مبتكرة لضمان أن هذه الآلة، التي تتمتع بذكاء مماثل للبشر، لا تعمل ضد مصالح الإنسان.
حتى الآن، لا يوجد للبشر وسيلة لمنع الذكاء العام الاصطناعي – إذا تم الوصول إليه – من الخروج عن السيطرة. ومع ذلك، يعمل باحثون في شركة “غوغل ديب مايند” التابعة لغوغل على معالجة هذه المشكلة، وفقًا لتقرير نشره موقع “ArsTechnica” المتخصص في أخبار التكنولوجيا
وقد نشر هؤلاء الباحثون ورقة بحثية جديدة تتكون من 108 صفحات، تشرح كيفية تطوير الذكاء العام الاصطناعي بشكل آمن.
وفي الوقت الذي يراه البعض في مجال الذكاء الاصطناعي حلمًا بعيد المنال، يتوقع باحثو “غوغل ديب مايند” أن يتم الوصول إلى الذكاء العام الاصطناعي بحلول عام 2030.
ويعتقد الباحثون أن الذكاء العام الاصطناعي الذي يشبه الذكاء البشري قد يشكل “تهديدًا كبيرًا”، لذلك يسعون جاهدين لفهم مخاطره بشكل أفضل.
حدد الباحثون أربعة أنواع من المخاطر المحتملة المرتبطة بالذكاء العام الاصطناعي، وقدموا مقترحات لتقليص هذه المخاطر.
قام فريق “ديب مايند” بتصنيف المخاطر السلبية المرتبطة بالذكاء العام الاصطناعي إلى أربعة أنواع: سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. بينما تم مناقشة سوء الاستخدام والانحراف بشكل موسع، كانت معالجة الأخطاء والمخاطر الهيكلية أكثر اختصارًا.
المشكلة الأولى، “سوء الاستخدام”،
تشبه إلى حد كبير المخاطر الحالية المتعلقة بالذكاء الاصطناعي. لكن بما أن الذكاء العام الاصطناعي سيكون أقوى بطبيعته، فإن الأضرار المحتملة ستكون أكثر جسامة. يمكن لأي شخص لديه القدرة على الوصول إلى الذكاء العام الاصطناعي استخدامه لإحداث ضرر، مثل تحديد الثغرات أو ابتكار فيروسات تُستخدم كأسلحة بيولوجية.
ووفقًا لفريق “ديب مايند”، يتعين على الشركات التي تطور الذكاء العام الاصطناعي إجراء اختبارات دقيقة وتنفيذ بروتوكولات سلامة قوية بعد مرحلة التدريب. بمعنى آخر، من الضروري إنشاء طبقات أمان متقدمة للذكاء الاصطناعي.
كما اقترح الفريق ابتكار آلية للحد من القدرات الخطرة تمامًا، والمعروفة أحيانًا بمفهوم “إلغاء التعلم”، رغم أن فاعلية هذه الفكرة غير مؤكدة لأنها قد تتطلب تقليص قدرات النماذج بشكل كبير.
أما “الانحراف”، فليست مشكلة حالياً في الذكاء الاصطناعي التوليدي القائم على النموذج الحالي، لكن قد تصبح مشكلة مع الذكاء العام الاصطناعي. تتمثل هذه المشكلة في أن النظام قد يتجاوز القيود التي وضعها له مصمموه، تمامًا كما في فيلم “ترميناتور”، حيث يتصرف الذكاء الاصطناعي بشكل يتناقض مع أهداف مطوريه.
وفقًا لـ “ديب مايند”، فإن تصورات الانحراف في الذكاء العام الاصطناعي تتجاوز مجرد الخداع أو التخطيط. ولتجنب هذه المشكلة، يقترح الفريق استخدام تقنيات مثل “الإشراف المعزز”، حيث يتعاون نوعان من الذكاء الاصطناعي للتحقق من مخرجات بعضهما البعض، مما يساهم في ضمان أن النظام يظل على المسار الصحيح.
وإذا لم تنجح هذه الاستراتيجيات، فإن “ديب مايند” تقترح إجراء اختبارات ضغط ومراقبة مستمرة لاكتشاف أي علامات على تمرد النظام. كما أضافوا أن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة مع إشراف بشري مباشر قد يكون وسيلة فعالة للتخفيف من المخاطر المرتبطة بالانحراف.
إذا لم يكن الذكاء الاصطناعي على علم بأن مخرجاته ستسبب ضررًا
ولم يكن المشغل البشري يقصد ذلك، فيعتبر هذا “خطأ”. تحدث هذه الأخطاء بشكل متكرر في الأنظمة الحالية للذكاء الاصطناعي.
ومع ذلك، قد تكون هذه المشكلة أكثر تعقيدًا في حال كان الذكاء الاصطناعي عامًا. تشير “ديب مايند” إلى أن الجيوش قد تستخدم الذكاء العام الاصطناعي بسبب “الضغط التنافسي”، إلا أن هذه الأنظمة قد ترتكب أخطاء جسيمة نظرًا لأنها ستُكلف بمهام أكثر تعقيدًا بكثير من تلك التي يتعامل معها الذكاء الاصطناعي الحالي.
الورقة البحثية لا تقدم حلاً مثاليًا للتقليل من الأخطاء. باختصار، الحل يكمن في منع الذكاء العام الاصطناعي من أن يصبح قويًا للغاية في البداية.
وتدعو “ديب مايند” إلى نشر الذكاء العام الاصطناعي بشكل تدريجي، مع تقليص صلاحياته، وتمرير أوامره عبر نظام حماية يضمن أمانها قبل تنفيذها.