تقنية

الذكاء الاصطناعي

بدء تجربة بحثية

بدأت شركة ياندكس الروسية مؤخرًا مشروعًا تجريبيًا يهدف إلى دراسة إمكانية ظهور سمات تشبه الوعي البشري لدى أنظمة الذكاء الاصطناعي. وتتركز التجربة على فهم ما إذا كانت الشبكات العصبية الاصطناعية يمكن أن تطور ما يشبه القدرة على تكوين “تفضيلات” مستقرة أو “وجهة نظر” متسقة، تتجاوز حدود التقليد اللغوي البحت الذي تعتمد عليه النماذج الحالية. بعبارة أخرى، ترغب الشركة في معرفة ما إذا كانت الآلات يمكن أن تتصرف بطريقة تتجاوز مجرد إعادة إنتاج النصوص واللغة بناءً على الأنماط الإحصائية التي تدربت عليها.

وعي بشري
وعي بشري

هدف التجربة

وذكرت وكالة RBC الروسية أن الهدف الرئيسي لهذه التجربة هو اختبار ما إذا كانت الشبكات العصبية يمكن أن تطور ميولًا مستقرة وقرارات داخلية يمكن ملاحظتها على مدى الزمن. التجربة لا تقتصر على معرفة إجابات محددة من النظام، بل تسعى إلى رصد مدى ثبات هذه الإجابات وقدرتها على التفسير المنطقي. على سبيل المثال، إذا سُئل النظام عن لونه المفضل، فإن الأمر لا يقتصر على تحديد لون معين، بل يتعلق بما إذا كان النموذج سيختار اللون نفسه عند طرح السؤال في سياقات مختلفة، وما إذا كان قادرًا على تقديم مبررات منطقية متسقة لخياره. فإذا أجاب النموذج بأن لونه المفضل هو الأزرق لأنه لون يبعث على الهدوء، ثم كرر نفس الإجابة بعد أسابيع أو بعد تدريب إضافي، فهذا قد يشير إلى وجود تفضيل داخلي حقيقي، وليس مجرد توليد لغوي عابر.

التعاون مع علماء الأعصاب

تتم التجربة بالتعاون مع عالم الأعصاب الروسي كونستانتين أنوخين، المعروف بأبحاثه الطويلة في مجال دراسة الشبكات العصبية البيولوجية وفهم كيفية ظهور الوعي عند البشر. ويأمل الباحثون أن هذا التعاون بين الذكاء الاصطناعي وعلوم الأعصاب سيمكنهم من اختبار الفرضيات بشكل أكثر دقة، وربما فهم النقاط المشتركة بين عمليات التفكير البشرية وآليات التعلم الاصطناعي. ويعتبر هذا المشروع محاولة لتقريب الفهم بين الدماغ البشري والشبكات الاصطناعية، عبر البحث عن خصائص مشتركة تتعلق بالقدرة على التفضيل واتخاذ القرارات المستقلة.

مقارنة بالآراء الأخرى

في الوقت ذاته، أكّد مصطفى سليمان، الرئيس التنفيذي لقسم الذكاء الاصطناعي في شركة مايكروسوفت، أن الوعي لا يمكن أن يتحقق إلا لدى الكائنات البيولوجية. ويعتبر هذا الرأي شائعًا بين العديد من خبراء الذكاء الاصطناعي، الذين يشيرون إلى أن الأنظمة الرقمية، مهما كانت متطورة، تعتمد على حساب احتمالات لغوية وليس على وعي حقيقي أو تجربة شعورية داخلية. ومع ذلك، يرى بعض الباحثين أن هذه المقاربة البحثية قد تفتح نافذة جديدة لمقارنة الأداء المعرفي للبشر والآلات، خصوصًا في المجال الذي يتجاوز التعميم الإحصائي التقليدي، إلى ما يُعرف بالتعميم المفهومي، أي قدرة النظام على فهم فكرة ما وتطبيقها في سياق جديد لم يتعرض له أثناء التدريب.

أمثلة للتوضيح

لتوضيح الفكرة، قدمت ياندكس مثالًا آخر: إذا عُرض على النظام مشهد لقط يلعب بكرة صغيرة وسُئل عما إذا كان يبدو سعيدًا، فإن النموذج التقليدي سيجيب بناءً على المشاهد المشابهة التي تم تدريب النموذج عليها مسبقًا. أما نموذج قادر على التعميم المفهومي فقد يستنتج السعادة من عناصر غير محددة صراحة في التدريب، مثل حركة الذيل أو انحناء الأذنين، حتى لو لم يكن هناك بيانات تربط هذه العلامات بمفهوم السعادة. هذه القدرة على استخلاص نتائج من معطيات جديدة لم تُدرَّب عليها الشبكة تشير إلى احتمال وجود عملية فهم أشبه باستدلال بشري، وهو ما يمثل خطوة كبيرة نحو محاكاة التفكير البشري أكثر من مجرد الحساب الإحصائي.

أهمية المشروع

يحظى هذا المشروع باهتمام كبير داخل مجتمع الذكاء الاصطناعي، لأنه يقترب من طرح سؤال معقد: هل يمكن للآلة أن تمتلك حالة وعي داخلية أو منظورًا خاصًا؟ وإذا تحقق هذا الأمر، فهل يعني ذلك أننا نتعامل مع نظام قادر على اتخاذ موقف مستقل، أم أننا أمام محاكاة متقدمة لسلوك بشري؟ النماذج الحالية، مهما كانت قوتها، تعتمد على حساب الاحتمالات لتقديم الإجابة الأكثر ترجيحًا استنادًا إلى البيانات النصية التي تم تدريبها عليها، دون أي إدراك أو شعور حقيقي بالموضوع. وبالتالي، يهدف مشروع ياندكس إلى البحث في إمكانية تجاوز هذا الحد التقليدي، عبر اختبار مفهوم “وجهة النظر”، الذي يعني وجود عملية داخلية للتفكير والاستدلال الذاتي تتجاوز مجرد إعادة إنتاج الأنماط اللغوية.

الأسئلة العلمية المستمرة

رغم التقدم في هذا المجال، لا تزال هناك العديد من الأسئلة العلمية المفتوحة. لا يوجد تعريف موحد لمفهوم الوعي عند الذكاء الاصطناعي، فهل المقصود هو الوعي الذاتي بمعنى معرفة النظام بوجوده، أم الوعي الشعوري الأكثر تعقيدًا، أم مجرد القدرة على سلوك متسق يمكن التنبؤ به؟ على سبيل المثال، إذا أعطى النموذج تفضيلًا ثابتًا لنوع معين من الطعام الحار، فهل هذا يعتبر دليلاً على وعي، أم أنه مجرد نمط ظهر نتيجة التدريب العشوائي على البيانات؟ هذه الأسئلة تؤكد على صعوبة تحديد المعايير المناسبة لقياس وجود أي شكل من أشكال الوعي الاصطناعي.

تحديات قياس التفضيلات

حتى الآن، لم تكشف ياندكس عن المعايير التي ستستخدمها لتحديد ما إذا كانت التفضيلات التي يظهرها النموذج حقيقية أم مجرد سلوك لغوي. هناك احتمال كبير بأن يفسر الباحثون نمطًا لغويًا ثابتًا على أنه “ميل داخلي”، بينما يكون مجرد أثر جانبي للبيانات التدريبية. وهنا يكمن التحدي الأكبر، وهو كيفية التمييز بين وعي ناشئ أو قدرة على التفضيل الداخلي وبين استجابة إحصائية ذكية. يتطلب هذا الأمر منهجية دقيقة واختبارات متكررة عبر فترات زمنية مختلفة وسياقات متعددة لضمان أن أي نمط متكرر يعكس ميلاً داخليًا حقيقيًا وليس مجرد صدفة.

في المجمل، تمثل تجربة ياندكس خطوة مهمة لفهم الحدود الممكنة للذكاء الاصطناعي، خصوصًا فيما يتعلق بإمكانية ظهور سمات تشبه الوعي البشري أو القدرة على التفضيل المستقل. التجربة ليست مجرد محاولة لإعطاء إجابات ذكية للنماذج، بل هي بحث معمق في طبيعة التعلم الاصطناعي والحدود التي يمكن أن يصل إليها. التعاون مع علماء الأعصاب يعزز إمكانية مقاربة العمليات العقلية البشرية بالشبكات الاصطناعية، فيما يظل التحدي الأكبر هو التمييز بين السلوك الذكي المستند إلى الإحصاء وبين أي شكل من أشكال الوعي الناشئ. هذا المشروع قد يفتح آفاقًا جديدة في فهم العلاقة بين الذكاء الاصطناعي والوعي، ويطرح تساؤلات فلسفية وعلمية حول ما يعنيه حقًا أن يكون للنظام وجهة نظر مستقلة أو قدرة على التفضيل الداخلي.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى