تقنية

الذكاء الاصطناعي

حددت فاي فاي لي، عالمة الكمبيوتر في جامعة ستانفورد ومؤسسة شركة ناشئة والمعروفة بلقب “عرابة الذكاء الاصطناعي“، ثلاثة مبادئ أساسية لمستقبل السياسات المتعلقة بالذكاء الاصطناعي قبل قمة الذكاء الاصطناعي التي ستعقد في باريس الأسبوع المقبل.

وقالت لي إن السياسات يجب أن تستند إلى “العلم، وليس الخيال العلمي”، بمعنى آخر، ينبغي على صناع السياسات أن يركزوا على الواقع الحالي للذكاء الاصطناعي بدلاً من الانشغال بالسيناريوهات المستقبلية المبالغ فيها، سواء كانت تمثل يوتوبيا أو نهاية العالم.

وأضافت أنه من الضروري أن يدرك صناع السياسات

أن برامج الدردشة الآلية والطيار المساعد لا تعتبر أشكالًا من الذكاء التي تمتلك نوايا أو إرادة حرة أو وعيًا، حتى يتمكنوا من تجنب الانشغال “بالسيناريوهات غير الواقعية” والتركيز على التحديات الحقيقية، وفقًا لما نقله موقع “تك كرانش” عنها.

قالت إن السياسة يجب أن تكون عملية وليست أيديولوجية، ما يعني ضرورة تصميمها بحيث تحد من العواقب غير المتوقعة وتدفع نحو الابتكار. وأوضحت أن هذه السياسة ينبغي أن تدعم نظام الذكاء الاصطناعي بالكامل، بما في ذلك المجتمعات المفتوحة والأوساط الأكاديمية. وأضافت: “الوصول المفتوح إلى نماذج الذكاء الاصطناعي والأدوات الحاسوبية يعد أمرًا حيويًا للتقدم، وتقييده سيساهم في خلق حواجز تعرقل الابتكار، خاصة للمؤسسات الأكاديمية والباحثين الذين يملكون موارد أقل مقارنة بنظرائهم في القطاع الخاص”.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى