جوجل
![جوجل](https://wikigulf.net/wp-content/uploads/2025/02/ويكي-مصر-2025-02-05T072022.014-780x470.png)
أجرت جوجل تعديلًا كبيرًا على مبادئها المتعلقة بالذكاء الاصطناعي منذ إعلانها الأول في عام 2018، حيث قامت بإلغاء التزاماتها السابقة بعدم تصميم أو استخدام تقنيات الذكاء الاصطناعي في تطوير الأسلحة أو أنظمة المراقبة.
وحسبما أفادت صحيفة واشنطن بوست، فقد اختفت الفقرة التي كانت تُدرج تحت عنوان “التطبيقات التي لن نسعى إليها”، والتي كانت تحدد بوضوح عدم تطوير أدوات ذكاء اصطناعي للأسلحة أو تقنيات تتعارض مع المعايير الدولية للمراقبة.
وبدلاً من ذلك، أضافت الشركة قسمًا جديدًا بعنوان “التطوير والتوظيف المسؤول”، حيث تؤكد على ضرورة وجود “إشراف بشري مناسب، إجراءات تقييم، وآليات مراجعة لضمان توافق التكنولوجيا مع أهداف المستخدمين والمبادئ المتعارف عليها عالميًا”.
كانت سياسة جوجل تُعلن بشكل واضح أنها لن تطوّر الذكاء الاصطناعي
لاستخدامه في الأسلحة أو في التقنيات التي تهدف بشكل أساسي إلى إلحاق الضرر بالناس، كما أكدت أنها لن تعمل على تطوير أنظمة مراقبة تنتهك القوانين والمعايير الدولية. لكن مع التحديث الأخير، اختفت هذه الالتزامات، مما يفتح الباب لاستخدام أوسع للذكاء الاصطناعي في المجالات العسكرية والأمنية.
وعندما تم الاستفسار عن هذا التغيير، أشارت جوجل إلى منشور رسمي كتبه ديميس هاسابيس، الرئيس التنفيذي لشركة ديب مايند، وجيمس مانيكا، نائب الرئيس الأول للأبحاث والتكنولوجيا والمجتمع في جوجل.
وأوضح المنشور أن ظهور الذكاء الاصطناعي كتكنولوجيا عامة يستدعي تعديل السياسات، مؤكدين أن الشركات والحكومات التي تشترك في قيم مثل الحرية والمساواة واحترام حقوق الإنسان يجب أن تتعاون لتطوير ذكاء اصطناعي يضمن الحماية، ويدعم الأمن القومي، ويسهم في النمو العالمي. ورأى المنتقدون أن هذه المبررات عامة وغير قابلة للقياس.