حذر العلماء من حدوث وشيك لسباق عالمي تسارع فيه جميع الدول بالتسلح بأسلحة مستقلة القرارات(روبوتات) تعتمد على الذكاء الاصطناعي، ما لم تحظر الدول تطوير مثل هذه الأنواع من الأسلحة.
وقد وقّع كل من الملياردير "إيلون ماسك"، وعالم الفيزياء "ستيفن هوكينغ" ومشاهير علماء التكنولوجيا في العالم خطابا مفتوحا محذرين فيه من مخاطر بدء سباق التسلح العالمي في أسلحة الذكاء الاصطناعي (AI) ، ودعوا الأمم المتحدة لفرض حظر على الأسلحة التي لن يكون للبشر أي "تحكم حقيقي فيها".
وصدرت الرسالة عن مؤسسة "مستقبل الحياة" Future of Life، وجري عرضها يوم 27 يوليو/تموز في المؤتمر الدولي المشترك للذكاء الاصطناعي في بوينس آيرس، بالأرجنتين.
وجاء في نص الرسالة: "السؤال الرئيسي للبشرية اليوم هو: هل ينبغي البدء في سباق تسلح AI عالمي لأسلحة الذكاء الاصطناعي المستقلة القرارات، أم أن على العالم منعه قبل أن يبدأ.
إذا ما قامت أية قوة عسكرية كبيرة بدفع تطوير هذا النوع من الأسلحة إلى الأمام، فسباق التسلح العالمي سيصبح أمرا لا مفر منه تقريبا، ونقطة النهاية لهذا المسار ستكون واضحة، أسلحة الذكاء الاصطناعي ستصبح كلاشينكوف الغد، وسيشكل هذا الأمر خطورة أكبر من خطورة الأسلحة النووية".
حتى الباحثون في مجال تطوير الذكاء الاصطناعي أنفسهم عبروا عن مخاوفهم بشأن الكيفية التي يجري تطوير هذه الابتكارات في هذا المجال، حيث تحدثوا عن مدى خطورة مجرد التفكير في الأسلحة المستقلة الذاتية القرارات، مثل الطائرات من دون طيار، التي يمكن أن تحلق وحدها وتقتل الناس باستخدام خوارزمية التعرف على الوجوه، وهذه التكنولوجيا يمكن أن تكون بالفعل في متناول الجميع في غضون سنوات قليلة قادمة.
علاوة على ذلك يمكن لهذه الأسلحة الآلية المتطورة أن تصبح في أيدي جميع التشكيلات العسكرية تقريبا على كوكب الأرض، لأن آلات القتل الرهيبة هذه لا تحتاج إلى تكلفة عالية، كما أن مواد صناعتها سهل الحصول عليها. ويخشى الباحثون من أن يتطور الأمر حتى تقع هذه التكنولوجيا في أيدي القتلة والإرهابيين والعناصر الشريرة الأخرى، التي تستطيع شرائها من السوق السوداء واستخدامها لأغراض إرهابية خطيرة.