حذر مسؤول أميركي كبير من مخاطر تكليف الذكاء الاصطناعي باتخاذ قرارات بشأن استخدام الأسلحة النووية، مشددًا على أن ذلك قد يؤدي إلى كارثة.
وقال المسؤول، الذي طلب عدم الكشف عن هويته، إن “الذكاء الاصطناعي ليس ذكاءً بشريًا. لا يمكنه فهم التعقيدات الأخلاقية والحكمية لاستخدام الأسلحة النووية.
وأضاف: “إذا تم تكليف الذكاء الاصطناعي باتخاذ قرار بشأن استخدام الأسلحة النووية، فقد يؤدي ذلك إلى كارثة. قد يتخذ الذكاء الاصطناعي قرارًا خاطئًا بناءً على معلومات غير كاملة أو تحليل غير دقيق. وقد لا يكون قادرًا على فهم العواقب الوخيمة لاستخدام الأسلحة النووية.”
وتأتي هذه التحذيرات في الوقت الذي تتزايد فيه المخاوف من أن الذكاء الاصطناعي قد يصبح قويًا للغاية لدرجة لا يمكن السيطرة عليه.
وفي العام الماضي، حذر أكثر من 100 من كبار العلماء والخبراء في مجال الذكاء الاصطناعي من “سباق تسلح الذكاء الاصطناعي” الذي يمكن أن يؤدي إلى تطوير أسلحة ذاتية التشغيل “يمكن أن تقتل دون تدخل بشري”.
ويعتقد بعض الخبراء أن استخدام الذكاء الاصطناعي في التحكم بالأسلحة النووية قد يكون طريقة لجعل عملية صنع القرار أكثر دقة وكفاءة.
ومع ذلك، يجادل آخرون بأن هذا قد يؤدي إلى تفاقم خطر استخدام الأسلحة النووية، حيث قد تكون أنظمة الذكاء الاصطناعي أكثر عرضة لاتخاذ قرارات خاطئة أو غير متوقعة.
يُذكر أن الولايات المتحدة تمتلك أكبر ترسانة نووية في العالم، مع ما يقدر بنحو 3,777 رأسًا نووية.
وتعتبر روسيا الدولة الثانية الأكثر امتلاكًا للأسلحة النووية، مع ما يقدر بنحو 5,977 رأسًا نووية.
No Comment! Be the first one.