پنتاگون در حال بهروزرسانی دستورالعملهای مربوط به توسعه، آزمایش و استفاده از سلاحهای خودکار و نیمه خودکار برای اولین بار در نزدیک به 10 سال گذشته است تا درباره نقش رو به رشد هوش مصنوعی در نبردهای آینده هشدار دهد.
آخرین بار وزارت دفاع ایالات متحده رهنمودهای خود را در مورد سیستم های تسلیحات خودکار در سال 2012 به روز کرد، اما این هفته شاهد به روز رسانی جدیدی در این سند هستیم. وزارت دفاع ایالات متحده می گوید که به توسعه سیستم های خودکار و ادغام هوش مصنوعی در پروژه های نظامی آینده خود متعهد است. با این به روز رسانی، دولت ایالات متحده تمرکز کامل خود را بر روی توسعه این سلاح ها قرار داده است. این در شرایطی رخ می دهد که برخی کشورها و فعالان مخالف توسعه این سلاح ها هستند.
به روز رسانی راهنمایی به توسعه هوش مصنوعی در 10 سال گذشته نگاه می کند و یک نهاد نظارتی جدید را برای کنترل این فعالیت ها معرفی می کند. اکنون در اکثر موارد سلاح های خودکار قبل از ورود به مراحل توسعه باید از معاونت ستاد، معاون سیاست دفاعی و معاونت تحقیقات و مهندسی دفاعی تاییدیه رسمی دریافت کنند.

پنتاگون برنامه خود را برای استفاده از هوش مصنوعی اعلام کرد
مایکل هوروویتز، مدیر دفتر قابلیتهای نوظهور وزارت دفاع، گفت: «این دستورالعمل اکنون مشخص میکند که این سیستمها، درست مانند هر سیستمی که از هوش مصنوعی استفاده میکند، خواه سلاح باشد یا نباشد، باید مشمول این دستورالعملها باشد. این تصمیم بخشی از چیزی است که ما آن را حکمرانی خوب می نامیم.
این دستورالعمل همچنین مفاد استفاده اخلاقی از هوش مصنوعی را که در سال 2020 معرفی شد برای سیستمهای تسلیحات خودکار اعمال میکند. به طور کلی، این به روز رسانی، اگرچه یک نقشه راه کامل نیست، اما مسیر آینده این وزارتخانه را با تأکید بر فناوری مدرن مشخص می کند.
در حال حاضر بسیاری از کشورها با استفاده از هوش مصنوعی در تسلیحات نظامی مخالف هستند و حداقل 30 کشور از آنها به طور مشترک درخواست ممنوعیت توسعه این سیستم ها را داده اند. در سال 2019، آنتونیو گوترش، دبیر کل سازمان ملل متحد گفت: «ابزارهای خودکار با توانایی و قدرت انتخاب اهداف و گرفتن جان انسان ها، در شرایطی که انسان ها هیچ نقشی در این فرآیند ندارند، از نظر سیاسی غیرقابل قبول و غیراخلاقی هستند.»