مسابقه تسلیحاتی هوش مصنوعی
مسابقه تسلیحاتی هوش مصنوعی نظامی، مسابقه ای بین دو یا چند ایالت برای تجهیز نیروهای نظامی آنها به وسیله بهترین هوش مصنوعی (AI) است. از اواسط دهه ۲۰۱۰، بسیاری از تحلیلگران عقیده داشتند که چنین مسابقه تسلیحاتی جهانی برای داشتن نیروی نظامی هوش مصنوعی شروع شدهاست.
واژهشناسی
بهطور گستردهتر، هر گونه رقابت برای هوش مصنوعی برتر گاهی به عنوان یک «مسابقه تسلیحاتی» تلقی میشود. تلاش برای سلطهٔ هوش مصنوعی با تلاش برای تسلط در بخشهای دیگر اشتراک دارد، به ویژه هنگامی که یک کشور منافع اقتصادی و نظامی را با هم دنبال میکند.
خطرات
نیک بستروم و دیگران ادعا دارند که خطر هوش مصنوعی، میتواند باعث شود که نیروها از اقدامات احتیاطی ایمن استفاده کنند.
استیفن کیو از مرکز لورولم ادعا میکند که این خطر سه برابر است، احتمالاً خطر اول دارای پیامدهای ژئوپلیتیکی است، و دو مورد دیگر قطعاً دارای پیامدهای ژئوپلیتیکی هستند:
i) خطرات یک مسابقه هوش مصنوعی برای ایجاد مزیت مربوط به فناوری، صرف نظر از اینکه مسابقه بهطور جدی دنبال میشود یا خیر.
ii) خطرات یک مسابقه هوش مصنوعی و یک مسابقه هوش مصنوعی واقعی برای مزیت مربوط به فناوری، صرف نظر از برنده شدن مسابقه.
iii)خطرات یک مسابقه هوش مصنوعی برای برتری تکنولوژیکی.
کیو استدلال میکند که خطر در صورت ابتلا به هوش عمومی مصنوعی، که شاید یک خطر وجودی را نشان دهد، افزایش مییابد.
اصطلاحات مسابقه اسلحه همچنین گاهی اوقات در زمینه رقابت برای برتری اقتصادی و " قدرت نرم " مورد استفاده قرار میگیرد. به عنوان مثال، "گزارش موقت" نوامبر ۲۰۱۹ کمیسیون امنیت ملی ایالات متحده در مورد هوش مصنوعی، ضمن تأکید بر نقش دیپلماسی در تعامل با چین و روسیه، زبان یک مسابقه تسلیحاتی رقابتی را اتخاذ میکند. در این مقاله آمدهاست که برتری تکنولوژیکی ارتش ایالات متحده برای نظم جهانی موجود حیاتی است و تأکید میکند که نظامی شدن مداوم هوش مصنوعی، همراه با نظامی کردن ان، توسط چین و روسیه، برای اهداف ژئوپلیتیک است:
تحولات در هوش مصنوعی را نمیتوان از رقابت استراتژیک در حال ظهور با چین، و تحولات در فضای گسترده ژئوپلیتیک جدا کرد. ما نگرانیم که نقش آمریکا به عنوان مبتکر برجسته جهان تهدید شود. ما نگران این هستیم که رقبای استراتژیک و بازیگران غیردولتی برای تهدید آمریکاییها، متحدان و ارزشهای ما از هوش مصنوعی استفاده کنند. ما میدانیم که رقبای استراتژیک در حال سرمایهگذاری، در زمینهٔ تحقیق و کاربرد هستند. تنها چیزی که برای نتیجهگیری، منطقی به نظر میرسد این است که از قابلیتهای فعال شده هوش مصنوعی میتوان برای تهدید زیرساختهای حیاتی ما، تقویت فعالیتهای اطلاعات نادرست و جنگ بر علیه ما استفاده کرد.
در سیاست خارجی، پل شار هشدار میدهد که سخنان پیرامون یک مسابقه تسلیحاتی هوش مصنوعی میتواند به یک پیشگویی کامل کننده تبدیل شود.
مواضع نسبت به هوش مصنوعی نظامی
روسیه
ژنرال روسی ویکتور بوندارف، فرمانده کل نیروی هوایی روسیه، اظهار داشت که روسیه در اوایل فوریه ۲۰۱۷ در حال کار بر روی موشکهایی است که توسط هوش مصنوعی هدایت میشوند و میتوانند برای تغییر مسیرها در طول پرواز، تصمیمگیری کنند.کمیته صنعتی نظامی روسیه برنامههایی را برای تأمین ۳۰ درصد از قدرت جنگی روسیه از سیستم عاملهای رباتیک کنترل از راه دور و هوش مصنوعی تا سال ۲۰۳۰ تصویب کردهاست. [۱] گزارشهای رسانههای تحت حمایت دولت روسیه در مورد استفادههای ممکن نظامی از هوش مصنوعی در اواسط سال ۲۰۱۷ افزایش یافت. در ماه مه ۲۰۱۷، مدیر عامل گروه کرونشتات روسیه، یک پیمانکار دفاعی، اظهار داشت که «در حال حاضر سیستمهای عملیاتی کاملاً مستقل هوش مصنوعی وجود دارد که ابزارهایی را برای دسته بندیهای پهپاد وقتی که انها مأموریتها را به طور مستقل یا به صورت اشتراکی و در تعامل یکدیگر انجام میدهند» فراهم میکند، این موضوع که «انبوه هواپیماهای بدون سرنشین» روزی بر فراز مناطق جنگی پرواز خواهند کرد، امری اجتناب ناپذیر است. روسیه چندین سیستم جنگی خودمختار و نیمه خودمختار مانند ماژول رزمی «شبکه عصبی» کلاشنیکوف را با مسلسل، دوربین و هوش مصنوعی آزمایش کردهاست که سازندگان آن ادعا میکنند بدون دخالت انسان میتوانند قضاوتهای هدفگیری خود را انجام دهند.
در سپتامبر ۲۰۱۷، ولادیمیر پوتین، رئیسجمهور روسیه، طی سخنرانی روز ملی دانش در مقابل بیش از یک میلیون دانش آموز در ۱۶۰۰۰ مدرسه روسیه اظهار داشت: "هوش مصنوعی آینده است، نه تنها برای روسیه بلکه برای همه بشریت. . . هرکس در این حوزه رهبر شود، فرمانروای جهان خواهد شد ". پوتین همچنین گفت که بهتر است از انحصار هر کسی جلوگیری شود، اما اگر روسیه رهبر هوش مصنوعی شود، ان وقت "فناوری خود را با بقیه جهان به اشتراک میگذارد، مانند کاری که اکنون با فناوری اتمی و هسته ای انجام میدهیم".
روسیه در حال تشکیل تعدادی سازمان که به توسعه هوش مصنوعی نظامی اختصاص دارند، هست. در مارس ۲۰۱۸، دولت روسیه دستورالعمل ای ۱۰ ماده ای دربارهٔ هوش مصنوعی منتشر کرد که خواستار ایجاد کنسرسیوم هوش مصنوعی و دادههای بزرگ، کمک هزینه ای برای الگوریتمها و برنامههای تحلیلی،
یک آموزش هوش مصنوعی با حمایت دولت، یک آزمایشگاه اختصاصی هوش مصنوعی، و یک مرکز ملی هوش مصنوعی، در میان جمله اقدامات دیگر است. علاوه بر این، روسیه اخیراً یک سازمان تحقیقاتی دفاعی، تقریباً معادل DARPA، مختص خودمختاری و رباتیک به نام بنیاد مطالعات پیشرفته ایجاد کرده و کنفرانس سالانه ای را با عنوان «ربات سازی نیروهای مسلح فدراسیون روسیه» آغاز کردهاست.
ارتش روسیه در حال تحقیق در مورد تعدادی از کاربردهای هوش مصنوعی با تأکید شدید بر وسایل نقلیه نیمه خودکار و تمام خودکار است. در بیانیه رسمی در تاریخ ۱ نوامبر ۲۰۱۷، ویکتور بوندارف، رئیس کمیته دفاعی و امنیتی شورای فدراسیون، اظهار داشت که «هوش مصنوعی قادر به جایگزینی یک سرباز در میدان جنگ و یک خلبان در کابین خلبان هواپیما خواهد بود» و بعداً اشاره کرد که «روزی است که وسایل نقلیه به هوش مصنوعی دست پیدا میکنند.» بوندارف این اظهارات را در مجاورت آزمایش موفقیتآمیز نرهتا، یک وسیله نقلیه زمینی خالی از سکنه روسی که گفته میشود از ماشینهای جنگی موجود [مسکونی] بهتر عمل کردهاست، ابراز داشت. روسیه قصد دارد از نرهتا به عنوان یک بستر تحقیق و توسعه برای هوش مصنوعی استفاده کند و ممکن است روزی سیستم در جنگ را، جمعآوری اطلاعات یا قوانین منطقی قرار دهد. گزارش شدهاست که روسیه همچنین یک ماژول جنگی برای وسایل نقلیه زمینی خالی از سکنه ساختهاست که توانایی شناسایی هدف مستقل - و بالقوه، درگیری با هدف - را دارد و قصد دارد مجموعه ای از سیستمهای خودمختار مجهز به هوش مصنوعی را توسعه دهد.
به علاوه ارتش روسیه برنامهریزی میکند که هوش مصنوعی را با وسایل نقلیهٔ غیر مسکونی هوایی، دریایی و زیر دریایی ادغام کند و در حال حاضر قابلیتهای ازدحام را توسعه میدهد. همچنین در حال جست و جو کاربردهای خلاقانهٔ هوش مصنوعی برای سنجش از دور و جنگ الکترونیکی، شامل پرش با فرکانس تطبیقی، شکل موج و اقدامات متقابل است. روسیه همچنین از فن آوری هوش مصنوعی برای تبلیغات و نظارت داخلی، همچنین برای عملیات اطلاعاتی علیه ایالات متحده و متحدان آمریکا استفاده گستردهای کرده است.
دولت روسیه هرگونه ممنوعیت استفاده از سیستمهای اسلحه کشنده خودکار را به شدت رد کرده و پیشنهاد میکند این ممنوعیت را میتوان نادیده گرفت.
چین
چین در حال پیگیری سیاست استراتژیک «ادغام مدنی نظامی» با هوش مصنوعی برای برتری فناوری جهانی است. بر اساس گزارش فوریه ۲۰۱۹ توسط گریگوری سی آلن از مرکز امنیت جدید آمریکا، رهبری چین - از جمله رهبر برجسته شی جین پینگ - معتقد است که بودن در خط مقدم فناوری هوش مصنوعی برای آینده رقابت ارتش جهانی و قدرت اقتصادی حیاتی است مقامات نظامی چین گفتهاند که هدف آنها استفاده از فناوری هوش مصنوعی تجاری برای «کاستن فاصله بین ارتش چین و قدرتهای پیشرفته جهانی» است. . روابط نزدیک بین سیلیکون ولی و چین، و ماهیت باز جامعه تحقیقاتی آمریکا، پیشرفتهترین فناوری هوش مصنوعی غرب را به راحتی در دسترس چین قرار دادهاست. علاوه بر این، صنعت چین دستاوردهای هوش مصنوعی خانگی خود همانند بایدو،
که یک معیار قابل توجه قابلیت تشخیص گفتار به زبان چینی را در سال ۲۰۱۵ گذراند، دارد. از سال ۲۰۱۷، نقشه راه پکن با هدف ایجاد یک صنعت ۱۵۰ میلیارد دلاری هوش مصنوعی تا سال ۲۰۳۰ ساخته شدهاست. قبل از سال ۲۰۱۳، خریدهای دفاعی چین عمدتاً به چند مجتمع محدود شده بود. با این حال، از سال ۲۰۱۷، چین اغلب از فناوری نوظهور حساس مانند هواپیماهای بدون سرنشین و هوش مصنوعی از شرکتهای نوپای خصوصی استفاده میکند. یک کشور چین متعهد شدهاست ۵ میلیارد دلار در هوش مصنوعی سرمایهگذاری کند. پکن ۲ میلیارد دلار به یک پارک توسعه هوش مصنوعی اختصاص دادهاست. ژاپن تایمز در سال ۲۰۱۸ گزارش داد که سرمایهگذاری خصوصی سالانه چینیها در هوش مصنوعی زیر ۷ میلیارد دلار در سال است. استارت آپهای هوش مصنوعی در چین تقریباً نیمی از کل سرمایهگذاری جهانی را در زمینه راه اندازی هوش مصنوعی در سال ۲۰۱۷ را دریافت کردهاند. چینیها تقریبأ پنج برابر بیشتر از آمریکاییها حق ثبت اختراع، ثبت کردند.
چین مقاله ای را در سال ۲۰۱۶ منتشر کرد که در آن کفایت قانون بینالمللی موجود برای رسیدگی به احتمال استفاده از سلاحهای کاملاً مستقل را مورد تردید قرار داد و به عنوان اولین عضو دائمی شورای امنیت سازمان ملل متحد که این موضوع را مطرح میکند، قرار گرفت. در سال ۲۰۱۸، خی خواستار همکاری بینالمللی بیشتر در تحقیقات پایه هوش مصنوعی شد. مقامات چینی ابراز نگرانی کردهاند که هوش مصنوعی مانند هواپیماهای بدون سرنشین به ویژه در نبود هنجارهای بینالمللی، ممکن است به جنگ تصادفی منجر شود. در سال ۲۰۱۹، مارک اسپر، وزیر دفاع آمریکا، به دلیل فروش هواپیماهای بدون سرنشین که قادر به از بین بردن زندگی بدون نظارت انسانی هستند، به شدت مورد انتقاد قرار گرفت.
ایالات متحده
در سال ۲۰۱۴، چاک هیگل، وزیر دفاع سابق، " سومین استراتژی جبران " را مطرح کرد که پیشرفت سریع هوش مصنوعی نسل بعدی جنگ را تعریف خواهد کرد. طبق گفته شرکت علوم تجزیه و تحلیل دادهها Govini، وزارت دفاع ایالات متحده سرمایهگذاری در زمینه هوش مصنوعی، دادههای کلان و رایانش ابری را از ۵٫۶ میلیارد دلار در سال ۲۰۱۱ به ۷٫۴ میلیارد دلار در سال ۲۰۱۶ افزایش داد. با این حال، بودجه NSF غیرنظامی برای هوش مصنوعی، در سال ۲۰۱۷ افزایش نیافت. ژاپن تایمز در سال ۲۰۱۸ گزارش داد که سرمایهگذاری خصوصی ایالات متحده حدود ۷۰ میلیارد دلار در سال است. «گزارش موقت» نوامبر ۲۰۱۹ کمیسیون امنیت ملی ایالات متحده در مورد هوش مصنوعی تأیید کرد که هوش مصنوعی برای برتری فن آوری نظامی ایالات متحده حیاتی است.
ایالات متحده برنامههای جنگی نظامی بسیاری در زمینهٔ هوش مصنوعی دارد، مانند ناو جنگی خودمختار Sea Hunter، که برای عملیات نظامی برای ساعتهای طولانی بدون حتی یک خدمه و هدایت خود به داخل و خارج بندر طراحی شدهاست. از سال ۲۰۱۷، با توجه به بخشنامه وزارت دفاع ایالات متحده موقت، باید یک عامل انسانی در هنگام گرفتن جان انسان توسط سیستمهای تسلیحاتی خودمختار در جریان باشد. در تاریخ ۳۱ اکتبر ۲۰۱۹، هیئت نوآوری دفاعی وزارت دفاع ایالات متحده پیش نویس گزارشی را منتشر کرد که اصول استفاده اخلاقی از هوش مصنوعی توسط وزارت دفاع را توصیه میکند و این اطمینان را میدهد که یک عامل انسانی همیشه قادر به بررسی " جعبه سیاه "و فهمیدن روند کشتار زنجیره ای است. با این حال، یک نگرانی عمده این است که گزارش چگونه اجرا خواهد شد.
Project Maven یک پروژه پنتاگون است که شامل استفاده از یادگیری ماشین و استعداد مهندسی برای تشخیص افراد و اشیا در فیلمهای هواپیماهای بدون سرنشین است، ظاهراً به دولت زمان واقعی فرماندهی و کنترل میدان نبرد، توانایی ردیابی، برچسب گذاری و جاسوسی اهداف بدون دخالت انسان رامی دهد. گزارش شدهاست به عنوان یک سیستم تسلیحاتی هوش مصنوعی قادر به شلیک به اهدافی که خودش تعیین کردهاست و به صورت کوتاه مدت متوقف میشود. این پروژه در نامهٔ غیررسمی توسط معاون وزیر دفاع ایالات متحده در تاریخ ۲۶ آوریل ۲۰۱۷ تأسیس شد. همچنین به عنوان تیم عملیاتی Algorithmic Warfare Cross شناخته میشود، به گفته ژنرال نیروی هوایی ایالات متحده جک شاناهان در نوامبر ۲۰۱۷، یک پروژه \"به گونه ای طراحی شدهاست که پروژه هدایت کننده، مسیر یاب، جرقه ای باشد که شعله هوش مصنوعی را در بقیه بخشهای [وزارت دفاع] شعله ور میکند\". رئیس آن، سرهنگ سپاه تفنگداران ایالات متحده درو کوکور، گفت: «مردم و رایانهها برای افزایش توانایی سیستمهای اسلحه در تشخیص اشیا، در کنار هم کار خواهند کرد.» در دومین اجلاس Defense One Tech در ژوئیه ۲۰۱۷، کوکور همچنین گفت که سرمایهگذاری در «روند گردش کار آگاهانه» توسط وزارت [دفاع] از طریق «جذب سریع مقامات» برای حدود «۳۶ ماه آینده» تأمین شد.
انگلستان
در سال ۲۰۱۵، دولت انگلیس با ممنوعیت استفاده از سلاحهای کشنده خودمختار مخالفت کرد و اظهار داشت که «قوانین بین المللی بشردوستانه از قبل مقررات مناسب در رابطه با این موضوع را فراهم کردهاست»، اما همه سلاحهایی که به وسیلهٔ نیروهای مسلح انگلیس به کار گرفته میشود «تحت نظارت و کنترل انسان» خواهند بود.
اسرائیل
پهپاد ضد رادار «شلیک و فراموش کن» هارپی اسرائیل برای پرتاب توسط نیروهای زمینی طراحی شدهاست و بهطور مستقل بر روی منطقه ای پرواز میکند تا رادار متناسب با معیارهای از پیش تعیین شده را نابود کند.
کره جنوبی
مسلسل Super aEgis II کره جنوبی، که در سال ۲۰۱۰ رونمایی شد که هم در کره جنوبی و هم در خاورمیانه کاربرد دارد. این مسلسل میتواند یک هدف متحرک را در شعاع ۴ کیلومتری شناسایی، ردیابی و نابود کند. در حالی که این فن آوری از نظر تئوری میتواند بدون دخالت انسان کار کند، اما در عمل محافظانی برای ورود دستی، نصب شدهاند. یک تولیدکننده کره جنوبی اظهار داشت: "سلاحهای ما احتیاج به خواب ندارند در حالیکه انسانها باید بخوابند. آنها میتوانند در تاریکی ببینند، درحالیکه که انسانها قادر به این کار نیستند؛ بنابراین فناوری ما خلاهای موجود در تواناییهای انسانی را جبران میکند "، و آنها میخواهند" به جایی برسند که نرم افزار ما بتواند تشخیص دهد که ایا هدف ما دوست، دشمن، یک فرد عادی یا نظامی است. "
روندها
طبق گفته زیمنس، هزینههای نظامی در سراسر جهان برای رباتیک ۵٫۱ میلیارد دلار در سال ۲۰۱۰ و ۷٫۵ میلیارد دلار در سال ۲۰۱۵ بودهاست.
چین در دهه ۲۰۱۰ به عنوان بازیکن برتر در تحقیقات هوش مصنوعی شناخته شد. طبق گزارش فایننشال تایمز، در سال ۲۰۱۶، برای اولین بار، تعداد مقالاتی که چین در زمینهٔ هوش مصنوعی منتشر کرد از کل تعداد مقالات اتحادیه اروپا بیشتر بود. وقتی تعداد مقالات ذکر شده را به پنج درصد اول محدود میکنیم، چین در سال ۲۰۱۶ از ایالت متحده پیشی گرفت ولی از اتحادیه اروپا عقب بود ۲۳٪ از محققان حاضر در کنفرانس انجمن پیشرفت هوش مصنوعی آمریکا (AAAI) در سال ۲۰۱۷ چینی بودند. اریک اشمیت، رئیس سابق آلفابت، پیشبینی کردهاست که چین تا سال ۲۰۲۵ کشور پیشرو در هوش مصنوعی خواهد بود.
کشور | در سال ۲۰۱۲ | در سال ۲۰۱۷ |
---|---|---|
آمریکا | ۴۱٪ | ۳۴٪ |
چین | ۱۰٪ | ۲۳٪ |
انگلستان | ۵٪ | ۵٪ |
پیشنهادها برای قانونهای بینالمللی
قانونهای بینالمللی سلاحهای خودمختار موضوعی در حال ظهور در حقوق بینالملل است. کنترل تسلیحاتی هوش مصنوعی احتمالاً مستلزم نهادینه سازی هنجارهای جدید بینالمللی است که در ویژگیهای فنی مؤثر همراه با نظارت فعال و دیپلماسی غیررسمی توسط جوامع متخصص، همراه با یک پروسه تأیید قانونی و سیاسی تجسم میشود. در اوایل سال ۲۰۰۷، دانشمندانی مانند استاد هوش مصنوعی، نوئل شارکی هشدار دادهاند که "یک مسابقه تسلیحاتی در حال ظهور در میان کشورهای پیشرفته برای توسعه زیردریاییهای مستقل، جنگندهها، کشتیهای جنگی و تانکهایی است که میتوانند اهداف خود را پیدا کنند و بدون درگیر شدن تصمیمات معنادار انسانی از خشونت استفاده کنند ". در سال ۲۰۱۴، استیو اوموهوندرو، متخصص هوش مصنوعی هشدار داد که «یک مسابقه تسلیحاتی مستقل در حال انجام است». مایلز برونداژ از دانشگاه آکسفورد استدلال کردهاست که یک مسابقه تسلیحاتی هوش مصنوعی ممکن است از طریق دیپلماسی تا حدودی کاهش یابد: «ما در مسابقات مختلف اسلحه سازی تاریخی دیدیم که همکاری و گفتگو میتواند سود سهام را بپردازد». بیش از صد متخصص در سال ۲۰۱۷ نامه سرگشاده ای را امضا کردند و از سازمان ملل خواستند به موضوع سلاحهای خودمختار کشنده رسیدگی کند. با این حال، در جلسه نوامبر ۲۰۱۷ کنوانسیون سازمان ملل در مورد برخی سلاحهای متعارف (CCW)، دیپلماتها حتی در مورد چگونگی تعریف چنین سلاحهایی توافق نکردند. سفیر هند و رئیس CCW اظهار داشت که توافق در مورد قوانین همچنان دور از ذهن است. از سال ۲۰۱۷، بیست و دو کشور خواستار ممنوعیت کامل سلاحهای خودمختار کشنده شدهاند.
بسیاری از کارشناسان معتقدند که تلاش برای منع کامل رباتهای قاتل به شکست منجر میشود. گزارش سال ۲۰۱۷ مرکز بلفر هاروارد پیشبینی کردهاست که هوش مصنوعی توانایی دارد به اندازهٔ سلاحهای هسته ای قابل تغییر باشد. در ادامه این گزارش استدلال میشود که «جلوگیری از استفاده گسترده نظامی از هوش مصنوعی احتمالاً غیرممکن است» و «باید هدف متواضعانه مدیریت ایمن و موثر فناوری را دنبال کرد»، مانند ممنوعیت اتصال سوئیچ مرد مرده هوش مصنوعی به زرادخانه هسته ای. بخشی از غیر عملی بودن، به این دلیل است که تشخیص نقض معاهده بسیار دشوار است.
واکنشهای دیگر به سلاحهای خودمختار
نامه ای سرگشاده در سال ۲۰۱۵ که خواستار ممنوعیت استفاده از سیستمهای اسلحه خودکار کشنده است، به وسیله دهها هزار شهروند، از جمله محققانی مانند استیون هاوکینگ فیزیکدان، ایلان ماسک بزرگ تسلا، و استیو وزنیاک از اپل امضا شدهاست.
پروفسور نوئل شارکی از دانشگاه شفیلد هشدار دادهاست که سلاحهای خودمختار به صورت اجتناب ناپذیری در دست گروههای تروریستی مانند دولت اسلامی قرار خواهند گرفت.
جدا کردن
بسیاری از شرکتهای فن آوری غربی از ترس از دست دادن دسترسی به بازار چین، از ارتباط نزدیک با ارتش ایالات متحده ابراز نگرانی میکنند. بعلاوه، برخی از محققان، مانند Demis Hassabis از DeepMind، از نظر ایدئولوژیکی با کمک به کار ارتشی مخالف هستند.
برای مثال، در ژوئن ۲۰۱۸، منابع شرکت گوگل گفتند که مدیر ارشد دایان گرین به کارکنان گفت است که شرکت پس از اتمام قرارداد فعلی در مارس ۲۰۱۹، پروژه Maven را پیگیری نمیکند.
جستارهای وابسته
- مسابقه تسلیحاتی
- هوش مصنوعی
- هوش عمومی مصنوعی
- اخلاق هوش مصنوعی
- خطر وجودی از هوش عمومی مصنوعی
- مسئله جهانی
- سلاح خودمختار کشنده
- ربات نظامی
- هواپیمای جنگی بدون سرنشین
منابع
- ↑ Geist, Edward Moore (2016-08-15). "It's already too late to stop the AI arms race—We must manage it instead". Bulletin of the Atomic Scientists. 72 (5): 318–321. Bibcode:2016BuAtS..72e.318G. doi:10.1080/00963402.2016.1216672. ISSN 0096-3402.
- ↑ Maas, Matthijs M. (2019-02-06). "How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons". Contemporary Security Policy. 40 (3): 285–311. doi:10.1080/13523260.2019.1576464. ISSN 1352-3260.
- ↑ Roff, Heather M. (2019-04-26). "The frame problem: The AI "arms race" isn't one". Bulletin of the Atomic Scientists. 75 (3): 95–98. Bibcode:2019BuAtS..75c..95R. doi:10.1080/00963402.2019.1604836. ISSN 0096-3402.
- ↑ Allen, Gregory. "Understanding China's AI Strategy". Center for a New American Security. Center for a New American Security. Retrieved 15 March 2019.
- ↑ Armstrong, Stuart; Bostrom, Nick; Shulman, Carl (2015-08-01). "Racing to the precipice: a model of artificial intelligence development". AI & Society. 31 (2): 201–206. doi:10.1007/s00146-015-0590-y. ISSN 0951-5666.
- ↑ Pascal, Tim Hwang, Alex. "Artificial Intelligence Isn't an Arms Race". Foreign Policy (به انگلیسی). Retrieved 2020-04-07.
- ↑ Scharre, Paul (18 February 2020). "Killer Apps: The Real Dangers of an AI Arms Race". Retrieved 15 March 2020.
- ↑ "Russia is building a missile that can makes its own decisions". Newsweek (به انگلیسی). 20 July 2017. Retrieved 24 December 2017.
- ↑ "Why Elon Musk is right about the threat posed by Russian artificial intelligence". The Independent. 6 September 2017. Retrieved 24 December 2017.
- ↑ "Russia is developing autonomous "swarms of drones" it calls an inevitable part of future warfare". Newsweek (به انگلیسی). 15 May 2017. Retrieved 24 December 2017.
- ↑ Smith, Mark (25 August 2017). "Is 'killer robot' warfare closer than we think?". BBC News. Retrieved 24 December 2017.
- ↑ "Artificial Intelligence Fuels New Global Arms Race". WIRED. Retrieved 24 December 2017.
- ↑ Clifford, Catherine (29 September 2017). "In the same way there was a nuclear arms race, there will be a race to build A.I. , says tech exec". CNBC. Retrieved 24 December 2017.
- ↑ Radina Gigova (2 September 2017). "Who Vladimir Putin thinks will rule the world". CNN. Retrieved 22 March 2020.
- ↑ "Here's How the Russian Military Is Organizing to Develop AI". Defense One. Retrieved 2020-05-01.
- ↑ "Red Robots Rising: Behind the Rapid Development of Russian Unmanned Military Systems". The Strategy Bridge (به انگلیسی). Retrieved 2020-05-01.
- ↑ Bendett, Samuel (2017-11-08). "Should the U.S. Army Fear Russia's Killer Robots?". The National Interest (به انگلیسی). Retrieved 2020-05-01.
- ↑ "Russia Says It Will Field a Robot Tank that Outperforms Humans". Defense One. Retrieved 2020-05-01.
- ↑ Greene, Tristan (2017-07-27). "Russia is developing AI missiles to dominate the new arms race". The Next Web (به انگلیسی). Retrieved 2020-05-01.
- ↑ Mizokami, Kyle (2017-07-19). "Kalashnikov Will Make an A.I. -Powered Killer Robot". Popular Mechanics (به انگلیسی). Retrieved 2020-05-01.
- ↑ Dougherty, Jill; Jay, Molly. "Russia Tries to Get Smart about Artificial Intelligence". Wilson Quarterly.
- ↑ "Russian AI-Enabled Combat: Coming to a City Near You?". War on the Rocks (به انگلیسی). 2019-07-31. Retrieved 2020-05-01.
- ↑ Polyakova, Alina (2018-11-15). "Weapons of the weak: Russia and AI-driven asymmetric warfare". Brookings (به انگلیسی). Retrieved 2020-05-01.
- ↑ Polyakova, Chris Meserole, Alina. "Disinformation Wars". Foreign Policy (به انگلیسی). Retrieved 2020-05-01.
- ↑ "Russia rejects potential UN 'killer robots' ban, official statement says". Institution of Engineering and Technology. 1 December 2017. Retrieved 12 January 2018.
- ↑ "Examination of various dimensions of emerging technologies in the area of lethal autonomous weapons systems, Russian Federation, November 2017" (PDF). Retrieved 12 January 2018.
- ↑ "Technology, Trade, and Military-Civil Fusion: China's Pursuit of Artificial Intelligence, New Materials, and New Energy | U.S. - CHINA | ECONOMIC and SECURITY REVIEW COMMISSION". www.uscc.gov. Retrieved 2020-04-04.
- ↑ Markoff, John; Rosenberg, Matthew (3 February 2017). "China's Intelligent Weaponry Gets Smarter". The New York Times. Retrieved 24 December 2017.
- ↑ "China seeks dominance of global AI industry". Financial Times. 15 October 2017. Retrieved 24 December 2017.
- ↑ "China enlists start-ups in high-tech arms race". Financial Times. 9 July 2017. Retrieved 24 December 2017.
- ↑ Metz, Cade (12 February 2018). "As China Marches Forward on A.I. , the White House Is Silent". The New York Times. Retrieved 14 February 2018.
- ↑ "The artificial intelligence race heats up". The Japan Times. 1 March 2018. Retrieved 5 March 2018.
- ↑ "Robots with Guns: The Rise of Autonomous Weapons Systems". Snopes.com. 21 April 2017. Retrieved 24 December 2017.
- ↑ Pecotic, Adrian (2019). "Whoever Predicts the Future Will Win the AI Arms Race". Foreign Policy. Retrieved 16 July 2019.
- ↑ Vincent, James (6 February 2019). "China is worried an AI arms race could lead to accidental war". The Verge. Retrieved 16 July 2019.
- ↑ "Is China exporting killer robots to Mideast?". Asia Times (به انگلیسی). 2019-11-28. Retrieved 2019-12-21.
- ↑ "US risks losing AI arms race to China and Russia". CNN. 29 November 2017. Retrieved 24 December 2017.
- ↑ Davenport, Christian (3 December 2017). "Future wars may depend as much on algorithms as on ammunition, report says". Washington Post. Retrieved 24 December 2017.
- ↑ "US general warns of out-of-control killer robots". CNN. 18 July 2017. Retrieved 24 December 2017.
- ↑ "Google 'to end' Pentagon Artificial Intelligence project". BBC News. 2 June 2018. Retrieved 3 June 2018.
- ↑ "Report: Palantir took over Project Maven, the military AI program too unethical for Google". The Next Web. 11 December 2020. Retrieved 17 January 2020.
- ↑ Robert O. Work (26 April 2017). "Establishment of an Algorithmic Warfare Cross-Functional Team (Project Maven)" (PDF). Retrieved 3 June 2018.
- ↑ "Google employees resign in protest against Air Force's Project Maven". Fedscoop. 14 May 2018. Retrieved 3 June 2018.
- ↑ Allen, Gregory C. (21 December 2017). "Project Maven brings AI to the fight against ISIS". Bulletin of the Atomic Scientists. Retrieved 3 June 2018.
- ↑ Ethan Baron (3 June 2018). "Google Backs Off from Pentagon Project After Uproar: Report". Military.com. Retrieved 3 June 2018.
- ↑ Cheryl Pellerin (21 July 2017). "Project Maven to Deploy Computer Algorithms to War Zone by Year's End". DoD News, Defense Media Activity. Retrieved 3 June 2018.
- ↑ Gibbs, Samuel (20 August 2017). "Elon Musk leads 116 experts calling for outright ban of killer robots". The Guardian. Retrieved 24 December 2017.
- ↑ "'Killer robots': autonomous weapons pose moral dilemma | World| Breakings news and perspectives from around the globe | DW | 14.11.2017". DW.COM (به انگلیسی). 14 November 2017. Retrieved 12 January 2018.
- ↑ Parkin, Simon (16 July 2015). "Killer robots: The soldiers that never sleep". BBC. Retrieved 13 January 2018.
- ↑ "Getting to grips with military robotics". The Economist (به انگلیسی). 25 January 2018. Retrieved 7 February 2018.
- ↑ "Autonomous Systems: Infographic". www.siemens.com (به انگلیسی). Archived from the original on 7 February 2018. Retrieved 7 February 2018.
- ↑ Kopf, Dan (2018). "China is rapidly closing the US's lead in AI research". Quartz. Retrieved 7 February 2018.
- ↑ "The battle for digital supremacy". The Economist (به انگلیسی). 2018. Retrieved 19 March 2018.
- ↑ Bento, Lucas (2017). "No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law". Retrieved 2019-09-14.
- ↑ Geist, Edward Moore (2016-08-15). "It's already too late to stop the AI arms race—We must manage it instead". Bulletin of the Atomic Scientists. 72 (5): 318–321. Bibcode:2016BuAtS..72e.318G. doi:10.1080/00963402.2016.1216672. ISSN 0096-3402.
- ↑ Maas, Matthijs M. (2019-02-06). "How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons". Contemporary Security Policy. 40 (3): 285–311. doi:10.1080/13523260.2019.1576464. ISSN 1352-3260.
- ↑ "Ban on killer robots urgently needed, say scientists". The Guardian. 13 November 2017. Retrieved 24 December 2017.
- ↑ Sharkey, Noel (17 August 2007). "Noel Sharkey: Robot wars are a reality". The Guardian. Retrieved 11 January 2018.
- ↑ Markoff, John (11 November 2014). "Fearing Bombs That Can Pick Whom to Kill". The New York Times. Retrieved 11 January 2018.
- ↑ "AI Could Revolutionize War as Much as Nukes". WIRED. Retrieved 24 December 2017.
- ↑ Gibbs, Samuel (20 August 2017). "Elon Musk leads 116 experts calling for outright ban of killer robots". The Guardian. Retrieved 11 January 2018.
- ↑ "An Open Letter to the United Nations Convention on Certain Conventional Weapons". Future of Life Institute. Retrieved 14 January 2018.
- ↑ "Rise of the killer machines". Asia Times. 24 November 2017. Archived from the original on 23 December 2017. Retrieved 24 December 2017.
- ↑ "'Robots are not taking over,' says head of UN body on autonomous weapons". The Guardian. 17 November 2017. Retrieved 14 January 2018.
- ↑ "Sorry, Banning 'Killer Robots' Just Isn't Practical". WIRED. 22 August 2017. Retrieved 14 January 2018.
- ↑ McFarland, Matt (14 November 2017). "'Slaughterbots' film shows potential horrors of killer drones". CNNMoney. Retrieved 14 January 2018.
- ↑ Allen, Greg, and Taniel Chan. "Artificial Intelligence and National Security." Report. Harvard Kennedy School, Harvard University. Boston, MA (2017).
- ↑ Antebi, Liran. "Who Will Stop the Robots?." Military and Strategic Affairs 5.2 (2013).
- ↑ Shulman, C. , & Armstrong, S. (2009, July). Arms control and intelligence explosions. In 7th European Conference on Computing and Philosophy (ECAP), Bellaterra, Spain, July (pp. 2-4).
- ↑ Wheeler, Brian (30 November 2017). "Terrorists 'certain' to get killer robots". BBC News. Retrieved 24 December 2017.
- ↑ Metz, Cade (15 March 2018). "Pentagon Wants Silicon Valley's Help on A.I." The New York Times. Retrieved 19 March 2018.
خواندن بیشتر
- پل شار، "برنامههای قاتل: خطرات واقعی یک مسابقه تسلیحاتی هوش مصنوعی"، امور خارجه، ج. ۹۸، نه ۳ (مه / ژوئن ۲۰۱۹)، ص. ۱۳۵–۴۴. "فناوریهای هوش مصنوعی امروز قدرتمند اما غیرقابل اعتماد هستند. سیستمهای مبتنی بر قوانین نمیتوانند با شرایطی که برنامه نویسان آنها پیش بینی نکردهاند، کنار بیایند. سیستمهای یادگیری محدود به دادههایی که به انها اموخته شدهاند هستند. عدم موفقیت هوش مصنوعی در حال حاضر به فاجعه منجر شدهاست. ویژگیهای پیشرفته خلبان اتوماتیک در اتومبیلها، اگرچه thesddsy در بعضی موارد به خوبی کار میکند، اما اتومبیلها را بدون اخطار به سمت کامیونها، موانع بتونی و اتومبیلهای پارک شده هدایت کردهاست. در شرایط اشتباه، سیستمهای هوش مصنوعی در یک لحظه از supersmart به superdumb تبدیل میشوند. وقتی دشمن در تلاش برای دستکاری و هک کردن سیستم هوش مصنوعی است، خطرات حتی بیشتر نیز میشوند. "(ص. ۱۴۰)
- کمیسیون امنیت ملی هوش مصنوعی. (2019) گزارش موقت واشینگتن دی سی: نویسنده.