هوش مصنوعی و آینده جنگ
احتمالا تصمیمی بزرگ تر از پرتاب سلاح های هسته ای و کشیدن احتمالی ماشه یک هولوکاست اتمی وجود ندارد. پرزیدنت جان اف کندی که درطول بحران موشکی کوبا در سال 1962 در چنین موقعیتی قرار گرفت، بعد از آنکه پیامد فاجعه بار یک تبادل آتش اتمی بین شوروی و آمریکا را در نظر گرفت، به این نتیجه رسید که قدرت های اتمی باید موانع سختگیرانه ای را بر سر راه استفاده از چنین تسلیحاتی وضع کنند. از جمله تمهیداتی که او و دیگر رهبران جهانی به آن رسیدند، تدوین خط مشی هایی بود که نه فقط پرسنل نظامی بلکه کلیه مقامات ارشد را ملزم می کرد تا درهر تصمیم گیری در مورد پرتاب این تسلیحات نقشی داشته باشند.
البته این موضوع مربوط به آن زمان بود و اکنون اکنون است. و اکنون چه اکنونی هم هست! با توجه به اینکه به زودی هوش مصنوعی عملا همچون تمام دیگر شئون زندگی ما، نقشی همواره فزاینده در امور نظامی ایفا خواهد کرد، احتمالا هر چه می گذرد نقش انسان ها حتی در تصمیم گیری های اتمی بیشتر تقلیل خواهد یافت. در واقع در آینده ای که هوش مصنوعی سراسر جهان را فرا گرفته، ممکن است نقش انسانی به کلی ناپدید شود و ماشین ها به حال خود گذاشته شوند تا برای سرنوشت انسان تصمیم بگیرند.
این حدس و گمانی مبتنی بر فیلم های علمی تخیلی یا داستان های نشان دهنده آینده ای تیره و تار نیستند. این تهدیدی بسیار واقعی است و مربوط به همین جا و هم اکنون یا دست کم همین جا و به زودی زود است. وقتی پنتاگون و فرماندهان نظامی سایر قدرت های بزرگ به آینده نگاه می کنند، چیزی که می بینند یک میدان جنگ به شدت پر رقابت است - برخی آن را محیط «هایپر جنگ» نامیده اند- که در آن انبوهی از تسلیحات روباتیک تحت هدایت هوش مصنوعی با سرعتی بسیار سریع تر از توانایی فرماندهان انسانی برای دنبال کردن مسیر جنگ، به مبارزه با یکدیگرخواهند پرداخت. اعتقاد بر این است که در چنین زمانی هرچه می گذرد فرماندهان بیشتر مجبور می شوند بر ماشین هایی همواره هوشمندتر برای اتخاذ تصمیم در این باره که از چه سلاحی باید چه وقت و کجا استفاده کرد متکی شوند. شاید درابتدا این موضوع شامل سلاح های اتمی نشود، اما با افزایش سرعت جنگ و «آتش متقابل» بین متخاصمین و کاسته شدن از تسلیحات متعارف، ممکن است روشن شود که حتی جلوگیری از خودکارسازی هراس آور تصمیم گیری درمورد پرتاب سلاح های اتمی غیرممکن شده است.
چنین نتیجه ای فقط می تواند این احتمال را افزایش دهد که با توجه به تغییرات اساسی که در سازمان ارتش آمریکا صورت می گیرد، از یک جنگ اساسا کوچک برای مقابله با سازمانی تروریستی فاصله بگیرد و توجه خود را به جنگی یک به یک و متمرکز با چین و روسیه کند. وزارت دفاع در «راهبرد امنیت ملی» دسامبر 2017 خود به چنین چرخشی اشاره کرده است. ارتش آمریکا به جای اینکه بر تسلیحات و تاکتیک هایی تمرکز کند که هدف آنها مبارزه با شورشیانی است که از تسلیحات ضعیفی برخوردارند و پای این کشور را به کشمکش های مقیاس کوچکی که هرگز پایان نمی یابند می کشانند، اکنون در حال طراحی سازمان خود برای جنگی هرچه مجهزتر با نیروهای چینی و روسی در درگیرهایی چند بعدی (هوا، دریا، خشکی، فضا، فضای سایبری) است که در آن سیستم های تهاجمی متعدد (تانک ها، هواپیماها، موشک ها، راکت ها) با حداقل نظارت انسانی کار خود را انجام دهند.
«ژنرال بازنشسته نیروی دریایی جان آلن و کارآفرین هوش مصنوعی امیر حسین می گویند: «تاثیر/ نتیجه بزرگ تمام این قابلیت ها درمجموع یک نوآوری در رزم خواهد بود که هرگز قبلا دیده نشده است: با به حداقل رسیدن تصمیم گیری انسانی در اکثریت قریب به اتفاق روندهایی که در شکل سنتی خود مستلزم به راه انداختن جنگ هستند، در عصر پیش روی هایپرجنگ ما شاهد خواهیم بود که انسان ها داده های گسترده و سطح بالای لازم را تامین می کنند درحالی که این ماشین ها هستند که بار برنامه ریزی، اجرا و سازگاری با واقعیت ماموریت را بر دوش می گیرند و هزاران تصمیم فردی را بدون هیچ داده اضافی به اجرا می گذارند.»
«به حداقل رساندن تصمیم گیری انسانی» کاربست های عمیقی را در آینده نبردها خواهد داشت. در حالت عادی رهبران ملی به دنبال کنترل فضا و جهت نبرد برای اطمینان از بهترین نتیجه ممکن هستند، حتی اگر این کار به معنای به تعلیق درآوردن جنگ برای اجتناب از خسارات بیشتر یا جلوگیری از فاجعه ای انسانی باشد. ماشین ها حتی ماشین های بسیار هوشمند محتمل نیست که قادر به ارزیابی زمینه های اجتماعی و سیاسی نبرد باشند، در نتیجه فعال کردن آنها می تواند به وضعیت هایی منجر شود که در آنها سطح درگیری به شکل کنترل نشده ای تشدید شود.
ممکن است سال ها و احتمالا دهه ها طول بکشد تا ماشین ها بتوانند در ایفای نقش تصمیم سازی های حساس نظامی جایگزین انسان ها شوند، اما آن زمان هم اکنون درافق قرار دارد. همانطور که جیم متیس وزیر دفاع از مصاحبه اخیر خود گفته، زمانی که کنترل سیستم های تسلیحاتی قادر به استفاده از هوش مصنوعی از راه برسند: «در آینده نزدیک عنصر انسانی همچنان اهمیت دارد. شاید تا 10 سال. شاید 15 سال. اما تا 100 سال دیگر حتما چنین نخواهد بود.»
چرا هوش مصنوعی
حتی پنج سال پیش در تشکیلات نظامی عده اندکی بودند که وقتی پای عملیات های رزمی بزرگ به میان می آمد، به نقش هوش مصنوعی یا تجهیزات روباتیک فکر کنند. بله، هواپیمای بدون سرنشین کنترل از راه دور یا پهبادها به طور گسترده ای در آفریقا و خاورمیانه بزرگ تر برای شکار ستیزه جویان دشمن مورد استفاده قرار گرفته بودند، اما این اقدامات عمدتا عملیات های جنبی (و گاه عملیات های انجام شده توسط سیا) بوده اند که با هدف برداشتن فشار از روی فرماندهان و نیروهای متحد آمریکا که با دسته های پراکنده افراط گرایان خشونت پیشه رو به رو بودند، انجام شده اند. بعلاوه هواپیماهای بدون سرنشین امروزی همچنان اگرچه از راه دور توسط عوامل انسانی کنترل می شوند و –هنوز- از سیستم های شناسایی و حمله به هدف مجهز به هوش مصنوعی درحداقل حالت برخوردارند. اما انتظار می رود که در آینده این قبیل سیستم ها بخش اعظم میادین نبرد را در اختیار بگیرند و در بسیاری یا حتی اکثر کارکردهای رزمی جایگزین انسان ها شوند.
وزارت دفاع برای سرعت بخشیدن به این تحول تاکنون صدها میلیون دلار را در تحقیقات مرتبط با هوش مصنوعی هزینه کرده است: «متیس در آوریل گذشته در کنگره گفت: «ما نمی توانیم انتظار داشته باشیم که در کشمکش های فردا با تفکر، تسلیحات یا تجهیزات دیروز پیروز میدان باشیم.»
وی افزود برای اطمینان از تداوم برتری نظامی پنتاگون، باید بر «سرمایه گذاری روی نوآوری های تکنولوژیک برای افزایش قدرت کشندگی تسلیحات، از جمله تحقیقات درمورد سیستم های خودکار پیشرفته، هوش مصنوعی یا تسلیحات هایپر سونیک تمرکز شود»
چرا تاکیدی چنین ناگهانی بر تجهیزات روباتیک و هوش مصنوعی صورت می گیرد؟ البته این روند با پیشرفت حیرت انگیز رخ داده در حوزه فناوری - که عمده آن در سیلیکون ولی کالیفرنیا مستقراست- در تقویت هوش مصنوعی و به کار گیری آن در کارکردهای متعدد از جمله شناسایی تصاویر و تشخیص صدا آغاز شده است. یکی از این کارکردها «خدمات صوتی آلکسا» است، یک سیستم رایانه ای که پشت سخنگوی هوشمند آمازون قرار دارد و نه تنها می تواند از طریق اینترنت به فرمان های شما عمل کند، بلکه فرمان های شما را تفسیر نیز می کند.(فرمان هایی از قبیل: «آلکسا، موسیقی کلاسیک پخش کن» ، «آلکسا، آب و هوا چطور است» ، «آلکسا چراغ ها را خاموش کن.») یک کاربرد دیگر هوش مصنوعی نوعی فناوری وسیله نقلیه خودران است که انتظار می رود انقلابی درحوزه حمل و نقل پدید آورد.
تحلیلگران در سرویس تحقیقات کنگره که یک سازمان داده و اطلاعات غیرحزبی است توضیح می دهند: «هوش مصنوعی یک فناوری «تک کاربردی» است، چرا که این فناوری پتانسیل یکی شدن با عملا هر چیزی را دارد.» همچنین یک فناوری «دوکاربردی» است که بر الگوریتم های اختصاصی شده ای برای پردازش داده های ارسالی از ردیفی از حسگرهایی که بر وضعیت ترافیک نظارت می کنند اتکا دارد تا تصمیم می گیرد کدام مسیر را در پیش بگیرد، کی تغییر لاین دهد و از این قبیل. روزی همین فناوری و نسخه های ارتقا یافته همین الگوریتم ها برای راه اندازی تانک های خودران و رها کردن آنها درمیادین جنگ آینده به کار گرفته خواهند شد. به همین ترتیب روزی هواپیماهای بدون سرنشین، بدون اپراتورهای انسانی نشسته در مکان هایی دوردست، از قابلیت رساندن خود به میدان جنگ برای انهدام اهداف از پیش تعیین شده (تانک ها، سیستم های راداری، جنگجویان) و تعیین اینکه چیزی که «می بیند» واقعا در فهرست اهداف آن قرار دارد یا نه و «تصمیم گیری» در مورد پرتاب کردن یک موشک به سمت آن اهداف برخوردار خواهند شد.
برای دریافتن اینکه مقامات پنتاگون قطعا در پی به اختیار گرفتن چنین فناوری ای خواهند بود، نیاز به داشتن مغزی با توانایی های خاص نیست: آنها فکر می کنند که این فناوری ها مزیت قابل توجهی را در جنگ های آینده به آنها خواهد بخشید. در این صورت مثلا هر کشمکش تمام عیاری بین آمریکا و چین یا روسیه (یا هر دو) دست کم با خشونتی فوق العاده همراه خواهد بود، با احتمالا صدها کشتی جنگی و هزاران هواپیما و وسایل نقلیه زرهی که همگی در فضاهای جنگی به شدت در هم تنیده ای متمرکز شده اند. در چنین محیطی سرعت تصمیم گیری، به کارگیری و درگیر شدن بی شک یک دارایی حیاتی به حساب می آید و با توجه به تسلیحات سوپرهوشمند و هدایت دقیق آینده، هر کس که اول شلیک کند، به نسبت دشمنی که از آتش کندتری برخوردار است، شانس بیشتری برای پیروزی یا حتی بقا خواهد داشت. انسان ها در چنین موقعیت هایی زمانی که مجبور به انجام این کار شوند می توانند به چابکی حرکت کنند، اما ماشین های آینده بسیار چابک تر عمل خواهند کرد، در حالی که می توانند متغیرهای بیشتری را نیز در میدان جنگ دنبال کنند.
همانطور که پل سلوا معاون ستاد مشترک ارتش در سال 2017 به کنگره گفته: «زمانی که انسان به قابلیت هایی نگاه می کند که هوش مصنوعی می تواند برای افزایش سرعت و دقت فرماندهی و کنترل به همراه آورد و نیز توانایی هایی که تجهیزات روباتیک پیشرفته می توانند به یک فضای جنگی پیچیده بیاورند، به اجبار به این نتیجه می رسد که تعامل ماشین با ماشین در فضا و فضای سایبری است که در آنها سرعت حرف اول را می زند.»
مقامات نظامی آمریکایی گذشته از اینکه بهره برداری از هوش مصنوعی در توسعه تسلیحات را هدف خود قرار داده اند، کاملا آگاهند که متخصصان اصلی آنها نیز در حال حرکت به سمت تسلیحاتی کردن هوش مصنوعی و تجهیزات روباتیک هستند و به دنبال راه های جدیدی برای غلبه کردن بر مزیت های آمریکا در زمینه تسلیحات متعارف می گردند. مثلا به گفته سرویس تحقیقاتی کنگره، چین در حال سرمایه گذاری های سنگینی در زمینه توسعه هوش مصنوعی و به کار گیری آن در جهت مقاصد نظامی است. هر چند که روسیه فاقد بنیان تکنولوژیک چین یا ایالات متحده است، ولی این کشور نیز با سرعت درحال توسعه هوش مصنوعی و تجهیزات روباتیک خود است. هر گونه پیشتازی قابل توجه چینی ها یا روس ها در این فناوری های در حال ظهور، می تواند برتری نظامی آمریکا را مورد تهدید قرار دهد که برای پنتاگون غیرقابل قبول است.
پس تعجبی ندارد که به سیاق مسابقات تسلیحاتی گذشته (از توسعه کشتی های جنگی پیش از جنگ جهانی اول تا تسلیحات اتمی دوران جنگ سرد) هم اکنون «یک مسابقه تسلیحاتی در حوزه هوش مصنوعی» در جریان است که در آن آمریکا، چین و روسیه و چند کشور دیگر (از جمله بریتانیا، اسرائیل و کره جنوبی) به دنبال دستیابی به مزیتی حیاتی در تسلیحاتی کردن هوش مصنوعی و تجهیزات روباتیک هستند. مقامات پنتاگون در حالی که به دنبال تایید کنگره برای تخصیص بودجه لازم جهت پروژه های خود هستند، مرتبا از پیشرفت های چینی ها در زمینه هوش مصنوعی سخن می گویند، درست همانطور که مقامات نظامی چینی و روسی بی شک اظهار می دارند که آمریکاییان درحال سرمایه گذاری روی پروژه های هوش مصنوعی خود هستند. در فضای این مسابقه تسلیحاتی، این رقابت ها پیشاپیش موجب تسریع توسعه و به کارگیری سیستم های محهز به هوش مصنوعی و تضمین پیدا کردن از برتری آینده آنها در میدان نبرد شده است.
فرماندهی و کنترل
بحث بر سر به کارگیری هوش مصنوعی و استقلال آنها در میادین جنگ آینده، عمدتا بر این تمرکز داشته است که آیا از نظر اخلاقی دادن قدرت کامل به تسلیحاتی مستقل و خودمختار (که گاه «روبات های قاتل» نامیده می شوند) با ظرفیت اتخاذ تصمیماتی کاملا مستقل در مورد زندگی یا مرگ انسان ها درست است یا خیر؟ یا اینکه آیا استفاده از چنین سیستم هایی تخلف از قوانین جنگی و قوانین بشردوستانه بین المللی محسوب می شود یا نه؟ پرهیز از چنین وضعیتی مستلزم این است که جنگ سازان قادر به تمیز بین ستیزه جویان و غیرنظامیان در میدان جنگ باشند و با بیشترین ضریب احتمال جان غیرنظامیان را نجات دهند و از آسیب به آنها جلوگیری کنند. مدافعان این فناوری جدید ادعا می کنند که ماشین ها در واقع به اندازه کافی هوشمند می شوند تا بتوانند تفاوت های بین خودشان با انسان ها را تشخیص دهند و در عین حال مخالفان اصرار دارند که آنها هرگز توانایی لازم را برای تمیز گذاشتن اساسی از این نوع را در گرماگرم جنگ به دست نخواهند آورد و قادر به نشان دادن همدردی به وقت مقتضی نخواهند شد. تعدادی از سازمان های حقوق بشری و بشردوستانه حتی کارزار «روبات های قاتل را متوقف کنید» با این هدف به راه انداخته اند که ممنوعیتی بین المللی برای توسعه و به کارگیری سیستم های تسلیحاتی کاملا خودکار وضع شود.
همزمان بحث شاید حتی مناقشه برانگیز تری در قلمرو نظامی برسر به کارگیری هوش مصنوعی در سیستم های فرماندهی و کنترل - یعنی راه هایی که افسران ارشد فرمان های اساسی را به سربازان زیردستشان انتقال می دهند - در حال در گرفتن است. ژنرال ها و دریاسالارها همیشه به دنبال به حداکثر رساندن قابل اتکا بودن سیستم های فرماندهی و کنترل برای تضمین این بوده اند که نیات راهبردی آنها تا حد امکان به طور کامل برآورده شود. در دوران حاضر چنین سیستم هایی برای ایمن کردن سیستم های ارتباطات رادیویی و ماهواره ای که مقر اصلی را با خطوط جبهه مرتبط می کند به شدت قابل اتکا هستند. با این حال استراتژیست ها نگران این هستند که در یک محیط هایپرجنگ آتی، چنین سیستم هایی را بتوان با پارازیت مختل یا قطع کرد، در نتیجه سرعت جنگ از توانایی فرماندهان برای دریافت گزارش ها از میدان جنگ، پردازش داده ها و ابلاغ به موقع فرمان ها فراتر رود. در نظر داشته باشید که اینکه این تعریفی کاربردی از مه نامعلوم جنگ است که هوش مصنوعی آن را چند برابر می کند که نتیجه احتمالی آن شکست خواهد بود. راه حل چنین معضلی برای بسیاری از افسران نظامی این است: بیایید اختیار ماشین ها را نیز به این سیستم ها واگذار کنیم. همانطور که در یکی از گزارش های سرویس تحقیقات کنگره اشاره شده، در آینده «الگوریتم های هوش مصنوعی می توانند ابزارهای قابل اتکاتری برای اقدام مبتنی بر تجزیه و تحلیل های زمان واقعی از فضای جنگ فراهم کنند و درنتیجه آنها قادر می شوند با سرعت بیشتری خود را با وقایع در حال رخ دادن هماهنگ کنند.»
البته تصور کردن آن روز نیز امکان پذیر است که مغزهای پشت چنین تصمیم سازی ها دیگر مغزهای انسانی نباشند. داده های وارده از سیستم های اطلاعاتی میدان جنگ به جای انسان ها به پردازشگرهای هوش مصنوعی انتقال خواهد یافت که بر ارزیابی تهدیدات عاجل تمرکز دارند و می توانند با توجه به موانع زمانی موجود، بدون دستورهای انسانی اقداماتی را به اجرا بگذارند که «آنها» به عنوان بهترین گزینه تشخیص می دهند.
تصمیم روز قیامت
فرض موجود در اکثراین قبیل سناریوها این است که ایالات متحده و متحدینش درگیر جنگی متعارف با چین و/ یا روسیه خواهند شد. پس به خاطر داشته باشید که ماهیت اصلی این هایپرجنگ های مبتنی بر هوش مصنوعی آینده تنها به تشدید این خطر کمک می کنند که کشمکش های متعارف از آستانه ای عبور کنند که قبلا هرگز عبور نکرده اند: یک جنگ اتمی واقعی بین دو کشور هسته ای. و در صورت وقوع چنین اتفاقی سیستم های فرماندهی و کنترل مجهز به هوش مصنوعی دیریا زود خود را در جایگاه پرتاب سلاح های اتمی خواهند یافت.
چنین خطری از احتمال پیشرفت های متعدد در فناوری بروز می کند، یعنی نه تنها هوش مصنوعی و علم روباتیک، بلکه توسعه توانایی های تهاجمی متعارف نظیر موشک های هایپرسونیک قادر به پرواز با پنج برابر سرعت صوت یا بیشتر، توپ های ریلی الکترومغناطیسی و لیزرهای پرانرژی. چنین تسلیحاتی اگرچه غیر هسته ای هستند وقتی با سیستم های شناسایی و تشخیص هدف هوش مصنوعی در هم بیامیزند، حتی می توانند به تسلیحات سیار تلافی جویانه دشمن نیز حمله کنند و این تهدید را به وجود آورند که توانایی دست زدن به واکنش در برابر هر حمله اتمی آن کشور را از میان بردارند. با توجه به این سناریوی «یا آنها را به کار بگیر یا رهایشان کن» هر قدرتی ممکن است به این سمت تمایل پیدا کند که نه تنها منتظر نماند، بلکه سلاح های اتمی خود را با مشاهده اولین نشانه یک حمله احتمالی شلیک کند یا حتی از بیم از دست دادن کنترل در یک درگیری نامطمئن و سریعا در حال پیشروی، اختیار پرتاب را به ماشین های خود تفویض کند. و زمانی که این اتفاق رخ داد، می توان گفت که جلوگیری از تشدید درگیری تقریبا غیرممکن خواهد شد.
پس پرسشی که مطرح می شود این است: آیا ماشین ها در چنین وضعیتی بهتر از انسان تصمیم می گیرند؟ قطعا آنها قادر به پردازش مقادیر عظیمی از اطلاعات در دوره های بسیار کوتاه زمانی و سبک و سنگین کردن سود و زیان اقدامات جایگزین به شیوه ای کاملا غیرعاطفی هستند. اما ماشین ها همچنین اشتباه های نظامی نیز مرتکب می شوند و بالاتر از همه فاقد توانایی دخیل کردن یک وضعیت خاص برای اتخاذ نتیجه ای مشخص هستند: این جنون را متوقف کنید. به دست آوردن هیچ برتری در میدان جنگ ارزش نیست و نابود شدن بشریت در سطح جهان را ندارد. همانطور که پل شار در «ارتش هیچ» کتاب جدیدش در مورد هوش مصنوعی و جنگ می نویسد: «انسان ها کامل نیستند، ولی آنها می توانند با مخالفان خود همدردی کنند و تصویر بزرگ تر را ببینند. بر خلاف انسان ها، تسلیحات مستقل و خودمختار به هیچ وجه نه از توانایی درک پیامدهای اقدامات خود برخوردارند و نه توانایی از آستانه جنگ گامی به عقب برداشتن را دارند.»
بنابراین شاید باید بیشتر در این باره فکر کنیم که آیا به راستی می خواهیم در آینده اختیار راه انداختن یک آخرالزمان ساخته و پرداخته ماشین ها را به نسخه ای نظامی شده از آلکسا بسپاریم؟
نویسنده: مایکل کلر (Michael T. Klare) استاد مطالعات صلح و امنیت جهانی در کالج همپشایر
منبع:فارس از yon.ir/pNzIS
انتهای پیام.