پارس آی سی تی

اصول حکمرانی هوش مصنوعی در عرصه نظامی ورود به عصر ارتش الگوریتم ها

اصول حکمرانی هوش مصنوعی در عرصه نظامی ورود به عصر ارتش الگوریتم ها

پارس آی سی تی: تحول پرشتاب فناوری های مبتنی بر هوش مصنوعی در حوزه نظامی، یکی از عمیق ترین و ساختارشکن ترین تغییراتی است که نظم امنیت بین الملل در دهه اخیر تجربه کرده است.


به گزارش پارس آی سی تی به نقل از مهر؛ هوش مصنوعی نه فقط ماهیت سامانه های نظامی را دگرگون کرده، بلکه منطق تصمیم گیری و سرعت واکنش دولت ها را نیز وارد مرحله ای بی سابقه کرده است. ادغام مدلهای پیشرفته یادگیری ماشینی در سامانه های نظامی، فرماندهی و کنترل، تحلیل کلان داده، تسلیحات سایبری و حتی پلت فرم های تسلیحات متعارف و هسته ای، رقابتی چندلایه بوجود آورده که نتایج آن به مراتب فراتر از میدان های نبرد سنتی است. این تحول، در کنار افزایش سرعت پردازش و دامنه عملیات، سطح جدیدی از ریسک را وارد معادلات امنیت جهانی کرده است؛ ریسکی که نه فقط نیروهای نظامی، بلکه زیرساخت های حیاتی، شبکه های اقتصادی، محیط زیست و حتی امنیت انسانی را در ابعاد وجودی تهدید می کند. این وضعیت بتدریج معماری جدید رقابت فناورانه را شکل داده که در آن کشورها به دنبال برتری عملیاتی، سرعت تصمیم گیری بیشتر و قابلیت های هوش افزوده در محیط های پیچیده هستند. اما همین مزیت های عملیاتی، در غیاب قواعد مشترک و مکانیسم های کنترل کننده، می تواند به اشتباهات فاجعه بار، سوءبرداشت های راهبردی و چرخه های تشدید ناخواسته تنش منجر شود. از همین روی، ضرورت ایجاد چارچوب های حکمرانی، بیشتر از هر زمان دیگر برجسته شده است. این نوشتار کوتاه با اتکا به چارچوب تحلیلی ارایه شده در سند مشترک اندیشکده بروکینگز و دانشگاه تسینگهوا، تلاش می کند تصویری منسجم از ماهیت این خطرات، منطق ایجاد بحران های مبتنی بر هوش مصنوعی و نیازهای فوری برای شکل گیری به یک رژیم حکمرانی مشترک میان ایالات متحده و چین ارایه دهد؛ رژیمی که بتواند از بروز بحران پیشگیری کند و در صورت وقوع، نتایج آنرا مدیریت پذیر سازد.

اهمیت حکمرانی هوش مصنوعی نظامی

پیشرفت های سریع در مدلها و معماری های نوین هوش مصنوعی باعث شده است که کشورها سامانه های نظامی خویش را با سرعتی بی سابقه خودکار سازی کنند. این خودکار سازی الزاماً به معنای افزایش دقت و کارآیی نیست؛ بلکه احتمال بروز خطا، سوءبرداشت یا رفتارهای پیشبینی ناپذیر را بالا می برد. از آنجائیکه ایالات متحده و چین نقش رهبری در توسعه و انتشار فناوری دارند، مسئولیت آنها برای ممانعت از بروز بحران های نظامی مبتنی بر هوش مصنوعی، به شکل ذاتی افزایش پیدا کرده است. در این چارچوب، دو نوع رژیم حکمرانی قابل تمایز است: رژیم های حکمرانی که بر کاهش احتمال بروز بحران تمرکز دارند. رژیم های آمادگی که با هدف کاهش نتایج بحران شکل می گیرند. به باور کارشناسان، هر دو رژیم زمانی معنادار می شوند که مبتنی بر یک روش تحلیلی مشترک برای اولویت بندی تهدیدها و رفتارها باشند.

چرخه چهارمرحله ای بحران های نظامی مبتنی بر هوش مصنوعی

مدل ارایه شده از جانب اندیشکده بروگینگز، یک چارچوب چهارمرحله ای برای درک سازوکار ایجاد بحران ها پیشنهاد می دهد که «آغاز»، «کنش»، «اثر» و «پاسخ» را شامل می شود. این مدل، نقطه تلاقی تصمیم های انسانی، خطاهای فنی و پویایی سامانه های هوشمند است.

مرحله آغاز: ریشه بحران

بر مبنای برآوردهای صورت گرفته، منشأ بحران ممکنست ناشی از سه دسته خطای فنی باشد: خطاهای قابل شناسایی مانند نقص الگوریتمی یا داده های معیوب خطاهای غیرقابل شناسایی در رابطه با چارچوب های جعبه سیاه یا رفتارهای خودآموز غیرقابل پیشبینی اختلال سیگنال ها ناشی از عوامل طبیعی یا فضایی که موجب ورودی های ناصحیح می شود در کنار خطاهای فنی، تصمیم های انسانی، شامل اقدام عمدی یا غیرعمدی برای اخلال، تخریب، اختلال سایبری یا حمله توسط سامانه های هوش مصنوعی نیز می توانند بحران را شروع کنند.

مرحله کنش: رفتار سامانه

کشورها خطاها یا رفتارهای ناشی از تصمیمات را به شکل «کنش سامانه» تفسیر می کنند. سامانه های مجهز به هوش مصنوعی ممکنست به سبب سرعت پردازش بالا، واکنش هایی تولید کنند که از نظر انسانی غیرمنتظره باشد.

مرحله اثر: نتایج اولیه بحران

نتایج این کنش ها از سطح لطمه به زیرساخت های غیرنظامی و نظامی تا تخریب محیط زیست یا تلفات انسانی گسترده متغیر است. در بعضی موارد، پیامد به قدری شدید می باشد که کشور هدف، رفتار سامانه را نه بعنوان خطا، بلکه بعنوان حمله ارزیابی می نماید.

مرحله پاسخ: واکنش متقابل دولت ها

پاسخ ها شامل اقدامات بازدارنده، حمله متقابل، بسیج نیروها یا ورود به یک چرخه تشدید تنش می شود. نکته کلیدی اینست که استفاده مجدد از سامانه های هوش مصنوعی در مرحله پاسخ، احتمال خطاهای جدید یا تعبیر ناصحیح را چند برابر می کند و می تواند به یک مارپیچ تشدید درگیری خارج از کنترل منجر شود.

چالش اولویت بندی ریسک ها در حکمرانی نظامی هوش مصنوعی

در چنین شرایطی، بدون یک روش مشترک برای تعیین اولویت ها، هیچ توافق دوجانبه یا بین المللی نمی تواند پایدار باشد. در همین جهت، کارشناسان حوزه هوش مصنوعی، سه روش برای ایجاد سلسله مراتب خطر معرفی می کند: رویکرد مبتنی بر ریسک (Probability × Seriousness): در این شیوه خطر تابعی از امکان رخداد و شدت پیامد به حساب می آید اما چالش اصلی اینست که امکان رخداد خطاهای واقعی در حوزه نظامی هوش مصنوعی قابل اندازه گیری نیست، برای اینکه تجربه تاریخی کافی در این مورد وجود ندارد. رویکرد مبتنی بر حجم سناریوهای قابل پیش بینی: در این شیوه، شمار موقعیت هایی که در آن یک سامانه می تواند بحران به وجود بیاورد، معیار وزن دهی است. در عین حال، از آنجائیکه سناریوها همیشه محدود به تصور تحلیل گران می شود، این شیوه به شکل ذاتی ناقص می ماند. رویکرد مبتنی بر بلوغ فناوری: در این دیدگاه نیز سامانه هائی که بزودی وارد چرخه عملیاتی می شوند، اولویت بیشتری دارند؛ اما پویایی پیشرفت فناوری به قدری سریع است که پیشبینی های آن ممکنست هر چند ماه نیاز به بازنگری داشته باشد. بنابراین، گویی هیچ یک از این شیوه ها کامل نیست، اما می تواند نقطه شروعی برای گفت و گوی راهبردی میان قدرت های بزرگ باشد.

موانع فنی و سیاسی برای حکمرانی مشترک

چنان که کالین کال، عضو ارشد مدعو در نشریه فارین پالسی در تحلیل خود تاکید می کند، ایجاد سازوکارهای حکمرانی نه فقط با دشواری های فنی، بلکه با چالش های سیاسی به شرح زیر رو به رو است: دوگانه بودن فناوری ها: تمایز سامانه های غیرنظامی و نظامی در هوش مصنوعی تقریبا ناممکن است. عدم شفافیت قابل مشاهده: حتی در حوزه نظامی، تشخیص این که یک پهپاد یا ماهواره از هوش مصنوعی بهره می برد یا خیر، با داده های علنی میسر نیست. ریسک های امنیتی ناشی از شفافیت: ایجاد شفافیت برای اعتمادسازی ممکنست به نشت اطلاعات حساس و افزایش تهدیدهای جاسوسی منجر شود. در عین حال، کال سفارش می کند که دو کشور شاخص در این عرصه، یعنی چین و آمریکا باید رویکرد مذکور را دنبال کنند؛ مسیرهایی که حتی با وجود رقابت، ضرری برای هیچ یک از طرفین ندارد.

مسیرهای همکاری پیشنهادی برای کاهش بحران های مبتنی بر هوش مصنوعی

بر مبنای تحلیل ارایه شده از جانب کارشناسان، چند مسیر عملی می تواند برای شروع همکاری میان قدرت های بزرگ در زمینه خودکار سازی نظامی دنبال شود: تدوین واژه نامه مشترک خطاهای فنی و سطح بندی حوادث تعریف مشترک اقدامات خطرناک در حوزه هوش مصنوعی نظامی تبادل اصول و فرآیندها برای سامانه های فرماندهی و کنترل اطلاع رسانی متقابل در رابطه با رزمایش های مبتنی بر هوش مصنوعی تدوین پروتکلهای ارتباط اضطراری برای سامانه های دارای خطا ایجاد تعهدات مشترک برای ممانعت از جعل رسانه ای در کانال های نظامی تثبیت اصل «کنترل انسانی» در همه برخوردهای نظامی زمان صلح تعهد مشترک برای عدم استفاده از هوش مصنوعی در مداخله با سامانه های فرماندهی و کنترل هسته ای به عقیده متخصصان، این اقدامات نه یک توافق جامع، بلکه نقطه شروع اعتمادسازی و کاهش احتمال سوءبرداشت به شمار می روند.

بحران امنیتی ناشی از تنش ساختاری میان آمریکا و چین

شیائو چیان، کارشناس برجسته مرکز امنیت و استراتژی بین المللی دانشگاه تسینگهوا، حکمرانی هوش مصنوعی را در بستری عمیق تر، یعنی «معضل امنیتی» میان ایالات متحده و چین، قرار می دهد. او با استناد به نظریه جان هرتز، توضیح می دهد که چرا فضای بی اعتمادی ساختاری سبب شده هر اقدام دفاعی یکی از طرفین، از جانب دیگری تهدید تلقی شود. به باور او، عواملی چون فقدان رژیم های جهانی الزام آور در حوزه هوش مصنوعی، بی اعتمادی راهبردی عمیق میان چین و آمریکا، رقابت فناورانه، صنعتی و ژئوپلیتیک و محیط بین الملل آکنده از ناامنی و بحران های منطقه ای، سبب شده حرکت بسمت حکمرانی مشترک خیلی دشوار باشد. او تاکید می کند که در چنین وضعیتی، تنها راه پیشرفت، شروع بازسازی تدریجی اعتماد است. وی همین طور سه مسیر کلیدی را برای ایجاد یک فضای همکاری پذیر پیشنهاد می کند: بازتعریف رقابت و شفاف سازی خطوط قرمز: رقابت اجتناب ناپذیر است، اما نباید به رقابت وجودی تبدیل گردد. تعریف خطوط قرمز مشترک می تواند مانع از گسترش بی انتها حساسیت های امنیتی شود. همکاری در حوزه امنیت هوش مصنوعی: دو کشور باید در سه دسته خطر، شامل سوءاستفاده، خطا و ریسک های سیستمی، معیارهای مشترک توسعه دهند. تقویت سازوکارهای چندجانبه: با پشتیبانی از نقش سازمان ملل متحد و توسعه سازوکارهای جدید، کشورها می توانند مسیر ایجاد یک رژیم جهانی قابل قبول را هموار کنند.

جمع بندی

بالاخره، میتوان نتیجه گرفت که تحلیل ارایه شده از جانب کارشناسان، نه یک پیشبینی فناورانه و نه یک طرح جامع حکمرانی است؛ بلکه چارچوب تحلیلی برای شروع گفت و گوی راهبردی شمرده می شود. این چارچوب بر ضرورت تفکیک مراحل بحران، شناسایی نقاط ابتدای زنجیره و ایجاد یک زبان مشترک برای تحلیل ریسک تاکید دارد. هرچند رقابت فناورانه میان ایالات متحده و چین ادامه خواهد یافت، اما تاریخ نشان داده است که حتی در اوج رقابتهای ژئوپلیتیک، امکان توافق بر سر موضوعات وجودی، مانند کنترل تسلیحات هسته ای، وجود دارد. در عصر هوش مصنوعی، ممانعت از بحران های نظامی مبتنی بر خطا یا سوءبرداشت، یک مسئولیت اخلاقی و راهبردی است. در جهانی که سرعت تصمیم گیری سامانه های هوش مصنوعی می تواند از توان قضاوت انسانی پیشی گیرد، ایجاد ستون های مشترک حکمرانی تنها راه تضمین ثبات و ممانعت از فاجعه انسانی به حساب می آید.
1404/09/01
10:08:43
5.0 / 5
4
تگهای خبر: تولید , دانشگاه , زبان , سیستم
این پست را می پسندید؟
(1)
(0)
X

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این پست
لطفا شما هم نظر بدید
= ۸ بعلاوه ۴
پربیننده ترین ها

پربحث ترین ها

جدیدترین ها

آی سی تی پارس