دوراهی حساس بشر دررابطه با رقابت بر سر مدیریت هوش مصنوعی
رقابت بر سر هوش مصنوعی در بین قدرتهای بزرگ به چنان سطحی رسیده که هرکدام از آنها از بیم سبقت گرفتن رقبا در زمینه پیشرفتهای صورت گرفته، دست به پنهانکاری میزنند و از اطلاعرسانی شفاف و دقیق در مورد سطح کنونی فناوریهای هوش مصنوعی خود اجتناب میکنند.
به گزارش توانانیوز، آنها ترجیح میدهند در خفا به تحقیقات و اقدامات خود در این حوزه ادامه دهند. باید دانست که مرزهای بین استفاده متعارف و مجاز از هوش مصنوعی و استفاده نامتعارف و غیرقانونی از آن در حال محو شدن است، بهطوریکه میتوان با تغییر دادن یک کد کامپیوتری، یک سیستم هوش مصنوعی صلحآمیز و بیخطر را به یک عامل مخرب و خطرناک تبدیل کرد. این احتمال هم وجود دارد که یک اسلحه سایبری متکی به هوش مصنوعی که در اختیار یک دولت پاسخگو و آیندهنگر است، به دست گروههای شبهنظامی بیفتد و برای مقاصدی کاملا متفاوت نسبت به آنچه مد نظر طراحانش بوده مورد استفاده قرار گیرد.
نکته دیگری که باید به آن توجه داشت این است که قدرتهای کوچکتر منطقهای که فاقد تسلیحات هستهای و همچنین تسلیحات متعارف کافی هستند، بهطور جدی در تلاشند تا عقبماندگی تسلیحاتی خود را از طریق سرمایهگذاری در تسلیحات سایبری مبتنی بر هوش مصنوعی جبران کنند. همین مساله موجب شده و خواهد شد تا بر تعداد بازیگران و نقشآفرینان رقابتهای سایبری و هوش مصنوعی در جهان افزوده شود و به همان اندازه پیچیدگیها و دشواریهای مربوط به مدیریت آن بیشتر و بیشتر شود.
از سویی دیگر، واگذار شدن بسیاری از وظایف و کارکردها به الگوریتمهای هوش مصنوعی و سپرده شدن برخی از امور امنیتی و دفاعی کشورها به هوش مصنوعی – از جمله در بخش شناسایی و مقابله با حملات سایبری – شرایط را بهگونهای رقمزده که باعث خلع سلاح شدن انسانها در برابر هوش مصنوعی شده است، بهطوریکه در رقابت بین ماشینهایی که نقش محافظ و نگهبان ما در برابر حملات سایبری را بر عهده دارند و ماشینهای مهاجم و تهدیدکننده، ما انسانها نقشی منفعل و محدود را بر عهده داریم و در صورت از کنترل خارج شدن محافظان یا ناتوانی آنها در مواجهه با حملات سایبری کار چندانی از عهده ما انسانها ساخته نخواهد بود.
در چنین حالتی و در صورت به حاشیه رانده شدن انسان در حوزه امنیت سایبری، این احتمال افزایش پیدا میکند که «هوش مصنوعی از کنترل خارجشده» تمام بخشها و امور زندگی ما را مورد تهاجم گسترده خود قرار دهد و آنها را بهطور کامل مختل سازد.
هوش مصنوعی در فناوریهای نظامی و غیرنظامی
بهطور کلی، سه عامل وجود دارد که کاربردهای نظامی و غیرنظامی را از هم جدا میسازد و عبارتند از: تفاوتهای فناورانه، کنترل متمرکز و دامنه نفوذ و تاثیرگذاری. برخی فناوریها صرفا نظامی یا صرفا غیرنظامی هستند و بنابراین کنترلهای متمرکز معمولا روی فناوریهایی اعمال میشود که دولتها امکان مدیریت و نظارت مستقیم، فراگیر و مستمر بر آنها را دارند. در مقابل، فناوریهایی نیز وجود دارند که امکان کنترل کامل دولتها بر آنها وجود ندارد و دامنه نفوذ نیز به پتانسیلهای نهفته در قدرت و دامنه مخرب یا مولد بودن آنها ارتباط پیدا میکند.
در واقع، هوش مصنوعی با تمام فناوریهای گذشته متفاوت است؛ چراکه هم فعلا پیشرفتهترین فناوری محسوب میشود و هم کنترل خاص و کاملی از سوی دولتها بر آن وجود ندارد و هم از دامنه نفوذ بسیار بالایی برخوردار است. یکی از تفاوتهای اصلی بین فناوری هستهای و فناوری هوش مصنوعی در این واقعیت نهفته است که تسلیحات هستهای ساخته میشوند تا مورد استفاده قرار نگیرند و فقط حالت بازدارنده داشته باشند. حالآنکه تسلیحات سایبری و مبتنی بر هوش مصنوعی ساخته شدهاند تا مورد استفاده قرار گیرند؛ آنهم در ابعاد وسیع و بهدفعات و با اهداف گوناگون.
علاوه بر این، ظرفیتها و کاربردهای تسلیحات هستهای بسیار محدود و تا حد زیادی ثابت باقی مانده، بهطوریکه در دوره زمانی حدود ۷۰ سال از پیدایش و گسترش تسلیحات هستهای تفاوت ملموسی در دامنه کاربردها و قدرت تخریبگری آنها ایجاد نشده، حال آنکه چنین چیزی در مورد تسلیحات سایبری و هوش مصنوعی بههیچ عنوان صدق نمیکند و این کاربردها و دامنه تاثیرگذاری این نوع تسلیحات باوجود عمر کوتاه آنها بهسرعت در حال گسترش بوده است.
استراتژیستهای جهانی باید به این موضوع بپردازند که چگونه میتوان هوش مصنوعی را بهعنوان یکی از اجزای الگوی مسوولیتپذیر در روابط بینالملل در نظر گرفت. درواقع استراتژیستها باید این قدرت را داشته باشند تا پیش از به وجود آمدن تسلیحات جدید متکی به هوش مصنوعی، به این آگاهی برسند که قرار است از آن تسلیحات جدید به چه صورت و در چه ابعادی استفاده شود. این استراتژی استفاده مسوولانه همراه با وضع محدودیتهای هدفمند برای تسلیحات سایبری و هوش مصنوعی، میتواند از وقوع پیامدهای خطرناک و ویرانگر احتمالی این تسلیحات بکاهد و دکترین مطلوب و آیندهنگرانهای را برای این بخش از فناوریهای آینده ترسیم کند.
یکی دیگر از موضوعاتی که باید در این زمینه به آن توجه داشت، به تفاوتهای موجود بین دو نوع تسلیحات برآمده از فناوری هوش مصنوعی مربوط میشود که عبارتند از تسلیحات متکی به هوش مصنوعی که توسط اپراتورهای انسانی کنترل میشوند و تسلیحات هوش مصنوعی که تصمیمات خود را مستقل از انسان و بهصورت الگوریتمی میگیرند. بهطورکلی میتوان گفت که بسیاری از کشورها ازجمله ایالاتمتحده بارها بر عزم جدی خود برای محدودسازی و کنترل تسلیحات متکی به هوش مصنوعی تاکید کردهاند. این تصمیم درست و عاقلانه است، اما آنچه بیشتر موجب نگرانی است به تسلیحاتی مربوط میشود که هوش مصنوعی با توجه به روند سریع تکامل و پیشرفت خود ممکن است در آینده تولید کند و امکان محدودسازی و کنترل آنها آنچنانکه باید و شاید وجود ندارد.
بههرحال، همه مواردی که به آنها اشاره شد، از وجود یک معما و قرار داشتن بشر بر سر یک دوراهی حساس و بزرگ حکایت دارد: از یکسو، ضرورت تحقیقات و سرمایهگذاری در زمینه هوش مصنوعی و حتی تسلیحات سایبری و مرتبط باهوش مصنوعی بر هیچکس پوشیده نیست و تقریبا همه تصمیمگیران و سیاستگذاران در جهان بر این امر تاکید دارند. از سویی دیگر، این خطر جدی و بیم وجود دارد که پیشرفتهای سریع و افسارگسیخته در زمینه هوش مصنوعی و تسلیحات وابسته به آن میتوانند شرایط آینده را بهگونهای رقم بزنند که رشته امور بهطور کلی از دست انسان خارج شود و به دست خود هوش مصنوعی بیفتد. این امر میتواند پیامدهای خطرناک و پیشبینینشدهای را برای موجودیت بشر به دنبال داشته باشد./دنیای اقتصاد ر