English

استراتژی پنتاگون در زمینه هوش مصنوعی

کارشناسان عنوان می‌کنند که پنتاگون در طرح استراتژی خود در زمینه هوش مصنوعی، موضوع اخلاق را مورد‌توجه قرار نداده است.

استراتژی پنتاگون در زمینه هوش مصنوعی

به گزارش خبرگزاری موج،  وزارت دفاع آمریکا به‌تازگی طرحی را درباره پذیرش سریع سیستم‌های هوش مصنوعی در جنگ منتشر کرد.

این طرح بر استفاده از هوش مصنوعی برای به‌دست آوردن آنچه به‌عنوان «مزیت تصمیم» شناخته می‌شود، از طریق تسهیل آگاهی برتر از فضای نبرد، برنامه‌ریزی و کاربرد نیروی تطبیقی، زنجیره‌های کشتار سریع، دقیق و انعطاف پذیر و پشتیبانی پایدار تمرکز دارد. 

این استراتژی بر سرعت، یکپارچگی بیشتر، شفافیت و اشتراک دانش در سراسر مرز‌های سازمانی تمرکز کرده و اولویت‌بندی می‌کند و نیاز به اقدامات حفاظتی دقیق برای جلوگیری از سوء‌استفاده آسیب‌پذیری‌های فنی فناوری‌های هوش مصنوعی را برجسته می‌کند. 

 

آیا باید برای ربات‌های قاتل آماده شویم؟

بحث جهانی درباره استفاده از هوش مصنوعی در سلاح‌ها و به‌ویژه دورنمای حذف انسان از فرآیند تصمیم‌گیری درباره گرفتن جان یک فرد، به‌شدت مورد توجه قرار گرفته است.

این موضوع برای چندین دهه مورد بحث بوده است و نه‌تنها از سوی دانشگاهیان مورد بحث قرار گرفته، بلکه به یک داستان علمی تخیلی محبوب از The Terminator ساخته جیمز کامرون و Robocop پل ورهوفن تا سریال انگلیسی Black Mirror و Ray Bradbury Fahrenheit ۴۵۱. تبدیل شده است.

اما در حالی که مقاله ۲۶ صفحه‌ای استراتژی هوش مصنوعی وزارت دفاع آمریکا پر از گرافیک‌های فانتزی و عکس‌هاست، واژه «اخلاق» تنها ۵ بار و تنها یک بار در زمینه مرتبط با نگرانی‌های ذکر شده در بالا مورد اشاره قرار گرفته است.

این می‌تواند ۲ موضوع را نشان دهد: اینکه تمرکز پنتاگون بر سیستم‌های هوش مصنوعی هنوز به دیدگاه‌های کابوس‌واری که از سوی نویسندگان علمی تخیلی ارائه شده، نرسیده است. یا اینکه ارتش آمریکا واقعاً به این موضوع فکر نکرده؛ درست در نقطه‌ای که توانایی‌های فنی و مکانیکی بشر به نقطه‌ای می‌رسد که تهدید ربات‌های قاتل مؤثر به یک امکان واقعی تبدیل می‌شود. 

 

نگرانی‌ها درباره استراتژی هوش مصنوعی پنتاگون

گلوریا شکورتی اوزدمیر، محقق بنیاد SETA، یک اندیشکده سیاسی مستقر در ترکیه، گفت: تهدید اصلی مرتبط با هوش مصنوعی در استفاده غیراخلاقی بالقوه آن است که می‌تواند به مرگ غیرنظامیانی منجر شود که سپر انسانی بوده  یا از آنها محافظتی نمی‌شوند. 

به.گفته وی، به‌عنوان مثال، مفهوم سیستم‌های تسلیحاتی خودمختار مرگبار (LAWS) نگران‌کننده است، زیرا این سیستم‌ها می‌توانند افراد را بدون کنترل انسانی هدف قرار دهند. علاوه بر این، هوش مصنوعی می‌تواند برای حملات سایبری، بیولوژیکی، هسته‌ای و سایر تهدیدات مورد استفاده قرار گیرد. 

 اما به‌گفته اوزدمیر، خطر واقعی ناشی از هوش مصنوعی، خود این فناوری نیست، بلکه «نحوه استفاده از آن» است. 

کارشناسان معتقدند در حالی‌که ملاحظات اخلاقی و استفاده مسئولانه باید حوزه اصلی تمرکز پنتاگون در تعیین استراتژی هوش مصنوعی باشد، اما به هیچ وجه به آن توجه نشده است.

به نظر می‌رسد طرح جدید پنتاگون صرفا بر محیط سازمانی و بهبود توانایی ارتش آمریکا برای تصمیم‌گیری سریع تمرکز دارد. 

کارشناسان می‌گویند استراتژی جدید هوش مصنوعی پنتاگون، همراه با دستور اجرایی جو بایدن، رئیس‌جمهور آمریکا درباره هوش مصنوعی در دوشنبه گذشته، همگی به یک دغدغه در میان سیاست‌گذاران آمریکایی مرتبط است: "حفظ برتری آمریکا در رقابت جهانی در زمینه هوش مصنوعی".

آیا این خبر مفید بود؟
دیدگاه های ارسال شده توسط شما، پس از تایید توسط خبرگزاری موج در وب منتشر خواهد شد.

پیام هایی که حاوی تهمت و افترا باشد منتشر نخواهد شد.

پیام هایی که به غیر از زبان فارسی یا غیرمرتبط باشد منتشر نخواهد شد.

ارسال نظر

آخرین اخبار گروه

پربازدیدترین گروه