پنتاگون، آنتروپیک را به زانو درآورد

شرکت آنتروپیک(Anthropic) در پی اولتیماتوم روز گذشته پنتاگون و کمپین فشار آن بر این شرکت، بالاخره رضایت داد تعهدات ایمنی خود را تضعیف کند تا پنتاگون بتواند از هوش مصنوعی آن موسوم به «کلود» استفاده کند.

پنتاگون
به گزارش خبرگزاری موج

، روز سه‌شنبه دو خبر درباره سازنده هوش مصنوعی کلود(Claude) شرکت آنتروپیک منتشر شد که وقتی با یکدیگر ترکیب شوند، مسلماً تصویری ترسناک را ترسیم می‌کنند.

اول اینکه طبق گزارش‌ها، پیت هگست، وزیر دفاع ایالات متحده، شرکت آنتروپیک را تحت فشار قرار می‌دهد تا از حفاظت‌های هوش مصنوعی خود دست بکشد و به ارتش آمریکا دسترسی نامحدود به چت‌بات هوش مصنوعی «کلود» بدهد.

سپس این شرکت همان روزی را که خبر هگست منتشر شد، برای کنار گذاشتن تعهد ایمنی اصلی خود انتخاب کرد.

آنتروپیک اعلام کرد که در حال اصلاح سیاست مقیاس‌پذیری مسئولانه(RSP) خود برای کاهش حفاظ‌های ایمنی است. تاکنون تعهد اصلی این شرکت توقف آموزش مدل‌های جدید هوش مصنوعی بوده است، مگر اینکه بتوان دستورالعمل‌های ایمنی خاصی را از قبل تضمین کرد. این سیاست که موانع سختی را برای توقف توسعه ایجاد می‌کرد، بخش بزرگی از تلاش آنتروپیک برای کسب و کارها و مصرف‌کنندگان بود.

آنتروپیک نوشت: حالا پس از دو سال و نیم، ارزیابی صادقانه ما این است که برخی از بخش‌های این نظریه تغییر همانطور که امیدوار بودیم پیش رفته‌اند، اما برخی دیگر نه.

اکنون سیاست به‌روز شده این شرکت به جای خطوط قرمز سختگیرانه، به ایمنی نسبی نزدیک می‌شود.

حرف‌های آنتروپیک در مصاحبه با «تایم» به اندازه کافی منطقی به نظر می‌رسد. جرد کاپلان(Jared Kaplan)، مدیر ارشد علمی آنتروپیک به تایم گفت: ما احساس کردیم که متوقف کردن آموزش مدل‌های هوش مصنوعی توسط ما واقعاً به کسی کمکی نمی‌کند. ما واقعاً احساس نمی‌کردیم که با پیشرفت سریع هوش مصنوعی، اگر رقبا به سرعت در حال پیشروی هستند، منطقی باشد که تعهدات یکجانبه‌ای بدهیم.

می‌توان این نقل قول‌ها را به عنوان آخرین نمونه از خاکستری شدن اخلاقیات در یک استارت‌آپ پرحاشیه در نظر گرفت.

آخرین نسخه‌های «کلود»، به ویژه در کدنویسی، تحسین گسترده‌ای را برانگیخته‌اند. آنتروپیک در ماه فوریه ۳۰ میلیارد دلار سرمایه‌گذاری جدید جذب کرد. اکنون ارزش آن ۳۸۰ میلیارد دلار است.

منظور کاپلان از رقیب، به احتمال فراوان شرکت اوپن‌ای‌آی(OpenAI) خالق ChatGPT است که در حال حاضر بیش از ۸۵۰ میلیارد دلار ارزش دارد.

آنتروپیک به جای موانع قبلی، «گزارش‌های خطر» و «نقشه‌های راه ایمنی مرزی» جدیدی را اجرا خواهد کرد. این مدل‌های افشا به گونه‌ای طراحی شده‌اند که به جای آن خطوط سخت و مبهم، شفافیت را برای عموم فراهم کنند.

آنتروپیک می‌گوید این تغییر متاثر از «مشکل اقدام جمعی» ناشی از چشم‌انداز رقابتی هوش مصنوعی و رویکرد ضد نظارتی ایالات متحده بوده است.

در سیاست مقیاس‌پذیری مسئولانه(RSP) جدید آنتروپیک آمده است: اگر یک توسعه‌دهنده هوش مصنوعی، توسعه را برای اجرای اقدامات ایمنی متوقف کند، در حالی که دیگران بدون اقدامات کاهشی قوی، آموزش و استقرار سیستم‌های هوش مصنوعی را پیش ببرند، این می‌تواند منجر به جهانی با امنیت کمتر شود. توسعه‌دهندگانی که ضعیف‌ترین محافظت‌ها را دارند، سرعت را تعیین می‌کنند و توسعه‌دهندگان مسئول توانایی خود را برای انجام تحقیقات ایمنی و پیشبرد منافع عمومی از دست می‌دهند.

نه در اعلامیه آنتروپیک و نه در گزارش اختصاصی تایم، به موضوع اصلی اشاره‌ای نشده است و آن، کمپین فشار پنتاگون است. روز سه‌شنبه «اکسیوس» گزارش داد که وزیر دفاع آمریکا به داریو آمودی(Dario Amodei)، مدیرعامل آنتروپیک گفته است که این شرکت تا جمعه فرصت دارد تا به ارتش دسترسی نامحدود به مدل هوش مصنوعی خود را بدهد و در غیر این صورت با مجازات روبرو خواهد شد.

طبق گزارش‌ها، این شرکت پیشنهاد داده است که سیاست‌های استفاده خود را برای پنتاگون باز کند. با این حال، اجازه نخواهد داد که از مدل آن برای نظارت گسترده بر آمریکایی‌ها یا سلاح‌هایی که بدون دخالت انسان شلیک می‌شوند، استفاده شود.

اگر آنتروپیک کوتاه نیاید، کارشناسان می‌گویند بهترین گزینه، اقدام قانونی خواهد بود، اما آیا مجازات‌های پیشنهادی پنتاگون برای ترساندن یک استارت‌آپ سودمحور و وادار کردن آن به رعایت این قانون کافی خواهد بود؟

طبق گزارش‌ها، تهدیدهای هگست شامل استناد به قانون تولید دفاعی است که به رئیس جمهور اختیار می‌دهد تا به شرکت‌های خصوصی دستور دهد تا قراردادهای خاصی را به نام دفاع ملی در اولویت قرار دهند.

ارتش همچنین می‌تواند قرارداد خود با آنتروپیک را لغو کند و آن را به عنوان یک ریسک زنجیره تأمین تعیین کند. این امر شرکت‌های دیگری را که با پنتاگون همکاری می‌کنند مجبور می‌کند تا تأیید کنند که «کلود» در گردش کار آنها گنجانده نشده است.

«کلود» تنها مدل هوش مصنوعی است که در حال حاضر برای حساس‌ترین کارهای نظامی استفاده می‌شود. یک مقام دفاعی به «اکسیوس» گفت: تنها دلیلی که ما هنوز با این افراد صحبت می‌کنیم این است که به آنها نیاز داریم و اکنون به آنها نیاز داریم. مشکل این افراد این است که آنها خیلی خوب هستند.

طبق گزارش‌ها، از «کلود» در عملیات ربایش «مادورو» در ونزوئلا استفاده شده است، موضوعی که گفته می‌شود «آمودی» با شریک خود پالانتیر(Palantir) مطرح کرده است.

گزارش «تایم» در مورد RSP جدید آنتروپیک شامل واکنش‌هایی از یک مدیر غیرانتفاعی با تمرکز بر خطرات هوش مصنوعی بود. کریس پینتر(Chris Painter)، مدیر METR، این تغییرات را هم قابل درک و هم شاید یک بدشانسی توصیف کرد.

وی افزود: من تأکید بر گزارش‌دهی شفاف خطر و نقشه‌های راه ایمنی قابل تأیید عمومی را دوست دارم. با این حال، او همچنین نگرانی‌هایی را مطرح کرد مبنی بر اینکه RSP انعطاف‌پذیرتر می‌تواند منجر به اثر «جوشاندن قورباغه» شود. به عبارت دیگر، وقتی ایمنی به یک منطقه خاکستری تبدیل می‌شود، یک سری توجیهات به ظاهر بی‌پایان می‌تواند شرکت را به همان مسیر تاریکی که زمانی محکوم کرده بود، بکشاند.

«پینتر» گفت که RSP جدید نشان می‌دهد که شرکت آنتروپیک معتقد است که باید با برنامه‌های ایمنی خود به حالت اولویت‌بندی روی آورد، زیرا روش‌های ارزیابی و کاهش خطر با سرعت پیشرفت قابلیت‌ها همگام نیستند.

به گفته وی، این گواه بیشتری است که جامعه برای خطرات فاجعه‌بار بالقوه ناشی از هوش مصنوعی آماده نیست.

 

دیدگاه های ارسال شده توسط شما، پس از تایید توسط خبرگزاری موج در وب منتشر خواهد شد.

پیام هایی که حاوی تهمت و افترا باشد منتشر نخواهد شد.

پیام هایی که به غیر از زبان فارسی یا غیرمرتبط باشد منتشر نخواهد شد.

ارسال نظر

آخرین اخبار گروه

پربازدیدترین گروه