دادگاه آمریکا ممنوعیت پنتاگون علیه آنتروپیک را موقتاً متوقف کرد

یک‌شنبه 9 فروردین 1405 - 18:00
مطالعه 2 دقیقه
اپلیکیشن هوش مصنوعی کلود آنتروپیک
یک قاضی فدرال در آمریکا به‌طور موقت ممنوعیت پنتاگون علیه شرکت هوش مصنوعی Anthropic را متوقف کرد؛ حکمی که می‌تواند این شرکت را از فهرست سیاه خارج کند.

یک قاضی فدرال در آمریکا به‌طور موقت ممنوعیت وزارت دفاع آمریکا علیه شرکت آنتروپیک را متوقف کرد؛ تصمیمی که می‌تواند تا زمان صدور حکم نهایی، این شرکت هوش مصنوعی را از فهرست سیاه دولتی خارج نگه دارد.

ریتا اف. لین، قاضی دادگاه منطقه‌ای کالیفرنیای شمالی، با صدور دستور موقت اعلام کرد اقدام پنتاگون در قراردادن آنتروپیک در فهرست «ریسک زنجیره‌ی تأمین» احتمالاً ناقض متمم اول قانون اساسی آمریکا و نوعی اقدام تلافی‌جویانه علیه آزادی بیان بوده؛ این حکم قرار است هفت روز دیگر اجرایی شود.

قاضی لین در متن حکم نوشت اسناد وزارت دفاع نشان می‌دهد آنتروپیک به‌دلیل «موضع انتقادی در رسانه‌ها» به‌عنوان ریسک زنجیره‌ی تأمین معرفی شده است. به گفته او، تنبیه یک شرکت به‌خاطر مطرح کردن انتقاد عمومی از سیاست‌های دولتی می‌تواند مصداق نقض آزادی بیان باشد.

پرونده هنوز به پایان نرسیده و صدور حکم نهایی ممکن است هفته‌ها یا حتی ماه‌ها طول بکشد.

آنتروپیک که سازنده‌ی مدل هوش مصنوعی Claude است، می‌گوید از تصمیم دادگاه استقبال می‌کند. سخنگوی این شرکت اعلام کرد آنتروپیک همچنان بر همکاری سازنده با دولت برای توسعه‌ی هوش مصنوعی امن و قابل اعتماد تمرکز دارد.

ریشه‌ی مشکل به اختلاف نظر میان آنتروپیک و وزارت دفاع آمریکا درباره‌ی نحوه‌ی استفاده‌ی نظامی از هوش مصنوعی برمی‌گردد. آنتروپیک اعلام کرده است دو «خط قرمز» دارد و نمی‌خواهد فناوری آن برای موارد زیر استفاده شود:

  • نظارت گسترده‌‌ی داخلی بر شهروندان
  • سلاح‌های خودکار مرگبار بدون دخالت انسان

در مقابل، پنتاگون معتقد است فرماندهان نظامی باید درباره‌ی نحوه‌ی استفاده از هوش مصنوعی تصمیم بگیرند و نه شرکت‌های فناوری.

قاضی پرونده نیز در جلسه‌ی دادگاه تأکید کرد وظیفه او قضاوت درباره درستی یا نادرستی این دیدگاه‌ها نیست. به گفته‌ی او، دولت آزاد است از فناوری آنتروپیک استفاده نکند و به سراغ شرکت دیگری برود؛ اما سؤال اصلی این است که آیا دولت در برخورد با آنتروپیک از حدود قانونی فراتر رفته یا نه.

تنش‌ها از ۹ ژانویه آغاز شد؛ زمانی که پیت هگست، وزیر دفاع آمریکا، دستور داد در قراردادهای خرید خدمات هوش مصنوعی عبارت «هرگونه استفاده‌ی قانونی» گنجانده شود. این دستور می‌توانست شامل قرارداد با شرکت‌هایی مانند آنتروپیک، OpenAI، گوگل و xAI نیز شود.

آنتروپیک در مذاکرات با پنتاگون حاضر نشد از دو خط قرمز خود عقب‌نشینی کند. در ادامه، وزارت دفاع این شرکت را ریسک زنجیره‌ی تأمین اعلام کرد؛ برچسبی که معمولا برای شرکت‌های خارجی مرتبط با کشورهای رقیب آمریکا استفاده می‌شود و برای یک شرکت آمریکایی بسیار کم‌سابقه است.

آنتروپیک در اسناد دادگاه اعلام کرده این تصمیم به‌طور جدی به کسب‌وکار شرکت آسیب زده است. به گفته‌ی این شرکت، بسیاری از شرکای تجاری و پیمانکاران دولتی درباره‌ی امکان ادامه‌ی همکاری دچار تردید شده‌اند.

طبق برآوردهای ارائه‌شده در دادگاه، اگر محدودیت‌ها ادامه پیدا کند درآمدی بین صدها میلیون تا چند میلیارد دلار ممکن است در معرض خطر قرار بگیرد.

قاضی لین در جریان رسیدگی حتی به یکی از یادداشت‌های حقوقی اشاره کرد که اقدام دولت را «تلاش برای نابودی یک شرکت» توصیف کرده بود. او گفت شاید این تعبیر اغراق‌آمیز باشد؛ اما تصمیم دولت شباهت زیادی به تلاش برای فلج کردن Anthropic دارد.

محتوای این خبر را یکی از کاربران زومیت در اختیارمان قرار داد؛ اگر به اینترنت دسترسی دارید، لطفا خبرهای مهم را از طریق ایمیل hi@zoomit.ir یا بخش دیدگاه‌ها با ما به‌اشتراک بگذارید.