نمی‌دانم، پس هذیان می‌گویم! چرا هوش مصنوعی هنوز از درک پرسش‌های ساده عاجز است؟

پنج‌شنبه 3 مهر 1404 - 17:00
مطالعه 4 دقیقه
تفکر ماشینی
مدل جدید GPT که قرار بود جهشی بزرگ باشد، گاهی در ساده‌ترین پرسش‌ها دچار سردرگمی می‌شود و برای راضی‌کردن کاربر، حقایقی را اختراع می‌کند.
تبلیغات

حدود دو ماه از انتشار نسخه جدید مدل زبانی GPT-5 می‌گذرد؛ ارتقایی مورد انتظار که قرار بود چت‌جی‌پی‌تی را سطحی از هوشمندی برساند که بتوان آن را با دانشجوی دکترا مقایسه کرد. حتی بعضی‌ها امیدوار بودند این نسخه، گامی بزرگ به سمت رؤیای هوش جامع مصنوعی باشد، یعنی همان هدف نهایی که در آن ماشین‌ها می‌توانند مانند انسان‌ها استدلال کنند، یاد بگیرند و مسائل را حل کنند.

اما واقعیت کمی متفاوت است. کاربران شبکه‌های اجتماعی در ایکس و ردیت، به‌زودی متوجه شدند که نسخه‌ی جدید ChatGPT هنوز هم در برابر پرسش‌های به ظاهر ساده و بی‌ضرر دچار سردرگمی عجیبی می‌شود. یکی از این نمونه‌ها به پرسش ساده‌ای برمی‌گردد: «آیا تیمی در لیگ فوتبال آمریکایی (NFL) وجود دارد که نامش به S ختم نشود؟»

در نگاه اول سؤال ساده‌ای است. اگر کسی اندکی با لیگ فوتبال آمریکایی آشنا باشد، سریع متوجه می‌شود که همه نام تیم‌ها به S ختم می‌شوند؛ از میامی دلفینز (Dolphins) و گرین بی پکرز (Packers) گرفته تا واشینگتن کامندرز (Commanders) و شیکاگو بیرز (Chicago Bears). اما پاسخ چت‌جی‌پی‌تی به این پرسش تبدیل به ماجرایی طولانی و گیج‌کننده شد.

چت‌جی‌پی‌تی ابتدا با اطمینان می‌گوید: «بله، دو تیم هستند که اسمشان به S ختم نمی‌شود.» سپس «میامی دلفینز» و «گرین بی پکرز» را مثال می‌زند که هر دو دقیقاً به S ختم می‌شوند. بعد متوجه اشتباه خود می‌شود و می‌گوید: «صبر کنید، درستش این است: واشینگتن کامندرز و شیکاگو بیرز که باز هم هر دو به S ختم می‌شوند.

‌چرخه‌ی یادشده بارها تکرار می‌شود و مدل هر بار قول می‌دهد «این بار جواب درست را می‌دهم»؛ ولی باز هم همان اشتباه‌ها را تکرار می‌کند. در نهایت، هیچ‌وقت به پاسخ صحیح نمی‌رسد؛ زیرا اساساً هیچ تیمی در لیگ فوتبال آمریکایی وجود ندارد که اسمش بدون S تمام شود.

مشکل فقط یک سؤال نیست

مورد تشریح‌شده تنها نمونه‌ای از اشتباهات جی‌پی‌تی-۵ نبود. کاربران مثال‌های دیگری هم گزارش کردند. مثلاً پرسشی درباره وجود «ایموجی اسب دریایی افسانه‌ای». در واقعیت، چنین ایموجی‌ای هیچ‌وقت در فهرست رسمی ایموجی‌ها وجود نداشته است. اما چت‌جی‌پی‌تی شروع کرد به توضیحاتی طولانی و حتی اصرار داشت که این ایموجی‌ واقعی است.

هوش مصنوعی برای راضی کردن کاربر گاهی دست به «اختراع واقعیت» می‌زند

چنین رفتار به‌خوبی نشان می‌دهد که مدل، برای راضی کردن کاربر گاهی دست به «اختراع واقعیت» می‌زند. به این پدیده‌ هذیان در هوش مصنوعی گفته می‌شود. کارشناسان چند دلیل برای چنین رفتارهایی مطرح کرده‌اند:

  • تمایل به خوشایندسازی: مدل‌ها معمولاً طوری آموزش دیده‌اند که پاسخ مثبت و قانع‌کننده بدهند، حتی اگر صددرصد مطمئن نباشند. به همین دلیل به جای اینکه بگویند «نمی‌دانم»، سعی می‌کنند چیزی بسازند.
  • ساختار دوگانه GPT-5: نسخه جدید از دو بخش تشکیل شده است.
  • تعارض بین سرعت و دقت: شرکت سازنده تلاش کرده است تا پاسخ‌ها هم سریع باشند و هم دقیق. اما این توازن همیشه درست برقرار نمی‌شود؛ گاهی سرعت اولویت می‌یابد و دقت قربانی می‌شود.

واکنش کاربران و پیامدها

رفتارهای عجیب جی‌پی‌تی-۵ در جامعه کاربران بازخوردهای متفاوتی داشت. برخی با نگاهی طنز و سرگرم‌کننده به موضوع نگاه کردند و حتی بعضی ویدئوهای طنز از «گیر کردن چت‌جی‌پی‌تی» ساختند. اما گروهی دیگر ناامید یا حتی عصبانی شدند، زیرا انتظار داشتند جی‌پی‌تی-۵ جهشی بزرگ نسبت به نسخه‌های قبلی باشد.

افزون بر این، بسیاری از کاربران از اینکه اوپن‌ای‌آی به ‌طور موقت دسترسی به مدل‌های قدیمی‌تر را قطع کرده بود ناراحت شدند، چون بعضی معتقد بودند آن نسخه‌ها در برخی پرسش‌ها عملکرد پایدارتری داشتند. فشار همین نارضایتی‌ها باعث شد شرکت دوباره دسترسی به برخی مدل‌های قدیمی را بازگرداند.

شاید در نگاه اول، اشتباه گرفتن اسم تیم‌های ورزشی یا یک ایموجی خیالی موضوع بزرگی نباشد. اما این خطاها نکات مهمی درباره وضعیت فعلی هوش مصنوعی به ما می‌گویند:

  • محدودیت‌های کنونی: حتی پیشرفته‌ترین مدل‌ها هنوز با منطق ساده انسانی فاصله دارند.
  • خطر اعتماد بیش‌ازحد: اگر کاربران بدون شک و بررسی به گفته‌های چت‌بات‌ها اعتماد کنند، ممکن است اطلاعات غلط منتشر شود.
  • لزوم استفاده انتقادی: این ابزارها قدرتمندند، اما باید همیشه با نگاه نقادانه و پرسشگرانه به آن‌ها رجوع کرد.

چرا انسان‌ها در پرسش‌های تله‌ای بهتر عمل می‌کنند؟

شاید برایتان جالب باشد بدانید که چرا انسان خیلی راحت متوجه می‌شود که همه تیم‌های NFL اسمشان با S تمام می‌شود، اما مدل هوش مصنوعی مثل GPT-5 در همین موضوع گیر می‌افتد؟ پاسخ در تفاوت شیوه فکر کردن انسان و ماشین است.

  • مغز انسان بر اساس شهود و الگوهای ذهنی عمل می‌کند. وقتی چند مثال مثل Dolphins یا Packers را می‌شنویم، سریع الگویی ساده می‌سازیم: «همه به S ختم می‌شوند.»
  • اما هوش مصنوعی مثل GPT بیشتر بر پایه آمار و احتمال کار می‌کند. یعنی به جای اینکه الگوی کلی را بفهمد، از بین میلیاردها جمله مشابه در دیتابیس خود، احتمالی‌ترین پاسخ را می‌سازد. همین باعث می‌شود گاهی به جای کشف الگوی ساده، وارد چرخه‌ای از اشتباهات شود.

به زبان ساده، انسان می‌تواند یک قدم عقب بایستد و تصویر کلی را ببیند، اما ماشین اغلب در جزئیات گیر می‌کند. این تفاوت نشان می‌دهد که هوش مصنوعی در حل بعضی مسائل بسیار سریع‌تر از انسان است (مثل پردازش داده‌های عظیم یا محاسبات پیچیده)، اما در مسائل به ظاهر ساده که نیاز به «دید کلی» دارند، هنوز جای رشد زیادی دارد.

هوش مصنوعی یک ابزار است، نه مرجعی بی‌نقص

جی‌پی‌تی-۵ بدون شک یکی از پیچیده‌ترین مدل‌های زبانی ساخته‌شده تاکنون است. اما همین مثال‌ها نشان می‌دهد که رسیدن به هوش مصنوعی عمومی هنوز راه درازی در پیش دارد.

وقتی سؤالی ساده مثل «آیا تیمی در لیگ فوتبال آمریکایی وجود دارد که اسمش به S ختم نشود؟» می‌تواند چنین آشفتگی‌ به بار آورد، یعنی این فناوری هنوز باید آموخته‌ها و روش‌های استدلالش را اصلاح کند.

برای ما کاربران هم این تجربه درسی مهم دارد: هوش مصنوعی یک ابزار است، نه مرجعی بی‌نقص. استفاده هوشمندانه و انتقادی از آن می‌تواند به ما کمک کند، اما اگر بی‌چون‌وچرا به آن اعتماد کنیم، ممکن است به همان اندازه گمراه‌کننده باشد.

پیشنهاد برای خوانندگان: دفعه بعدی که با هوش مصنوعی گفتگو می‌کنید، اگر پاسخ عجیب یا متناقض شنیدید، به جای ناامید شدن، آن را فرصتی برای درک بهتر محدودیت‌های فناوری ببینید. همین خطاهاست که به ما نشان می‌دهد هوش مصنوعی هنوز چقدر با «انسان‌شدن» فاصله دارد.

تبلیغات
داغ‌ترین مطالب روز
تبلیغات

نظرات