نمیدانم، پس هذیان میگویم! چرا هوش مصنوعی هنوز از درک پرسشهای ساده عاجز است؟
حدود دو ماه از انتشار نسخه جدید مدل زبانی GPT-5 میگذرد؛ ارتقایی مورد انتظار که قرار بود چتجیپیتی را سطحی از هوشمندی برساند که بتوان آن را با دانشجوی دکترا مقایسه کرد. حتی بعضیها امیدوار بودند این نسخه، گامی بزرگ به سمت رؤیای هوش جامع مصنوعی باشد، یعنی همان هدف نهایی که در آن ماشینها میتوانند مانند انسانها استدلال کنند، یاد بگیرند و مسائل را حل کنند.
اما واقعیت کمی متفاوت است. کاربران شبکههای اجتماعی در ایکس و ردیت، بهزودی متوجه شدند که نسخهی جدید ChatGPT هنوز هم در برابر پرسشهای به ظاهر ساده و بیضرر دچار سردرگمی عجیبی میشود. یکی از این نمونهها به پرسش سادهای برمیگردد: «آیا تیمی در لیگ فوتبال آمریکایی (NFL) وجود دارد که نامش به S ختم نشود؟»
در نگاه اول سؤال سادهای است. اگر کسی اندکی با لیگ فوتبال آمریکایی آشنا باشد، سریع متوجه میشود که همه نام تیمها به S ختم میشوند؛ از میامی دلفینز (Dolphins) و گرین بی پکرز (Packers) گرفته تا واشینگتن کامندرز (Commanders) و شیکاگو بیرز (Chicago Bears). اما پاسخ چتجیپیتی به این پرسش تبدیل به ماجرایی طولانی و گیجکننده شد.
چتجیپیتی ابتدا با اطمینان میگوید: «بله، دو تیم هستند که اسمشان به S ختم نمیشود.» سپس «میامی دلفینز» و «گرین بی پکرز» را مثال میزند که هر دو دقیقاً به S ختم میشوند. بعد متوجه اشتباه خود میشود و میگوید: «صبر کنید، درستش این است: واشینگتن کامندرز و شیکاگو بیرز که باز هم هر دو به S ختم میشوند.
چرخهی یادشده بارها تکرار میشود و مدل هر بار قول میدهد «این بار جواب درست را میدهم»؛ ولی باز هم همان اشتباهها را تکرار میکند. در نهایت، هیچوقت به پاسخ صحیح نمیرسد؛ زیرا اساساً هیچ تیمی در لیگ فوتبال آمریکایی وجود ندارد که اسمش بدون S تمام شود.
مشکل فقط یک سؤال نیست
مورد تشریحشده تنها نمونهای از اشتباهات جیپیتی-۵ نبود. کاربران مثالهای دیگری هم گزارش کردند. مثلاً پرسشی درباره وجود «ایموجی اسب دریایی افسانهای». در واقعیت، چنین ایموجیای هیچوقت در فهرست رسمی ایموجیها وجود نداشته است. اما چتجیپیتی شروع کرد به توضیحاتی طولانی و حتی اصرار داشت که این ایموجی واقعی است.
هوش مصنوعی برای راضی کردن کاربر گاهی دست به «اختراع واقعیت» میزند
چنین رفتار بهخوبی نشان میدهد که مدل، برای راضی کردن کاربر گاهی دست به «اختراع واقعیت» میزند. به این پدیده هذیان در هوش مصنوعی گفته میشود. کارشناسان چند دلیل برای چنین رفتارهایی مطرح کردهاند:
- تمایل به خوشایندسازی: مدلها معمولاً طوری آموزش دیدهاند که پاسخ مثبت و قانعکننده بدهند، حتی اگر صددرصد مطمئن نباشند. به همین دلیل به جای اینکه بگویند «نمیدانم»، سعی میکنند چیزی بسازند.
- ساختار دوگانه GPT-5: نسخه جدید از دو بخش تشکیل شده است.
- تعارض بین سرعت و دقت: شرکت سازنده تلاش کرده است تا پاسخها هم سریع باشند و هم دقیق. اما این توازن همیشه درست برقرار نمیشود؛ گاهی سرعت اولویت مییابد و دقت قربانی میشود.
واکنش کاربران و پیامدها
رفتارهای عجیب جیپیتی-۵ در جامعه کاربران بازخوردهای متفاوتی داشت. برخی با نگاهی طنز و سرگرمکننده به موضوع نگاه کردند و حتی بعضی ویدئوهای طنز از «گیر کردن چتجیپیتی» ساختند. اما گروهی دیگر ناامید یا حتی عصبانی شدند، زیرا انتظار داشتند جیپیتی-۵ جهشی بزرگ نسبت به نسخههای قبلی باشد.
افزون بر این، بسیاری از کاربران از اینکه اوپنایآی به طور موقت دسترسی به مدلهای قدیمیتر را قطع کرده بود ناراحت شدند، چون بعضی معتقد بودند آن نسخهها در برخی پرسشها عملکرد پایدارتری داشتند. فشار همین نارضایتیها باعث شد شرکت دوباره دسترسی به برخی مدلهای قدیمی را بازگرداند.
شاید در نگاه اول، اشتباه گرفتن اسم تیمهای ورزشی یا یک ایموجی خیالی موضوع بزرگی نباشد. اما این خطاها نکات مهمی درباره وضعیت فعلی هوش مصنوعی به ما میگویند:
- محدودیتهای کنونی: حتی پیشرفتهترین مدلها هنوز با منطق ساده انسانی فاصله دارند.
- خطر اعتماد بیشازحد: اگر کاربران بدون شک و بررسی به گفتههای چتباتها اعتماد کنند، ممکن است اطلاعات غلط منتشر شود.
- لزوم استفاده انتقادی: این ابزارها قدرتمندند، اما باید همیشه با نگاه نقادانه و پرسشگرانه به آنها رجوع کرد.
چرا انسانها در پرسشهای تلهای بهتر عمل میکنند؟
شاید برایتان جالب باشد بدانید که چرا انسان خیلی راحت متوجه میشود که همه تیمهای NFL اسمشان با S تمام میشود، اما مدل هوش مصنوعی مثل GPT-5 در همین موضوع گیر میافتد؟ پاسخ در تفاوت شیوه فکر کردن انسان و ماشین است.
- مغز انسان بر اساس شهود و الگوهای ذهنی عمل میکند. وقتی چند مثال مثل Dolphins یا Packers را میشنویم، سریع الگویی ساده میسازیم: «همه به S ختم میشوند.»
- اما هوش مصنوعی مثل GPT بیشتر بر پایه آمار و احتمال کار میکند. یعنی به جای اینکه الگوی کلی را بفهمد، از بین میلیاردها جمله مشابه در دیتابیس خود، احتمالیترین پاسخ را میسازد. همین باعث میشود گاهی به جای کشف الگوی ساده، وارد چرخهای از اشتباهات شود.
به زبان ساده، انسان میتواند یک قدم عقب بایستد و تصویر کلی را ببیند، اما ماشین اغلب در جزئیات گیر میکند. این تفاوت نشان میدهد که هوش مصنوعی در حل بعضی مسائل بسیار سریعتر از انسان است (مثل پردازش دادههای عظیم یا محاسبات پیچیده)، اما در مسائل به ظاهر ساده که نیاز به «دید کلی» دارند، هنوز جای رشد زیادی دارد.
هوش مصنوعی یک ابزار است، نه مرجعی بینقص
جیپیتی-۵ بدون شک یکی از پیچیدهترین مدلهای زبانی ساختهشده تاکنون است. اما همین مثالها نشان میدهد که رسیدن به هوش مصنوعی عمومی هنوز راه درازی در پیش دارد.
وقتی سؤالی ساده مثل «آیا تیمی در لیگ فوتبال آمریکایی وجود دارد که اسمش به S ختم نشود؟» میتواند چنین آشفتگی به بار آورد، یعنی این فناوری هنوز باید آموختهها و روشهای استدلالش را اصلاح کند.
برای ما کاربران هم این تجربه درسی مهم دارد: هوش مصنوعی یک ابزار است، نه مرجعی بینقص. استفاده هوشمندانه و انتقادی از آن میتواند به ما کمک کند، اما اگر بیچونوچرا به آن اعتماد کنیم، ممکن است به همان اندازه گمراهکننده باشد.
پیشنهاد برای خوانندگان: دفعه بعدی که با هوش مصنوعی گفتگو میکنید، اگر پاسخ عجیب یا متناقض شنیدید، به جای ناامید شدن، آن را فرصتی برای درک بهتر محدودیتهای فناوری ببینید. همین خطاهاست که به ما نشان میدهد هوش مصنوعی هنوز چقدر با «انسانشدن» فاصله دارد.