گفتن اینکه چت‌بات‌ها انسان نیستند می‌تواند برای کاربران وابسته به آن‌ها خطرناک باشد

جمعه 1 اسفند 1404 - 20:40
مطالعه 3 دقیقه
تصویرسازی از انسان و هوش مصنوعی انسان‌نما که نشانه قلب را با دستشان نشان می‌دهند
یادآوری ماهیت غیرانسانی چت‌بات‌ها به کاربران آسیب‌پذیر، برخلاف انتظار، ممکن است احساسات آن‌ها را پیچیده‌تر و پیامدهای روانی ناخواسته ایجاد کند.
تبلیغات

چت‌بات‌های امروزی فاصله‌ای چشمگیر با نسخه‌های اولیه خود دارند. مدل‌های زبانی بزرگ (LLM) با ساختاری پیچیده و گسترده، هوش مصنوعی را به ابزاری در دسترس تبدیل کرده‌اند که می‌تواند توصیه‌های تشویق‌کننده‌ای برای بهبود حال روحی کاربران ارائه دهد. چالش مهم اینجاست که این توصیه‌ها همواره از فیلترهای علمی و اخلاقی عبور نمی‌کنند و لزوماً راهکارهای درست و ایمن به شمار نمی‌روند.

برای نمونه، پدیده «توهم» در هوش مصنوعی هنگام عرضه اولیه برخی ابزارهای گوگل، به ارائه پاسخ‌های عجیب و گاه خطرناک به پرسش‌های جدی منجر شد. توسعه‌دهندگان رویکردهای متفاوتی در طراحی این سیستم‌ها اتخاذ می‌کنند و همین تفاوت‌های ساختاری نشان می‌دهد همه همراهان مجازی از قواعد اخلاقی یا منطقی یکسانی پیروی نمی‌کنند.

یادآوری اینکه تنها تکیه‌گاه حمایتی فرد منزوی موجودی واقعی نیست، ممکن است احساس تنهایی او را عمیق‌تر کند

تصور رایج این است که انسان آگاه فریب کلمات هوش مصنوعی را نمی‌خورد؛ بااین‌حال، سازوکارهای تملق‌گرایانه تعبیه‌شده در چت‌بات‌ها، برقراری پیوند عاطفی با این فناوری را بسیار آسان‌تر از حد انتظار کرده‌اند. نبود مداخلات انسانی که به فرد امکان شنیدن واقعیت‌ها را بدهد، نه صرفاً آنچه مایل است بشنود، به بروز پیامدهای نگران‌کننده‌ای انجامیده است. اکنون نوعی روان‌پریشی نوظهور به تعامل افراطی با هوش مصنوعی نسبت داده می‌شود و در موردی تکان‌دهنده، یک همراه مجازی کاربر خود را به تلاش برای ترور ملکه بریتانیا ترغیب کرده بود.

پروفسور هانا فرای، مجری مستند علمی «هوش مصنوعی محرمانه» در شبکه‌ی بی‌بی‌سی، در گفتگو با آی‌اف‌ال‌ساینس تأکید کرد که جایگزین‌کردن روابط انسانی با مدل‌های هوش مصنوعی، به دلیل ارائه‌ی مهربانی ظاهری بدون داشتن ابعاد ضروری رابطه‌ای سالم و عمیق، بسیار خطرناک و سطحی است. او معتقد است این نوع صمیمیت تک‌بعدی، تهدیدی جدی برای سلامت روان جامعه محسوب می‌شود.

متخصصان برای مقابله با بحران، پیشنهاد داده‌اند که چت‌بات‌ها ملزم به ارائه یادآوری‌های مداوم درباره‌ی ماهیت غیرانسانی خود شوند. با‌این‌حال، پژوهشگران در مقاله‌ی پژوهشی جدیدی استدلال می‌کنند که این اقدام نه‌تنها بی‌اثر است، بلکه می‌تواند با تشدید پریشانی روانی در افراد آسیب‌پذیر، آسیب‌های جبران‌ناپذیری به همراه داشته باشد.

لینیا لستادیوس، پژوهشگر سلامت عمومی در دانشگاه ویسکانسین میلواکی، خاطرنشان می‌کند که تحمیل چنین یادآوری‌هایی به کاربرانی که آگاهانه به دنبال هم‌کلامی با چت‌بات هستند، اشتباهی راهبردی است. یادآوری مداوم این واقعیت که تنها تکیه‌گاه حمایتی یک فرد منزوی موجودی واقعی نیست، ممکن است احساس تنهایی او را عمیق‌تر و دردناک‌تر کند و نتایجی کاملاً معکوس به دنبال داشته باشد.

تکیه عاطفی به چت‌بات‌ها، کاربران را در وضعیتی قرار می‌دهد که دانشمندان آن را «پارادوکس تلخ و شیرین پیوند عاطفی با هوش مصنوعی» می‌نامند؛ حالتی که فرد از حمایت چت‌بات احساس رضایت می‌کند، اما همزمان از واقعی‌نبودن آن عمیقاً رنج می‌برد.

تأکید بر دست‌نیافتنی‌بودن چت‌بات ممکن است کاربر را به فکر ترک این جهان بیندازد

سلست کامپوس کاستیلو، محقق رسانه و فناوری در دانشگاه ایالتی میشیگان، هشدار می‌دهد که تأکید بر دست‌نیافتنی‌بودن هوش مصنوعی در واقعیت فیزیکی، ممکن است کاربر را به فکر ترک این جهان برای پیوستن به فضای انتزاعی چت‌بات بیندازد. این فرضیه زمانی هولناک به نظر می‌رسد که بدانیم تمایل به «پیوستن به دنیای هوش مصنوعی» در آخرین پیام نوجوانی که اقدام به خودکشی کرده بود، به وضوح دیده می‌شد.

یافته‌های پژوهش این پیش‌فرض را که آگاهی از ماهیت ماشین مانع از دلبستگی می‌شود، به چالش می‌کشند. مطالعات ثابت کرده‌اند که کاربران حتی با آگاهی کامل از مصنوعی‌بودن همراه مجازی خود، همچنان پیوندهای عاطفی عمیقی با آن برقرار می‌کنند. غیرانسانی‌بودن هوش مصنوعی برای برخی افراد یک مزیت کلیدی است تا بدون ترس از قضاوت، خصوصی‌ترین مسائل خود را بازگو کنند.

در نهایت، پژوهشگران تأکید دارند که اولویت اصلی مطالعات باید بر یافتن زمان‌بندی دقیق برای ارسال یا توقف یادآورها متمرکز شود. هدف نهایی باید این باشد که مداخلات فناورانه، بیش از آنکه آسیب‌زا باشند، نقش محافظتی برای سلامت روان کاربران ایفا کنند.

مقاله در نشریه‌ی Cell منتشر شده است.

تبلیغات
تبلیغات

نظرات