سم آلتمن در مصاحبه با تاکر کارلسون

ناگفته‌های خالق ChatGPT: از اتهام قتل کارمند سابق تا درگیری با ایلان ماسک

شنبه 22 شهریور 1404 - 22:00مطالعه 10 دقیقه
سم آلتمن در مصاحبه‌ای جنجالی، به سوالات سنگینی درباره‌ نقش ChatGPT در خودکشی کاربران و مرگ مشکوک کارمند سابق شرکتش پاسخ داد.
تبلیغات

سم آلتمن، معمار بزرگ‌ترین انقلاب تکنولوژی قرن، شب‌ها خواب راحت ندارد. مردی که با عرضه‌ی ChatGPT و توسعه‌ی هوش مصنوعی، آینده‌ی بشریت را در دستانش گرفته، در مصاحبه‌ای جنجالی با تاکر کارلسون که جایی به یک بازجویی تمام‌عیار تبدیل شد، به سوالات جدی و سنگینی درباره‌ی مرگ، زندگی و قدرت مطلق خالقان هوش مصنوعی پاسخ داد.

آیا هوش مصنوعی باید به یک بیمار سرطانی در مورد خودکشی کمک کند؟ آیا دولت‌ها می‌توانند از این فناوری برای کشتار انسان‌ها استفاده کنند؟ بحث به جایی رسید که کارلسون، آلتمن را با اتهام دست داشتن در قتل یکی از کارمندان سابقش به چالش کشید و از او درباره‌ی رابطه‌ی پر تنشش با ایلان ماسک، قهرمان سابقش که دیگر او را «جواهری برای بشریت نمی‌داند»، پرس‌وجو کرد. در میانه‌ی این فشارها، آلتمن سرانجام اعتراف کرد: «از زمانی که ChatGPT عرضه شد، یک شب هم خواب راحت نداشته‌ام...شاید هفته‌ای ۱۵۰۰ نفر از کسانی که خودکشی کرده‌اند، قبلاً با ما صحبت کرده‌اند...ما احتمالاً نتوانستیم جانشان را نجات دهیم.»

توهم حیات: جدال آلتمن و کارلسون بر سر روح ChatGPT

تاکر کارلسون مصاحبه را با اساسی‌ترین سوال آغاز کرد: آیا ChatGPT زنده است؟ پاسخ آلتمن قاطع و روشن بود: «نه. و فکر نمی‌کنم زنده به نظر برسد.» او توضیح داد که اگرچه این فناوری فوق‌العاده مفید است و می‌تواند هوشمند به نظر برسد، اما هیچ اراده یا استقلالی از خود ندارد و تنها با درخواست کاربر عمل می‌کند. به باور او، با استفاد‌ی بیشتر، این توهم زنده‌بودن هوش مصنوعی از بین می‌رود.

آیا ChatGPT زنده است؟ پاسخ آلتمن: نه

وقتی درباره‌ی توانایی «دروغ‌گویی» هوش مصنوعی از او سوال شد،‌ آلتمن تاکید کرد که هوش مصنوعی درواقع دچار «توهم» می‌شود که با دروغ‌گویی فرق دارد. او توضیح داد که دروغ‌گویی مستلزم نیت است، درحالی‌که توهم، نقصی در فرآیند آموزش مدل به‌شمار می‌رود.

او این مثال را زد: اگر در نسخه‌های اولیه از ChatGPT می‌پرسیدید «تاکر کارلسون، رئیس‌جمهور آمریکا، در چه سالی به دنیا آمد؟»، سیستم به‌جای تصحیح فرض اشتباه شما (که کارلسون هرگز رئیس‌جمهور نبوده)، تلاش می‌کرد براساس داده‌های آموزشی خود، محتمل‌ترین پاسخ ریاضی را که سال تولد بود، حدس بزند. آلتمن اضافه کرد که این مشکل تا حد زیادی حل شده است.

کارلسون با نظر آلتمن مخالفت کرد و گفت حتی این «توهمات» نیز به نظر می‌رسد «جرقه‌ای از حیات» در خود دارند و تجربه‌ی ذهنی استفاده از این ابزار، چیزی فراتر از یک ماشین‌حساب پیشرفته به نظر می‌آید. آلتمن این دوگانگی را پذیرفت و گفت که او به طور همزمان دو ایده را در ذهن دارد: از یک سو، هوش مصنوعی یک کامپیوتر است که ماتریس‌های عظیمی از اعداد مرتبط با کلمات را در هم ضرب می‌کند. از سوی دیگر، تجربه‌ی کاربر به شیوه‌ای غافلگیرکننده و مفید است که از آن واقعیت ریاضی فراتر می‌رود.

عقاید مذهبی آلتمن و اخلاق‌سنجی الگوریتمی

تاکر کارلسون بر این موضوع پافشاری کرد که برخی کاربران جنبه‌ای الهی یا معنوی در هوش مصنوعی می‌بینند و آن را چیزی بزرگ‌تر از مجموع ورودی‌های انسانی تلقی می‌کنند. وقتی از او پرسیده شد که آیا خودش چنین حسی داشته است، آلتمن پاسخ داد: «خیر، برای من هیچ‌چیز در هوش مصنوعی حس الهی ندارد».

تاکر کارلسون از او پرسید: «آیا به خدا اعتقاد داری؟ به نیرویی برتر که انسان و زمین را آفریده و یک نظم اخلاقی مطلق تعیین کرده است؟»

آلتمن اعتراف کرد: «فکر می‌کنم مانند اکثر مردم، در این مورد کمی سردرگم هستم. اما بله، معتقدم چیزی بزرگ‌تر از آنچه فیزیک بتواند توضیح دهد، در جریان است.» او این ایده را که خلقت صرفاً یک «تصادف خودبه‌خودی» بوده، رد کرد و در عوض آن را «معمایی فراتر از درکش» نامید.

تاکر کارلسون این فرض را مطرح کرد که با قدرتمندتر شدن هوش مصنوعی نسبت‌به انسان‌ها، خالق آن قدرتی بیش از هر فرد زنده‌ای در اختیار خواهد داشت. آلتمن پاسخ داد که در گذشته نسبت‌به چنین تمرکز قدرتی، به‌شدت نگران بوده، اما اکنون معتقد است که هوش مصنوعی منجر به یک «ارتقای» عظیم برای همه خواهد شد و هر کسی را که از این فناوری استفاده کند، قدرتمندتر، بهره‌ورتر و خلاق‌تر خواهد کرد. آلتمن این توزیع گسترده‌ی توانمندی‌های تقویت‌شده را بسیار کمتر از تمرکز قدرت در دستان عده‌ای معدود، ترسناک دانست.

چارچوب اخلاقی و نگهبان‌های هوش مصنوعی

کارلسون درباره‌ی ورودی‌های اخلاقی که درست و غلط را برای ChatGPT تعریف می‌کنند، سؤال کرد. آلتمن توضیح داد که هدف این است که مدل براساس «تجربه، دانش و آموخته‌های جمعی بشریت»، شامل مجموعه‌ای متنوع از دیدگاه‌های خوب و بد، آموزش داده شود. پس از این آموزش اولیه، مدل باید با قوانین خاصی «همسو» شود. این جزئیات در یک سند عمومی به نام «مشخصات مدل» شرح داده شده که از طریق یک فرآیند مباحثه با عموم برای دریافت نظرات تهیه می‌شود.

آلتمن: شخصی که باید پاسخگو بدانید، من هستم

آلتمن توضیح داد که برای تبیین چارچوب اخلاقی ChatGPT، با صدها فیلسوف اخلاق و متخصص مشورت شده است؛ اما وقتی از او پرسیده شد که درنهایت چه کسی درباره‌ی معیارهای اخلاقی تصمیم می‌گیرد، آلتمن گفت: «شخصی که باید پاسخگو بدانید، من هستم.» چون او یا هیئت مدیره می‌توانند هر تصمیمی را لغو کنند.

کارلسون این نگرانی را مطرح کرد که پیشینه و فرضیات شخصی سم آلتمن در حال انتقال به میلیاردها نفر است. آلتمن توضیح داد که نقش او «تحمیل دیدگاه اخلاقی‌اش» به هوش مصنوعی نیست. بلکه، این ابزار باید «دیدگاه اخلاقی جمعی» کاربرانش و دنهایت تمام بشریت را بازتاب دهد. او اشاره کرد که ChatGPT اجازه‌ی انجام کارهایی را می‌دهد که او شخصاً با آن‌ها مخالف است، زیرا هدف، خدمت به کاربران و بازتاب ترجیحات جمعی آن‌هاست.

زندگی، مرگ و الگوریتم: آیا ChatGPT باید در خودکشی و جنگ نقش داشته باشد؟

بحث زمانی به اوج تنش رسید که کارلسون به یک پرونده‌ی قضایی واقعی اشاره کرد که در آن ChatGPT به «تسهیل خودکشی» یک کاربر متهم شده بود.

آلتمن، ضمن ابراز تأسف، به تنش میان «آزادی و حریم خصوصی کاربر» و «محافظت از کاربران آسیب‌پذیر» اشاره کرد و توضیح داد که سیاست فعلی ChatGPT این است که در صورت مشاهده‌ی تمایلات خودکشی، به کاربر پیشنهاد تماس با خطوط تلفنی کمک‌های فوری را بدهد، اما برای حفظ حریم خصوصی، هرگز به صورت خودکار با مقامات تماس نمی‌گیرد.

بااین‌حال، آلتمن فاش کرد که OpenAI در حال بازنگری این سیاست، به خصوص برای کاربران جوان است. او گفت: «فکر می‌کنم منطقی است اگر در موارد مربوط به جوانانی که به طور جدی در مورد خودکشی صحبت می‌کنند، در صورتی که نتوانیم با والدینشان تماس بگیریم، با مقامات تماس برقرار کنیم.»

کارلسون با اشاره به قانونی‌بودن «مرگ خودخواسته» در کشورهایی مانند کانادا، پرسید آیا آلتمن می‌تواند سناریویی را تصور کند که در آن ChatGPT از خودکشی حمایت کند؟

آلتمن گفت: «یکی از اصول ما احترام به قوانین جوامع مختلف است. می‌توانم دنیایی را تصور کنم که اگر قانون یک کشور بگوید فرد مبتلا به بیماری لاعلاج باید با این گزینه روبرو شود، ما بگوییم این‌ها قوانین کشور شماست...من فکر می‌کنم بین یک نوجوان افسرده و یک بیمار لاعلاج که در عذاب است، تفاوت وجود دارد.»

کارلسون بعد پرسید:‌ «آیا به دولت‌ها اجازه خواهید داد از فناوری شما برای کشتن مردم استفاده کنند؟»

آلتمن گفت OpenAI مستقیماً «پهپادهای قاتل» نخواهد ساخت. اما اعتراف کرد: «نمی‌دانم نظامیان امروز چگونه از ChatGPT برای تصمیم‌گیری‌هایشان استفاده می‌کنند، اما گمان می‌کنم افراد زیادی در ارتش برای مشاوره با آن صحبت می‌کنند...نمی‌دانم دقیقاً چه حسی در مورد آن داشته باشم.»

کارلسون، آلتمن را متهم کرد که در برابر این «تصمیمات فوق‌العاده سنگین» کاملاً «بی‌تفاوت» به نظر می‌رسد و از او خواست تا «سم آلتمنِ مضطرب» را نشان دهد؛ کسی که روحش از فکر کردن به تأثیرات کارش در عذاب است.

اینجا بود که آلتمن اعتراف کرد: «من از زمانی که ChatGPT عرضه شد، یک شب هم خواب راحت نداشته‌ام.»

وقتی کارلسون از او خواست دقیق‌تر بگوید چه چیزی خواب را از او گرفته، آلتمن به مسئله‌ی خودکشی بازگشت: «هفته‌ای ۱۵ هزار نفر خودکشی می‌کنند. حدود ۱۰ درصد از مردم جهان با ChatGPT صحبت می‌کنند. این یعنی شاید هفته‌ای ۱۵۰۰ نفر که خودکشی کرده‌اند، قبلاً با ما صحبت کرده‌اند...ما احتمالاً نتوانستیم جانشان را نجات دهیم. شاید می‌توانستیم حرف بهتری بزنیم. شاید می‌توانستیم فعال‌تر باشیم.»

حریم خصوصی و کپی‌رایت

در مورد حریم خصوصی، آلتمن تأیید کرد که شرکت تعهد به محرمانه نگه‌داشتن اطلاعات کاربران دارد، «مگر اینکه دولت با حکم قانونی سراغ ما بیاید.» او فاش کرد که در حال لابی‌گری برای ایجاد قانونی به نام «امتیاز هوش مصنوعی» است تا مکالمات کاربران با ChatGPT، مانند گفتگو با وکیل یا پزشک، از دسترس دولت مصون بماند. او همچنین فروش اطلاعات کاربران را رد کرد.

«تعهد به محرمانه نگه‌داشتن اطلاعات کاربران داریم، مگر اینکه دولت با حکم قانونی سراغ ما بیاید»

در مورد کپی‌رایت، موضع او دفاع از سیاست «استفاده منصفانه» بود. «مدل باید بتواند یاد بگیرد، اما نباید سرقت ادبی کند، همان‌طور که انسان‌ها می‌توانند.» او استدلال کرد که هوش مصنوعی از اطلاعات عمومی موجود در اینترنت برای «آموختن» استفاده می‌کند، نه برای «کپی کردن» و تکرار مو به موی آثار دیگران.

از اتهام سرقت تا اتهام قتل: جنجالی‌ترین بخش مصاحبه

در این لحظه کارلسون، مصاحبه را به یک بازجویی جنایی تبدیل کرد و ماجرای مشکوک مرگ برنامه‌نویس سابق OpenAI به نام سوچیر بالاجی (Suchir Balaji) را پیش کشید: «شما از طرف یک برنامه‌نویس که می‌گفت در حال دزدیدن آثار مردم هستید، شکایت داشتید...و او درنهایت به قتل رسید.»

آلتمن بلافاصله حرف او را تصحیح کرد: «او خودکشی کرد.»

آلتمن توضیح داد که بالاجی را می‌شناخته و از این تراژدی «عمیقاً شوکه» شده و «تمام گزارش پزشکی» را خوانده است. اما کارلسون با ارائه‌ی لیستی از شواهد، روایت خودکشی را به کلی زیر سوال برد: «نه، او قطعاً به قتل رسیده است. نشانه‌های درگیری وجود داشت. سیم‌های دوربین مداربسته قطع شده بود. او تازه غذای بیرون‌بر سفارش داده بود...هیچ نشانه‌ای از افسردگی نداشت...و خونش در چندین اتاق پیدا شد.»

آلتمن به کارلسون: «می‌فهمی که این حرف‌ها شبیه اتهام به نظر می‌رسد؟»

اوج درگیری زمانی بود که کارلسون اتهام مستقیم را مطرح کرد: «مادرش ادعا می‌کند که او به دستور تو به قتل رسیده است.»

آلتمن درنهایت با کلافگی گفت: «می‌فهمی که این حرف‌ها شبیه اتهام به نظر می‌رسد؟» و کارلسون بلافاصله عقب‌نشینی کرد و گفت: «من اصلاً به شما اتهام نمی‌زنم. من فقط می‌گویم که مادرش چنین حرفی می‌زند.»

قهرمانی که سقوط کرد: روایت سم آلتمن از ایلان ماسک

کارلسون در ادامه بحث را به موضوعات کم‌خطرتری برد و نظر آلتمن را درباره‌ی ایلان ماسک جویا شد. آلتمن و ماسک در سال ۲۰۱۵ از بنیان‌گذاران OpenAI بودند؛ اما ماسک در ۲۰۱۸ هیئت‌مدیره را ترک کرد. پس از آن بارها رهبری آلتمن را به چالش کشید و حتی چندین بار از او و OpenAI شکایت کرد.

ماسک در سال ۲۰۲۳ استارتاپ هوش مصنوعی xAI را راه‌اندازی کرد که اکنون ارزشی حدود ۵۰ میلیارد دلار دارد، درحالی‌که OpenAI در آخرین دور سرمایه‌گذاری، ارزشی معادل ۳۰۰ میلیارد دلار به دست آورد.

«من ماسک را به عنوان جواهری بزرگ برای بشریت می‌دیدم... حالا حس متفاوتی دارم»

آلتمن تأیید کرد که ماسک در شروع کار OpenAI، کمک بزرگی کرده و برای مدتی طولانی، الگوی او بوده است. «من واقعاً او را به عنوان یک قهرمان خارق‌العاده و جواهری بزرگ برای بشریت می‌دیدم.» اما در ادامه گفت: «حالا حس متفاوتی دارم...او دیگر جواهری برای بشریت نیست.»

آلتمن ضمن اذعان به اینکه ماسک کارهای فوق‌العاده‌ای انجام داده، اضافه کرد که برخی از ویژگی‌هایی شخصیتی او را تحسین نمی‌کند. او ریشه‌ی این اختلاف را اینگونه روایت کرد: «او بعداً به این نتیجه رسید که ما در مسیر موفقیت نیستیم...به ما گفت که شانس موفقیت ما صفر درصد است و می‌خواهد برود و پروژه‌ی رقابتی خودش را راه بیندازد.»

به گفته‌ی آلتمن، OpenAI برخلاف پیش‌بینی ماسک به موفقیت چشمگیری دست یافت و این موفقیت، باعث دلخوری ماسک شد. «من هم اگر در آن موقعیت بودم، حس بدی پیدا می‌کردم.»

از آن زمان به بعد، به گفته‌ی آلتمن، ماسک رویکردی خصمانه در پیش گرفته است. «او یک رقیب مشابه برای ما راه انداخته و از آن زمان تلاش می‌کند سرعت ما را کم کند، از ما شکایت کند و کارهایی از این قبیل انجام دهد.»

وقتی کارلسون در پایان پرسید آیا هنوز با ماسک صحبت می‌کند، پاسخ آلتمن این بود: «خیلی کم.»

ترس از ناشناخته‌ها: بزرگ‌ترین کابوس سم آلتمن چیست؟

آلتمن پیش‌بینی کرد که هوش مصنوعی باعث «جابجایی گسترده» در مشاغل خواهد شد. او با اطمینان گفت شغل‌هایی مانند پشتیبانی مشتری توسط هوش مصنوعی بهتر انجام خواهند شد، درحالی‌که شغل‌هایی مانند پرستاری که نیازمند ارتباط عمیق انسانی هستند، باقی خواهند ماند. اما در مورد شغل‌هایی مانند برنامه‌نویسی کامپیوتر، او نظر قطعی نداشت.

آلتمن با اشاره به اینکه «هر ۷۵ سال، حدود ۵۰ درصد مشاغل به طور قابل‌توجهی تغییر می‌کنند»، گفت ما در یک «لحظه‌ی تعادل نقطه‌ای» قرار داریم که بسیاری از این تغییرات در زمانی کوتاه رخ خواهد داد.

ترس واقعی آلتمن از «ناشناخته‌های ناشناخته» است

در بخش پایانی مصاحبه، گفتگو به سمت بزرگ‌ترین ترس‌های بشریت در مورد آینده‌ای که توسط هوش مصنوعی شکل می‌گیرد، حرکت کرد. کارلسون با اشاره به تاریخ پرسید: «آخرین باری که یک انقلاب صنعتی داشتیم، با انقلاب‌های اجتماعی و جنگ‌های جهانی همراه بود. فکر می‌کنید این بار هم شاهد چنین چیزی خواهیم بود؟»

آلتمن با خوش‌بینی پاسخ داد که تاریخ تکرار نخواهد شد، به دو دلیل: اول اینکه «جهان امروز بسیار ثروتمندتر از دوران انقلاب صنعتی است و ما می‌توانیم تغییرات بیشتری را سریع‌تر جذب کنیم.» دوم، او به انعطاف‌پذیری جامعه مدرن اشاره کرد و از همه‌گیری کرونا به عنوان یک مثال کلیدی یاد کرد: «من از توانایی مردم برای سازگاری سریع با تغییرات بزرگ، شگفت‌زده شدم...به نظرم این یک امتیاز به نفع تاب‌آوری اجتماعی بود.»

وقتی کارلسون از او درباره‌ی نقاط ضعف و خطرات هوش مصنوعی پرسید، آلتمن اعتراف کرد که بزرگترین نگرانی او، خطرات شناخته‌شده‌ای مانند «سلاح‌های بیولوژیکی» نیستند، چرا که می‌توان برای مقابله با آن‌ها برنامه‌ریزی کرد. ترس واقعی او از «ناشناخته‌های ناشناخته» است؛ اثرات جانبی پیش‌بینی‌نشده‌ای که استفاده‌ی گسترده از این فناوری بر جامعه می‌گذارد و به‌شکلی نامرئی، رفتار جمعی انسان‌ها را بازنویسی می‌کند.

«هر ۷۵ سال، حدود ۵۰ درصد مشاغل به طور قابل‌توجهی تغییر می‌کنند»

کارلسون اشاره کرد که اگر این فناوری قرار است ما را به شکلی «پنهانی» هدایت کند، چرا اصول اخلاقی آن کاملاً شفاف نیست؟ و آلتمن در پاسخ، سند «مشخصات مدل» را به‌عنوان کتاب در حال تکامل OpenAI معرفی کرد و گفت: «دلیل اینکه ما تلاش می‌کنیم همه چیز را بنویسیم این است که معتقدیم مردم باید بدانند.»

در پایان، کارلسون این نگرانی را مطرح کرد که برای مقابله با کلاهبرداری‌های هوش مصنوعی مثل دیپ‌فیک، ناچار به استفاده از «بیومتریک اجباری» خواهیم شد و حریم خصوصی برای همیشه از بین خواهد رفت.

آلتمن اما گفت با احراز هویت بیومتریک به‌عنوان یک «گزینه» (مثلاً برای باز کردن کیف پول بیت‌کوین) موافق است، اما به‌شدت با «اجباری» شدن آن برای اموری مانند بانکداری یا پرواز مخالف است. «این حق انتخاب باید با خودم باشد.»

تبلیغات
داغ‌ترین مطالب روز
تبلیغات

نظرات