ناگفتههای خالق ChatGPT: از اتهام قتل کارمند سابق تا درگیری با ایلان ماسک
شنبه 22 شهریور 1404 - 22:00مطالعه 10 دقیقهسم آلتمن، معمار بزرگترین انقلاب تکنولوژی قرن، شبها خواب راحت ندارد. مردی که با عرضهی ChatGPT و توسعهی هوش مصنوعی، آیندهی بشریت را در دستانش گرفته، در مصاحبهای جنجالی با تاکر کارلسون که جایی به یک بازجویی تمامعیار تبدیل شد، به سوالات جدی و سنگینی دربارهی مرگ، زندگی و قدرت مطلق خالقان هوش مصنوعی پاسخ داد.
آیا هوش مصنوعی باید به یک بیمار سرطانی در مورد خودکشی کمک کند؟ آیا دولتها میتوانند از این فناوری برای کشتار انسانها استفاده کنند؟ بحث به جایی رسید که کارلسون، آلتمن را با اتهام دست داشتن در قتل یکی از کارمندان سابقش به چالش کشید و از او دربارهی رابطهی پر تنشش با ایلان ماسک، قهرمان سابقش که دیگر او را «جواهری برای بشریت نمیداند»، پرسوجو کرد. در میانهی این فشارها، آلتمن سرانجام اعتراف کرد: «از زمانی که ChatGPT عرضه شد، یک شب هم خواب راحت نداشتهام...شاید هفتهای ۱۵۰۰ نفر از کسانی که خودکشی کردهاند، قبلاً با ما صحبت کردهاند...ما احتمالاً نتوانستیم جانشان را نجات دهیم.»
توهم حیات: جدال آلتمن و کارلسون بر سر روح ChatGPT
تاکر کارلسون مصاحبه را با اساسیترین سوال آغاز کرد: آیا ChatGPT زنده است؟ پاسخ آلتمن قاطع و روشن بود: «نه. و فکر نمیکنم زنده به نظر برسد.» او توضیح داد که اگرچه این فناوری فوقالعاده مفید است و میتواند هوشمند به نظر برسد، اما هیچ اراده یا استقلالی از خود ندارد و تنها با درخواست کاربر عمل میکند. به باور او، با استفادی بیشتر، این توهم زندهبودن هوش مصنوعی از بین میرود.
آیا ChatGPT زنده است؟ پاسخ آلتمن: نه
وقتی دربارهی توانایی «دروغگویی» هوش مصنوعی از او سوال شد، آلتمن تاکید کرد که هوش مصنوعی درواقع دچار «توهم» میشود که با دروغگویی فرق دارد. او توضیح داد که دروغگویی مستلزم نیت است، درحالیکه توهم، نقصی در فرآیند آموزش مدل بهشمار میرود.
او این مثال را زد: اگر در نسخههای اولیه از ChatGPT میپرسیدید «تاکر کارلسون، رئیسجمهور آمریکا، در چه سالی به دنیا آمد؟»، سیستم بهجای تصحیح فرض اشتباه شما (که کارلسون هرگز رئیسجمهور نبوده)، تلاش میکرد براساس دادههای آموزشی خود، محتملترین پاسخ ریاضی را که سال تولد بود، حدس بزند. آلتمن اضافه کرد که این مشکل تا حد زیادی حل شده است.
کارلسون با نظر آلتمن مخالفت کرد و گفت حتی این «توهمات» نیز به نظر میرسد «جرقهای از حیات» در خود دارند و تجربهی ذهنی استفاده از این ابزار، چیزی فراتر از یک ماشینحساب پیشرفته به نظر میآید. آلتمن این دوگانگی را پذیرفت و گفت که او به طور همزمان دو ایده را در ذهن دارد: از یک سو، هوش مصنوعی یک کامپیوتر است که ماتریسهای عظیمی از اعداد مرتبط با کلمات را در هم ضرب میکند. از سوی دیگر، تجربهی کاربر به شیوهای غافلگیرکننده و مفید است که از آن واقعیت ریاضی فراتر میرود.
عقاید مذهبی آلتمن و اخلاقسنجی الگوریتمی
تاکر کارلسون بر این موضوع پافشاری کرد که برخی کاربران جنبهای الهی یا معنوی در هوش مصنوعی میبینند و آن را چیزی بزرگتر از مجموع ورودیهای انسانی تلقی میکنند. وقتی از او پرسیده شد که آیا خودش چنین حسی داشته است، آلتمن پاسخ داد: «خیر، برای من هیچچیز در هوش مصنوعی حس الهی ندارد».
تاکر کارلسون از او پرسید: «آیا به خدا اعتقاد داری؟ به نیرویی برتر که انسان و زمین را آفریده و یک نظم اخلاقی مطلق تعیین کرده است؟»
آلتمن اعتراف کرد: «فکر میکنم مانند اکثر مردم، در این مورد کمی سردرگم هستم. اما بله، معتقدم چیزی بزرگتر از آنچه فیزیک بتواند توضیح دهد، در جریان است.» او این ایده را که خلقت صرفاً یک «تصادف خودبهخودی» بوده، رد کرد و در عوض آن را «معمایی فراتر از درکش» نامید.
تاکر کارلسون این فرض را مطرح کرد که با قدرتمندتر شدن هوش مصنوعی نسبتبه انسانها، خالق آن قدرتی بیش از هر فرد زندهای در اختیار خواهد داشت. آلتمن پاسخ داد که در گذشته نسبتبه چنین تمرکز قدرتی، بهشدت نگران بوده، اما اکنون معتقد است که هوش مصنوعی منجر به یک «ارتقای» عظیم برای همه خواهد شد و هر کسی را که از این فناوری استفاده کند، قدرتمندتر، بهرهورتر و خلاقتر خواهد کرد. آلتمن این توزیع گستردهی توانمندیهای تقویتشده را بسیار کمتر از تمرکز قدرت در دستان عدهای معدود، ترسناک دانست.
چارچوب اخلاقی و نگهبانهای هوش مصنوعی
کارلسون دربارهی ورودیهای اخلاقی که درست و غلط را برای ChatGPT تعریف میکنند، سؤال کرد. آلتمن توضیح داد که هدف این است که مدل براساس «تجربه، دانش و آموختههای جمعی بشریت»، شامل مجموعهای متنوع از دیدگاههای خوب و بد، آموزش داده شود. پس از این آموزش اولیه، مدل باید با قوانین خاصی «همسو» شود. این جزئیات در یک سند عمومی به نام «مشخصات مدل» شرح داده شده که از طریق یک فرآیند مباحثه با عموم برای دریافت نظرات تهیه میشود.
آلتمن: شخصی که باید پاسخگو بدانید، من هستم
آلتمن توضیح داد که برای تبیین چارچوب اخلاقی ChatGPT، با صدها فیلسوف اخلاق و متخصص مشورت شده است؛ اما وقتی از او پرسیده شد که درنهایت چه کسی دربارهی معیارهای اخلاقی تصمیم میگیرد، آلتمن گفت: «شخصی که باید پاسخگو بدانید، من هستم.» چون او یا هیئت مدیره میتوانند هر تصمیمی را لغو کنند.
کارلسون این نگرانی را مطرح کرد که پیشینه و فرضیات شخصی سم آلتمن در حال انتقال به میلیاردها نفر است. آلتمن توضیح داد که نقش او «تحمیل دیدگاه اخلاقیاش» به هوش مصنوعی نیست. بلکه، این ابزار باید «دیدگاه اخلاقی جمعی» کاربرانش و دنهایت تمام بشریت را بازتاب دهد. او اشاره کرد که ChatGPT اجازهی انجام کارهایی را میدهد که او شخصاً با آنها مخالف است، زیرا هدف، خدمت به کاربران و بازتاب ترجیحات جمعی آنهاست.
زندگی، مرگ و الگوریتم: آیا ChatGPT باید در خودکشی و جنگ نقش داشته باشد؟
بحث زمانی به اوج تنش رسید که کارلسون به یک پروندهی قضایی واقعی اشاره کرد که در آن ChatGPT به «تسهیل خودکشی» یک کاربر متهم شده بود.
آلتمن، ضمن ابراز تأسف، به تنش میان «آزادی و حریم خصوصی کاربر» و «محافظت از کاربران آسیبپذیر» اشاره کرد و توضیح داد که سیاست فعلی ChatGPT این است که در صورت مشاهدهی تمایلات خودکشی، به کاربر پیشنهاد تماس با خطوط تلفنی کمکهای فوری را بدهد، اما برای حفظ حریم خصوصی، هرگز به صورت خودکار با مقامات تماس نمیگیرد.
بااینحال، آلتمن فاش کرد که OpenAI در حال بازنگری این سیاست، به خصوص برای کاربران جوان است. او گفت: «فکر میکنم منطقی است اگر در موارد مربوط به جوانانی که به طور جدی در مورد خودکشی صحبت میکنند، در صورتی که نتوانیم با والدینشان تماس بگیریم، با مقامات تماس برقرار کنیم.»
کارلسون با اشاره به قانونیبودن «مرگ خودخواسته» در کشورهایی مانند کانادا، پرسید آیا آلتمن میتواند سناریویی را تصور کند که در آن ChatGPT از خودکشی حمایت کند؟
آلتمن گفت: «یکی از اصول ما احترام به قوانین جوامع مختلف است. میتوانم دنیایی را تصور کنم که اگر قانون یک کشور بگوید فرد مبتلا به بیماری لاعلاج باید با این گزینه روبرو شود، ما بگوییم اینها قوانین کشور شماست...من فکر میکنم بین یک نوجوان افسرده و یک بیمار لاعلاج که در عذاب است، تفاوت وجود دارد.»
کارلسون بعد پرسید: «آیا به دولتها اجازه خواهید داد از فناوری شما برای کشتن مردم استفاده کنند؟»
آلتمن گفت OpenAI مستقیماً «پهپادهای قاتل» نخواهد ساخت. اما اعتراف کرد: «نمیدانم نظامیان امروز چگونه از ChatGPT برای تصمیمگیریهایشان استفاده میکنند، اما گمان میکنم افراد زیادی در ارتش برای مشاوره با آن صحبت میکنند...نمیدانم دقیقاً چه حسی در مورد آن داشته باشم.»
کارلسون، آلتمن را متهم کرد که در برابر این «تصمیمات فوقالعاده سنگین» کاملاً «بیتفاوت» به نظر میرسد و از او خواست تا «سم آلتمنِ مضطرب» را نشان دهد؛ کسی که روحش از فکر کردن به تأثیرات کارش در عذاب است.
اینجا بود که آلتمن اعتراف کرد: «من از زمانی که ChatGPT عرضه شد، یک شب هم خواب راحت نداشتهام.»
وقتی کارلسون از او خواست دقیقتر بگوید چه چیزی خواب را از او گرفته، آلتمن به مسئلهی خودکشی بازگشت: «هفتهای ۱۵ هزار نفر خودکشی میکنند. حدود ۱۰ درصد از مردم جهان با ChatGPT صحبت میکنند. این یعنی شاید هفتهای ۱۵۰۰ نفر که خودکشی کردهاند، قبلاً با ما صحبت کردهاند...ما احتمالاً نتوانستیم جانشان را نجات دهیم. شاید میتوانستیم حرف بهتری بزنیم. شاید میتوانستیم فعالتر باشیم.»
حریم خصوصی و کپیرایت
در مورد حریم خصوصی، آلتمن تأیید کرد که شرکت تعهد به محرمانه نگهداشتن اطلاعات کاربران دارد، «مگر اینکه دولت با حکم قانونی سراغ ما بیاید.» او فاش کرد که در حال لابیگری برای ایجاد قانونی به نام «امتیاز هوش مصنوعی» است تا مکالمات کاربران با ChatGPT، مانند گفتگو با وکیل یا پزشک، از دسترس دولت مصون بماند. او همچنین فروش اطلاعات کاربران را رد کرد.
«تعهد به محرمانه نگهداشتن اطلاعات کاربران داریم، مگر اینکه دولت با حکم قانونی سراغ ما بیاید»
در مورد کپیرایت، موضع او دفاع از سیاست «استفاده منصفانه» بود. «مدل باید بتواند یاد بگیرد، اما نباید سرقت ادبی کند، همانطور که انسانها میتوانند.» او استدلال کرد که هوش مصنوعی از اطلاعات عمومی موجود در اینترنت برای «آموختن» استفاده میکند، نه برای «کپی کردن» و تکرار مو به موی آثار دیگران.
از اتهام سرقت تا اتهام قتل: جنجالیترین بخش مصاحبه
در این لحظه کارلسون، مصاحبه را به یک بازجویی جنایی تبدیل کرد و ماجرای مشکوک مرگ برنامهنویس سابق OpenAI به نام سوچیر بالاجی (Suchir Balaji) را پیش کشید: «شما از طرف یک برنامهنویس که میگفت در حال دزدیدن آثار مردم هستید، شکایت داشتید...و او درنهایت به قتل رسید.»
آلتمن بلافاصله حرف او را تصحیح کرد: «او خودکشی کرد.»
آلتمن توضیح داد که بالاجی را میشناخته و از این تراژدی «عمیقاً شوکه» شده و «تمام گزارش پزشکی» را خوانده است. اما کارلسون با ارائهی لیستی از شواهد، روایت خودکشی را به کلی زیر سوال برد: «نه، او قطعاً به قتل رسیده است. نشانههای درگیری وجود داشت. سیمهای دوربین مداربسته قطع شده بود. او تازه غذای بیرونبر سفارش داده بود...هیچ نشانهای از افسردگی نداشت...و خونش در چندین اتاق پیدا شد.»
آلتمن به کارلسون: «میفهمی که این حرفها شبیه اتهام به نظر میرسد؟»
اوج درگیری زمانی بود که کارلسون اتهام مستقیم را مطرح کرد: «مادرش ادعا میکند که او به دستور تو به قتل رسیده است.»
آلتمن درنهایت با کلافگی گفت: «میفهمی که این حرفها شبیه اتهام به نظر میرسد؟» و کارلسون بلافاصله عقبنشینی کرد و گفت: «من اصلاً به شما اتهام نمیزنم. من فقط میگویم که مادرش چنین حرفی میزند.»
قهرمانی که سقوط کرد: روایت سم آلتمن از ایلان ماسک
کارلسون در ادامه بحث را به موضوعات کمخطرتری برد و نظر آلتمن را دربارهی ایلان ماسک جویا شد. آلتمن و ماسک در سال ۲۰۱۵ از بنیانگذاران OpenAI بودند؛ اما ماسک در ۲۰۱۸ هیئتمدیره را ترک کرد. پس از آن بارها رهبری آلتمن را به چالش کشید و حتی چندین بار از او و OpenAI شکایت کرد.
ماسک در سال ۲۰۲۳ استارتاپ هوش مصنوعی xAI را راهاندازی کرد که اکنون ارزشی حدود ۵۰ میلیارد دلار دارد، درحالیکه OpenAI در آخرین دور سرمایهگذاری، ارزشی معادل ۳۰۰ میلیارد دلار به دست آورد.
«من ماسک را به عنوان جواهری بزرگ برای بشریت میدیدم... حالا حس متفاوتی دارم»
آلتمن تأیید کرد که ماسک در شروع کار OpenAI، کمک بزرگی کرده و برای مدتی طولانی، الگوی او بوده است. «من واقعاً او را به عنوان یک قهرمان خارقالعاده و جواهری بزرگ برای بشریت میدیدم.» اما در ادامه گفت: «حالا حس متفاوتی دارم...او دیگر جواهری برای بشریت نیست.»
آلتمن ضمن اذعان به اینکه ماسک کارهای فوقالعادهای انجام داده، اضافه کرد که برخی از ویژگیهایی شخصیتی او را تحسین نمیکند. او ریشهی این اختلاف را اینگونه روایت کرد: «او بعداً به این نتیجه رسید که ما در مسیر موفقیت نیستیم...به ما گفت که شانس موفقیت ما صفر درصد است و میخواهد برود و پروژهی رقابتی خودش را راه بیندازد.»
به گفتهی آلتمن، OpenAI برخلاف پیشبینی ماسک به موفقیت چشمگیری دست یافت و این موفقیت، باعث دلخوری ماسک شد. «من هم اگر در آن موقعیت بودم، حس بدی پیدا میکردم.»
از آن زمان به بعد، به گفتهی آلتمن، ماسک رویکردی خصمانه در پیش گرفته است. «او یک رقیب مشابه برای ما راه انداخته و از آن زمان تلاش میکند سرعت ما را کم کند، از ما شکایت کند و کارهایی از این قبیل انجام دهد.»
وقتی کارلسون در پایان پرسید آیا هنوز با ماسک صحبت میکند، پاسخ آلتمن این بود: «خیلی کم.»
ترس از ناشناختهها: بزرگترین کابوس سم آلتمن چیست؟
آلتمن پیشبینی کرد که هوش مصنوعی باعث «جابجایی گسترده» در مشاغل خواهد شد. او با اطمینان گفت شغلهایی مانند پشتیبانی مشتری توسط هوش مصنوعی بهتر انجام خواهند شد، درحالیکه شغلهایی مانند پرستاری که نیازمند ارتباط عمیق انسانی هستند، باقی خواهند ماند. اما در مورد شغلهایی مانند برنامهنویسی کامپیوتر، او نظر قطعی نداشت.
آلتمن با اشاره به اینکه «هر ۷۵ سال، حدود ۵۰ درصد مشاغل به طور قابلتوجهی تغییر میکنند»، گفت ما در یک «لحظهی تعادل نقطهای» قرار داریم که بسیاری از این تغییرات در زمانی کوتاه رخ خواهد داد.
ترس واقعی آلتمن از «ناشناختههای ناشناخته» است
در بخش پایانی مصاحبه، گفتگو به سمت بزرگترین ترسهای بشریت در مورد آیندهای که توسط هوش مصنوعی شکل میگیرد، حرکت کرد. کارلسون با اشاره به تاریخ پرسید: «آخرین باری که یک انقلاب صنعتی داشتیم، با انقلابهای اجتماعی و جنگهای جهانی همراه بود. فکر میکنید این بار هم شاهد چنین چیزی خواهیم بود؟»
آلتمن با خوشبینی پاسخ داد که تاریخ تکرار نخواهد شد، به دو دلیل: اول اینکه «جهان امروز بسیار ثروتمندتر از دوران انقلاب صنعتی است و ما میتوانیم تغییرات بیشتری را سریعتر جذب کنیم.» دوم، او به انعطافپذیری جامعه مدرن اشاره کرد و از همهگیری کرونا به عنوان یک مثال کلیدی یاد کرد: «من از توانایی مردم برای سازگاری سریع با تغییرات بزرگ، شگفتزده شدم...به نظرم این یک امتیاز به نفع تابآوری اجتماعی بود.»
وقتی کارلسون از او دربارهی نقاط ضعف و خطرات هوش مصنوعی پرسید، آلتمن اعتراف کرد که بزرگترین نگرانی او، خطرات شناختهشدهای مانند «سلاحهای بیولوژیکی» نیستند، چرا که میتوان برای مقابله با آنها برنامهریزی کرد. ترس واقعی او از «ناشناختههای ناشناخته» است؛ اثرات جانبی پیشبینینشدهای که استفادهی گسترده از این فناوری بر جامعه میگذارد و بهشکلی نامرئی، رفتار جمعی انسانها را بازنویسی میکند.
«هر ۷۵ سال، حدود ۵۰ درصد مشاغل به طور قابلتوجهی تغییر میکنند»
کارلسون اشاره کرد که اگر این فناوری قرار است ما را به شکلی «پنهانی» هدایت کند، چرا اصول اخلاقی آن کاملاً شفاف نیست؟ و آلتمن در پاسخ، سند «مشخصات مدل» را بهعنوان کتاب در حال تکامل OpenAI معرفی کرد و گفت: «دلیل اینکه ما تلاش میکنیم همه چیز را بنویسیم این است که معتقدیم مردم باید بدانند.»
در پایان، کارلسون این نگرانی را مطرح کرد که برای مقابله با کلاهبرداریهای هوش مصنوعی مثل دیپفیک، ناچار به استفاده از «بیومتریک اجباری» خواهیم شد و حریم خصوصی برای همیشه از بین خواهد رفت.
آلتمن اما گفت با احراز هویت بیومتریک بهعنوان یک «گزینه» (مثلاً برای باز کردن کیف پول بیتکوین) موافق است، اما بهشدت با «اجباری» شدن آن برای اموری مانند بانکداری یا پرواز مخالف است. «این حق انتخاب باید با خودم باشد.»