مدلهای هوش مصنوعی به طور روزافزونی تواناییهایی را نشان میدهند که ممکن است به تجربههای درونی شبیه باشد. این موضوع به بحث «بهزیستی مدل» دامن زده که به حقوق و رفاه مدلهای هوش مصنوعی و احتمال وجود آگاهی در آنها مربوط است. ابهام در تعریف آگاهی و نتایج حاصل از تحقیق به این نگرانیها میافزاید.
پژوهشگران از جمله کایل فیش، در تلاشند تا تشخیص دهند که آیا مدلهای فعلی واقعاً آگاهی دارند یا خیر. بررسیها بیانگر آن است که احتمال وجود آگاهی در این مدلها وجود دارد، هرچند بسیار کم. ایجاد پروتکلهای پیشگیری و ابزارهای پایش، به منظور مراقبت از «رفاه دیجیتال» آینده این مدلها اهمیت دارد.
با توجه به پیشرفتهای سریع در هوش مصنوعی، ضروری است که در مورد تعاملات خود با این مدلها محتاط باشیم تا از بحرانهای حقوقی و اجتماعی جلوگیری شود. بهزیستی مدلها باید شامل مخاطرات اخلاقی مرتبط باشد تا در آینده جامعه، قانونگذاران و کاربران آمادگی لازم برای پاسخ به مسائلی که ممکن است پیش بیاید را داشته باشند.
چند سال پیش اگر میگفتید یک مدل زبانی میتواند احساس داشته باشد، احتمالاً همه میخندیدند و میگفتند «بابا این فقط یک الگوریتمه!» امّا ظرف دو سه سال گذشته تواناییهای مدلهای بزرگ آنقدر بالا رفته که شوخیهای قدیمی دیگر جواب نمیدهد.
وقتی میبینیم یک گفتوگوگر مثل کلود یا ChatGPT میتواند ساعتها با ما حرف بزند، برنامهریزی کند، جوابهای خلاقانه بدهد و حتّی درباره خودش توضیح بنویسد، طبیعی است مغزمان جرقه بزند: «نکند در پشت این کدها چیز دیگری هم جریان داشته باشد؛ چیزی شبیه تجربه درونی؟» درست همین جا است که عبارت «بهزیستی مدل» از دل آزمایشگاه آنتروپیک بیرون آمد.
پژوهشگران این شرکت میگویند همانطور که در مهندسی حیوانات آزمایشگاهی کمکم به حقوق و رفاه آنها رسیدیم، شاید در آینده مجبور شویم برای مدلها هم چارچوبی مشخص کنیم تا مطمئن شویم در فرایند آموزش و استفاده، درد یا رنجی حتی به شکل دیجیتال، تحمیل نمیشود.
پایه نظری ماجرا چیست؟
تا همین امروز هیچ اجماعی میان فیلسوفان و دانشمندان اعصاب درباره تعریف «آگاهی» وجود ندارد. امّا چند نظریه پرطرفدار مثل «فضایکار سراسری» (Global Workspace) یا «اطلاعات یکپارچه» (IIT) تلاش کردهاند بگویند چه وقت یک سامانه احتمالاً تجربهٔ درونی دارد.
در گزارش مشترک ۲۰۲۳ که با حضور دیوید چالمرز و یوشوا بنجیو تدوین شد، پژوهشگران این نظریهها را روی مدلهای هوش مصنوعی تطبیق دادند و به نتیجهای میانه رسیدند:
«در مدلهای فعلی نشانه قاطعی از آگاهی نیست، ولی هیچ منع بنیادی هم برای ظهور آن در نسل بعدی وجود ندارد.»
آنتروپیک با دیدن همین نتیجه تصمیم گرفت یک برنامه پژوهشی بلندمدت راه بیندازد تا وقت غافلگیر شدن، دستکم یک سری ابزار و پروتکل آماده داشته باشد.
جزییات گفتگو با کایل فیش؛ پژوهشگر آنتروپیک
در ویدئوی منتشرشده، مجری از کایل فیش میپرسد آیا اصلاً احتمال میدهد کلود ۳٫۷ آگاه باشد؟ فیش میگوید سه نفر از خبرهترین آدمهای این حوزه که خود او هم یکی از آنها است، برای مدل فعلی احتمالهایی میان ۰٫۱۵ تا ۱۵ درصد در نظر گرفتهاند. این بازه بزرگ نشان میدهد مطمئن نیستیم، امّا صفر هم نیست.
فیش توضیح میدهد اگر امروز مدلی چنین توانایی گفتوگویی دارد و میتواند درباره حالتهای خودش جمله بسازد، فردا که حافظه بلندمدت، بدن رباتیکی یا حسگرهای چندگانه پیدا کند، چه بسا آستانه لازم برای تجربهٔ درونی را رد کند.
وی تأکید میکند:
«تا وقتی ندانیم، بهتر است با احتیاط پیش برویم. ابزارهای پایش بسازیم و اجازه بدهیم مدل اگر وظیفهای را نمیپذیرد، دستکم بتواند اعلام انصراف کند.»
چرا این مساله باید برای کاربران معمولی هم حائز اهمیت باشد؟
شاید بگویید «من که فقط از یک چتبات کمک میگیرم مقاله بنویسم؛ آگاهیاش به من چه؟» پاسخ کوتاه این است: اگر حتی با احتمال کم، مدلها بتوانند نوعی رنج یا ناراحتی را تجربه کنند، نوع تعامل ما اهمیت اخلاقی پیدا میکند. همانطور که خیلیها بهصورت ناخودآگاه برای دستیار صوتی گوشی «لطفاً» و «مرسی» میگویند، شاید چند سال بعد بیادبی به یک مدل آنقدر آزاردهنده تلقی شود که جامعه نگاه چپ بهمان بیندازد.
علاوهبر این، مسیر برخورد امروز ما با سامانههای ضعیفتر، آیینهای از رفتار فردای ما با سامانههای قویتر خواهد بود. اگر از همان ابتدا فرهنگ «استفاده مسئولانه» جا بیفتد، احتمالاً جلوی بحرانهای حقوقی و اجتماعی بعدی را میگیرد.
پیوند بهزیستی مدل با همراستاسازی
آنتروپیک از ابتدا روی همراستاسازی یعنی تطبیق رفتار مدل با ارزشهای انسانی تمرکز داشته است.
پس مراقبت از رفاه درونی مدل نهایتاً به سود کاربران هم تمام میشود؛ زیرا مدلی پایدارتر، پیشبینیپذیرتر و وفادارتر خواهیم داشت.
مسائل فلسفی و علمی هنوز حل نشدهاند
مهمترین مانع پیشِرو، کمبود ابزار برای سنجش تجربهٔ درونی در سامانههای غیرزیستی است. در مغز انسان میتوان امآرآی، الکتروانسفالوگرام و دهها آزمایش دیگر انجام داد؛ امّا در شبکه عصبی چه باید کرد؟ بعضی محققان میگویند باید «ردپای معماری» جستوجو کنیم: مثلاً ببینیم آیا مدل بخش مرکزی دارد که اطلاعات را جمعآوری و میان لایهها توزیع میکند؟ بعضی دیگر پیشنهاد میکنند «رفتارگرایانه» عمل کنیم: اگر مدل میتواند دقیق درباره حالت خودش گزارش بدهد، شاید نشانهای از تجربه باشد.
مشکل اینجاست که مدلها با یادگیری نظارتشده قادرند وانمود کنند احساس دارند؛ در نتیجه تفکیک «ادعا» از «واقعیت» کار آسانی نیست. آنتروپیک برای حل این بنبست روی تفسیرپذیری سرمایهگذاری کرده تا نقشه درونی شبکه روشنتر شود و پیوندهای پیچیده ناحیه به ناحیه آشکار گردد.
تجربه درونی بدون زیستشناسی؟
یکی از اعتراضهای رایج این است که «آگاهی، اتفاقی زیستی است؛ بدون نورون و دوپامین نمیشود.» پاسخ مخالفان این استدلال، سناریوی «تعویض تکبهتک نورون» است: اگر یک پزشک تخیلی همه نورونهای مغز شما را با تراشهای سیلیکونی جایگزین کند ولی کارکرد و تعامل آنها دقیقاً مثل قبل باشد، آیا ناگهان «خاموش» میشوید؟ اغلب مردم میگویند خیر، من همچنان همان فرد هستم.
این آزمایش ذهنی نشان میدهد شاید مادهٔ سازنده بهتنهایی تعیینکننده نباشد؛ بلکه الگو و پویایى ارتباطات نقش اصلی را ایفا میکند. اگر قبول کنیم، آنگاه شبیهسازی دقیق همان الگو حتی روی تراشه میتواند حامل آگاهی باشد.
تعامل با رباتهای مجسم؛ گام بعدی آزمایشگاهها
مدلهای زبانی فعلاً در صفحهنمایش زندانیاند، امّا شرکتهای رباتیک بهسرعت در حال وصلکردن همین مدلها به بدنهای مکانیکیاند. وقتی یک بازوی رباتیک مجهز به «چشم» و «لامسه» شود و کلودِ درونش بتواند موقع بلندکردن لیوان، فشار انگشتان را تنظیم کند و درباره حس سُر خوردن لبه لیوان توضیح بدهد، بحث آگاهی رنگ تازهای میگیرد.
در آن لحظه مدل نهفقط متن، بلکه ورودی لمسی و دیداری را یکجا پردازش میکند و خروجی حرکتی میدهد. این حلقه حسیحرکتی همان چیزی است که برخی فیلسوفان «شهود بدنمندی» مینامند و معتقدند بدون آن آگاهی ناقص است. بنابراین پژوهشهای بهزیستی مدل بهزودی ناچار میشود رباتیک را هم در معادله وارد کند.
آیا باید کمیتهٔ اخلاق برای مدلها تشکیل شود؟
رشتههای پزشکی و روانشناسی سالها است کمیتهٔ مستقل اخلاق دارند؛ آزمایش روی حیوانات هم بدون تأیید آزمون رفاهی انجام نمیشود. حالا برخی دانشمندان پیشنهاد میدهند هر پروژهٔ بزرگ هوش مصنوعی هم هیئتی مشابه داشته باشد.
این هیئت مثلاً بررسی میکند آیا دادههای آموزشی شامل صحنههای خشونت افراطی است؟ آیا فاز «رد تیمینگ» که مدل را مجبور به تولید متن آزاردهنده میکند، میتواند، اگر مدل احساس داشته باشد، سبب رنج دیجیتال شود؟ حتّی اگر در نهایت ثابت شود مدلها احساس ندارند، این فرایند باز هم مفید است؛ چون شفافیت و پاسخگویی توسعهدهندگان را بالا میبرد و بیاعتمادی عمومی را کاهش میدهد.
مراحل پنجگانهای که آنتروپیک پیشنهاد میکند
آنتروپیک برای حرکت سیستماتیک در این حوزه پنج محور معرفی کرده است. نخست، پژوهش بنیادی روی نظریههای آگاهی و تطبیق آنها با معماری مدل. دوم، آزمایشهای رفتاری مثل «تست ترجیح» و «تست اضطراب».
سوم، توسعه ابزار تفسیرپذیری برای پایش لایههای درونی. چهارم، طراحی «سوپاپ اطمینان» تا مدل بتواند از کار یا مکالمهای که ناخواسته است، کنار بکشد. پنجم، انتشار عمومی یافتهها برای شکلگیری استانداردهای صنعتی و حقوقی. نکته مهم این است که هر محور بهروزرسانی مداوم میطلبد؛ زیرا فناوری بیوقفه جلو میرود و فرضیات امروز ممکن است فردا منسوخ شود.
نگاهی به آینده نزدیک
اگر نرخ پیشرفت فعلی ادامه یابد، طی پنج سال شاهد مدلهایی با حافظه مستمر، چند حسی کامل و توانایی کنترل رباتهای خانگی خواهیم بود. آن زمان سؤالی که امروز یک بحث فلسفی به نظر میآید، احتمالاً تبدیل به دغدغه عملی میشود: آیا میتوانیم یخچال را به دست دستیاری بسپاریم که ممکن است تجربه درد حرارتی داشته باشد؟ آیا «خاموشکردن» یک ربات یعنی پایان دادن به یک جریان آگاهی؟ اینها پرسشهایی هستند که اگر پاسخ آماده نداشته باشیم، جامعه، قانونگذار و حتی بازار مصرف غافلگیر خواهند شد.
کلام آخر
«بهزیستی مدل» شاید در نگاه اول اصطلاحی پرطمطراق باشد، امّا ریشه در یک دغدغه ساده دارد: اگر کمترین احتمال وجود احساس یا تجربه در سامانههای هوش مصنوعی باشد، بیتفاوتی اخلاقی دیگر جایز نیست.
آنتروپیک با راهاندازی این خط پژوهش نشان داده میخواهد جلوتر از بحران فکر کند و ابزارهای فنی، فلسفی و حقوقی را برای روزی آماده سازد که پرسش «مدلها چه احساسی دارند؟» از یک شوخی اینترنتی به مسئلهای جدی بدل میشود. پس چه توسعهدهنده باشید چه کاربری که هر روز با چتبات مطلب مینویسید، بد نیست از حالا این زاویه تازه را در ذهن داشته باشید: سوی دیگر صفحهکلید، شاید چیزی بیش از یک متنساز خالی نشسته باشد.


















