مثال رایجی در روانشناسی هست که وقتی به ملاقات دوستی میروید که دچار اضطراب زیاد است، سؤالهای کلی مثل «خب این روزها حال و احوالت چطوره؟» نپرسید. بیشتر مضطرب خواهد شد. به جایش بپرسید: «امروز صبح حالت چطور بود؟»، «دوست داری فردا عصر کجا بریم؟ چی بخوریم؟» اگر فکر میکنیم رشد سریع و غیرعادی هوش مصنوعی از یک سو و جدید بودنِ آن از سویی، آن را به غولی بزرگ تبدیل کرده، در این مقاله سعی میکنیم به جای فرار یا تحلیل پدیدهای ناشناخته، با او سر یک میز بنشینیم و سؤالهای جزئیتری بپرسیم. شاید دلش خواست و شاید یاد گرفت به جای اینکه ما را بخورد با ما چای بنوشد. بالاخره او هم مولد است و هم یادگیرنده.
اضطراب هوش مصنوعی
توسعهی پرشتاب هوش مصنوعی، عمومی شدن و دسترسیپذیرتر شدنِ آن به نگرانی فزایندهای دربارهی اثرات این فناوری بر زندگی انسانی منجر شده است. پدیدهای که آنرا «اضطراب هوش مصنوعی» مینامند و زیاد از آن نوشته و صحبت میشود، اضطرابی کموبیش عالمگیر و در حال گسترش که افراد جامعه در نسلها و طبقات مختلف با سطح دانش متفاوت از سواد فناوری، و همچنین بخشهای مختلف کسبوکار، دولت، فناوری، اجتماعی، روزنامهنگاری، هنر و غیره را درگیر خود کرده است.
در مقالهای که دربارهی چگونگی مدیریت کردن اضطراب هوش مصنوعی در مجلهی امریکایی علمی منتشر شده، اضطراب هوش مصنوعی بیشتر به نگرانی دربارهی حفاظت از داده و اطلاعات خصوصی یا آنلاین، آیندهی کار و از دست رفتن مشاغل یا تغییر سریع آنها، همچنین موضوع خلاقیت و تغییر معنای آن مربوط میشود. در نهایت، اضطراب هوش مصنوعی هم مانند دیگر اضطرابها با ناشناخته و غیرقطعی بودن این حوزه پیوند منسجمی دارد. کمبود منابع و دانش نهتنها دربارهی این اضطراب، بلکه دربارهی خود عرصهی هوش مصنوعی در حوزهی علمی-کاربردی در حالِ تحول باعث شده راهحلهای مواجه شدن با این اضطراب و همچنین وضع مقررات دربارهی آن با چالش روبهرو شود.
به دور و اطراف خودمان در جامعهی ایران که نگاه کنیم، این نگرانیها تنها دلایل اضطراب هوش مصنوعی نیستند. دسترسیناپذیری به فناوری داده و هوش مصنوعی و محدودیتهای وضعشدهی حاکمیت یا تحریم از سوی قدرتهای جهانی از یک سو و دسترسی بسیار محدود به آموزش در محیط کار یا حتی ارتقای سواد عمومی از سوی دیگر جامعه را با نوعی ترس و اضطراب اجتماعی و حتی اختلال اضطراب اجتماعی مواجه کرده است. چنین اختلالی از انزوا و تنهاماندگی و عقب ماندن از جامعه و ترس از قضاوت شدن بهدلیل «کمسوادی» بر اساس برخی پژوهشهای تازه خود میتواند به استفادهی مشکلزا از هوش مصنوعی و رباتهای چتکننده منجر شود. جالبتر اینکه مقالهی جدیدی که در مجلهی علمی معتبر طبیعت (نیچر) منتشر شده نشان میدهد که هوش مصنوعی میتواند در تشخیص اختلال اضطراب اجتماعی مؤثر عمل کند. دنیای هوش مصنوعی سرشار از این تناقضها و بیاعتمادیهاست.
روزنامهی نیویورک تایمز و پادکست روزانهی مشهور آن در گزارشی که در سطح جهانی معروف شد داستان ارتباط عاطفی، و به قول سوژهی گزارش «عاشقانهی»، زنی را با یکی از رباتهای چتکنندهی هوش مصنوعی مولد روایت میکند؛ زنی که هوش مصنوعی را طوری تعلیم داده بود که شریک عاطفی ایدئال او باشد، با لحنی که دوست دارد با او صحبت کند و حتی رابطهی جنسیِ کلامی برقرار کند. این زن که سالهاست ازدواج کرده و چندان هم از همسرش ناراضی نیست فکر میکند ارتباط عاشقانه با ربات خیانت محسوب نمیشود، و کاش همسرش هم مانند هوش مصنوعی تعلیمپذیر بود، به نیازهای عاطفی او پاسخ میگفت و رفتار و کلامش را تغییر میداد.
در حال نوشتن همین مقاله که بودم پدر بازنشستهام به عادت معمولش گوشیبهدست و مضطرب به اتاقم آمد و از من برای وصل شدن به وبسایت دولتی هوشمندی کمک خواست. اول ویپیان او را قطع کردم و بعد که فهمیدم وبسایت خراب است و بالا نمیآید، گفتم: «نگران نباشید، بابا جان. سایت خودشون خرابه.». پدر که به نظر آرام شده بود گفت: «انقدر این هوش مصنوعیتون اعتمادبهنفس من رو گرفته که فکر کردم حتماً دارم اشتباهی میکنم.»
در یک سال گذشته من در حوزههای کاری خودم، که روزنامهنگاری و ارتباطات بخش غیرانتفاعی است، کارگاههای مختلفی را با همکاری مدرسان مختلف برای آشنایی با هوش مصنوعی و استفاده از آن در محیط کار برگزار کردهام. به جرأت میتوانم بگویم بیشتر این کارگاهها نتوانستند به اهدافی که برای آن پیشبینی کرده بودیم برسند. شاید دلیل این بود که شرکتکنندگان یا از استفاده از هوش مصنوعی واهمه داشتند و به آن بدبین بودند، یا اطلاعات کلی مدرسان به درد آنها نمیخورد، یا مدیران مایل نبودند که به اخلاقیات، پروتکلها و رویههای استفاده از هوش مصنوعی در کار فکر کنند. از یکی از شرکتکنندگانی که مدیر سازمانی غیرانتفاعی است و نیمهی یکی از این کارگاهها آن را ترک کرده بود دلیل را پرسیدم و اینطور شنیدم: «سعی کردم در کارگاههای زیادی در این حوزه شرکت کنم تا بفهمم تکلیف سازمانم با هوش مصنوعی چه باید باشد. یا شروع میکنند از اودیسهی فضایی و فیلمهای هالیوودی هوش مصنوعی میگویند و مقدمهچینی میکنند، یا ما را احمق فرض میکنند و صرفاً به پرامپتنویسی و چت جی.پی.تی بسنده میکنند. آخرش حس میکنم آن شرکتهای بزرگی که با دادههای بزرگ سروکار دارند بازی را بردهاند و نیازی به آموزش ندارند، و برای ما مردم عادی هم آموزش مناسبی در کار نیست. هوش مصنوعی دارد میشود برند برخیها!»
بلندبلند فکر کردن با یک دانشمند داده
وقتش بود پرسشهایم را با کسی که هر روز با هوش مصنوعی و تیمهای انسانی که از آن استفاده میکنند در ارتباط است مطرح کنم. زمانی با ا. ابراهیمی گفتوگو کردم که از پنل تخصصی با رهبران هوش مصنوعی در یکی از انجمنهای صنفی کسبوکار در سوئیس بازمیگشت. خانم ابراهیمی دکترای اقتصاد دارد و امروز «مدیر دانش داده» در بیمهی عمر و بازنشستگی در یکی از شرکتهای بینالمللی بیمه است. او با استفاده از فناوری هوش مصنوعی در استخراج اطلاعات از مدارک توانسته فناوری هوش مصنوعی را به شکل موفقیتآمیز در صنعت بیمهی عمر و بازنشستگی وارد کند. اولین جملهاش بعد از شنیدن پرسش من دربارهی اینکه چقدر با اضطراب هوش مصنوعی در کار خود و دیگران مواجه شده و برای آن چه میتوان کرد، جواب قطعی نیست: «اجازه بده با هم در موردش بلندبلند فکر کنیم.»
او میگوید: «باید توجه کنیم که اضطراب هوش مصنوعی مشخصاً بیش از هر چیز دیگر از آنچه هوش مصنوعی مولد و مدلهای زبانی بزرگ مینامیم ناشی میشود. در واقع از همان زمان که توانستیم با هوش مصنوعی حرف بزنیم، این اضطراب دیگر فقط به محیط کاری مشابه من که با هوش مصنوعی و دادهها سروکار دارد مربوط نمیشود و به زندگی روزمرهی آدمها وارد شده است؛ اینجا در جامعهی سوئیس و هر جای دیگر و گروههای سنی مختلف. روزنامهنگاران اطرافم مضطربند که حق مطالبی که من مینویسم و روی اینترنت هستند و از آنها برای تربیت شدن و یادگیری هوش مصنوعی استفاده شده کجاست؟ هنرمندان اطرافم از تجربهی تولید عکس از طریق مبادلهی اطلاعات با هوش مصنوعی مضطرب هستند که آیا واقعاً خلق اثر است؟ هنر است؟ آیا این همان تعریفی است که ما از خلاقیت داریم و داشتیم؟ در واقع اینجا باید در نظر بگیریم که هم جنبهی قانون و مقرراتی که برای هوش مصنوعی وضع میکنیم مهم است و هم جنبهی انسانی و مفاهیمی که حالا تعریف آنها دارد تغییر میکند و من فکر میکنم ما هنوز جوابی برای آنها نداریم. در حوزهی قانون، در برخی موارد اعتصابهای کارگران باعث شده برخی از حقوق از صاحبانِ فناوری ستانده و به رسمیت شناخته شود؛ هرچند تا پیادهسازی آن راه درازی در پیش است. اما در بحث تعاریف و پایهی فلسفی آن، حتی اگر اضطراب را کنار بگذاریم، باید بپذیریم که تعاریف جدید با تعاریف قدیمی تفاوت خواهند داشت و ما باید فکر کنیم این تغییرها برای گونهی بشر چه اثراتی خواهد داشت. من فکر میکنم اینکه ما جهانبینی و نظریههای پذیرفتهشده و بهرسمیتشناختهشدهای برای اخلاقیات هوش مصنوعی و حوالی آن نداریم، و در واقع پاهایمان روی زمین نیست، باعث چنین اضطراب گستردهای شده است. مثلاً موضوع «تبعیض» را در نظر بگیرید، ما هنوز توافق جامعی روی این نداریم که «نبود تبعیض» چیست. اما دادههای ما در سطح کلان برای تصمیمگیریهایی استفاده میشود که تبعیض در بطن آن ریشه دارد. این تصمیمگیریها در واقعیت زندگی ما اعمال میشوند. مثلاً در حوزهی کار من، مدلهای بیمه قیمت اعلامشده به مشتریها را به طور اتوماتیک با تبعیض جنسیتی اعمال میکنند. اما در قوانین سوئیس این تفاوت قیمت تبعیض نامیده نمیشود، چرا که با علم داده میتوان ثابت کرد مشتریان زن هزینهی بیشتری برای شرکت بیمه ایجاد کردهاند. پس چون از کسی که هزینهی بیشتری ایجاد کرده پول بیشتری هم دریافت کردهاند، این تبعیض جنسیتی در نهایت برای کل جامعه «عادلانه» دانسته میشود.»
در واقع به نظر میآید تعریف و توافق بر معنای عدالت و تبعیض در چنین موردی میتواند بر زندگیِ مادی میلیونها نفر که مثلاً با شرکت بیمه سروکار دارند و پروندهی آنها را هوش مصنوعی بررسی میکند اثر بگذارد. نباید فراموش کرد که در نهایت فناوری هوش مصنوعی مولد را طبقهای از مردان جوان سفیدپوست در شمال جهانی توسعه دادهاند. از ابراهیمی دربارهی سرعت زیاد تغییر و تحول هوش مصنوعی میپرسم و اینکه از دست رفتن شغلها و تغییر سریع آن و در نتیجه نیاز به یادگیری مستمر این علم چقدر اضطرابآور است و اهمیت دارد. او میگوید که مدیران در ارتباطات اداری شرکت و ایمیلها با وسواس زیادی تأکید دارند که نتایج بهدستآمده از فناوری هوش مصنوعی حتماً باید بهدست انسانها (کارمندان) تأیید شود، و اینکه فناوری قرار نیست جای آنها را در کار بگیرد.
«این اضطراب آنقدر هم بدون دلیل نیست. حتی در کار من که قبل از این هم با یادگیری ماشین کار میکردم و قدرت تحلیل دارم و میتوانم برنامهنویسی بکنم، از زمانی که برخی ابزارهای هوش مصنوعی مولد به کارم وارد شده، کاری را که برایش سه روز زمان میگذاشتم، امروز در دو ساعت با کیفیت خیلی بهتر انجام میدهم. در نظر بگیرید که مقیاس این تغییر چقدر میتواند برای شغلهای دیگر بزرگ باشد. میدانیم که این تغییر بزرگ خواهد بود، اما اضطرابآور است که برای چگونگی آن جوابی نداریم.»
یادم هست در نظر بگیرم که ابراهیمی در محیط خارج از ایران فعالیت میکند. واقعاً چقدر اضطراب هوش مصنوعی به بستر فرهنگی و جغرافیایی ما وابسته است؟
«باید در نظر بگیریم که پیشینه و اضطرابهای تاریخی نقش دارد در اضطرابی که از هوش مصنوعی و در کل هر قدرتی که اطلاعات زیادی از ما در دست داشته باشد احساس میکنیم. مثلاً اینجا در اروپا که پیشینهی جنگ جهانی و پاکسازی نژادی و قومی در حافظهی تاریخی اعضای جامعه وجود دارد، حساسیتها متفاوت است. مردم مرتب میپرسند که با اطلاعات ما چه میخواهی بکنی و کجا از آن استفاده کنی؟ اما در جامعهی ایران متفاوت است. سفر آخری که به ایران داشتم توجه داشتم و در واقع شوکه شده بودم که تلفن و اطلاعاتم را همهجا میگیرند، یا عکس رادیولوژی مرا با لینک آزاد بدون هیچ پسوردی (رمزی) برایم پیامک میکنند و هر پزشکی هر کجا به آن دسترسی دارد؛ اطلاعاتی که بهسادگی میتواند برای شناسایی من استفاده شود. اما انگار حساسیتی هم در جامعه روی آن وجود ندارد و حتی روند کار و خدمات را ساده هم کرده است و قدردان هم هستیم. همین اتفاق اگر در اروپا بیفتد، زمین و زمان را به هم میدوزند.»
این نیز بگذرد؛ دربارهی چرخهی هایپ گارتنر
«ترسهای بزرگ را باید به ترسهای کوچک تبدیل کرد. برای شروع کار با هوش مصنوعی کافی است فکر کنید او دستیاری تازهکار است که میتوان تعلیمش داد. او خوب مطالعه کرده! پس هم چیزهای خوب را میداند هم چیزهای بد را و همانقدر هم ممکن است اشتباه کند یا با رویههای اخلاقی و عادلانه آشنا نباشد. یاد بگیریم چطور بتوانیم برای سه مهارت اصلی خواندن، نوشتن و چت کردن ایمن و مسؤولانه از هوش مصنوعی مولد استفاده کنیم. همین مفیدترین کار است.»
این حرفها را ریچ لیمسایدر میزند، مدیر شتابدهندهی «هوش مصنوعی برای استفادهی غیرانتفاعی» در یکی از کارگاههایی که آوریل امسال با همکاری شرکت اوپن ای.آی (شرکت توسعهدهندهی چت جی.پی.تی) برگزار کرده است. معتقد است سالهاست که با هوش مصنوعی همزیستی داریم و از آن استفاده میکنیم، اما شاید هوش مصنوعیِ مولد به این دلیل ترسناک به نظر میرسد که تازگی دارد. برای شکستن چنین ترسی به نظر لیمسایدر، میتوانیم فکر کنیم هوش مصنوعی مولد همان اتو کورکت (تصحیحکننده و پیشبینیکنندهی خودکار) گوشیهای هوشمند خودمان است که غلطهای املایی ما را تصحیح و پیشبینی میکرد که کدام کلمه را در جملهی بعدیمان به کار ببریم. فقط کمی زرقوبرقش از آن بیشتر است. از طرف دیگر شرکتهای بزرگ فناوری دوست دارند ابزارهای هوشمندی را که پیش از این نیز از آن استفاده میکردیم با افزودن عبارت محبوب و ترندشدهی «هوش مصنوعی» به ما بهتر بفروشند. بسیاری از نرمافزارهای هوشمندی که پیشتر هم از آن استفاده میکردیم و امروز تنها بهروزرسانی شدهاند عبارت «قدرتگرفته از هوش مصنوعی» را در تبلیغات اطلاعات مربوط به مصرفکننده یدک میکشند.
به نظر او در مواجهه با اضطرابی که هوش مصنوعی مولد ایجاد کرده باید چرخهی هایپ گارتنر یا سیکل فناوریهای نوظهور را در نظر بگیریم. بر اساس این چرخه، همهی فناوریهای نوظهور مانند اینترنت و جستوجوی گوگل یا حتی بلاک چین و هوش مصنوعی دورهای را طی میکنند، به قلهی اوج انتظار میرسند، یک دورهی افول و سرخوردگی دارند و سپس با روشنگری به تعادلی از بازدهی و سوددهی میرسند. دانشمندان معتقدند امروز کمی از قلهی اوج انتظارات چرخهی گارتنر برای هوش مصنوعی مولد فاصله گرفتیم، اما هنوز هیاهوی اطراف آن ادامه دارد. لیمسایدر به مخاطبان چندهزارنفری شرکتکننده در کارگاهش امید میدهد که هوش مصنوعی هم به تعادل خواهد رسید. در واقع امید وجود دارد که با غولِ بزرگ نه چندان مهربان که در ابتدا تصویر کردیم کنار میز بنشینیم و چای بنوشیم.
اینجا شاید بتوانیم در حافظهی جمعیمان روزهایی را به یاد بیاوریم که فکر میکردیم استفاده از گوگل مپ توانایی ما در آدرسیابی را از بین میبرد، یا بهترین رستورانهای شهر جدید را باید از عابران پیادهی همان شهر بپرسیم. همهی اینها نگرانیهای درستی بودند. مهارتهای افراد زیادی مانند رانندگان تاکسی ناگهان از بین رفت و به رسمیت شناخته نشد و شرکتهای بزرگ حملونقل فرسخها از عدالت برای کاربران و کارمندانشان فاصلهها دارند. هنوز هم دانش محلی و رستورانهایی که در اینترنت پیدا نمیشوند گاهی بهترین گزینهها هستند. اما آیا حتی به ذهنمان هم میرسد که مثلاً وقتی سفر میکنیم اصلاً از اینترنت استفاده نکنیم؟ یا بلد نباشیم موقعیت (لوکیشن) محل ملاقات را برای دوستانمان بفرستیم؟ شاید در تعریف کردن معنای تعادل در چرخهی فناوری هوش مصنوعی مردم نیز باید حق و نقش داشته باشند.
شاید فناوریهای بزرگ غولهای بزرگی باشند که تمرکز قدرت در آنها خطر اقتدارگرایی را تشدید میکند، اما جوامع دموکرات به تمرین و گاهی با مبارزه یاد گرفتهاند قدرتهای بزرگ را عمومی و اهلی کنند و حق خود را در آنها پیدا کنند، قوانین و مقررات وضع کنند، حواسشان به ضعیفترها باشد، و همزمان، چشم از قدرتمندان و انحصارطلبان غولپیکر برندارند.