اهلی‌کردن غول نامهربان

درباره‌ی اضطراب ناشی از هوش مصنوعی

عکس: آنها ماه را تماشا می‌کنند - نمایی از ایستگاه شنود مخفی در جنگل‌های ویرجینیا - 2010 - موزه‌ی هنرهای مدرن سانفرانسیسکو - تروِر پگلن

مثال رایجی در روان‌شناسی هست که وقتی به ملاقات دوستی می‌روید که دچار اضطراب زیاد است، سؤال‌های کلی مثل «خب این روزها حال و احوالت چطوره؟» نپرسید. بیشتر مضطرب خواهد شد. به جایش بپرسید: «امروز صبح حالت چطور بود؟»، «دوست داری فردا عصر کجا بریم؟ چی بخوریم؟» اگر فکر می‌کنیم رشد سریع و غیرعادی هوش مصنوعی از یک سو و جدید بودنِ آن از سویی، آن را به غولی بزرگ تبدیل کرده، در این مقاله سعی می‌کنیم به جای فرار یا تحلیل پدیده‌ای ناشناخته، با او سر یک میز بنشینیم و سؤال‌های جزئی‌تری بپرسیم. شاید دلش خواست و شاید یاد گرفت به جای اینکه ما را بخورد با ما چای بنوشد. بالاخره او هم مولد است و هم یادگیرنده.

اضطراب هوش مصنوعی

توسعه‌ی پرشتاب هوش مصنوعی، عمومی ‌شدن و دسترسی‌پذیرتر شدنِ آن به نگرانی فزاینده‌ای درباره‌ی اثرات این فناوری بر زندگی انسانی منجر شده است. پدیده‌ای که آن‌را «اضطراب هوش مصنوعی» می‌نامند و زیاد از آن نوشته و صحبت می‌شود، اضطرابی کم‌وبیش عالمگیر و در حال گسترش که افراد جامعه در نسل‌ها و طبقات مختلف با سطح دانش متفاوت از سواد فناوری، و همچنین بخش‌های مختلف کسب‌وکار، دولت، فناوری، اجتماعی، روزنامه‌نگاری، هنر و غیره  را درگیر خود کرده ‌است.

در مقاله‌ای که درباره‌ی چگونگی مدیریت کردن اضطراب هوش مصنوعی در مجله‌ی امریکایی علمی منتشر شده، اضطراب هوش مصنوعی بیشتر به نگرانی درباره‌ی حفاظت از داده و اطلاعات خصوصی یا آنلاین، آینده‌ی کار و از دست رفتن مشاغل یا تغییر سریع آنها، همچنین موضوع خلاقیت و تغییر معنای آن مربوط می‌شود. در نهایت، اضطراب هوش مصنوعی هم مانند دیگر اضطراب‌ها با ناشناخته و غیرقطعی بودن این حوزه پیوند منسجمی دارد. کمبود منابع و دانش نه‌تنها درباره‌ی این اضطراب، بلکه درباره‌ی خود عرصه‌ی هوش مصنوعی در حوزه‌ی علمی-کاربردی در حالِ تحول باعث شده راه‌حل‌های مواجه شدن با این اضطراب و همچنین وضع مقررات درباره‌ی آن با چالش روبه‌رو شود.

به دور و اطراف خودمان در جامعه‌ی ایران که نگاه کنیم، این نگرانی‌ها تنها دلایل اضطراب هوش مصنوعی نیستند. دسترسی‌ناپذیری به فناوری داده و هوش مصنوعی و محدودیت‌های وضع‌شده‌ی حاکمیت یا تحریم از سوی قدرت‌های جهانی از یک سو و دسترسی بسیار محدود به آموزش در محیط کار یا حتی ارتقای سواد عمومی از سوی دیگر جامعه را با نوعی ترس و اضطراب اجتماعی و حتی اختلال اضطراب اجتماعی مواجه کرده است. چنین اختلالی از انزوا و تنهاماندگی و عقب ماندن از جامعه و ترس از قضاوت شدن به‌دلیل «کم‌سوادی» بر اساس برخی پژوهش‌های تازه خود می‌تواند به استفاده‌ی مشکل‌زا از هوش مصنوعی و ربات‌های چت‌کننده منجر شود. جالب‌تر اینکه مقاله‌ی جدیدی که در مجله‌ی علمی معتبر طبیعت (نیچر) منتشر شده نشان می‌دهد که هوش مصنوعی می‌تواند در تشخیص اختلال اضطراب اجتماعی مؤثر عمل کند. دنیای هوش مصنوعی سرشار از این تناقض‌ها و بی‌اعتمادی‌هاست.

روزنامه‌ی نیویورک تایمز و پادکست روزانه‌ی مشهور آن در گزارشی که در سطح جهانی معروف شد داستان ارتباط عاطفی، و به قول سوژه‌ی گزارش «عاشقانه‌ی»، زنی را با یکی از ربات‌های چت‌کننده‌ی هوش مصنوعی مولد روایت می‌کند؛ زنی که هوش مصنوعی را طوری تعلیم داده بود که شریک عاطفی ایدئال او باشد، با لحنی که دوست دارد با او صحبت کند و حتی رابطه‌ی جنسیِ کلامی برقرار کند. این زن که سال‌هاست ازدواج کرده و چندان هم از همسرش ناراضی نیست فکر می‌کند ارتباط عاشقانه با ربات خیانت محسوب نمی‌شود، و کاش همسرش هم مانند هوش مصنوعی تعلیم‌پذیر بود، به نیازهای عاطفی او پاسخ می‌گفت و رفتار و کلامش را تغییر می‌داد.

در حال نوشتن همین مقاله که بودم پدر بازنشسته‌ام به عادت معمولش گوشی‌به‌دست و مضطرب به اتاقم آمد و از من برای وصل شدن به وب‌سایت دولتی هوشمندی کمک خواست. اول وی‌پی‌ان او را قطع کردم و بعد که فهمیدم وب‌سایت خراب است و بالا نمی‌آید، گفتم: «نگران نباشید، بابا جان. سایت خودشون خرابه.». پدر که به نظر آرام شده بود گفت: «انقدر این هوش مصنوعی‌تون اعتمادبه‌نفس من رو گرفته که فکر کردم حتماً دارم اشتباهی می‌کنم.»

در یک سال گذشته من در حوزه‌های کاری خودم، که روزنامه‌نگاری و ارتباطات بخش غیرانتفاعی است، کارگاه‌های مختلفی را با همکاری مدرسان مختلف برای آشنایی با هوش مصنوعی و استفاده از آن در محیط کار برگزار کرده‌ام. به جرأت می‌توانم بگویم بیشتر این کارگاه‌ها نتوانستند به اهدافی که برای آن پیش‌بینی کرده بودیم برسند. شاید دلیل این بود که شرکت‌کنندگان یا از استفاده از هوش مصنوعی واهمه داشتند و به آن بدبین بودند، یا اطلاعات کلی مدرسان به درد آنها نمی‌خورد، یا مدیران مایل نبودند که به اخلاقیات، پروتکل‌ها و رویه‌های استفاده از هوش مصنوعی در کار فکر کنند. از یکی از شرکت‌کنندگانی که مدیر سازمانی غیرانتفاعی است و نیمه‌ی یکی از این کارگاه‌ها آن را ترک کرده بود دلیل را پرسیدم و این‌طور شنیدم: «سعی کردم در کارگاه‌های زیادی در این حوزه شرکت کنم تا بفهمم تکلیف سازمانم با هوش مصنوعی چه باید باشد. یا شروع می‌کنند از اودیسه‌ی فضایی و فیلم‌های هالیوودی هوش مصنوعی می‌گویند و مقدمه‌چینی می‌کنند، یا ما را احمق فرض می‌کنند و صرفاً به پرامپت‌نویسی و چت‌ جی.پی.تی بسنده می‌کنند. آخرش حس می‌کنم آن شرکت‌های بزرگی که با داده‌های بزرگ سروکار دارند بازی را برده‌اند و نیازی به آموزش ندارند، و برای ما مردم عادی هم آموزش مناسبی در کار نیست. هوش مصنوعی دارد می‌شود برند برخی‌ها!»

بلندبلند فکر کردن با یک دانشمند داده

وقتش بود پرسش‌هایم را با کسی که هر روز با هوش مصنوعی و تیم‌های انسانی که از آن استفاده می‌کنند در ارتباط است مطرح کنم. زمانی با ا. ابراهیمی گفت‌وگو کردم که از پنل تخصصی با رهبران هوش مصنوعی در یکی از انجمن‌های صنفی کسب‌وکار در سوئیس بازمی‌گشت. خانم ابراهیمی دکترای اقتصاد دارد و امروز «مدیر دانش داده» در بیمه‌ی عمر و بازنشستگی در یکی از شرکت‌های بین‌المللی بیمه است. او با استفاده از فناوری هوش مصنوعی در استخراج اطلاعات از مدارک توانسته فناوری هوش مصنوعی را به شکل موفقیت‌آمیز در صنعت بیمه‌ی عمر و بازنشستگی وارد کند. اولین جمله‌اش بعد از شنیدن پرسش من درباره‌ی اینکه چقدر با اضطراب هوش مصنوعی در کار خود و دیگران مواجه شده و برای آن چه می‌توان کرد، جواب قطعی نیست: «اجازه بده با هم در موردش بلند‌بلند فکر کنیم.»

او می‌گوید: «باید توجه کنیم که اضطراب هوش مصنوعی مشخصاً بیش از هر چیز دیگر از آنچه هوش مصنوعی مولد و مدل‌های زبانی بزرگ می‌نامیم ناشی می‌شود. در واقع از همان زمان که توانستیم با هوش مصنوعی حرف بزنیم، این اضطراب دیگر فقط به محیط کاری مشابه من که با هوش مصنوعی و داده‌ها سروکار دارد مربوط نمی‌شود و به زندگی روزمره‌ی آدم‌ها وارد شده است؛ اینجا در جامعه‌ی سوئیس و هر جای دیگر و گروه‌های سنی مختلف. روزنامه‌نگاران اطرافم مضطربند که حق مطالبی که من می‌نویسم و روی اینترنت هستند و از آنها برای تربیت شدن و یادگیری هوش مصنوعی استفاده شده کجاست؟ هنرمندان اطرافم از تجربه‌ی تولید عکس از طریق مبادله‌ی اطلاعات با هوش مصنوعی مضطرب هستند که آیا واقعاً خلق اثر است؟ هنر است؟ آیا این همان تعریفی است که ما از خلاقیت داریم و داشتیم؟ در واقع اینجا باید در نظر بگیریم که هم جنبه‌ی قانون و مقرراتی که برای هوش مصنوعی وضع می‌کنیم مهم است و هم جنبه‌ی انسانی و مفاهیمی که حالا تعریف آنها دارد تغییر می‌کند و من فکر می‌کنم ما هنوز جوابی برای آنها نداریم. در حوزه‌ی قانون، در برخی موارد اعتصاب‌های کارگران باعث شده برخی از حقوق از صاحبانِ فناوری ستانده و به رسمیت شناخته شود؛ هرچند تا پیاده‌سازی آن راه درازی در پیش است. اما در بحث تعاریف و پایه‌ی فلسفی آن، حتی اگر اضطراب را کنار بگذاریم، باید بپذیریم که تعاریف جدید با تعاریف قدیمی تفاوت خواهند داشت و ما باید فکر کنیم این تغییرها برای گونه‌ی بشر چه اثراتی خواهد داشت. من فکر می‌کنم اینکه ما جهان‌بینی و نظریه‌های پذیرفته‌شده و به‌رسمیت‌شناخته‌شده‌ای برای اخلاقیات هوش مصنوعی و حوالی آن نداریم، و در واقع پاهایمان روی زمین نیست، باعث چنین اضطراب گسترده‌ای شده است. مثلاً موضوع «تبعیض» را در نظر بگیرید، ما هنوز توافق جامعی روی این نداریم که «نبود تبعیض» چیست. اما داده‌های ما در سطح  کلان برای تصمیم‌گیری‌هایی استفاده می‌شود که تبعیض در بطن آن ریشه دارد. این تصمیم‌گیری‌ها در واقعیت زندگی ما اعمال می‌شوند. مثلاً در حوزه‌ی کار من، مدل‌های بیمه قیمت اعلام‌شده به مشتری‌ها را به طور اتوماتیک با تبعیض جنسیتی اعمال می‌کنند. اما در قوانین سوئیس این تفاوت قیمت تبعیض نامیده نمی‌شود، چرا که با علم داده می‌توان ثابت کرد مشتریان زن هزینه‌ی بیشتری برای شرکت بیمه ایجاد کرده‌اند. پس چون از کسی که هزینه‌ی بیشتری ایجاد کرده پول بیشتری هم دریافت کرده‌اند، این تبعیض جنسیتی در نهایت برای کل جامعه «عادلانه» دانسته می‌شود.»

در واقع به نظر می‌آید تعریف و توافق بر معنای عدالت و تبعیض در چنین موردی می‌تواند بر زندگیِ مادی میلیون‌ها نفر که مثلاً با شرکت بیمه سروکار دارند و پرونده‌ی آنها را هوش مصنوعی بررسی می‌کند اثر بگذارد. نباید فراموش کرد که در نهایت فناوری هوش مصنوعی مولد را طبقه‌ای از مردان جوان سفیدپوست در شمال جهانی توسعه داده‌اند. از ابراهیمی درباره‌ی سرعت زیاد تغییر و تحول هوش مصنوعی می‌پرسم و اینکه از دست رفتن شغل‌ها و تغییر سریع آن و در نتیجه نیاز به یادگیری مستمر این علم چقدر اضطراب‌آور است و اهمیت دارد. او می‌گوید که مدیران در ارتباطات اداری شرکت و ایمیل‌ها با وسواس زیادی تأکید دارند که نتایج به‌دست‌آمده از فناوری هوش مصنوعی حتماً باید به‌دست انسان‌ها (کارمندان) تأیید شود، و اینکه فناوری قرار نیست جای آنها را در کار بگیرد.

«این اضطراب آنقدر هم بدون دلیل نیست. حتی در کار من که قبل از این هم با یادگیری ماشین کار می‌کردم و قدرت تحلیل دارم و می‌توانم برنامه‌نویسی بکنم، از زمانی که برخی ابزارهای هوش مصنوعی مولد به کارم وارد شده، کاری را که برایش سه روز زمان می‌گذاشتم، امروز در دو ساعت با کیفیت خیلی بهتر انجام می‌دهم. در نظر بگیرید که مقیاس این تغییر چقدر می‌تواند برای شغل‌های دیگر بزرگ باشد. می‌دانیم که این تغییر بزرگ خواهد بود، اما اضطراب‌آور است که برای چگونگی آن جوابی نداریم.»

یادم هست در نظر بگیرم که ابراهیمی در محیط خارج از ایران فعالیت می‌کند. واقعاً چقدر اضطراب هوش مصنوعی به بستر فرهنگی و جغرافیایی ما وابسته است؟

«باید در نظر بگیریم که پیشینه و اضطراب‌های تاریخی نقش دارد در اضطرابی که از هوش مصنوعی و در کل هر قدرتی که اطلاعات زیادی از ما در دست داشته باشد احساس می‌کنیم. مثلاً اینجا در اروپا که پیشینه‌ی جنگ جهانی و پاکسازی نژادی و قومی در حافظه‌ی تاریخی اعضای جامعه وجود دارد، حساسیت‌ها متفاوت است. مردم مرتب می‌پرسند که با اطلاعات ما چه می‌خواهی بکنی و کجا از آن استفاده کنی؟ اما در جامعه‌ی ایران متفاوت است. سفر آخری که به ایران داشتم توجه داشتم و در واقع شوکه شده بودم که تلفن و اطلاعاتم را همه‌جا می‌گیرند، یا عکس رادیولوژی مرا با لینک آزاد بدون هیچ پسوردی (رمزی) برایم پیامک می‌کنند و هر پزشکی هر کجا به آن دسترسی دارد؛ اطلاعاتی که به‌سادگی می‌تواند برای شناسایی من استفاده شود. اما انگار حساسیتی هم در جامعه روی آن وجود ندارد و حتی روند کار و خدمات را ساده هم کرده است و قدردان هم هستیم. همین اتفاق اگر در اروپا بیفتد، زمین و زمان را به هم می‌دوزند.»

این نیز بگذرد؛ درباره‌ی چرخه‌ی هایپ گارتنر

«ترس‌های بزرگ را باید به ترس‌های کوچک تبدیل کرد. برای شروع کار با هوش مصنوعی کافی است فکر کنید او دستیاری تازه‌کار است که می‌توان تعلیمش داد. او خوب مطالعه کرده! پس هم چیزهای خوب را می‌داند هم چیزهای بد را و همان‌قدر هم ممکن است اشتباه کند یا با رویه‌های اخلاقی و عادلانه آشنا نباشد. یاد بگیریم چطور بتوانیم برای سه مهارت اصلی خواندن، نوشتن و چت کردن ایمن و مسؤولانه از هوش مصنوعی مولد استفاده کنیم. همین مفیدترین کار است.»

این حرف‌ها را ریچ لیمسایدر می‌زند، مدیر شتاب‌دهنده‌ی «هوش مصنوعی برای استفاده‌ی غیرانتفاعی» در یکی از کارگاه‌هایی که آوریل امسال با همکاری شرکت اوپن ای.آی (شرکت توسعه‌دهنده‌ی چت جی.پی.تی) برگزار کرده است. معتقد است سال‌هاست که با هوش مصنوعی همزیستی داریم و از آن استفاده می‌کنیم، اما شاید هوش مصنوعیِ مولد به این دلیل ترسناک به نظر می‌رسد که تازگی دارد. برای شکستن چنین ترسی به نظر لیمسایدر، می‌توانیم فکر کنیم هوش مصنوعی مولد همان اتو کورکت (تصحیح‌کننده و پیش‌بینی‌کننده‌ی خودکار) گوشی‌های هوشمند خودمان است که غلط‌های املایی ما را تصحیح و پیش‌بینی می‌کرد که کدام کلمه را در جمله‌ی بعدی‌مان به کار ببریم. فقط کمی زرق‌وبرقش از آن بیشتر است. از طرف دیگر شرکت‌های بزرگ فناوری دوست دارند ابزارهای هوشمندی را که پیش از این نیز از آن استفاده می‌کردیم با افزودن عبارت محبوب و ترندشده‌ی «هوش مصنوعی» به ما بهتر بفروشند. بسیاری از نرم‌افزارهای هوشمندی که پیش‌تر هم از آن استفاده می‌کردیم و امروز تنها به‌روزرسانی شده‌اند عبارت «قدرت‌گرفته از هوش مصنوعی» را در تبلیغات اطلاعات مربوط به مصرف‌کننده یدک می‌کشند.

به نظر او در مواجهه با اضطرابی که هوش مصنوعی مولد ایجاد کرده باید چرخه‌ی هایپ گارتنر یا سیکل فناوری‌های نوظهور را در نظر بگیریم. بر اساس این چرخه، همه‌ی فناوری‌های نوظهور مانند اینترنت و جست‌وجوی گوگل یا حتی بلاک چین و هوش مصنوعی دوره‌ای را طی می‌کنند، به قله‌ی اوج انتظار می‌رسند، یک دوره‌ی افول و سرخوردگی دارند و سپس با روشنگری به تعادلی از بازدهی و سوددهی می‌رسند. دانشمندان معتقدند امروز کمی از قله‌ی اوج انتظارات چرخه‌ی گارتنر برای هوش مصنوعی مولد فاصله گرفتیم، اما هنوز هیاهوی اطراف آن ادامه دارد. لیمسایدر به مخاطبان چندهزارنفری شرکت‌کننده در کارگاهش امید می‌دهد که هوش مصنوعی هم به تعادل خواهد رسید. در واقع امید وجود دارد که با غولِ بزرگ نه چندان مهربان که در ابتدا تصویر کردیم کنار میز بنشینیم و چای بنوشیم.

اینجا شاید بتوانیم در حافظه‌ی جمعی‌مان روزهایی را به یاد بیاوریم که فکر می‌کردیم استفاده از گوگل مپ توانایی ما در آدرس‌یابی را از بین می‌برد، یا بهترین‌ رستوران‌های شهر جدید را باید از عابران پیاده‌ی همان شهر بپرسیم. همه‌ی اینها نگرانی‌های درستی بودند. مهارت‌های افراد زیادی مانند رانندگان تاکسی ناگهان از بین رفت و به رسمیت شناخته نشد و شرکت‌های بزرگ حمل‌ونقل فرسخ‌ها از عدالت برای کاربران و کارمندانشان فاصله‌ها دارند. هنوز هم دانش محلی و رستوران‌هایی که در اینترنت پیدا نمی‌شوند گاهی بهترین گزینه‌ها هستند. اما آیا حتی به ذهنمان هم می‌رسد که مثلاً وقتی سفر می‌کنیم اصلاً از اینترنت استفاده نکنیم؟ یا بلد نباشیم موقعیت (لوکیشن) محل ملاقات را برای دوستانمان بفرستیم؟ شاید در تعریف کردن معنای تعادل در چرخه‌ی فناوری هوش مصنوعی مردم نیز باید حق و نقش داشته باشند.

شاید فناوری‌های بزرگ غول‌های بزرگی باشند که تمرکز قدرت در آنها خطر اقتدارگرایی را تشدید می‌کند، اما جوامع دموکرات به تمرین و گاهی با مبارزه یاد گرفته‌اند قدرت‌های بزرگ را عمومی و اهلی کنند و حق خود را در آنها پیدا کنند، قوانین و مقررات وضع کنند، حواسشان به ضعیف‌ترها باشد، و هم‌زمان، چشم از قدرتمندان و انحصارطلبان غول‌پیکر برندارند.   

یک پاسخ ثبت کنید

Your email address will not be published.

مطلب قبلی

که سلاخی شد

مطلب بعدی

آنجایی که امروز آغاز شد

0 0تومان