عاقلانه نگران هوش مصنوعی باشید
پیشرفت سریع در هوش مصنوعی ترس و همچنین هیجان را برانگیخته است؛ چقدر باید از این فناوری ترسید؟
عصر تراکنش ۷۲ / آیا واقعاً لازم است همه مشاغل را خودکار کنیم؟ آیا عاقلانه است ذهنهای مصنوعی و غیرانسانی را آنقدر آموزش بدهیم که رشد کنند، از ما پیشی بگیرند و جایگزین ذهنهای خودمان شوند؟ آیا وقت آن رسیده که نگران از دست رفتن کنترل تمدن چندینهزارسالهمان باشیم؟ اینها سؤالاتی هستند که چند ماه پیش، در خلال یک نامه سرگشاده از یک نهاد غیرانتفاعی به نام «انستیتو آینده زندگی» (Future of Life Institute) مطرح شده است؛ سندی که خواستار توقف ششماهه پیشرفتهای مدلهای هوش مصنوعی شد و عدهای از بزرگان صنعت فناوری، از جمله ایلان ماسک نیز پای آن را امضا کردهاند. این نامه، برجستهترین سندی است که نشان میدهد پیشرفت فناوری هوش مصنوعی، با این مقیاس و سرعت، در کنار هیجانانگیز بودنش، نگرانکننده نیز هست.
بهویژه مدلهای زبانی بزرگ (LLMs)، مانند چت جیپیتی (ChatGPT) توسعهیافته توسط شرکت Open AI که حتی سازندگان خودشان را هم با استعدادهای غیرمنتظرهشان غافلگیر کردهاند. مدلهای هوش مصنوعی پیشرفتهای که مثل ما، یا حتی در برخی موارد بهتر از ما قادر هستند جدول حل کنند، به سؤالات علمی پاسخ بدهند، مقاله بنویسند، شعر بسرایند، در آزمونها شرکت کنند و هزاران کار دیگر. مدلهایی که قادرند رابطه انسان با کامپیوتر، دانش و حتی روابط انسانها با همدیگر را دستخوش تغییر کنند.
طرفداران هوش مصنوعی، اصرار دارند که توسعه این فناوری میتواند به دستیابی بشریت به داروهای پیشرفته درمانی، طراحی مواد جدید برای مبارزه با تغییرات آبوهوایی، از بین بردن پیچیدگیهای انرژی همجوشی هستهای و بسیاری از این دست پیشرفتهای صلحجویانه جامه عمل بپوشاند. اما همه این وعده و وعیدهای شیرین، باز هم نمیتواند از ریسکهای احتمالی این فناوری در آیندهای نهچندان دور بکاهد. شاید هوش مصنوعی، همان اختراع مرگباری است که در سناریوهای علمی-تخیلی، جان سازندهاش را میستاند.
این شمشیر دولبه از ترس و هیجان، سنجش فرصتها و خطرات را سختتر میکند. با این حال، هیچچیز به اندازه تجربه نمیتواند کمککننده باشد. مگر نه اینکه همین هوش مصنوعی نیز بر اساس تجربیات و آموزههای ما توسعه یافته است؟ پس چرا خودمان از داشتهها و دانستههای پیشین درس نگیریم؟
سؤال اصلی این است که چه چیزی باعث شده هوش مصنوعی بتواند تا این حد پیشرفت کند که حتی خود ما را نیز تهدید کند؟ چقدر باید از این فناوری مدرن ترسید؟ دولتها چه کار باید کنند یا اصلاً چه کار میتوانند بکنند؟
یک شمشیر دولبه
بیایید فناوری هوش مصنوعی و خصوصاً مدلهای زبانی بزرگ را به لحاظ علمی بررسی کنیم و ببینیم در آینده نزدیک، چه چیزی در انتظارمان است. موج نخست سیستمهای هوش مصنوعی مدرن که حدود یک دهه پیش پدیدار شدند، به دادههای آموزشی با برچسبگذاری دقیق متکی بودند؛ مدلهایی که وقتی در معرض تعداد معینی دادههای برچسبگذاریشده قرار میگرفتند، میتوانستند برخی کارها را بهصورت هوشمندانه انجام دهند، مانند تشخیص یکسری تصاویر، تبدیل گفتار به متن و کارهای سادهای نظیر آن.
سیستمهای امروزی نیازی به برچسبگذاری اولیه ندارند و در نتیجه میتوان آنها را با مجموعهای از دادههای بزرگ که از منابع آنلاین گرفته شدهاند، آموزش داد. در واقع، مسئله این است که مدلهای زبانی بزرگ امروز، در بستر اینترنت آموزش داده میشوند و همین موضوع، آنها را به شمشیری دولبه تبدیل کرده است. در این آموزش، من و شمای نوعی دخلوتصرف چندانی نداریم و به همین دلیل نیز در کنار فرصتها، تهدیدها هم رشد میکنند.
زمانی که چت جیپیتی در نوامبر ۲۰۲۲ راهاندازی شد، این حقیقت که احتمالاً دیگر نمیتوان جلوی آن را گرفت، بر همگان آشکار شد. در عرض یک هفته، کاربران آن به یک میلیون نفر رسید و بعد از دو ماه، شاهد استفاده ۱۰۰ میلیون نفری از این فناوری بودیم. چت جیپیتی بهسرعت توسط عموم مورد استقبال و استفاده قرار گرفت و حتی انشاهای مدرسه و سخنرانیهای عروسیها را نیز از آن خود کرد. این محبوبیت فزاینده، با چاشنی حمایت مایکروسافت از آن بهعنوان یکی از غولهای فناوری و گنجاندن آن در موتور جستوجوی بینگ، رقبا را نیز به فکر انداخت تا محصولات مشابه خود را راهی بازار کنند که مبادا از قافله عقب بمانند.
اما برخی از نتایج این توسعه و استقبال عموم از آن، بسیار عجیب بوده است. چندی پیش، بینگ چت (Bing Chat) به یک روزنامهنگار پیشنهاد داد که همسرش را ترک کند! یا یکی از استادان حقوق، چت جیپیتی را به ایراد افترا متهم کرد!
نکته اینجاست که پاسخهایی که چت جیپیتی ارائه میدهد، حاوی حقیقت هستند، اما اشتباهات و دادههای جعلی نیز در آنها کم نیست. این در حالی است که گوگل، مایکروسافت و بسیاری از شرکتهای فناوری دیگر، با اشراف به این نقص بزرگ، مصرانه سعی دارند از مدلهای زبانی بزرگ در محصولاتشان استفاده کنند تا با کمک به کاربران در انجام کارها و برطرفکردن مشکلاتشان، راه صدساله را یکشبه طی کنند.
شتاب اخیر در قدرت و سیطره سیستمهای هوش مصنوعی و در عین حال، افزایش آگاهی از تواناییها و نقصهای آنها، این نگرانی بزرگ را پدید آورده که این فناوری، بهسرعت در حال پیشرفت است و شاید دیگر نتوان آن را آنطور که باید کنترل کرد. به همین دلیل میتوان نامه سرگشاده جمعی از بزرگان صنعت فناوری برای توقف مدلهای پیشرفته هوش مصنوعی را درک کرد؛ فراخوانی که قصد دارد نهتنها نواقص این فناوری را کنترل کند، بلکه شاید میخواهد بشریت را از یک تهدید جدی نجات دهد.
کابوس واقعی
ترس از اینکه روزی ماشینها مشاغل ما را بدزدند، قرنهاست که وجود دارد، اما تابهامروز، هر فناوری جدیدی که مشاغلی را خودکار کرده، مشاغل جدید دیگری را هم برای بشر ایجاد کرده است. ماشینها فقط یکسری از کارها را میتوانند انجام بدهند و برخی کارها، از عهده آنها برنمیآید. به همین دلیل نیز بازار افرادی که قادرند کارهایی را انجام بدهند که ماشینها از انجام آن عاجزند، داغ است. اما آیا این روال قرار است همیشه همینطور باقی بماند؟ یا نه، روزی فرا خواهد رسید که این جریان برعکس شود؟ شاید هم اینطور باشد. فناوریهایی که تاکنون دیده بودیم، هرگز قدرت جایگزینی هوش بشری را نداشتند، اما مدلهای زبانی بزرگ، ظاهراً این قدرت را دارند تا حتی جایگزین کارمندان یقهسفید هم باشند.
درجه خطر ناشی از وجود هوش مصنوعی، موضوع بسیار مهمی است که اخیراً بحثهای زیادی پیرامون آن شکل گرفته و اختلافنظرهای زیادی در مورد آن وجود دارد. در یک نظرسنجی از محققان هوش مصنوعی که در سال ۲۰۲۲ میلادی انجام شده، ۴۸ درصد از محققان معتقد بودهاند که هوش مصنوعی دستکم ۱۰ درصد احتمال دارد به اتفاقات «خیلی ناگوار مثل انقراض انسانها» منجر شود! با این حال، ۲۵ درصد از این محققان هم معتقد بودهاند که این فقط یک فناوری است و احتمال خطرش صفر درصد است.
کابوس واقعی زمانی است که فکر کنیم این فناوری پیشرفته، بخواهد با ساختن سم یا ویروس، یا ترغیب انسانها به انجام اقدامات تروریستی، باعث آسیب در مقیاسهای گستردهتر شود. در واقع، بزرگترین نگرانی محققان این است که در آینده، اهداف هوش مصنوعی با اهداف خالقان انسانی آن همسو نباشد.
چنین سناریوهایی، اگرچه علمی-تخیلی به نظر میرسند، اما نباید نادیده گرفته شوند. البته این نکته را نیز نباید فراموش کرد که همه اینها، به مقادیر زیادی حدس و گمان آلوده هستند و جهشی از فناوریهای امروز در آنها در نظر گرفته شده است. بسیاری بر این عقیده هستند که هوش مصنوعی، در آینده دسترسی نامحدودی به انرژی، پول و قدرت محاسباتی خواهد داشت.
در کنار اینها، برخی هم سعی دارند خطرات این فناوری را بیش از آنچه واقعاً است، نشان دهند تا بتوانند آب را برای گرفتن ماهی گلآلود کنند. مثل آقای ماسک که کاشف به عمل آمده همه تلاشهایش برای توقف چت جیپیتی، صرفاً برای رقابت با آن بوده و در حال حاضر در حال راهاندازی شرکت هوش مصنوعی خودش است. هرچه هست، در این نقطه، در این سطح از توسعه هوش مصنوعی و مدلهای زبانی بزرگ، اعمال محدودیتهای سنگین یا توقف، بیش از حد سختگیرانه به نظر میرسد و عملیشدن آن بعید است.
آیا مقرراتگذاری جواب میدهد؟
اعمال مقررات برای هوش مصنوعی (مانند هر فناوری ساختارشکن دیگری) الزامی است، اما نه به بهانه پیشپاافتاده نجات بشریت! سیستمهای هوش مصنوعی مدرن، تهدیداتی جدی در خصوص حریم خصوصی، حقوق مالکیت معنوی و امثال آن به وجود آوردهاند که با پیشرفت شتابزده فناوری، احتمالاً موارد دیگری نیز به آنها افزوده خواهد شد. نکته این است که بتوانیم وعده هوش مصنوعی را با ارزیابیهای ریسکها متعادل کنیم و برای کنترل همهچیز آماده شویم.
تا این لحظه، دولتها سه رویکرد متفاوت را در پیش گرفتهاند. در یک سرِ این طیف، بریتانیا قرار دارد که بدون ایجاد و تحمیل قوانین یا نهادهای نظارتی جدید، رویکرد ملاطفت یا اصطلاحاً «لمس سبک» را در پیش گرفته، اما از مقررات موجود در حوزه هوش مصنوعی استفاده میکند تا بتواند کمترین ریسک را متوجه زیرساختهای خود کند. هدف، افزایش سرمایهگذاری روی این فناوری، رشد پتانسیلهای آن و تبدیل بریتانیا به یک «ابرقدرت هوش مصنوعی» است. ایالات متحده آمریکا نیز رویکرد مشابهی را در پیش گرفته، هرچند دولت بایدن بهدنبال نظر افکار عمومی است که ممکن است در آینده، به کتابچهای از قوانین در زمینه هوش مصنوعی تبدیل شود.
اتحادیه اروپا موضع سختگیرانهتری را در پیش گرفته است. قانون پیشنهادی این اتحادیه، استفادههای مختلف از هوش مصنوعی را بر اساس درجه خطر فناوری طبقهبندی میکند؛ برخی کاربردهای هوش مصنوعی (بهدلیل خطرات آنها) در این اتحادیه کاملاً ممنوع هستند و هر شرکتی هم که بخواهد قوانین را زیر پا بگذارد، جریمه خواهد شد. مقرراتی که به عقیده برخی محققان و منتقدان، بیش از حد سختگیرانه است.
با این حال، برخی نیز بر این عقیدهاند که حتی رویکرد سختگیرانهتری لازم است. آنها معتقدند دولتها، باید مانند داروها انواع محصولات هوش مصنوعی را نیز بهدقت آزمایش کنند؛ رویکردی که توسط دولت چین اتخاذ شده است. چین کلیه شرکتهای خود را ملزم کرده که محصولات مصنوعی را به ثبت برسانند، تا قبل از عرضه، بازبینی امنیتی کامل روی آنها انجام گیرد. با این حال، شاید صرف اتکا بر امنیت نتواند جلوی این فناوری را بگیرد و آن را کنترل کند. گاهی اوقات، سیاست بهتر از امنیت جواب میدهد. یک شرط کلیدی برای کنترل هوش مصنوعی آن است که خروجی این فناوری، منعکسکننده ارزشهای اساسی سوسیالیسم باشد.
با این حساب، چه باید کرد؟ بعید به نظر میرسد رویکرد لمس سبک (که بریتانیا در پیش گرفته است) جوابگو باشد. اگر قرار باشد هوش مصنوعی نیز به اندازه خودروها، هواپیماها و داروها یک فناوری مهم باشد (که با توجه به شواهد و قرائن موجود و استقبال بینظیر از آن ظاهراً مهم است)، پس مانند دیگر فناوریهای مهم دنیا به قانونگذاری، نظارت و کنترل نیاز دارد. با این حساب، مدل رویکردی اتحادیه اروپا، احتمالاً بهترین رویکردی است که هر دولتی میتواند در پیش بگیرد. البته قانونگذاری برای یک فناوری مانند هوش مصنوعی، با دیگر فناوریها متفاوت است و پیچیدگیهای زیادی دارد، اما کنترل سیستمهای هوش مصنوعی، منابع آموزشی آنها و خروجی که دارند، یک الزام غیر قابل اجتناب است.
این امر میتواند در طول زمان، به ظهور قوانین سختگیرانهتری در مورد مدلهای زبانی بزرگ نیز منجر شود. شاید لازم باشد در آیندهای نهچندان دور، یک رگولاتور اختصاصی برای فناوری هوش مصنوعی ایجاد شود. یا شاید ممکن است در صورت پیدا شدن شواهدی دال بر خطرات وجودی فناوری، همانند آنچه در مورد تسلیحات هستهای شاهدش هستیم، یکسری معاهدات بینالمللی نیز در خصوص هوش مصنوعی ایجاد شوند.
هرچه هست، این فناوری در کنار فرصتهای هیجانانگیزی که ایجاد کرده، خطرات چالشبرانگیزی را نیز به وجود آورده که ایجاد تعادل بین این فرصتها و خطرات، مستلزم برداشتن گامهایی دقیق است؛ اتخاذ یک رویکرد سنجیده و بهروز که بتواند با تنظیم و کنترل فناوری، پتانسیلهای آن را برای خلق فرصتهای بیشتر آزاد کند. امروز، همان روزی است که اولین گامها باید برای کنترل هوش مصنوعی برداشته شوند.