عصر تراکنش
رسانه مدیران فناوری‌های مالی ایران

عاقلانه نگران هوش مصنوعی باشید

پیشرفت سریع در هوش مصنوعی ترس و همچنین هیجان را برانگیخته است؛ چقدر باید از این فناوری ترسید؟

عصر تراکنش ۷۲ / آیا واقعاً لازم است همه مشاغل را خودکار کنیم؟ آیا عاقلانه است ذهن‌های مصنوعی و غیرانسانی را آن‌قدر آموزش بدهیم که رشد کنند، از ما پیشی بگیرند و جایگزین ذهن‌های خودمان شوند؟ آیا وقت آن رسیده که نگران از دست رفتن کنترل تمدن چندین‌هزارساله‌مان باشیم؟ اینها سؤالاتی هستند که چند ماه پیش، در خلال یک نامه سرگشاده از یک نهاد غیرانتفاعی به نام «انستیتو آینده زندگی» (Future of Life Institute) مطرح شده است؛ سندی که خواستار توقف شش‌ماهه پیشرفت‌های مدل‌های هوش مصنوعی شد و عده‌ای از بزرگان صنعت فناوری، از جمله ایلان ماسک نیز پای آن را امضا کرده‌اند. این نامه، برجسته‌ترین سندی است که نشان می‌دهد پیشرفت فناوری هوش مصنوعی، با این مقیاس و سرعت، در کنار هیجان‌انگیز بودنش، نگران‌کننده نیز هست.

به‌ویژه مدل‌های زبانی بزرگ (LLMs)، مانند چت جی‌پی‌تی (ChatGPT) توسعه‌یافته توسط شرکت Open AI که حتی سازندگان خودشان را هم با استعدادهای غیرمنتظره‌شان غافلگیر کرده‌اند. مدل‌های هوش مصنوعی پیشرفته‌ای که مثل ما، یا حتی در برخی موارد بهتر از ما قادر هستند جدول حل کنند، به سؤالات علمی پاسخ بدهند، مقاله بنویسند، شعر بسرایند، در آزمون‌ها شرکت کنند و هزاران کار دیگر. مدل‌هایی که قادرند رابطه انسان با کامپیوتر، دانش و حتی روابط انسان‌ها با همدیگر را دستخوش تغییر کنند.

طرفداران هوش مصنوعی، اصرار دارند که توسعه این فناوری می‌تواند به دستیابی بشریت به داروهای پیشرفته درمانی، طراحی مواد جدید برای مبارزه با تغییرات آب‌وهوایی، از بین بردن پیچیدگی‌های انرژی همجوشی هسته‌ای و بسیاری از این دست پیشرفت‌های صلح‌جویانه جامه عمل بپوشاند. اما همه این وعده و وعیدهای شیرین، باز هم نمی‌تواند از ریسک‌های احتمالی این فناوری در آینده‌ای نه‌چندان دور بکاهد. شاید هوش مصنوعی، همان اختراع مرگباری است که در سناریوهای علمی-تخیلی، جان سازنده‌اش را می‌ستاند.

این شمشیر دولبه از ترس و هیجان، سنجش فرصت‌ها و خطرات را سخت‌تر می‌کند. با این‌ حال، هیچ‌چیز به اندازه تجربه نمی‌تواند کمک‌کننده باشد. مگر نه اینکه همین هوش مصنوعی نیز بر اساس تجربیات و آموزه‌های ما توسعه یافته است؟ پس چرا خودمان از داشته‌ها و دانسته‌های پیشین درس نگیریم؟

سؤال اصلی این است که چه چیزی باعث شده هوش مصنوعی بتواند تا این حد پیشرفت کند که حتی خود ما را نیز تهدید کند؟ چقدر باید از این فناوری مدرن ترسید؟ دولت‌ها چه کار باید کنند یا اصلاً چه کار می‌توانند بکنند؟


یک شمشیر دولبه


بیایید فناوری هوش مصنوعی و خصوصاً مدل‌های زبانی بزرگ را به لحاظ علمی بررسی کنیم و ببینیم در آینده‌ نزدیک، چه چیزی در انتظارمان است. موج نخست سیستم‌های هوش مصنوعی مدرن که حدود یک دهه پیش پدیدار شدند، به داده‌های آموزشی با برچسب‌گذاری دقیق متکی بودند؛ مدل‌هایی که وقتی در معرض تعداد معینی داده‌های برچسب‌گذاری‌شده قرار می‌گرفتند، می‌توانستند برخی کارها را به‌صورت هوشمندانه انجام دهند، مانند تشخیص یکسری تصاویر، تبدیل گفتار به متن و کارهای ساده‌ای نظیر آن.

سیستم‌های امروزی نیازی به برچسب‌گذاری اولیه ندارند و در نتیجه می‌توان آنها را با مجموعه‌ای از داده‌های بزرگ که از منابع آنلاین گرفته شده‌اند، آموزش داد. در واقع، مسئله این است که مدل‌های زبانی بزرگ امروز، در بستر اینترنت آموزش داده می‌شوند و همین موضوع، آنها را به شمشیری دولبه تبدیل کرده است. در این آموزش، من و شمای نوعی دخل‌و‌تصرف چندانی نداریم و به همین دلیل نیز در کنار فرصت‌ها، تهدیدها هم رشد می‌کنند.

زمانی که چت جی‌پی‌تی در نوامبر ۲۰۲۲ راه‌اندازی شد، این حقیقت که احتمالاً دیگر نمی‌توان جلوی آن را گرفت، بر همگان آشکار شد. در عرض یک هفته، کاربران آن به یک میلیون نفر رسید و بعد از دو ماه، شاهد استفاده ۱۰۰ میلیون نفری از این فناوری بودیم. چت جی‌پی‌تی به‌سرعت توسط عموم مورد استقبال و استفاده قرار گرفت و حتی انشاهای مدرسه و سخنرانی‌های عروسی‌ها را نیز از آن خود کرد. این محبوبیت فزاینده، با چاشنی حمایت مایکروسافت از آن به‌عنوان یکی از غول‌های فناوری و گنجاندن آن در موتور جست‌وجوی بینگ، رقبا را نیز به فکر انداخت تا محصولات مشابه خود را راهی بازار کنند که مبادا از قافله عقب بمانند.

اما برخی از نتایج این توسعه و استقبال عموم از آن، بسیار عجیب بوده است. چندی پیش، بینگ چت (Bing Chat) به یک روزنامه‌نگار پیشنهاد داد که همسرش را ترک کند! یا یکی از استادان حقوق، چت جی‌پی‌تی را به ایراد افترا متهم کرد!

نکته اینجاست که پاسخ‌هایی که چت جی‌پی‌تی ارائه می‌دهد، حاوی حقیقت هستند، اما اشتباهات و داده‌های جعلی نیز در آنها کم نیست. این در حالی است که گوگل، مایکروسافت و بسیاری از شرکت‌های فناوری دیگر، با اشراف به این نقص بزرگ، مصرانه سعی دارند از مدل‌های زبانی بزرگ در محصولات‌شان استفاده کنند تا با کمک به کاربران در انجام کارها و برطرف‌کردن مشکلات‌شان، راه صدساله را یک‌شبه طی کنند.

شتاب اخیر در قدرت و سیطره سیستم‌های هوش مصنوعی و در عین حال، افزایش آگاهی از توانایی‌ها و نقص‌های آنها، این نگرانی بزرگ را پدید آورده که این فناوری، به‌سرعت در حال پیشرفت است و شاید دیگر نتوان آن را آن‌طور که باید کنترل کرد. به همین دلیل می‌توان نامه سرگشاده جمعی از بزرگان صنعت فناوری برای توقف مدل‌های پیشرفته هوش مصنوعی را درک کرد؛ فراخوانی که قصد دارد نه‌تنها نواقص این فناوری را کنترل کند، بلکه شاید می‌خواهد بشریت را از یک تهدید جدی نجات دهد.


کابوس واقعی


ترس از اینکه روزی ماشین‌ها مشاغل ما را بدزدند، قرن‌هاست که وجود دارد، اما تا‌به‌امروز، هر فناوری جدیدی که مشاغلی را خودکار کرده، مشاغل جدید دیگری را هم برای بشر ایجاد کرده است. ماشین‌ها فقط یکسری از کارها را می‌توانند انجام بدهند و برخی کارها، از عهده آنها برنمی‌آید. به همین دلیل نیز بازار افرادی که قادرند کارهایی را انجام بدهند که ماشین‌ها از انجام آن عاجزند، داغ است. اما آیا این روال قرار است همیشه همین‌طور باقی بماند؟ یا نه، روزی فرا خواهد رسید که این جریان برعکس شود؟ شاید هم این‌طور باشد. فناوری‌هایی که تاکنون دیده بودیم، هرگز قدرت جایگزینی هوش بشری را نداشتند، اما مدل‌های زبانی بزرگ، ظاهراً این قدرت را دارند تا حتی جایگزین کارمندان یقه‌سفید هم باشند.

درجه خطر ناشی از وجود هوش مصنوعی، موضوع بسیار مهمی است که اخیراً بحث‌های زیادی پیرامون آن شکل گرفته و اختلاف‌نظرهای زیادی در مورد آن وجود دارد. در یک نظرسنجی از محققان هوش مصنوعی که در سال ۲۰۲۲ میلادی انجام شده، ۴۸ درصد از محققان معتقد بوده‌اند که هوش مصنوعی دست‌کم ۱۰ درصد احتمال دارد به اتفاقات «خیلی ناگوار مثل انقراض انسان‌ها» منجر شود! با ‌این ‌حال، ۲۵ درصد از این محققان هم معتقد بوده‌اند که این فقط یک فناوری است و احتمال خطرش صفر درصد است.

کابوس واقعی زمانی است که فکر کنیم این فناوری پیشرفته، بخواهد با ساختن سم یا ویروس، یا ترغیب انسان‌ها به انجام اقدامات تروریستی، باعث آسیب در مقیاس‌های گسترده‌تر شود. در واقع، بزرگ‌ترین نگرانی محققان این است که در آینده، اهداف هوش مصنوعی با  اهداف خالقان انسانی آن همسو نباشد.

چنین سناریوهایی، اگرچه علمی-تخیلی به نظر می‌رسند، اما نباید نادیده گرفته شوند. البته این نکته را نیز نباید فراموش کرد که همه اینها، به مقادیر زیادی حدس و گمان آلوده هستند و جهشی از فناوری‌های امروز در آنها در نظر گرفته شده است. بسیاری بر این عقیده هستند که هوش مصنوعی، در آینده دسترسی نامحدودی به انرژی، پول و قدرت محاسباتی خواهد داشت.

در کنار اینها، برخی هم سعی دارند خطرات این فناوری را بیش از آنچه واقعاً است، نشان دهند تا بتوانند آب را برای گرفتن ماهی گل‌آلود کنند. مثل آقای ماسک که کاشف به عمل آمده همه تلاش‌هایش برای توقف چت جی‌پی‌تی، صرفاً برای رقابت با آن بوده و در حال حاضر در حال راه‌اندازی شرکت هوش مصنوعی خودش است. هرچه هست، در این نقطه، در این سطح از توسعه هوش مصنوعی و مدل‌های زبانی بزرگ، اعمال محدودیت‌های سنگین یا توقف، بیش از حد سخت‌گیرانه به نظر می‌رسد و عملی‌شدن آن بعید است.


آیا مقررات‌گذاری جواب می‌دهد؟


اعمال مقررات برای هوش مصنوعی (مانند هر فناوری ساختارشکن دیگری) الزامی است، اما نه به بهانه پیش‌پا‌افتاده نجات بشریت! سیستم‌های هوش مصنوعی مدرن، تهدیداتی جدی در خصوص حریم خصوصی، حقوق مالکیت معنوی و امثال آن به وجود آورده‌اند که با پیشرفت شتاب‌زده فناوری، احتمالاً موارد دیگری نیز به آنها افزوده خواهد شد. نکته این است که بتوانیم وعده هوش مصنوعی را با ارزیابی‌های ریسک‌ها متعادل کنیم و برای کنترل همه‌چیز آماده شویم.

تا این لحظه، دولت‌ها سه رویکرد متفاوت را در پیش گرفته‌اند. در یک سرِ این طیف، بریتانیا قرار دارد که بدون ایجاد و تحمیل قوانین یا نهادهای نظارتی جدید، رویکرد ملاطفت یا اصطلاحاً «لمس سبک» را در پیش گرفته، اما از مقررات موجود در حوزه هوش مصنوعی استفاده می‌کند تا بتواند کمترین ریسک را متوجه زیرساخت‌های خود کند. هدف، افزایش سرمایه‌گذاری روی این فناوری، رشد پتانسیل‌های آن و تبدیل بریتانیا به یک «ابرقدرت هوش مصنوعی» است. ایالات متحده آمریکا نیز رویکرد مشابهی را در پیش گرفته، هرچند دولت بایدن به‌دنبال نظر افکار عمومی است که ممکن است در آینده، به کتابچه‌ای از قوانین در زمینه هوش مصنوعی تبدیل شود.

اتحادیه اروپا موضع سخت‌گیرانه‌تری را در پیش گرفته است. قانون پیشنهادی این اتحادیه، استفاده‌های مختلف از هوش مصنوعی را بر اساس درجه خطر فناوری طبقه‌بندی می‌کند؛ برخی کاربردهای هوش مصنوعی (به‌دلیل خطرات آنها) در این اتحادیه کاملاً ممنوع هستند و هر شرکتی هم که بخواهد قوانین را زیر پا بگذارد، جریمه خواهد شد. مقرراتی که به عقیده برخی محققان و منتقدان، بیش ‌از ‌حد سخت‌گیرانه است.

با این ‌حال، برخی نیز بر این عقیده‌اند که حتی رویکرد سخت‌گیرانه‌تری لازم است. آنها معتقدند دولت‌ها، باید مانند داروها انواع محصولات هوش مصنوعی را نیز به‌دقت آزمایش کنند؛ رویکردی که توسط دولت چین اتخاذ شده است. چین کلیه شرکت‌های خود را ملزم کرده که محصولات مصنوعی را به ثبت برسانند، تا قبل از عرضه، بازبینی امنیتی کامل روی آنها انجام گیرد. با این ‌حال، شاید صرف اتکا بر امنیت نتواند جلوی این فناوری را بگیرد و آن را کنترل کند. گاهی اوقات، سیاست بهتر از امنیت جواب می‌دهد. یک شرط کلیدی برای کنترل هوش مصنوعی آن است که خروجی این فناوری، منعکس‌کننده ارزش‌های اساسی سوسیالیسم باشد.

با این حساب، چه باید کرد؟ بعید به نظر می‌رسد رویکرد لمس سبک (که بریتانیا در پیش گرفته است) جوابگو باشد. اگر قرار باشد هوش مصنوعی نیز به اندازه خودروها، هواپیماها و داروها یک فناوری مهم باشد (که با توجه به شواهد و قرائن موجود و استقبال بی‌نظیر از آن ظاهراً مهم است)، پس مانند دیگر فناوری‌های مهم دنیا به قانون‌گذاری، نظارت و کنترل نیاز دارد. با این حساب، مدل رویکردی اتحادیه اروپا، احتمالاً بهترین رویکردی است که هر دولتی می‌تواند در پیش بگیرد. البته قانون‌گذاری برای یک فناوری مانند هوش مصنوعی، با دیگر فناوری‌ها متفاوت است و پیچیدگی‌های زیادی دارد، اما کنترل سیستم‌های هوش مصنوعی، منابع آموزشی آنها و خروجی که دارند، یک الزام غیر قابل اجتناب است.

این امر می‌تواند در طول زمان، به ظهور قوانین سخت‌گیرانه‌تری در مورد مدل‌های زبانی بزرگ نیز منجر شود. شاید لازم باشد در آینده‌ای نه‌چندان دور، یک رگولاتور اختصاصی برای فناوری هوش مصنوعی ایجاد شود. یا شاید ممکن است در صورت پیدا شدن شواهدی دال بر خطرات وجودی فناوری، همانند آنچه در مورد تسلیحات هسته‌ای شاهدش هستیم، یکسری معاهدات بین‌المللی نیز در خصوص هوش مصنوعی ایجاد شوند.

هرچه هست، این فناوری در کنار فرصت‌های هیجان‌انگیزی که ایجاد کرده، خطرات چالش‌برانگیزی را نیز به ‌وجود آورده که ایجاد تعادل بین این فرصت‌ها و خطرات، مستلزم برداشتن گام‌هایی دقیق است؛ اتخاذ یک رویکرد سنجیده و به‌روز که بتواند با تنظیم و کنترل فناوری، پتانسیل‌های آن را برای خلق فرصت‌های بیشتر آزاد کند. امروز، همان روزی است که اولین گام‌ها باید برای کنترل هوش مصنوعی برداشته شوند.

منبع اکونومیست
از طريق مترجم: ثریا حقی
ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.