bato-adv
بشریت همه دیوانه می‌شوند؛ هوش مصنوعی مافوق بشر چگونه ما را از بین می‌برد؟

بیگانگان فرود آمدند و ما آنان را خلق کردیم!

بیگانگان فرود آمدند و ما آنان را خلق کردیم!
کاساندراها با این ادعا که هوش مصنوعی پایان بشریت خواهد بود وارد عمل شده اند. نکته بسیار خوبی دارند.
تاریخ انتشار: ۱۱:۵۶ - ۲۲ فروردين ۱۴۰۲

بیگانگان فرود آمدند و ما آنان را خلق کردیم/ آیا هوش مصنوعی به اسکای نت (نابودگر) تبدیل خواهد شد؟ /با هوش مصنوعی ما در راه رسیدن به کابوس راسکولنیکف در پایان جنایت و مکافات هستیم/ بشریت در حال دیوانه شدن و رفتن به سوی قتلگاه داخلی است/ مدل‌های زبانی بزرگ ما را دستکاری می‌کنند//ترجمهفرارو- نیل فرگوسن؛ مورخ مشهور و متخصص تاریخ اقتصاد اسکاتلند و استاد دانشگاه هاروارد است. فرگوسن در سال ۲۰۰۸ میلادی مشاور «جان مک کین» از جمهوری خواهان باسابقه و نامزد وقت انتخابات ریاست جمهوری بود. فرگوسن یک مفسر سیاسی محافظه کار قلمداد می‌شود. او مدافع امپراتوری بریتانیا است و پس از حمله امریکا و کشور‌های غربی به عراق خود را عضوی کامل از باند «نئوامپریالیست ها» خوانده بود.

به گزارش فرارو به نقل از بلومبرگ، روزی نیست که پیش بینی‌هایی را درباره عذاب پیش رو نخوانم. در تازه‌ترین مورد "الیزر یودکوفسکی" در نشریه "تایم" در هفته گذشته نوشته بود: "محتمل‌ترین نتیجه ساخت یک هوش مصنوعی فوق‌العاده هوشمند تحت هر چیزی شبیه به شرایط فعلی این است که به معنای واقعی کلمه همه روی زمین خواهند مُرد. این یک احتمال بعید نیست بلکه در عمل رخ خواهد داد. اگر کسی یک هوش مصنوعی بسیار قدرتمند بسازد در شرایط کنونی من انتظار دارم که تک تک اعضای گونه انسانی و تمام حیات بیولوژیکی روی زمین اندکی پس از آن خواهند مُرد".

یودکوفسکی یک کاساندرای تصادفی نیست. او موسسه تحقیقاتی هوش ماشینی را رهبری می‌کند یک موسسه غیرانتفاعی در برکلی در کالیفرنیا و پیش‌تر در مورد مسئله هوش مصنوعی مطالب زیادی نوشته است. من هنوز به خوبی به یاد دارم زمانی که در حال تحقیق در مورد کتاب ام با نام "سرنوشت" بودم او درباره این که ممکن است کسی ناخواسته هوش مصنوعی‌ای ایجاد کند که علیه ما باشد هشدار داده بود.

من در کتاب ام اشاره کردم که برای مثال، به هوش مصنوعی می‌گوییم که تغییرات آب و هوایی را متوقف کند و آن نتیجه می‌گیرد که برای این کار نابودی هوموساپینس یا انسان خردمند راه حل بهینه است. این یودکوفسکی بود که چند سال پیش قانون مور اصلاح شده را پیشنهاد کرد: هر ۱۸ ماه حداقل ضریب هوشی لازم برای نابودی جهان یک امتیاز کاهش یابد.

اکنون یودکوفسکی فراتر رفته است. او معتقد است که ما به سرعت در حال نزدیک شدن به یک دوره مهلک هستیم که در آن هوش مصنوعی هوشمندتر از خودمان را ایجاد می‌کنیم که "آن چه ما می‌خواهیم را انجام نمی‌دهد و به ما و به طور کلی به زندگی حساس اهمیت نمی‌دهد. نتیجه محتمل مواجه شدن بشر با یک هوش مافوق بشری مخالف یک ضرر کامل است".

او معتقد است که چنین هوش مصنوعی‌ای می‌تواند به راحتی از اینترنت فرار کند تا "شکل‌های زندگی مصنوعی بسازد" و در واقع جنگ بیولوژیکی را علیه ما راه اندازی کند. توصیه او روشن است. ما به یک تعلیق کامل برای توسعه هوش مصنوعی نیاز داریم.

این بسیار فراتر از نامه سرگشاده امضا شده توسط "ایلان ماسک" و "استیو وزنیاک" بنیانگذار اپل و بیش از ۱۵۰۰۰ چهره برجسته دیگر است که خواستار توقف شش ماهه توسعه هوش مصنوعی قدرتمندتر از وضعیت فعلی شده اند.

با این وجود، انگیزه آنان از امضای آن نامه همان انگیزه یودکوفسکی است: این باور که توسعه هوش مصنوعی با قابلیت‌های مافوق بشری در غیاب هرگونه چارچوب نظارتی بین المللی، خطر ایجاد یک فاجعه را به همراه خواهد داشت. تنها تفاوت واقعی این است که یودکوفسکی شک دارد که چنین چارچوبی می‌تواند ظرف مدت شش ماه ابداع شود. او تقریبا در این مورد حق دارد.

تشابه آشکار با دو زمینه قبلی تحقیقات علمی بالقوه کشنده است: تسلیحات هسته‌ای و جنگ بیولوژیکی. ما از همان ابتدا در تاریخ این رشته‌ها می‌دانستیم که ظرفیت بالقوه ایجاد فاجعه بسیار زیاد است و اگر نه انقراض بشریت بلکه دست کم مرگ در مقیاس وسیع را به همراه خواهد داشت.

با این وجود، تلاش‌ها برای مهار گسترش تسلیحات هسته‌ای و بیولوژیکی بسیار بیش‌تر از شش ماه به طول انجامید و تنها تا حدی موفقیت‌آمیز بود. در سال ۱۹۴۶ میلادی ایالات متحده طرح باروخ را برای بین المللی کردن تحقیقات هسته‌ای پیشنهاد کرد.

با این وجود، اتحاد جماهیر شوروی آن طرح را رد کرد و به زودی یک مسابقه تسلیحات هسته‌ای دیوانه کننده آغاز شد. بیش‌ترین دستاوردی که حاصل شد محدود کردن تعداد کشور‌هایی بود که دارای تسلیحات هسته‌ای بودند (از طریق معاهده منع گسترش سلاح‌های هسته‌ای که در سال ۱۹۷۰ میلادی لازم الاجرا شد) و کاهش سرعت و در نهایت معکوس کردن رشد زرادخانه‌های ابرقدرت ها.

کنوانسیون سلاح‌های بیولوژیکی که در سال ۱۹۷۵ میلادی لازم الاجرا شد به طور کامل تحقیقات در مورد این سلاح‌ها را پایان نداد. شوروی هرگز دست از این کار برنداشت و ما گمان می‌کنیم که انواع تحقیقات بیولوژیکی بسیار خطرناک در چین و جا‌های دیگر انجام می‌شود از جمله آزمایش‌ها با ویروس‌ها که به نظر می‌رسد به طور فزاینده‌ای منجر به پاندمی کووید -۱۹ شده است.

بنابراین، اگر یودکوفسکی درست می‌گوید که هوش مصنوعی بالقوه به اندازه سلاح‌های هسته‌ای یا بیولوژیکی خطرناک است بعید به نظر می‌رسد که مکثی شش ماهه دستاورد‌های زیادی به همراه داشته باشد. از سوی دیگر، درخواست او برای توقف کامل تحقیق و توسعه تقریبا به اندازه طرح باروخ شانس موفقیت دارد. یکی از تفاوت‌های آشکار بین آن سلاح‌های کشنده قدیمی و هوش مصنوعی این است که بخش عمده تحقیقات در مورد هوش مصنوعی توسط بخش خصوصی انجام می‌شود.

طبق آخرین گزارش موسسه هوش مصنوعی استنفورد با محوریت انسان، سرمایه‌گذاری خصوصی جهانی در هوش مصنوعی در سال ۲۰۲۲ میلادی بالغ بر ۹۲ میلیارد دلار بوده که بیش از نیمی از آن در ایالات متحده صورت گرفته است. در مجموع ۳۲ مدل یادگیری ماشینی قابل توجه توسط شرکت‌های خصوصی تولید شدند در مقایسه با تنها سه مدل تولید شده توسط موسسات دانشگاهی.

با چنین وضعیتی آیا قیاس وضعیت فعلی در مورد هوش مصنوعی با آن چه پیش‌تر "بمب" می‌نامیدیم درست است؟ این بستگی به سلیقه شما در داستان‌های علمی - تخیلی دارد.

تقریبا همگی نام "اسکای نت" را شنیده‌اید که در سال ۱۹۸۴ میلادی در فیلم "ترمیناتور" با بازی "آرنولد شوارتزنگر" جوان ساخته شد. برای خوانندگان جوان‌تر و کم سن و سال‌تر این یادداشت می‌گویم که فرض مبتنی بر آن بود که اسکای نت یک سیستم دفاعی رایانه‌ای در آینده سرکش می‌شود و تلاش می‌کند تا با حمله هسته‌ای بشریت را از بین ببرد.

"جان کانر" یکی از شخصیت‌های اصلی داستان‌های نابودگر است رهبر مقاومت انسان‌ها در برابر اسکای نت و ربات‌های ترمیناتور می‌باشد. اسکای نت با فرستادن ترمیناتور‌ها به گذشته پاسخ می‌دهد، زیرا البته سفر در زمان برای کشتن مادر کانر آسان است. با این وجود، نسخه‌های دیگری از هوش مصنوعی نیز در داستان‌های علمی – تخیلی وجود دارند.

برای مثال، در چرخه حیات اشیاء نرم افزاری نوشته "تد چیانگ" در سال ۲۰۱۰ میلادی هوش مصنوعی خود را به‌عنوان "دایجینت" نشان می‌دهد در ابتدا حیوانات خانگی و همراهان رایانه‌ای بی ضرر و درمانده و کمی شبیه به بچه شامپانزه‌ها است. آنان مدت زمان زیادی را صرف یادگیری باهوش بودن می‌کنند. در این نسخه از جهان مشکل اخلاقی این است که ما انسان‌ها وسوسه می‌شویم که از دایجنت‌ها به عنوان برده‌های رباتیک بهره برداری کنیم.

در اصل، منتقدان متعدد یودکوفسکی از ما می‌خواهند که باور کنیم هوش مصنوعی از از اسکای نت دقیق‌تر است. "مت پارلمر" موسس شرکت ماشین ابزار Gen Fab در حساب کاربری خود در توئیتر یودکوفسکی و دیگر چهره‌های تندروی مخالف هوش مصنوعی را متهم کرد که از نظر تسلط بر عناصر فنی اساسی در این زمینه عمیق نمی‌اندیشند.

پالمر معتقد است که توقف تحقیقات هوش مصنوعی افراد بیمار را از پیشرفت‌های بالقوه در علم پزشکی محروم می‌سازد. نیکلاس تامپسون" مدیرعامل آتلانتیک نیز با این نظر موافق است که یودکوفسکی و بدبینان نسبت به هوش مصنوعی در مورد خطرات ناشی از آن اغراق می‌کنند.

او افزوده است: "من اخیرا با استفاده از Dall-E و GPT-۴ یک کتاب کودکانه برای سالگرد تولد ۹ سالگی فرزندم درباره جام جهانی بین حیوانات عروسکی او درست کردم. خرس‌ها پیروز شدند و او آن را دوست داشت. بیایید در یک زمان این راه امتحان کنیم. ما چیز‌های جالبی خواهیم ساخت و در حین انجام آن یاد خواهیم گرفت".

بیایید چند پرسش مطرح کنیم: اگر در سال ۲۰۰۶ میلادی به طور جمعی تصمیم می‌گرفتیم توسعه رسانه‌های اجتماعی را به مدت شش ماه به حالت تعلیق در آوریم در حالی که در مورد آسیب‌های احتمالی استفاده گسترده از آن فکر چه می‌شد؟ تاثیرات آن در آن زمان به سختی آشکار بود و هنوز هم مورد بحث است. در این میان، پس از تاخیر شش ماهه تا چه میزان در روند ارزیابی قرار می‌گرفتیم؟ و حتی اگر شرکت‌های آمریکایی یک توقف شش ماهه ایجاد کنند چه کسی می‌تواند بگوید که شرکت‌های چینی این کار را انجام خواهند داد؟

در مورد هوش مصنوعی مشکل این بحث دوجانبه است. نخست آن که به نظر می‌رسد مدافعان هوش مصنوعی همگی سرمایه گذاری زیادی روی هوش مصنوعی انجام داده اند. دوم آن که آنان اکثرا اذعان دارند که حداقل خطری در توسعه هوش مصنوعی با هوش برتر از ما وجود دارد. توسعه دهندگان هوش مصنوعی یک نتیجه گیری نهایی برای ما دارند: به ما اعتماد کنید که این کار را اخلاقی انجام می‌دهیم، زیرا اگر ما را مهار کنید افراد بد کسانی هستند که توسعه را انجام می‌دهند و سپس ممکن است اسکای نت را دریافت کنید.

من به شخصه هیچ سرمایه گذاری‌ای روی هوش مصنوعی انجام نداده ام و همزمان زندگی مرا نیز تهدید نمی‌کند. مطمئنا جدیدترین مدل‌های زبان بزرگ می‌توانند روزنامه نگاری قابل قبولی را ایجاد کنند، اما روزنامه نگاری سرگرمی من است. هنوز هوش مصنوعی‌ای وجود ندارد که بتواند زندگی نامه هنری کیسینجر را بهتر از من بنویسد به ویژه به این دلیل که تعداد بسیار زیادی از اسناد تاریخی مربوطه قابل خواندن توسط ماشین نیستند.

بخش عمده کار‌هایی که هوش مصنوعی انجام می‌دهد منافعی را به بشریت ارائه می‌دهد تهدیدی علیه آن نیست. برای مثال، Deep Mind’s Alpha Fold ساختار حدود ۲۰۰ میلیون پروتئین را تعیین کرده که یک جهش علمی بزرگ به جلو است. بحثی که امروز داریم درباره شاخه خاصی از هوش مصنوعی است: مدل‌های زبانی بزرگ (LLM) که توسط سازمان‌هایی مانند Open AI به ویژه چت جی پی تی و جانشین قوی‌تر آن جی پی تی -۴ تولید می‌شوند.

در آغاز کار Open AI آن شرکت وعده داد که ظرف مدت پنج سال وسایل نقلیه خودران با هوش مصنوعی هر راننده کامیون در آمریکا را بیکار خواهند کرد. با این وجود، روسای آن شرکت ماند ایلان ماسک متوجه شدند که آموزش شبکه‌های عصبی برای رانندگی سخت‌تر از آن چیزی است که آنان تصور می‌کردند. از این رو Open AI به سمت مدل‌های زبانی بزرگ یا LLM حرکت کرد.

به سرعت آشکار شد که ساخت مدل‌های زبانی بزرگ به اندازه کافی قدرتمند به منظور تولید نتایج معتبر برای یک سازمان غیرانتفاعی به دلیل قدرت محاسباتی عظیم مورد نیاز بسیار گران است. ماموریت نهایی Open AI ساخت هوش مصنوعی عمومی "ایمن" است. هدف این است که "از مسابقه ساختن سیستم‌های هوش مصنوعی خطرناک که توسط رقابت ایجاد می‌شود جلوگیری کرده و در عوض ایمنی بشریت را در اولویت قرار دهیم".

با این وجود، رقابت اکنون در گرفته است. مسابقه مدل زبانی بزرگ تا چه اندازه خطرناک است. ظاهرا اصلا خطرناک نیست. هوش مصنوعی‌ای مانند چت جی پی تی اساسا در تلاش است تا "ادامه معقولی" از هر متنی را که تا کنون دریافت کرده است تولید کند جایی که منظور ما از "معقول" آن چیزی است که ممکن است انتظار داشته باشیم کسی پس از دیدن مطالبی که مردم در میلیارد‌ها صفحه وب نوشته اند بنویسد.

وقتی چت جی پی تی کاری مانند نوشتن یک مقاله انجام می‌دهد اساسا کاری که انجام می‌دهد این است که بار‌ها و بار‌ها بپرسد "با توجه به متن نوشته شده تاکنون کلمه بعدی چه باید باشد"؟ و هر بار یک کلمه اضافه کند.

در مقابل، جی پی تی -۴ صرفا یک شبکه عصبی پیش‌بینی کلمه است که تعداد زیادی عملیات را روی آرایه‌های اعداد با GPU انجام می‌دهد واحد‌های پردازشی که در اصل برای تسریع رندر گرافیکی طراحی شده بودند. در نتیجه، خروجی آن حتی از چت جی پی تی نیز بسیار شبیه‌تر به انسان است. با این وجود، پرسش این است که هنگامی که مدل‌های زبانی بزرگ به طور کامل توسعه یافته و به کار گرفته شوند گمان می‌کنید بدترین تاثیرات بر کیفیت تولید کلی فرهنگی چه خواهند بود؟ علاوه بر بیکاری گسترده نویسندگان حرفه‌ای دو مورد دیگر نیز محتمل هستند:

نخست آن که مدل‌های زبانی بزرگ می‌توانند حجم عظیمی از محتوا تولید کنند که سبک ها، ژانر‌ها و گرایش‌های موجود را تقلید می‌کند، اما فاقد اصالت و خلاقیت است. این امر می‌تواند منجر به اشباع بازار فرهنگی با محصولات بی مزه و تکراری شود.

دوم آن که امکان دستکاری و فریب فراهم می‌شود. از مدل‌های زبانی بزرگ می‌توان برای ایجاد محتوای فریبنده یا مضر استفاده کرد که از تعصبات، احساسات و ترجیحات انسانی سوء استفاده می‌کند. این امر می‌تواند شامل اخبار جعلی، تبلیغات، اطلاعات نادرست، دروغ‌های عمیق، کلاهبرداری، یا سخنان نفرت انگیز باشد که اعتماد، دموکراسی و انسجام اجتماعی را تضعیف می‌کند.

من به یاد کتاب "جنگل تاریک" اثر "سیکسین لیو" افتادم که در آن تهاجم "تری سولاران"‌های بیرحم و برتر از نظر فناوری به زمین را توصیف می‌کند. در واقع، ما در حال ساخت بیگانگان هستیم تا آن‌ها را از سفر طولانی از فضا نجات دهیم. درس اصلی آن کتاب این است که اگر ما موجودات فضایی را سریعا نابود نکنیم آنان باید ما را نابود کنند. این موارد بدیهیات "جامعه شناسی کیهانی" لیو هستند: نخست آن که "بقا نیاز اولیه تمدن است". دوم آن که "تمدن پیوسته رشد می‌کند و گسترش می‌یابد، اما کل ماده در جهان ثابت می‌ماند" و سوم آن که "زنجیره‌های سوء ظن" و خطر "انفجار تکنولوژیک" در تمدن دیگری به این معنی است که در این جهان فقط قانون جنگل می‌تواند وجود داشته باشد.

هیچ کس نمی‌تواند از قبل پیش بینی کند که یک اکتشاف و اختراع مهم به چه نتیجه‌ای منتهی می‌شود. چرا ممکن است جی پی تی -۴ یا جی پی تی -۵ به ضرر ما تمام شوند؟ زیرا ما تمام داده‌های جهان را به آن می‌دهیم و بسیاری از آن داده‌ها از معتبرترین منابع می‌گویند که جهان توسط تغییرات آب و هوایی ساخته دست بشر تهدید می‌شود. راه حل واضح برای این مشکل باید از بین بردن کامل هومو ساپینس‌ها باشد. چگونه ممکن است هوش مصنوعی ما را از بین ببرد؟ نه با تولید اندروید‌های قاتل شوارتزنگر بلکه صرفا با استفاده از قدرت آن برای تقلید از ما به منظور دیوانه کردن مان به صورت فردی و جمعی درون یک جنگ داخلی.

باور نمی‌کنید؟ به خبر پدر دو فرزند بلژیکی توجه کنید که پس هفته‌ها صحبت با یک چت بات هوش مصنوعی درباره ترس از تغییرات آب و هوایی، خودکشی کرد.

مدل‌های زبانی بزرگ اتم‌ها یا بیت‌ها را دستکاری نمی‌کنند. آنان ما را دستکاری می‌کنند و مهم نیست که جی پی تی -۵ تصمیم بگیرد ما را از بین ببرد. در عوض، خطر این است که ما خود را به عنوان یک گونه با استفاده از مدل‌های زبانی بزرگ برای اهداف شرم آور از هم جدا کنیم.

ما در حال حاضر در راه رسیدن به کابوس راسکولنیکف در پایان جنایت و مکافات هستیم که در آن بشریت مجموعا دیوانه می‌شود و به قتلگاه داخلی فرو می‌رود. به محتوای دیپ فیک و تولید تصاویر جعلی توسط جی پی تی -۴ نگاهی بیاندازید.

ترجمه: زهرا فدایی


* کاساندرا زیباترین دختر پریاموس بود و بسیاری به امید ازدواج با او، در جنگ تروآ، همراه پریاموس شدند. تا اینکه آپولون عاشقش شد و به او پیشگویی آموخت. اما چون کاساندرا به عشق او پاسخی نداد، آپولون او را محکوم کرد که همیشه صحیح پیشگویی کند، اما کسی پیشگویی‌های او را باور نکند. کاساندرا بار‌ها سقوط تروآ را پیشگویی کرد، اما در اثر نفرین آپولون، کسی حرف او را نپذیرفت و او را دیوانه پنداشتند. پس از شکست تروآ، آیاس در مقابل پالادیوم به او تجاوز کرد. آتنا به مجازات این کار، یونانی‌های بسیاری را در راه بازگشت به وطن نابود کرد. سرانجام کاساندرا را به آگاممنون هدیه کردند. او سرنوشت آگاممنون و کلوتایمنسترا و فرزندان‌شان را پیشگویی کرد و به دست کلوتایمنسترا کشته شد.

bato-adv
مجله خواندنی ها
bato-adv
bato-adv
bato-adv
bato-adv
پرطرفدارترین عناوین