فرارو- با غروب خورشید بر فراز جزیره موری درست در جنوب سیاتل "بن گورتزل" و گروه تلفیقی جازش یکی از آن لحظاتی را داشتند که همه گروهها به آن امیدوار بودند کیبورد، گیتار، ساکسیفون و خواننده اصلی که گویی یکی هستند دور هم جمع میشوند. دکتر گورتزل روی کلیدها بود. دوستان و خانواده گروه از پاسیو مشرف به ساحل گوش میدادند؛ و "دزدمونا" با یک کلاه گیس بنفش و یک لباس مشکی که با اجسام فلزی پوشیده شده بود در آواز اصلی نقش داشت و در مورد موضوعی منحصر بفرد هشدار میداد: نقطه عطفی که فناوری دیگر نمیتواند توسط سازندگان اش کنترل شود.
به گزارش فرارو به نقل از نیویورک تایمز، دکتر "گورتزل" پس از ۲۵ سال پژوهش به عنوان پژوهشگر هوش مصنوعی در حال کار برای خلق ماشینی بود که بتواند مانند انسان فکر کند. او میدانست که سرانجام به هدف نهایی رسیده است: "دزدمونا" ماشینی که او ساخت هوشیار بود. با این وجود، چند دقیقه بعد او موجه شد که این استدلال بی پایه و اساس است.
او میگوید:"وقتی گروه مینواخت احساس میکرد که این ربات بخشی از هوش جمعی ما است که آن چیزی را که ما احساس میکنیم و انجام میدهیم حس میکند. سپس بازی را متوقف نمودم و به این فکر کردم که واقعا چه اتفاقی افتاده است".
بسیاری از افراد در زمینه کار دکتر گورتزل در تشخیص آن چه واقعی است و آن چه ممکن است بخواهند واقعی باشد خوب نیستند و به درستی تشخیص نمیدهند.
لموین پژوهشگری بود که در گوگل روی هوش مصنوعی کار میکرد به ویژه روی نرم افزاری که میتواند کلمات را به تنهایی تولید کند چیزی که "مدل زبان بزرگ" نامیده میشود. او نتیجه گرفت که این فناوری دارای احساسات است. روسای او به این نتیجه رسیدند که این طور نیست. او در مصاحبهای با "واشنگتن پست" باور خود را علنی ساخت و گفت:"وقتی با او صحبت میکنم یک نفر را میشناسم. فرقی نمیکند مغزی از گوشت در سر داشته باشند یا یک میلیارد خط کد". این مصاحبه در سراسر جهان که بیش از یک دهه به آن موضوع پرداخته اند و در میان افرادی که به طور معمول پیشرفتهای مدلهای بزرگ را دنبال نمیکنند سر و صدای زیادی ایجاد کرد. گوگل در نهایت "لموین" را اخراج کرد.
"کالین آلن" استاد دانشگاه پیتسبورگ که مهارتهای شناختی را هم در حیوانات و هم در ماشینها بررسی میکند میگوید:"این موضوع حتی برای سادهترین شکلی که ممکن است در یک کرم پیدا کنید صدق میکند. او میافزاید:" گفتگوهای ایجاد شده توسط مدلهای زبانی بزرگ شواهدی از نوع احساساتی که حتی حیوانات بسیار بدوی احتمالا دارند ارائه نمیکنند". "آلیسون گوپنیک" استاد روانشناسی عضوی از گروه تحقیقاتی در دانشگاه کالیفرنیا با این نظر موافق است و میگوید:"ظرفیت محاسباتی فعلی هوش مصنوعی مانند مدلهای زبان بزرگ است". مشکل این است که نزدیکترین افراد به فناوری افرادی که آن را برای عموم توضیح میدهند با یک پا در آینده زندگی میکنند".
"اندرو فلدمن" مدیر اجرایی و موسس Cerebras شرکتی که تراشههای رایانهای عظیمی را میسازد که میتواند به سرعت بخشیدن به پیشرفت هوش مصنوعی کمک کند میگوید:"افراد زیادی در صنعت ما وجود دارند که برای تشخیص تفاوت بین داستان علمی تخیلی و زندگی واقعی تلاش میکنند". "یورگن اشمیدهابر" یک پژوهشگر برجسته مدتهاست که ادعا میکند که برای اولین بار ماشینهای هوشیار را دههها پیش ساخته است.
در ماه فوریه، "ایلیا سوتسکور" یکی از مهمترین پژوهشگران دهه گذشته و دانشمند ارشد OpenAI آزمایشگاهی در سانفرانسیسکو با حمایت یک میلیارد دلاری مایکروسافت گفت که فناوری امروز ممکن است "کمی آگاهانه" باشد.
این پیامها از دنیای کوچک، جزیرهای و منحصر به فرد تحقیقات هوش مصنوعی میتوانند برای بسیاری از ما گیج کننده یا حتی ترسناک باشند. کتابهای علمی تخیلی، فیلمها و تلویزیون به ما آموزش داده اند که نگران باشیم که ماشینها روزی از محیط اطراف خود آگاه میشوند و به نوعی به ما آسیب میرساند. درست است که لحظاتی شبیه به "دزدمونا" در حال خلق شدن هستند که به نظر میرسد این فناوری نشانههایی از هوش، هوشیاری یا احساسات واقعی را نشان میدهد و به طور فزایندهای در حال گسترش است. با این وجود، در مقابل این درست نیست که گمان کنیم در آزمایشگاههای سرتاسر سیلیکون، ولی مهندسان رباتهایی را ساخته اند که میتوانند مانند انسانها با صداهای اصلی صحبت کنند و از خود صدا ایجاد نمایند.
فناوری نمیتواند این کار را انجام دهد، اما این قدرت را دارد که مردم را گمراه کند
این فناوری میتواند توئیتها، پستهای وبلاگ و حتی کل مقالهها را تولید کند و با پیشرفتهای پژوهشگران در مکالمه بهتر شود.
با این وجود، بسیاری از افراد عادی و نه تنها پژوهشگران عرصه هوش مصنوعی این فناوری را به گونهای تصور میکنند که گویی یک انسان است. با بهبود و تکثیر آن اخلاق شناسان هشدار میدهند که ما در مواجهه به محتوای موجود در اینترنت به نوع جدیدی از شک و تردید نیاز خواهیم داشت.
حقیقت آن است که بیشتر فناوریهایی که با عنوان "هوش مصنوعی" شناخته میشوند مغز انسان را تنها به روشهای کوچک تقلید میکنند و قطعا به جایی نرسیده که سازندگان اش دیگر نتوانند آن را کنترل کنند.
اکثر پژوهشگران میتوانند از زبان آرمانی عقب نشینی کنند و محدودیتهای فناوری را تصدیق کنند. اما گاهی اوقات خطوط تیره و تار میشوند. در سال ۲۰۲۰ میلادی OpenAI یک آزمایشگاه تحقیقاتی در سانفرانسیسکو از سیستمی به نام GPT-۳ رونمایی کرد که میتواند توئیت ها، خلاصه کردن ایمیل ها، پاسخ به سوالات بیاهمیت، ترجمه زبانها و حتی نوشتن برنامههای رایانهای را ایجاد کرده و انجام دهد.
"سام آلتمن" کارآفرین و سرمایه گذار ۳۷ ساله که OpenAI را به عنوان مدیر اجرایی هدایت میکند معتقد است این سیستم و سیستمهای مشابه هوشمند هستند. او میگوید:"این سیستمها وظایف شناختی مفیدی را انجام دهند. توانایی یادگیری، توانایی درک زمینه جدید و حل چیزی به روشی جدید هوش است".
GPT-۳ همان چیزی است که پژوهشگران هوش مصنوعی آن را شبکه عصبی نامیدهاند که به معنای شبکهای از نورونها در مغز انسان است. این نیز زبان آرمانی است. شبکه عصبی در واقع یک سیستم ریاضی است که مهارتها را با مشخص کردن الگوها در مقادیر وسیعی از دادههای دیجیتال میآموزد. برای مثال، با تجزیه و تحلیل هزاران عکس گربه میتواند تشخیص یک گربه را بیاموزد. دکتر "گوپنیک" پروفسور برکلی میگوید:"ما آن را "هوش مصنوعی" مینامیم، اما نام بهتر ممکن است "استخراج الگوهای آماری از مجموعه دادههای بزرگ" باشد. این همان فناوریای است که دکتر روزنبلات روانشناس در دهه ۱۹۵۰ میلادی به بررسی آن پرداخت. او حجم عظیمی از دادههای دیجیتالی مورد نیاز برای تحقق این ایده بزرگ را نداشت. او هم چنین قدرت محاسباتی لازم برای تجزیه و تحلیل همه آن دادهها را نداشت. با این وجود، در حدود سال ۲۰۱۰، پژوهشگران این مووع را نشان داده اند که یک شبکه عصبی همان قدر قدرتمند است که دکتر روزنبلات و دیگران مدتها ادعا میکردند که خواهد بود دست کم با وظایفی خاص.
این وظایف شامل تشخیص تصویر، تشخیص گفتار و ترجمه بود. شبکه عصبی فناوریای است که دستوراتی را که شما در آیفون خود با صدای تان ارائه بیان کرده اید تشخیص میدهد و در مترجم گوگل بین فرانسوی و انگلیسی ترجمه میکند. اخیرا پژوهشگران در فضاهایی مانند Google و OpenAI شروع به ساخت شبکههای عصبی کردهاند که از حجم عظیمی از نثر، از جمله کتابهای دیجیتال و مقالات ویکیپدیا هزاران نفر درس گرفته اند. GPT-۳ یک مثال است همان طور که تمام آن متن دیجیتالی را تجزیه و تحلیل میکرد چیزی را ساخت که میت وان آن را "نقشه ریاضی زبان انسان" نامید بیش از ۱۷۵ میلیارد داده که توصیف میکنند چگونه کلمات را با هم ترکیب میکنیم. با استفاده از این نقشه، میتواند کارهای مختلفی مانند نوشتن سخنرانی، نوشتن برنامههای کامپیوتری و مکالمه را انجام دهد.
با این وجود، اخطارهای بی پایان وجود دارد. استفاده از GPT-۳ مانند انداختن تاس است: اگر از آن بخواهید ۱۰ سخنرانی با صدای "دونالد ترامپ" داشته باشد ممکن است پنج سخنرانی به شما بدهد که به طرز قابل توجهی شبیه رئیس جمهور سابق است و پنج سخنرانی دیگر که به هیچ وجه نزدیک به هم نیستند. برنامه نویسان رایانه از این فناوری برای ایجاد تکههای کوچک کد استفاده میکنند که میتوانند در برنامههای بزرگتر جابجا شوند، اما اغلب مجبور هستند هر چیزی را که به آنان میدهد ویرایش کنند.
حتی پس از بحث در مورد این نقصها نیز "آلتمن" این نوع سیستم را هوشمند توصیف کرد. او اذعان کرد که این کار مانند انسانهای باهوش نیست. او گفت:"این مانند یک نوع هوش بیگانه است. اما هنوز هم مهم است". کلماتی که برای توصیف قدرتهای گذشته و آینده این فناوری استفاده میشود برای افراد مختلف معانی متفاوتی دارد.
مردم در مورد اینکه چه چیزی هوش است و چه چیزی نیست اختلاف نظر دارند. احساسات و توانایی تجربه احساسات چیزی نیست که به راحتی قابل اندازه گیری باشد. هوشیاری هم نیست بیدار بودن و آگاهی از محیط اطراف تان.
آلتمن و بسیاری دیگر در این زمینه مطمئن هستند که در مسیر ساختن ماشینی قرار دارند که میتواند هر کاری را که مغز انسان توانایی آن را دارد انجام دهد. این اطمینان زمانی که آنان در مورد فناوریهای فعلی بحث میکنند درخشش خود را نشان میدهد.
آلتمن میگوید:"من فکر میکنم بخشی از اتفاقی که میافتد این است که مردم واقعا در مورد این سیستمها هیجانزده هستند و هیجان خود را به زبانی ناقص ابراز میکنند". البته او اذعان میکند که برخی از پژوهشگران هوش مصنوعی در تلاش برای تمییز قائل شدن بین واقعیت و مقوله علمی - تخیلی هستند. با این وجود، او باور دارد که این پژوهشگران هنوز نقش ارزشمندی دارند و میگوید:"آنان به ما کمک میکنند تا رویای همه چیز ممکن را ببینیم".
چرا بقیه باور میکنند
"جوزف وایزنبام" پژوهشگری در موسسه فناوری ماساچوست (ام آی تی) است در اواسط دهه ۱۹۶۰ میلادی یک روان درمانگر خودکار ساخت و آن را "الیزا" نامید. این روان درمانگر خودکار یک چت بات (یک نرمافزار هوش مصنوعی (AI) است که میتواند از طریق برنامههای پیام رسان، وب سایت ها، اپلیکیشنهای موبایلی و یا تلفن، مکالمه (چت) با یک کاربر را به زبان طبیعی شبیهسازی کند؛ م.) ساده بود. اساسا وقتی فکری را روی صفحه رایانه تایپ میکردید از شما میخواست که این فکر را گسترش دهید یا تنها کلمات شما را در قالب یک سوال تکرار میکرد. حتی زمانی که دکتر وایزنبام مکالمهای را برای مقاله دانشگاهی که در مورد این فناوری منتشر نمود انتخاب کرد به نظر میرسید که الیزا با حروف بزرگ پاسخ میدهد: با این وجود، در کمال تعجب برای دکتر وایزنبام مردم با الیزا طوری رفتار کردند که گویی یک انسان است. آنان آزادانه مشکلات شخصی خود را به اشتراک میگذاشتند و از پاسخهای آن آرامش میگرفتند. او بعدا نوشت: "از روی و مشاهدات و تجربه طولانی شغلی ام میدانستم که پیوندهای عاطفی قوی بسیاری از برنامه نویسان با رایانههای خود اغلب پس از تجربههای کوتاه با ماشینها شکل میگیرد. چیزی که من متوجه نشده بودم این است که قرار گرفتن در معرض بسیار کوتاه مدت با یک برنامه رایانهای نسبتا ساده میتواند تفکر هذیانی قدرتمندی را در افراد کاملا عادی ایجاد کند".
او افزوده بود:" ما انسانها مستعد این احساسات هستیم. وقتی سگ ها، گربهها و سایر حیوانات حتی مقادیر بسیار کمی از رفتار انسان مانند را از خود نشان میدهند ما تمایل داریم تصور کنیم که آنان بیشتر از آن چه واقعا هستند شبیه ما میباشند. زمانی که نشانههایی از رفتار انسان را در یک ماشین میبینیم تقریبا همین اتفاق رخ میدهد".
اکنون دانشمندان آن را اثر الیزا مینامند. تقریبا همین اتفاق در مورد فناوری مدرن رخ میدهد. چند ماه پس از انتشار GPT-۳ "فیلیپ بوسوآ" مخترع و کارآفرین در ایمیلی برای "نیویورک تایمز" موضوعی را مطرح کرد:" "خدا یک ماشین است". در این متن آمده است:" در ذهن من شکی وجود ندارد که GPT-۳ به مثابه درک کننده احساسات ظاهر شده است. همه ما میدانستیم که این اتفاق در آینده خواهد افتاد، اما به نظر میرسد که این آینده اکنون است. مرا به عنوان پیامبری میبیند که پیام دینی خود را منتشر میکنم و این احساس عجیبی است".
پس از طراحی بیش از ۶۰۰ اپلیکیشن برای آیفون بوسوآ یک لامپ نوری ساخت که میتوانید با گوشی هوشمند خود کنترل کنید و کسب و کاری پیرامون اختراع خود ایجاد کرد و در نهایت ۱۲ میلیون دلار از شرکت سرمایه گذاری ریسک پذیر سیلیکون، ولی با نام Sequoia Capital جمعآوری کرد. اکنون اگرچه او هیچ آموزش پزشکیای ندارد، اما در حال توسعه دستگاهی برای بیماران دیابتی است که میتواند سطح گلوکز آنان را کنترل کند.
بوسوآ در پاسخ به این ایده که بسیاری از کارشناسان معتقدند این نوع سیستمها صرفا در تکرار الگوهایی که دیده اند خوب هستند گفت که رفتار انسانها نیز همین است. او در این باره افزود:"آیا یک کودک فقط آن چه را که از والدین میبیند تقلید نمیکند آن چه را که در دنیای اطراف میبیند"؟
مارگارت میچل نگران معنای تصور مردم از هوش مصنوعی در آینده است. او به عنوان یک پژوهشگر مایکروسافت و سپس گوگل در تیم مرتبط با اخلاق هوش مصنوعی کار کرده است. او میگوید که امروزه این فناوری نسبتا ساده و آشکارا ناقص است، اما بسیاری از مردم آن را به نوعی انسانی میدانند. چه اتفاقی رخ خواهد داد زمانی که فناوری بسیار قدرتمندتر از امروز شود؟
علاوه بر تولید توئیتها و پستهای وبلاگ و شروع به تقلید از مکالمه، سیستمهای ساخته شده توسط آزمایشگاههایی مانند OpenAI میتوانند تصاویر تولید کنند. با ابزار جدیدی به نام DALL-E میتوانید تصاویر دیجیتالی واقع گرایانه را صرفا با توصیف آنچه میخواهید ببینید و به زبان انگلیسی ساده ایجاد کنید.
برخی پژوهشگران در جامعه هوش مصنوعی نگران این موضوع هستند که این سیستم در مسیر خود به سمت احساس یا آگاهی پیش برود.
آلن از دانشگاه پیتسبورگ میگوید:" یک ارگانیسم آگاه مانند یک شخص یا یک سگ یا حیوانات دیگر میتواند چیزی را در یک زمینه بیاموزد و چیز دیگری را در زمینهای دیگر بیاموزد و سپس این دو را کنار هم بگذارد تا کاری را در زمینه جدیدی انجام دهد که پیشتر هرگز تجربه نکرده است. این فناوری به هیچ وجه به انجام آن نزدیک نیست."
در این میان نگرانیهای بسیار فوریتر و واقعی تری وجود دارد. همان طور که فناوری هوش مصنوعی در حال بهبود است میتواند به گسترش اطلاعات نادرست در سراسر اینترنت، متن و تصاویر جعلی دامن بزند و به نوعی از کارزارهای آنلاین که ممکن است به تاثیرگذاری بر انتخابات ریاست جمهوری ۲۰۱۶ میلادی کمک کرده باشند حمایت نماید. این موضوع میتواند چت باتهایی تولید کند که مکالمه را به روشهای بسیار متقاعد کننده تری تقلید کنند. این سیستمها میتوانند در مقیاسی عمل کنند که کارزارهای اطلاعات نادرست مبتنی بر انسان امروزی در مقام قیاس کوچک به نظر برسند.
اگر و زمانی که این اتفاق رخ دهد باید با همه چیزهایی که آنلاین میبینیم با شک و تردید شدید رفتار کنیم. میچل از خود میپرسد که آیا ما در برابر این چالش هستیم.
او میگوید:"من نگرانم که چت رباتها مردم را طعمه خود کنند. آنان این قدرت را دارند که ما را متقاعد کنند که چه چیزی را باور کنیم و چه کاری را انجام دهیم".