من معتقدم فناوری دیجیتال براحتی میتواند ترازو را به سوی سیستمهای خودکامه متمایل سازد. این یک خطر واقعی است. فارغ از تمام مزایای فناوری دیجیتال یکی از معایب آن تمایل به نظارت دولتها و شرکتهای فناوری است. با این وجود، بسیاری دیگر سیاستهای حفظ حریم خصوصی را نمیخوانند بنابراین درباره آن نمیدانند. هم چنین سیاستگذاریهای حفظ حریم خصوصی به گونهای تنظیم شده اند که شما واقعا نمیتوانید آن را بخوانید چرا که بیش از حد طولانی و پیچیده هستند.
فرارو- گرد گیگرنزر؛ دانشمند رفتارشناسی و روانشناس مشهور آلمانی است که دههها عمر خود را صرف مطالعه نحوه انتخاب افراد کرده است. به همین دلیل است که او فکر میکند اکنون بسیاری از ما به هوش مصنوعی اجازه میدهیم تصمیم گیری کند. گیگرنزر مدیر بازنشسته مرکز رفتار و شناخت تطبیقی در موسسه توسعه انسانی ماکس پلانک است. او کاربرد عقلانیت محدود و رهیافت آنی در تصمیم گیری را مورد مطالعه قرار داده است. گیگرنزر برنده جایزه برای تحقیقات مرتبط با علوم رفتاری به منظور بهترین مقاله در حوزه علوم رفتاری و برنده جایزه انجمن ناشران امریکایی برای بهترین کتاب در حوزه علوم احتماعی و رفتاری و برنده جایزه روانشناسی آلمان بوده است. او هم چنین عضو افتخاری آکادمی هنر و علوم آمریکا و انجمن فلسفی آمریکا است.
به گزارش فرارو به نقل از وال استریت ژورنال، در عصر چت جی پی تی الگوریتمهای رایانهای و هوش مصنوعی به طور فزایندهای در زندگی ما جاسازی میشوند محتوایی را که به صورت آنلاین نشان داده میشویم انتخاب میکنند موسیقیهایی را که میشنویم پیشنهاد میکنند و به پرسشهای مان پاسخ میدهند.
این الگوریتمها ممکن است جهان و رفتارمان را به گونهای تغییر دهند که ما به طور کامل درک نمیکنیم. من پیشتر زمانی که در مرکز رفتار و شناخت تطبیقی در موسسه توسعه انسانی ماکس پلانک بودم تحقیقاتی را در طول چندین دهه انجام دادم که به شکل گیری درک نحوه انتخاب افراد در مواجهه با عدم قطعیت کمک کرده است.
من در تازهترین کتاب ام تحت عنوان "چگونه در دنیای هوشمند هوشیار باقی بمانیم" به این موضوع پرداخته ام که چگونه الگوریتمها آینده مان را شکل میدهند و چرا مهم است به یاد داشته باشیم که الگوریتمها انسان نیستند.
با این وجود، زمانی که از الگوریتم صحبت میکنیم از چه چیزی میگوییم؟ درباره مقوله بزرگی میگوییم و بنابراین مهم است که آن چه را که در مورد آن صحبت میکنیم تشخیص دهیم. یکی از بینشهای تحقیق من در موسسه ماکس پلانک این است که اگر موقعیتی دارید که پایدار و به خوبی تعریف شده است الگوریتمهای پیچیده مانند شبکههای عصبی عمیق قطعا بهتر از عملکرد انسانی هستند. مثالهای مرتبط با آن بازیهایی مانند شطرنج میباشند که پایدار هستند. با این وجود، اگر مشکلی دارید که پایدار نیست برای مثال میخواهید یک ویروس مانند ویروس کرونا را پیش بینی کنید پس دست خود را از الگوریتمهای پیچیده دور نگه دارید. در مواجهه با عدم قطعیت این بیشتر نحوه عملکرد ذهن انسان است تا یکی دو نشانه مهم را شناسایی کند و سایر نشانهها را نادیده بگیرد. در آن نوع از مسائل بد تعریف شده الگوریتمهای پیچیده به خوبی کار نمیکنند. من این را "اصل دنیای پایدار" مینامم و به شما به عنوان اولین سرنخ در مورد آن چه که هوش مصنوعی میتواند انجام دهد کمک میکند. هم چنین به شما میگوید که برای استفاده حداکثری از هوش مصنوعی باید دنیا را قابل پیش بینیتر سازیم.
اما الگوریتمها چه دیگری خواهند بود؟ یک شبکه عصبی عمیق دارای لایههای بسیار زیادی میباشند، اما هنوز هم ماشینهای محاسبه کننده هستند. الگوریتمها میتوانند بسیار بیشتر از قبل با کمک فناوری کار انجام دهند. الگوریتمها میتوانند نقاشی کنند و متن تولید کنند. با این وجود، این بدان معنا نیست که الگوریتمها متن را به معنایی که انسانها میفهمند درک میکنند.
درک چگونگی تصمیم گیری این الگوریتمها به انسانها کمک میکند. شفافیت بسیار مهم است و من معتقدم که باید یک حق بشری باشد. اگر شفاف باشد در واقع میتوانید آن را اصلاح کنید و به جای تکیه بر الگوریتمی که بهتر از دستهای از کارگران بد دستمزد نیست دوباره برای خودتان فکر کنید. بنابراین، ما باید موقعیتی را درک کنیم که در آن قضاوت انسان مورد نیاز میباشد و در واقع بهتر است. هم چنین، باید توجه داشته باشیم در شرایطی قرار نگیریم که شرکتهای فناوری الگوریتمهای جعبه سیاه را که بخشهایی از زندگی ما را تعیین میکنند بفروشند. این در مورد همه چیزصدق میکند از جمله رفتار اجتماعی و سیاسی شما و سپس مردم کنترل خود را به دولتها و شرکتهای فناوری از دست میدهند.
من معتقدم فناوری دیجیتال براحتی میتواند ترازو را به سوی سیستمهای خودکامه متمایل سازد. این یک خطر واقعی است. فناوری دیجیتال فارغ از تمام مزایایی که دارد یکی از معایب اش تمایل به نظارت دولتها و شرکتهای فناوری است. بسیاری دیگر سیاستهای حفظ حریم خصوصی را نمیخوانند بنابراین نمیدانند. هم چنین سیاستهای حفظ حریم خصوصی به گونهای تنظیم شده اند که شما واقعا نمیتوانید آن را بخوانید چرا که بیش از حد طولانی و پیچیده هستند.
شاید بپرسید پس چگونه در مورد چنین چیزی هوشمند باشیم. به کافهای در شهر خود فکر کنید که قهوه رایگان سرو میکند. همه آن جا میروند، چون مجانی است و کافههای دیگر ورشکسته میشوند. بنابراین، شما دیگر چارهای ندارید، اما دست کم قهوه رایگان خود را میگیرید و از گفتگوهای خود با دوستان تان لذت میبرید. با این وجود، روی میزها میکروفونها و روی دیوارها دوربینهای فیلمبرداری قرار دارند که هر چیزی را که میگویید هر کلمهای را ضبط میکنند و برای تحلیل میفرستند.
کافه مملو از فروشندگانی است که مدام حرفهای تان را قطع میکنند تا محصولات شخصی به شما ارائه دهند. زمانی که در فیس بوک، اینستاگرام یا سایر پلتفرمها هستید تقریبا چنین وضعیتی وجود دارد. در این کافه شما مشتری نیستید بلکه محصول هستید. در نتیجه، میخواهیم کافهای داشته باشیم که در آن دوباره بتوانیم خودمان خرج کنیم تا مشتری محسوب شویم.
به طور کلی، من بیشتر امیدوار هستم که افراد متوجه شوند این ایده خوبی نیست که دادههای خود و مسئولیت تصمیمات شان را در اختیار شرکتهای فناوری قرار دهند که از آن برای کسب درآمد از تبلیغ کنندگان استفاده میکنند. این نمیتواند آینده ما باشد. ما همه جا با پول خود پرداخت میکنیم و به همین دلیل مشتری هستیم و کنترل را در دست داریم. در عرصه استفاده از فناوری نیز باید این گونه باشد.
با این وجود، وقتی همه چیز خیلی راحت است خواندن سیاستهای حفظ حریم خصوصی و تحقیق در مورد این الگوریتمهایی که زندگی من را تحت تاثیر قرار میدهند بسیار سخت به نظر میرسد.
متاسفانه به نظر میرسد راحتترین کار فکر نکردن است؛ و جایگزین آن آغاز تفکر است. مهمترین فناوریای که باید از آن آگاه بود سازوکاری است که روانشناسان آن را "تقویت متناوب" مینامند. شما یک تقویت کننده دریافت میکنید مانند "لایک"، اما هرگز نمیدانید چه زمانی آن را دریافت خواهید کرد. افراد به پلتفرم باز میگردند و لایکهای خود را بررسی میکنند. این واقعا ذهنیت را تغییر داده و افراد را وابسته کرده است. من فکر میکنم برای همگان بسیار مهم است که سازوکار چگونگی وابسته شدن را درک کنند. بنابراین، در صورت تمایل میتوانید کنترل را پس بگیرید.