bato-adv
مراقب باشیم شرکت‌های فناوری الگوریتم‌های جعبه سیاه را که بخش‌هایی از زندگی ما را تعیین می‌کنند نفروشند

چگونه هوش مصنوعی و الگوریتم‌ها زندگی ما را تغییر می‌دهند؟

چگونه هوش مصنوعی و الگوریتم‌ها زندگی ما را تغییر می‌دهند؟

من معتقدم فناوری دیجیتال براحتی می‌تواند ترازو را به سوی سیستم‌های خودکامه متمایل سازد. این یک خطر واقعی است. فارغ از تمام مزایای فناوری دیجیتال یکی از معایب آن تمایل به نظارت دولت‌ها و شرکت‌های فناوری است. با این وجود، بسیاری دیگر سیاست‌های حفظ حریم خصوصی را نمی‌خوانند بنابراین درباره آن نمی‌دانند. هم چنین سیاستگذاری‌های حفظ حریم خصوصی به گونه‌ای تنظیم شده اند که شما واقعا نمی‌توانید آن را بخوانید چرا که بیش از حد طولانی و پیچیده هستند.

تاریخ انتشار: ۱۴:۵۴ - ۰۴ فروردين ۱۴۰۲

چگونه هوش مصنوعی و الگوریتم‌ها زندگی ما را تغییر می‌دهند؟ / مراقب باشیم شرکت‌های فناوری الگوریتم‌های جعبه سیاه را که بخش‌هایی از زندگی ما را تعیین می‌کنند نفروشند/ خطر متمایل شدن ترازو به سوی سیستم‌های خودکامه توسط فناوری دیجیتال/ فناوری دیجیتال و هوش مصنوعی کنترل را از ما سلب می‌کنند//ترجمهفرارو- گرد گیگرنزر؛ دانشمند رفتارشناسی و روانشناس مشهور آلمانی است که دهه‌ها عمر خود را صرف مطالعه نحوه انتخاب افراد کرده است. به همین دلیل است که او فکر می‌کند اکنون بسیاری از ما به هوش مصنوعی اجازه می‌دهیم تصمیم گیری کند. گیگرنزر مدیر بازنشسته مرکز رفتار و شناخت تطبیقی در موسسه توسعه انسانی ماکس پلانک است. او کاربرد عقلانیت محدود و رهیافت آنی در تصمیم گیری را مورد مطالعه قرار داده است. گیگرنزر برنده جایزه برای تحقیقات مرتبط با علوم رفتاری به منظور بهترین مقاله در حوزه علوم رفتاری و برنده جایزه انجمن ناشران امریکایی برای بهترین کتاب در حوزه علوم احتماعی و رفتاری و برنده جایزه روانشناسی آلمان بوده است. او هم چنین عضو افتخاری آکادمی هنر و علوم آمریکا و انجمن فلسفی آمریکا است.

به گزارش فرارو به نقل از وال استریت ژورنال، در عصر چت جی پی تی الگوریتم‌های رایانه‌ای و هوش مصنوعی به طور فزاینده‌ای در زندگی ما جاسازی می‌شوند محتوایی را که به صورت آنلاین نشان داده می‌شویم انتخاب می‌کنند موسیقی‌هایی را که می‌شنویم پیشنهاد می‌کنند و به پرسش‌های مان پاسخ می‌دهند.

این الگوریتم‌ها ممکن است جهان و رفتارمان را به گونه‌ای تغییر دهند که ما به طور کامل درک نمی‌کنیم. من پیش‌تر زمانی که در مرکز رفتار و شناخت تطبیقی در موسسه توسعه انسانی ماکس پلانک بودم تحقیقاتی را در طول چندین دهه انجام دادم که به شکل گیری درک نحوه انتخاب افراد در مواجهه با عدم قطعیت کمک کرده است.

من در تازه‌ترین کتاب ام تحت عنوان "چگونه در دنیای هوشمند هوشیار باقی بمانیم" به این موضوع پرداخته ام که چگونه الگوریتم‌ها آینده مان را شکل می‌دهند و چرا مهم است به یاد داشته باشیم که الگوریتم‌ها انسان نیستند.

با این وجود، زمانی که از الگوریتم صحبت می‌کنیم از چه چیزی می‌گوییم؟ درباره مقوله بزرگی می‌گوییم و بنابراین مهم است که آن چه را که در مورد آن صحبت می‌کنیم تشخیص دهیم. یکی از بینش‌های تحقیق من در موسسه ماکس پلانک این است که اگر موقعیتی دارید که پایدار و به خوبی تعریف شده است الگوریتم‌های پیچیده مانند شبکه‌های عصبی عمیق قطعا بهتر از عملکرد انسانی هستند. مثال‌های مرتبط با آن بازی‌هایی مانند شطرنج می‌باشند که پایدار هستند. با این وجود، اگر مشکلی دارید که پایدار نیست برای مثال می‌خواهید یک ویروس مانند ویروس کرونا را پیش بینی کنید پس دست خود را از الگوریتم‌های پیچیده دور نگه دارید. در مواجهه با عدم قطعیت این بیش‌تر نحوه عملکرد ذهن انسان است تا یکی دو نشانه مهم را شناسایی کند و سایر نشانه‌ها را نادیده بگیرد. در آن نوع از مسائل بد تعریف شده الگوریتم‌های پیچیده به خوبی کار نمی‌کنند. من این را "اصل دنیای پایدار" می‌نامم و به شما به عنوان اولین سرنخ در مورد آن چه که هوش مصنوعی می‌تواند انجام دهد کمک می‌کند. هم چنین به شما می‌گوید که برای استفاده حداکثری از هوش مصنوعی باید دنیا را قابل پیش بینی‌تر سازیم.

اما الگوریتم‌ها چه دیگری خواهند بود؟ یک شبکه عصبی عمیق دارای لایه‌های بسیار زیادی می‌باشند، اما هنوز هم ماشین‌های محاسبه کننده هستند. الگوریتم‌ها می‌توانند بسیار بیش‌تر از قبل با کمک فناوری کار انجام دهند. الگوریتم‌ها می‌توانند نقاشی کنند و متن تولید کنند. با این وجود، این بدان معنا نیست که الگوریتم‌ها متن را به معنایی که انسان‌ها می‌فهمند درک می‌کنند.

درک چگونگی تصمیم گیری این الگوریتم‌ها به انسان‌ها کمک می‌کند. شفافیت بسیار مهم است و من معتقدم که باید یک حق بشری باشد. اگر شفاف باشد در واقع می‌توانید آن را اصلاح کنید و به جای تکیه بر الگوریتمی که بهتر از دسته‌ای از کارگران بد دستمزد نیست دوباره برای خودتان فکر کنید. بنابراین، ما باید موقعیتی را درک کنیم که در آن قضاوت انسان مورد نیاز می‌باشد و در واقع بهتر است. هم چنین، باید توجه داشته باشیم در شرایطی قرار نگیریم که شرکت‌های فناوری الگوریتم‌های جعبه سیاه را که بخش‌هایی از زندگی ما را تعیین می‌کنند بفروشند. این در مورد همه چیزصدق می‌کند از جمله رفتار اجتماعی و سیاسی شما و سپس مردم کنترل خود را به دولت‌ها و شرکت‌های فناوری از دست می‌دهند.

من معتقدم فناوری دیجیتال براحتی می‌تواند ترازو را به سوی سیستم‌های خودکامه متمایل سازد. این یک خطر واقعی است. فناوری دیجیتال فارغ از تمام مزایایی که دارد یکی از معایب اش تمایل به نظارت دولت‌ها و شرکت‌های فناوری است. بسیاری دیگر سیاست‌های حفظ حریم خصوصی را نمی‌خوانند بنابراین نمی‌دانند. هم چنین سیاست‌های حفظ حریم خصوصی به گونه‌ای تنظیم شده اند که شما واقعا نمی‌توانید آن را بخوانید چرا که بیش از حد طولانی و پیچیده هستند.

شاید بپرسید پس چگونه در مورد چنین چیزی هوشمند باشیم. به کافه‌ای در شهر خود فکر کنید که قهوه رایگان سرو می‌کند. همه آن جا می‌روند، چون مجانی است و کافه‌های دیگر ورشکسته می‌شوند. بنابراین، شما دیگر چاره‌ای ندارید، اما دست کم قهوه رایگان خود را می‌گیرید و از گفتگو‌های خود با دوستان تان لذت می‌برید. با این وجود، روی میز‌ها میکروفون‌ها و روی دیوار‌ها دوربین‌های فیلمبرداری قرار دارند که هر چیزی را که می‌گویید هر کلمه‌ای را ضبط می‌کنند و برای تحلیل می‌فرستند.

کافه مملو از فروشندگانی است که مدام حرف‌های تان را قطع می‌کنند تا محصولات شخصی به شما ارائه دهند. زمانی که در فیس بوک، اینستاگرام یا سایر پلتفرم‌ها هستید تقریبا چنین وضعیتی وجود دارد. در این کافه شما مشتری نیستید بلکه محصول هستید. در نتیجه، می‌خواهیم کافه‌ای داشته باشیم که در آن دوباره بتوانیم خودمان خرج کنیم تا مشتری محسوب شویم.

به طور کلی، من بیش‌تر امیدوار هستم که افراد متوجه شوند این ایده خوبی نیست که داده‌های خود و مسئولیت تصمیمات شان را در اختیار شرکت‌های فناوری قرار دهند که از آن برای کسب درآمد از تبلیغ کنندگان استفاده می‌کنند. این نمی‌تواند آینده ما باشد. ما همه جا با پول خود پرداخت می‌کنیم و به همین دلیل مشتری هستیم و کنترل را در دست داریم. در عرصه استفاده از فناوری نیز باید این گونه باشد.

با این وجود، وقتی همه چیز خیلی راحت است خواندن سیاست‌های حفظ حریم خصوصی و تحقیق در مورد این الگوریتم‌هایی که زندگی من را تحت تاثیر قرار می‌دهند بسیار سخت به نظر می‌رسد.

متاسفانه به نظر می‌رسد راحت‌ترین کار فکر نکردن است؛ و جایگزین آن آغاز تفکر است. مهم‌ترین فناوری‌ای که باید از آن آگاه بود سازوکاری است که روانشناسان آن را "تقویت متناوب" می‌نامند. شما یک تقویت کننده دریافت می‌کنید مانند "لایک"، اما هرگز نمی‌دانید چه زمانی آن را دریافت خواهید کرد. افراد به پلتفرم باز می‌گردند و لایک‌های خود را بررسی می‌کنند. این واقعا ذهنیت را تغییر داده و افراد را وابسته کرده است. من فکر می‌کنم برای همگان بسیار مهم است که سازوکار چگونگی وابسته شدن را درک کنند. بنابراین، در صورت تمایل می‌توانید کنترل را پس بگیرید.

برچسب ها: هوش مصنوعی
bato-adv
مجله خواندنی ها
bato-adv
bato-adv
bato-adv
bato-adv
پرطرفدارترین عناوین