فرارو- چهار مقاله آکادمیک تازه نشان میدهند که الگوریتمهای مورد استفاده فیسبوک تاثیر قابل توجهی بر گسترش اطلاعات دارند، اما تاثیر قابل توجهی بر باورهای اساسی افراد ندارد.
به گزارش فرارو به نقل از نیویورک تایمز، این به نوعی معادل آخر هفته باربنهایمر در حوزه علوم اجتماعی بود: چهار مقاله آکادمیک پر خواننده که در دو مجله برجسته جهان در همان روز منتشر شد. این مقالات که توسط محققان نخبه از دانشگاههای سراسر ایالات متحده نوشته شده اند هر کدام جنبههای مختلف یکی از به ظاهر قانع کنندهترین مسائل مربوط به سیاستگذاری عمومی زمان ما را مورد بررسی قرار داده اند: این که رسانههای اجتماعی چگونه دانش، باورها و رفتارهای ما را شکل میدهند.
محققان با تکیه بر دادههای جمعآوری شده از صدها میلیون کاربر فیسبوک طی چندین ماه دریافتند به گونهای که البته جای تعجبی نداشت این پلتفرم و الگوریتمهای آن تاثیر قابل توجهی بر اطلاعاتی که کاربران میدیدند، بر مدت زمانی که برای پیمایش در فضای مجازی صرف میکردند و بر دانش آنان درباره رویداهای خبری داشت. فیس بوک هم چنین تمایل داشت به کاربران اطلاعاتی را از منابعی که پیشتر با آن موافق بودند نشان دهد و "حبابهای فیلتر" سیاسی ایجاد کند که جهان بینی افراد را تشدید میکرد و حاملی برای اطلاعات نادرست در وهله نخست برای کاربران طیف محافظه کار از لحاظ سیاسی بود. با این وجود، بزرگترین خبر مربوط به چیزی بود که مطالعات به آن دست پیدا نکردند: علیرغم تاثیر فیس بوک بر انتشار اطلاعات هیچ گونه مدرکی مبنی بر اینکه این آن پلتفرم رسانههای اجتماعی تاثیر قابل توجهی بر باورهای اساسی افراد یا سطوح قطبی شدن سیاسی داشته باشد وجود نداشت.
این تازهترین یافتهای است که نشان میدهد رابطه بین اطلاعاتی که مصرف میکنیم و باورهایی که داریم بسیار پیچیدهتر از آن چیزی است که معمولا درک میشود.
گاهی اوقات اثرات خطرناک شبکههای اجتماعی واضح است. برای مثال، در جریان حملات واقعی در ژانویه گذشته در برزیل از سوی حامیان بولسونارو رئیس جمهور سابق از رسانههای اجتماعی برای انتشار ادعاهای دروغین مبنی بر این که تقلب در انتخابات به ضرر او تمام شده استفاده شده بود و سپس اوباش برای حمله به ساختمانهای فدرال در برازیلیا از طریق گروههای واتس آپ و تلگرام برنامه ریزی و سازماندهی را انجام دادند. هم چنین، در سریلانکا در سال ۲۰۱۸ میلادی زمان کشتار صورت گرفته علیه مسلمانان مشخص شد که فید خبری فیس بوک حامل شایعاتی بوده که بهانهای به دست خشونت طلبان داده و گروههای واتس آپ به پلتفرمی برای سازماندهی و اجرای حملات تبدیل شده بودند.
این کتاب بازی مشابهی بود که در ۶ ژانویه ۲۰۲۱ در ایالات متحده مورد استفاده قرار گرفت زمانی که حامیان دونالد ترامپ به ساختمان کنگره یورش بردند.
اما گذشته از رویدادهای گسستهای مانند این نگرانیهایی نیز وجود دارد که رسانههای اجتماعی و به ویژه الگوریتمهایی که برای پیشنهاد محتوا به کاربران استفاده میشوند ممکن است در گسترش عمومیتر اطلاعات نادرست و قطبی شدن نقش داشته باشند. این نظریه تقریبا چیزی شبیه به این است: برخلاف گذشته زمانی که اکثر افراد اطلاعات خود را از چند منبع اصلی دریافت میکردند رسانههای اجتماعی اکنون این امکان را برای افراد فراهم میکنند که اخبار را حول محور تعصبات و علائق خود فیلتر کنند. در نتیجه، آنان عمدتا روایتها و داستانهایی را از افرادی که از نظر طیف و دیدگاه سیاسی در اردوگاه شان قرار دارند به اشتراک گذاشته و میبینند.
ظاهرا آن "حباب فیلتر" اطلاعات کاربران را در معرض نسخههای ناهنجار واقعیت قرار میدهد، امکان اجماع نظر با دیگران را تضعیف میکند و درک آنان از افراد طرف مقابل را کاهش میدهد. این نظریه پس از انتخاب ترامپ در سال ۲۰۱۶ توجه جریان اصلی را به خود جلب کرد. چند روز پس از انتخابات مقالهای در نشریه "نیویورک مگزین" با عنوان "حباب فیلتر" اشاره میکرد که چرا ترامپ برنده شد و شما آمدن آن را ندیدید. چند هفته بعد مجله Wired ادعا کرد:"اتاق پژواک شما در حال نابودی دموکراسی است".
با این وجود، بدون آزمایش دقیق تشخیص این که آیا اثر حباب فیلتر واقعی بوده یا خیر دشوار به نظر میرسید. چهار مطالعه تازه اولین مورد مجموعه ۱۶ مقاله بررسی شده است که برای انجام آن همکاری متا شرکت صاحب فیس بوک و اینستاگرام و گروهی از محققان از دانشگاههایی از جمله پرینستون، دارتموث، دانشگاه پنسیلوانیا و استنفورد صورت گرفته است.
متا در طول دوره سه ماهه پیش از انتخابات ۲۰۲۰ ایالات متحده اجازه دسترسی بی سابقهای به دادههای خود را به مخققان داد. متا به آنان اجازه داد تا دادههای بیش از ۲۰۰ میلیون کاربر را مورد تجزیه و تحلیل قرار دهند و هم چنین آزمایشهای کنترل تصادفی سازی شده را روی گروههای بزرگی از کاربرانی که موافقت کردند در مطالعات شرکت کنند انجام دهند. شایان ذکر است که این غول رسانههای اجتماعی ۲۰ میلیون دلار برای جمع آوری برخی از دادهها توسط دانشگاه شیکاگو هزینه کرد. مطالعات روی هم رفته نشان میدهند که شواهدی برای بخش اول نظریه حباب فیلتر وجود دارد: کاربران فیس بوک تمایل داشتند پستهایی را از منابع همفکر ببینند و درجات بالایی از تفکیک ایدئولوژیک با هم پوشانی کمی بین آن چه کاربران لیبرال و محافظه کار میدیدند، کلیک میکردند و به اشتراک میگذاشتند وجود داشت.
بخش عمده اطلاعات نادرست در طیف محافظه کار (از نظر سیاسی) شبکه اجتماعی متمرکز شده بود و باعث میشد کاربران دست راستی به مراتب بیش از کاربران لیبرال با دروغهای سیاسی در آن پلتفرم مواجه شوند.
"ساندرا گونزالس بایلون" نویسنده اصلی مقالهای که اطلاعات نادرست را مورد مطالعه قرار داده به "نیویورک تایمز" میگوید:"من فکر میکنم این موضوع عرضه و تقاضا است. کاربران فیس بوک عمدتا از نظر سیاسی محافظه کار هستند و این موضوع بازار بالقوه برای اطلاعات نادرست حزبی را در اردوگاه راستگرایان بزرگتر میسازد. نظارت آنلاین تقویت شده توسط الگوریتمهایی که احساس کنندهترین محتوا را در اولویت قرار میدهند میتواند این اثرات بازار را تقویت کند".
زمانی که نوبت به بخش دوم نظریه رسید: این که محتوای فیلتر شده اغلب به روشهای مضر باورها و جهان بینی مردم را شکل میدهد. با این وجود، نتایج تحقیقات چندان حمایت کننده از این نظریه نبودند. در یک آزمایش به طور عمدی محتوای منابع همفکر کاهش یافت به طوری که کاربران اطلاعات متنوع تری را مشاهده کردند، اما هیچ تاثیری بر قطبی شدن یا نگرشهای سیاسی آنان مشاهده نشد. محققان دریافتند که حذف تاثیر الگوریتم بر فیدهای افراد به طوری که آنان محتوا را به ترتیب زمانی میدیدند به طور قابل توجهی سطوح قطبی سازی موضوع، قطبیسازی عاطفی، دانش سیاسی یا سایر نگرشهای کلیدی را تغییر نداد.
الگوریتمها برای سالیان متمادی مورد توجه قانونگذاران بوده اند، اما بسیاری از استدلالها برای تنظیم الگوریتمها مبتنی بر این فرض بودند که در دنیای واقعی تاثیر دارند. نتایج تحقیقات تازه این روایت و استدلال را پیچیدهتر میسازد.
با این وجود، نتیجه پژوهشهای تازه پیامدهایی نیز دارد که بسیار گستردهتر از خود رسانههای اجتماعی است و به برخی از مفروضات اصلی در مورد نحوه شکل گیری باورها و دیدگاههای سیاسی خود میرسد. "برندان نیهان" که در مورد برداشتهای نادرست سیاسی تحقیق میکند و یکی از نویسندگان اصلی مقالات مرتبط با یکی از این مطالعات بوده به "نیویورک تایمز" میگوید: "نتایج قابل توجه بود، زیرا نشان میدهند که ارتباطی ضعیفتر بین اطلاعات و باورها در مقایسه با نتایج به تحقیقات قبلی وجود داشت. پیشتر تصور میشد که اطلاعات اغلب دیدگاههای افراد را تغییر میدهند، اما این تغییرات همیشه به نگرشهای متفاوت تبدیل نمیشوند. با این وجود، مطالعات جدید حاکی از رابطهای ضعیفتر در این باره است. ما شاهد تاثیرات ناچیز بر دیدگاهها و نگرشهای واقعی افراد بودیم".
اگر اطلاعات جدید باورها یا حمایت سیاسی را تغییر ندهد این امر نه تنها بر دیدگاه رای دهندگان از جهان بلکه بر توانایی آنان برای پاسخگو ساختن رهبران سیاسی در دموکراسیها نیز تاثیرگذار خواهد بود.