bato-adv
مطالعات جدید در مورد تاثیر رسانه‌های اجتماعی داستان پیچیده‌ای را بیان می‌کند

آیا اطلاعات بر باورهای ما تاثیر می‌گذارد؟

آیا اطلاعات بر باورهای ما تاثیر می‌گذارد؟
بزرگترین خبر مربوط به چیزی بود که مطالعات به آن دست پیدا نکردند: علیرغم تاثیر فیس بوک بر انتشار اطلاعات هیچ گونه شواهدی مبنی بر این که این پلتفرم تاثیر قابل توجهی بر باور‌های اساسی مردم یا سطوح قطبی شدن سیاسی داشته باشد وجود نداشت.
تاریخ انتشار: ۱۶:۰۱ - ۲۲ مرداد ۱۴۰۲

فرارو- چهار مقاله آکادمیک تازه نشان می‌دهند که الگوریتم‌های مورد استفاده فیس‌بوک تاثیر قابل توجهی بر گسترش اطلاعات دارند، اما تاثیر قابل توجهی بر باور‌های اساسی افراد ندارد.

به گزارش فرارو به نقل از نیویورک تایمز، این به نوعی معادل آخر هفته باربنهایمر در حوزه علوم اجتماعی بود: چهار مقاله آکادمیک پر خواننده که در دو مجله برجسته جهان در همان روز منتشر شد. این مقالات که توسط محققان نخبه از دانشگاه‌های سراسر ایالات متحده نوشته شده اند هر کدام جنبه‌های مختلف یکی از به ظاهر قانع کننده‌ترین مسائل مربوط به سیاستگذاری عمومی زمان ما را مورد بررسی قرار داده اند: این که رسانه‌های اجتماعی چگونه دانش، باور‌ها و رفتار‌های ما را شکل می‌دهند.

محققان با تکیه بر داده‌های جمع‌آوری شده از صد‌ها میلیون کاربر فیس‌بوک طی چندین ماه دریافتند به گونه‌ای که البته جای تعجبی نداشت این پلتفرم و الگوریتم‌های آن تاثیر قابل توجهی بر اطلاعاتی که کاربران می‌دیدند، بر مدت زمانی که برای پیمایش در فضای مجازی صرف می‌کردند و بر دانش آنان درباره رویدا‌های خبری داشت. فیس بوک هم چنین تمایل داشت به کاربران اطلاعاتی را از منابعی که پیش‌تر با آن موافق بودند نشان دهد و "حباب‌های فیلتر" سیاسی ایجاد کند که جهان بینی افراد را تشدید می‌کرد و حاملی برای اطلاعات نادرست در وهله نخست برای کاربران طیف محافظه کار از لحاظ سیاسی بود. با این وجود، بزرگترین خبر مربوط به چیزی بود که مطالعات به آن دست پیدا نکردند: علیرغم تاثیر فیس بوک بر انتشار اطلاعات هیچ گونه مدرکی مبنی بر اینکه این آن پلتفرم رسانه‌های اجتماعی تاثیر قابل توجهی بر باور‌های اساسی افراد یا سطوح قطبی شدن سیاسی داشته باشد وجود نداشت.

این تازه‌ترین یافته‌ای است که نشان می‌دهد رابطه بین اطلاعاتی که مصرف می‌کنیم و باور‌هایی که داریم بسیار پیچیده‌تر از آن چیزی است که معمولا درک می‌شود.

"حباب‌های فیلتر" و دموکراسی

گاهی اوقات اثرات خطرناک شبکه‌های اجتماعی واضح است. برای مثال، در جریان حملات واقعی در ژانویه گذشته در برزیل از سوی حامیان بولسونارو رئیس جمهور سابق از رسانه‌های اجتماعی برای انتشار ادعا‌های دروغین مبنی بر این که تقلب در انتخابات به ضرر او تمام شده استفاده شده بود و سپس اوباش برای حمله به ساختمان‌های فدرال در برازیلیا از طریق گروه‌های واتس آپ و تلگرام برنامه ریزی و سازماندهی را انجام دادند. هم چنین، در سریلانکا در سال ۲۰۱۸ میلادی زمان کشتار صورت گرفته علیه مسلمانان مشخص شد که فید خبری فیس بوک حامل شایعاتی بوده که بهانه‌ای به دست خشونت طلبان داده و گروه‌های واتس آپ به پلتفرمی برای سازماندهی و اجرای حملات تبدیل شده بودند.

این کتاب بازی مشابهی بود که در ۶ ژانویه ۲۰۲۱ در ایالات متحده مورد استفاده قرار گرفت زمانی که حامیان دونالد ترامپ به ساختمان کنگره یورش بردند.

اما گذشته از رویداد‌های گسسته‌ای مانند این نگرانی‌هایی نیز وجود دارد که رسانه‌های اجتماعی و به ویژه الگوریتم‌هایی که برای پیشنهاد محتوا به کاربران استفاده می‌شوند ممکن است در گسترش عمومی‌تر اطلاعات نادرست و قطبی شدن نقش داشته باشند. این نظریه تقریبا چیزی شبیه به این است: برخلاف گذشته زمانی که اکثر افراد اطلاعات خود را از چند منبع اصلی دریافت می‌کردند رسانه‌های اجتماعی اکنون این امکان را برای افراد فراهم می‌کنند که اخبار را حول محور تعصبات و علائق خود فیلتر کنند. در نتیجه، آنان عمدتا روایت‌ها و داستان‌هایی را از افرادی که از نظر طیف و دیدگاه سیاسی در اردوگاه شان قرار دارند به اشتراک گذاشته و می‌بینند.

ظاهرا آن "حباب فیلتر" اطلاعات کاربران را در معرض نسخه‌های ناهنجار واقعیت قرار می‌دهد، امکان اجماع نظر با دیگران را تضعیف می‌کند و درک آنان از افراد طرف مقابل را کاهش می‌دهد. این نظریه پس از انتخاب ترامپ در سال ۲۰۱۶ توجه جریان اصلی را به خود جلب کرد. چند روز پس از انتخابات مقاله‌ای در نشریه "نیویورک مگزین" با عنوان "حباب فیلتر" اشاره می‌کرد که چرا ترامپ برنده شد و شما آمدن آن را ندیدید. چند هفته بعد مجله Wired ادعا کرد:"اتاق پژواک شما در حال نابودی دموکراسی است".

تغییر اطلاعات ذهن را تغییر نمی‌دهد

با این وجود، بدون آزمایش دقیق تشخیص این که آیا اثر حباب فیلتر واقعی بوده یا خیر دشوار به نظر می‌رسید. چهار مطالعه تازه اولین مورد مجموعه ۱۶ مقاله بررسی شده است که برای انجام آن همکاری متا شرکت صاحب فیس بوک و اینستاگرام و گروهی از محققان از دانشگاه‌هایی از جمله پرینستون، دارتموث، دانشگاه پنسیلوانیا و استنفورد صورت گرفته است.

متا در طول دوره سه ماهه پیش از انتخابات ۲۰۲۰ ایالات متحده اجازه دسترسی بی سابقه‌ای به داده‌های خود را به مخققان داد. متا به آنان اجازه داد تا داده‌های بیش از ۲۰۰ میلیون کاربر را مورد تجزیه و تحلیل قرار دهند و هم چنین آزمایش‌های کنترل تصادفی سازی شده را روی گروه‌های بزرگی از کاربرانی که موافقت کردند در مطالعات شرکت کنند انجام دهند. شایان ذکر است که این غول رسانه‌های اجتماعی ۲۰ میلیون دلار برای جمع آوری برخی از داده‌ها توسط دانشگاه شیکاگو هزینه کرد. مطالعات روی هم رفته نشان می‌دهند که شواهدی برای بخش اول نظریه حباب فیلتر وجود دارد: کاربران فیس بوک تمایل داشتند پست‌هایی را از منابع همفکر ببینند و درجات بالایی از تفکیک ایدئولوژیک با هم پوشانی کمی بین آن چه کاربران لیبرال و محافظه کار می‌دیدند، کلیک می‌کردند و به اشتراک می‌گذاشتند وجود داشت.

بخش عمده اطلاعات نادرست در طیف محافظه کار (از نظر سیاسی) شبکه اجتماعی متمرکز شده بود و باعث می‌شد کاربران دست راستی به مراتب بیش از کاربران لیبرال با دروغ‌های سیاسی در آن پلتفرم مواجه شوند.

"ساندرا گونزالس بایلون" نویسنده اصلی مقاله‌ای که اطلاعات نادرست را مورد مطالعه قرار داده به "نیویورک تایمز" می‌گوید:"من فکر می‌کنم این موضوع عرضه و تقاضا است. کاربران فیس بوک عمدتا از نظر سیاسی محافظه کار هستند و این موضوع بازار بالقوه برای اطلاعات نادرست حزبی را در اردوگاه راستگرایان بزرگتر می‌سازد. نظارت آنلاین تقویت شده توسط الگوریتم‌هایی که احساس کننده‌ترین محتوا را در اولویت قرار می‌دهند می‌تواند این اثرات بازار را تقویت کند".

زمانی که نوبت به بخش دوم نظریه رسید: این که محتوای فیلتر شده اغلب به روش‌های مضر باور‌ها و جهان بینی مردم را شکل می‌دهد. با این وجود، نتایج تحقیقات چندان حمایت کننده از این نظریه نبودند. در یک آزمایش به طور عمدی محتوای منابع همفکر کاهش یافت به طوری که کاربران اطلاعات متنوع تری را مشاهده کردند، اما هیچ تاثیری بر قطبی شدن یا نگرش‌های سیاسی آنان مشاهده نشد. محققان دریافتند که حذف تاثیر الگوریتم بر فید‌های افراد به طوری که آنان محتوا را به ترتیب زمانی می‌دیدند به طور قابل توجهی سطوح قطبی سازی موضوع، قطبی‌سازی عاطفی، دانش سیاسی یا سایر نگرش‌های کلیدی را تغییر نداد.

الگوریتم‌ها برای سالیان متمادی مورد توجه قانونگذاران بوده اند، اما بسیاری از استدلال‌ها برای تنظیم الگوریتم‌ها مبتنی بر این فرض بودند که در دنیای واقعی تاثیر دارند. نتایج تحقیقات تازه این روایت و استدلال را پیچیده‌تر می‌سازد.

با این وجود، نتیجه پژوهش‌های تازه پیامد‌هایی نیز دارد که بسیار گسترده‌تر از خود رسانه‌های اجتماعی است و به برخی از مفروضات اصلی در مورد نحوه شکل گیری باور‌ها و دیدگاه‌های سیاسی خود می‌رسد. "برندان نیهان" که در مورد برداشت‌های نادرست سیاسی تحقیق می‌کند و یکی از نویسندگان اصلی مقالات مرتبط با یکی از این مطالعات بوده به "نیویورک تایمز" می‌گوید: "نتایج قابل توجه بود، زیرا نشان می‌دهند که ارتباطی ضعیف‌تر بین اطلاعات و باور‌ها در مقایسه با نتایج به تحقیقات قبلی وجود داشت. پیش‌تر تصور می‌شد که اطلاعات اغلب دیدگاه‌های افراد را تغییر می‌دهند، اما این تغییرات همیشه به نگرش‌های متفاوت تبدیل نمی‌شوند. با این وجود، مطالعات جدید حاکی از رابطه‌ای ضعیف‌تر در این باره است. ما شاهد تاثیرات ناچیز بر دیدگاه‌ها و نگرش‌های واقعی افراد بودیم".

اگر اطلاعات جدید باور‌ها یا حمایت سیاسی را تغییر ندهد این امر نه تنها بر دیدگاه رای دهندگان از جهان بلکه بر توانایی آنان برای پاسخگو ساختن رهبران سیاسی در دموکراسی‌ها نیز تاثیرگذار خواهد بود.

bato-adv
مجله خواندنی ها
bato-adv
bato-adv
bato-adv
پرطرفدارترین عناوین