1. خانه
  2. معرفی کتاب
  3. بازی واقعی

بازی واقعی

بازی واقعی
بازدید : 71

بازی واقعی

بازی واقعی (که در سال ۲۰۲۰ منتشر شده است) دنیای تیره «تبلیغات محاسباتی» – دست‌کاری سیاسی با استفاده از ابزارهای دیجیتال – را روشن می‌کند. ساموئل وولی استدلال می‌کند که اخبار جعلی، نظریه‌های توطئه ویروسی و لشگریان ربات توییتر فقط گیجی و اختلاف را ایجاد نمی‌کنند. از نظر وی، آنها فرایند مردم‌سالاری را نیز از بین می‌برند. این بدان معناست که زمان آن فرا رسیده است تا ما از پس بسترهای غول‌آسای غیرقابل پاسخگو به عقب برگردیم و فضای دیجیتالی خود را بازیابی کنیم.

 

این کتاب برای شهروندانی نوشته شده است که نگران آینده مردم‌سالاری هستند، هم‌چنین برای افراد دیجیتالی و معتادانِ شبکه‌های اجتماعی، و کسانی که با شک و تردید از خود می‌پرسند که چگونه تفاوت اخبار جعلی و واقعی را تشخیص دهند.

 

ساموئل وولی استادیار دانشکده روزنامه‌نگاری دانشگاه تگزاس در شهر آستین است. وی در زمینه مطالعه سیاسی، متقاعدسازی و شبکه‌های اجتماعی تخصص دارد. وولی پروژه تبلیغات محاسباتی را بنیان نهاد که یک پژوهش بینِ رشته‌ای است و سیاست‌های دیجیتالی را بررسی می‌کند. وی هم‌چنین مدیر و مؤسس آزمایشگاه هوش دیجیتال است و درباره تبلیغات محاسباتی برای گاردین (Guardian)، وایرد‌ (Wired)، آتلانتیک (Atlantic)، مادربرد (Motherboard)، تک‌کرانچ (TechCrunch)،‌ و اسلت (Slate) مطالبی را نوشته است.

این کتاب چه چیزی برای من دارد؟ به جنبش مبارزه با اخبار جعلی بپیوندید.

شبکه‌های اجتماعی مسلح شده‌اند. دولت‌های اقتدارگرا در سراسر جهان لشگر ربات‌ها و حساب‌های جعلی را کنترل و نظارت می‌کنند. هدف آن‌ها چیست؟ بیشتر اوقات، آزار و اذیت روزنامه‌نگاران و ایجاد تردید در مورد فعالیت مخالفان است.

 

اما این فقط دیکتاتورها نیستند که از سلاح‌های دیجیتالی استفاده می‌کنند. مردم نیز مصون نیستند. در انتخابات ریاست جمهوری سال ۲۰۱۶ در ایالات متحده، تیم دونالد ترامپ هزاران حساب جعلی در شبکه‌های اجتماعی ایجاد کرد تا نکات گفتاری موردنظر خود را تحت فشار رسانه‌ها منتشر کند.

 

و در آن سوی اقیانوس اطلس، کمپین انگلیس برای خروج از اتحادیه اروپا تاکتیک‌های مشابهی را به کار گرفت. هم ترامپ و هم برگزیترز (Brexiteers) سوار بر موج اطلاعات غلط برای رسیدن به پیروزی شدند.

 

اما تلاش برای فریب و فریب دادن مردم فقط مربوط به فناوری نیست. در زیر سیل اخبار جعلی و دستکاری شده، شبکه‌ی پیچیده‌ای از مشکلات اجتماعی، اقتصادی و سیاسی قرار دارد.

 

این بدان معنی است که مسئله اصلی خود رسانه‌های اجتماعی نیستند، که می‌توانند قدرت همیشگی باشند، بلکه سوءاستفاده از رسانه‌های اجتماعی است. بنابراین مسئله اصلی این است که چگونه می‌توانیم از سوءاستفاده از ابزارهای دیجیتالی جلوگیری کنیم. اولین قدم این است که دریابید چرا رسانه‌های اجتماعی اینقدر ناکارآمد هستند.

 

در این یادداشت، متوجه خواهید شد

چرا ربات‌ها تقریباً آنقدری که فکر می‌کنید باهوش نیستند.

چگونه اخبار جعلی از تمایل مردم به تفکر عمیق استفاده می‌کند.

و چرا آزادی بیان نامحدود پاسخی برای مشکلات رسانه‌های اجتماعی نیست.

رسانه‌های قدیمی به تقویت ایمان در نهادها کمک کردند. رسانه‌های جدید آن را تضعیف می‌کنند.

اعتماد به نهادهای مردم‌سالارانه در کمترین زمان خود قرار دارد. نظرسنجی سال ۲۰۱۸ گالوپ نشان داد که طی چهار و نیم دهه گذشته، تعداد آمریکایی‌هایی که به کنگره اعتماد دارند از ۴۳ به ۱۱ درصد کاهش یافته است. اعتماد به بانک‌ها به نصف رسیده و از هر ۱۰۰ نفر فقط ۳۸ نفر می‌گویند که آنها به مؤسسات مذهبی اعتماد دارند – از ۶۵ نفری که در اوایل دهه ۱۹۷۰ بودند.

 

اما مشکل فقط به ایالات متحده محدود نمی‌شود. روندهای مشابهی در برزیل، ایتالیا و آفریقای جنوبی ثبت شده است – کشورهایی که ما همیشه آن‌ها را مردم‌سالار می‌دانیم. چه خبر شده است؟ چرا شهروندان نسبت به نهادهای مردم‌سالارانه خود این‌قدر بی‌اعتماد شده‌اند؟ خُب، همه چیز به نحوه استفاده ما از رسانه‌ها برای درک واقعیت برمی‌گردد.

 

اینترنت فضای رسانه‌ای را فراتر از جست‌وجو و شناخت صرف تغییر داده است. قبل از عصر دیجیتال، اطلاعات در یک جهت واحد جریان می‌یافتند. یک نفر صحبت کرد بسیاری گوش می‌دادند. به مجریان تلویزیون یا یادداشت‌نویسان روزنامه فکر کنید – افرادی که هزاران شنونده و خواننده را تحت تأثیر خود قرار داده‌اند. مجریان اخبار و روزنامه‌نگاران تلاش کردند تا عینیت داشته باشند. قبل از پخش یا انتشار برنامه یا یادداشتی، آن‌ها باید بررسی شوند. البته، توطئه‌گران در نوشتن نامه به نیویورک‌تایمز آزاد بودند، اما این روزنامه هم در تصمیم‌گیری درباره انتشار یا عدم انتشار چنین نامه‌هایی آزاد بود.

 

این الگو بدان معناست که میلیون‌ها شهروند اطلاعات خود را از همان منابع دریافت می‌کنند. این به ایجاد اجماع در مورد واقعیت و واقعی بودن رویدادها کمک کرد و در نتیجه باعث ایجاد اعتماد شد. اما در چند سال گذشته، اوضاع تغییر کرده است. اکنون اطلاعات از طریق الگوی «بسیار در بسیار» به اشتراک گذاشته می‌شود. دیگر لازم نیست کسی را ترغیب کنید که نظرات شما را چاپ یا پخش کند. در وب، شما ناشر خود هستید – و هر کسی می‌تواند آنچه را ارسال می‌کنید بخواند.

 

پیشگامان اینترنت امیدوار بودند که عصر طلایی آزادی بیان و مشارکت مدنی باشد. اما آنچه آن‌ها پیش بینی نکردند این بود که کنترل این بستر و نظارت بر آن فقط توسط چند شرکت غول‌پیکر رسانه‌ی اجتماعی صورت می‌گیرد، هر کدام از این بنگاه‌ها دیگر کمتر پاسخگو هستند. در دنیای رسانه‌های اجتماعی مقررات کمی وجود دارد یا اصلاً وجود ندارد، بنابراین، اینترنت به مکانی برای توسعه‌ی اطلاعات غیرقانونی تبدیل شده است. و در این آشفتگی تیره الگوریتم‌هایی که به راحتی در این بستر نقش بازی می‌کنند، تشخیص واقعیت از دروغ دشوار است.

 

به عنوان مثال، یک نظرسنجی در سال ۲۰۱۸ در انگلیس نشان داد که ۶۴ درصد از انگلیسی‌ها برای تشخیص تفاوت اخبار واقعی و دروغ تلاش می‌کنند. بنابراین جای تعجب نیست که اعتماد در کمترین حد خود است – در این شرایط، اغلب نمی‌دانیم که به چه کسی اعتماد کنیم!

اخبار جعلی که غالباً با انگیزه‌های تجاری هدایت می‌شوند، تمایل افراد به تفکر انتقادی را جلب می‌کنند.

«عامل اف‌بی‌آی (FBI) مورد سوءظنِ نامه هیلاری ایمیل کشف شده در قتل عام است.»

در اوایل نوامبر ۲۰۱۶، این عنوان پر سر و صدا – چاپ شده با حروف بزرگ – در وب‌سایتی به نام دنور گاردین (Denver Guardian) ظاهر شد، که خود را به عنوان «قدیمی‌ترین منبع خبری کلرادو» معرفی کرد. این داستان، نامزد دموکرات انتخابات ریاست جمهوری، هیلاری کلینتون را درگیر یک رسوائی کرد.

طولی نکشید که هزاران نفر این داستان را کلیک کردند. در یک برهه، هر دقیقه بیش از ۱۰۰ نفر آن را در فیس‌بوک به اشتراک گذاشتند. فقط یک مشکل وجود داشت: افشاگری، مانند کاغذی که آن را مچاله کنید، ساختگی بود.

هیچ چیزی در مورد آن داستان دنور گاردین درست نبود. مقاله توسط جستین کولر (Jestin Coler)، کارآفرینی از کالیفرنیا نوشته شده است. وی مالک این وب‌سایت بود و تنها هدف انتشار او تولید کلیک‌های تبلیغاتی بود. كولر فهميد كه آسان‌ترين راه جذب ترافيك سایت، انتشار گزارش‌هاي دروغ در مورد رقابت رياست جمهوري است. این یک تجارت سودآور بود. در آستانه انتخابات نوامبر، اخبار ناخواسته برای کولر ماهیانه ۱۰ تا ۳۰ هزار دلار درآمد داشت.

كولر بعداً اظهار داشت: «مردم می‌خواستند این خبر را بشنوند و آگاه شوند.» او صریحاً اعتراف کرد که تک تک جزئیات آن داستان را ابداع کرده است. این خبر همه‌اش داستان‌پردازی بود – شهری که وی از آن نام برد، مردم، کلانتر، عامل اف‌بی‌آی (FBI). كولر گفت، هنگامی كه این قصه را می‌نوشت، تیم رسانه‌ای اجتماعی وی آن را در انجمن‌های طرفدار ترامپ قرار دادند. در عرض چند ساعت، مانند آتش‌سوزی در حال گسترش بود.

انگیزه‌های كولر كاملاً تجاری بود و همین باعث شد كه وی با افرادی همتراز و متفاوت شود كه كمپین‌های معروف‌تری برای اطلاعات غیرمجاز اجرا می‌كنند. اما داستان ویروسی او باعث حمله دیجیتالی بزرگتری به حقیقت شد. این حمله اهانت‌آمیز شامل تبلیغات ساختگی در فیس‌بوک بود – که توسط دولت روسیه پرداخت شده است – و هم‌چنین داستان‌های جعلی که توسط نوجوانان در مولداوی و «گروه‌های اقدام سیاسی» مرتبط با اردوگاه ترامپ منتشر می‌شود.

حق با كولر بود – مردم مایل‌ند این داستان‌ها را بشنوند. چرا؟ خُب، هنوز هم بسیاری از آن‌ها به دلیل اخباری فریب خورده‌اند که یک بار توسط پخش‌کنندگان قابل اعتماد پخش شده است. به همین دلیل، دنور گاردین بر موقعیت خود به عنوان قدیمی‌ترین منبع خبری کلرادو تأکید کرد.

مردم هم‌چنین می‌خواهند به همه چیز گیر دهند و آن را ریشه‌یابی کنند. پژوهش روزنامه‌نگاری تجربه‌شده برای پاسخگویی به اين نياز مورد استفاده قرار گرفت. اما با کم‌رنگ شدن، دست‌فروشان اطلاعات نادرست – که هیچ ابایی از ساختن اخبار یا پنهان کردن حدس و گمان وحشیانه به عنوان تفکر انتقادی ندارند – به منصه ظهور رسیده‌اند.

رویکرد عملی رسانه‌های اجتماعی برای نظارت بر سخنرانی مزیتی برای توطئه‌گران است.

هیچ چیز جدیدی در مورد نظریه‌های توطئه وجود ندارد. مردم همیشه سعی کرده‌اند کسانی را در ذهن داشته باشند که بر آنها حکومت می‌کنند. در هر جامعه‌ای شایعات تاریکی درباره توطئه‌ها، رسوائی‌ها و پنهان‌کاری‌ها وجود داشته است. اما در دهه‌های اخیر، چیزی تغییر کرد. در گذشته، توطئه‌ها به آرامی گسترش می‌یافتند. تأیید شایعات درباره اقدامات شرورانه پادشاهان و رؤسای جمهور، ناممکن است، و به ندرت آن‌ها را در اخبار شبانه می‌خوانند. اما دنیای رسانه‌های اجتماعی متفاوت است. در بستر آنلاین، توطئه‌ها سریع‌تر گسترش می‌یابند و به مکان‌های دورتر می‌رسند.

 

در کیوآنون (QAnon)، یک نظریه توطئه مرتبط با راست افراطی در ایالات متحده را می‌شود دید. طرفداران این حزب ادعا می‌کنند که گروهی از مقامات دولتی منتخب هستند و به «دولت عمیق» معروف است و گفته می‌شود علیه دونالد ترامپ کار می‌کند. توطئه‌گران هم‌چنین بر این باورند که یک میهن‌پرست گمنام به نام «کیو (Q)» در این باشگاه نفوذ کرده است. این نام مستعار اشاره‌ای به بالاترین سطح امنیت در دسترس مقامات آمریکایی است. یادداشت‌هایی که توسط Q امضاء می‌شود، گاه‌گاهی در انجمن‌هایی مانند فورچان (4chan) ظاهر می‌شوند. به عنوان مثال، Q ادعا کرده است که سیاستمداران لیبرال حلقه جنسیت کودکانه را از زیرزمین مشترک یک پیتزافروشی اجرا می‌کردند.

 

ادعاهای Q به سرعت گسترش می‌یابد. گروه‌های هماهنگ از فعالان راست افراطی آنها را برداشته و در سایت‌های بزرگتری مانند ردیت (Reddit) و توئیتر (Twitter) منتشر می‌کنند. آن‌ها این کار را با کمک «ربات‌ها» در رسانه‌های اجتماعی انجام می‌دهند – نرم‌افزاری که وظایفی مانند اشتراک محتوا را خودکار انجام می‌دهد. ربات‌ها، الگوریتم‌ها را فریب می‌دهند تا یادداشت‌هایی را افزایش دهند که محبوبیت آنها واقعی است. پس از مدتی، افراد عادی شروع به انتخاب توطئه می‌کنند. این به یک داستان برای رسانه‌های سنتی تبدیل می‌شود، که موارد را حتی بیشتر تقویت می‌کند.

 

مسئله این است که این توطئه‌ها هنجارهای مردم‌سالارانه را از بین می‌برد. در گفته‌های کیوآنون (QAnon)، لیبرال‌ها چیزی جز تخریب ارزش‌های آمریکایی را هدف نگرفتند. اگر این ایده را بپذیرید، مطمئناً فکر می‌کنید که آنها حق ندارند کشور را اداره کنند – حتی اگر در انتخابات پیروز شوند. پس چرا شرکت‌های رسانه‌های اجتماعی مانند فیس‌بوک و توئیتر جلوی این توطئه‌ها را نمی‌گیرند؟ خُب، آنها اعتقاد ندارند که نقش آنها نظارت بر گفتار کاربران‌شان است. و به هر حال، مردم حق آزادی بیان دارند، درسته؟

 

شرکت‌های رسانه‌های اجتماعی نیز در جلوگیری از استفاده‌ي ربات‌هایی کُند عمل کرده‌اند که نظریه‌های توطئه را پیش می‌برند. نتیجه چه شده است؟ محیطی که می‌تواند توسط توطئه‌گران حاشیه‌ای به بازی گرفته شود. و همانطور که در بخش بعدی یادداشت خواهیم دید، بازیگران اصلی جریان سیاسی نیز در حال یادگیری بهره‌گیری از آن هستند.

اولین مورد شناخته‌شده دخالت ربات‌ها در روند سیاسی در ایالات متحده رخ داد.

در اواخر سال ۲۰۱۳، اوکراینی‌ها برای اعتراض به رئیس جمهور طرفدار روسیه، ویکتور یانوکوویچ، به خیابان‌ها آمدند. دولت روسیه، كه آقای یانوكویچ را یك متحد دیرینه می‌دید، با یورش آنلاین پاسخ داد. هزاران حساب کاربری و ربات‌های اجتماعی در روسیه توسط شبکه‌های روسی بسیج شدند. آنها اطلاعات نادرستی را علیه معترضین منتشر کردند. استراتژی مشابهی بعداً علیه ایالات متحده در انتخابات ریاست جمهوری ۲۰۱۶ استفاده می‌شود.

 

در آن زمان، بسیاری از تماشاگران معتقد بودند که شاهد تولد تبلیغات محاسباتی هستند. اما اگرچه ممکن است دولت روسیه به هنر تاریک براندازی دیجیتال تسلط داشته باشد، این اولین بازیگر سیاسی نبود که این تاکتیک‌ها را به کار گرفت.

 

در سال ۲۰۱۰، رأی‌دهندگان در ماساچوست برای انتخاب سناتور جدید به پای صندوق‌های رأی رفتند. دو نام در رأی‌گیری وجود داشت: اسکات براون، نامزد جمهوری‌خواهان و مارتا کوکلی، یک دموکرات. کواکلی محبوب موردعلاقه بود. ماساچوست برای ده‌ها سال سنگر لیبرال‌ها بود. تد کندی، سناتور دموکرات که مرگ ناگهانی آن رقابت را از بین برد، از سال ۱۹۶۲ نماینده این ایالت بود. ناگهان، محبوبیت براون شروع به افزایش کرد. و این زمانی بود که دانشمندان کامپیوتر در دانشگاه وسلیان متوجه چیز عجیبی شدند. به نظر می‌رسد حساب‌های توئیتر با ظاهری مشکوک در یک حمله هماهنگ به کوکلی نقش دارند. اتهام؟ بله، این نامزد دموکرات ضد کاتولیک بود – اتهامی جدی در ایالتی مانند ماساچوست.

 

این حساب‌ها علاوه بر یکدیگر هیچ داده بیوگرافی یا پیروانی نداشتند و فقط در مورد کوکلی یادداشت می‌گذاشتند. آنها در فواصل منظم ۱۰ ثانیه‌ای به او حمله می‌کردند. مشخص بود که اینها ربات هستند، اما چه کسی آنها را تحریک و هدایت می‌کند؟ محققان سرانجام این گزارش‌ها را به گروهی از فعالان محافظه‌کار باهوش فناوری مستقر در اوهایو، ایالتی که کیلومترها از ماساچوست فاصله دارد، پیگیری کردند. اما شخصیت‌های جعلی ایجادشده توسط آن فعالان به گونه‌ای طراحی شده بود که به نظر مردم محلی نگران‌کننده باشد. با یک نگاه اجمالی به شما گفته می‌شود که حملات از سوی مردم عادی در ایالت خود کواکلی انجام می‌شود – نه از ربات‌هایی که توسط سیاست‌مداران هدایت می‌شوند.

 

نگران‌کننده این بود که این شرط‌بندی نتیجه داد. ربات‌ها آنقدر سر و صدا ایجاد کردند که رسانه‌های اصلی مانند نشنال کاتولیک ریجستر (National Catholic Register) و نشنال ریویو (National Review) شایعات ضد کاتولیک بودن کواکلی را پررنگ‌تر کردند. داستان‌هایی که آنها پخش کردند به فعالیت ربات‌ها در توئیتر اشاره داشتند. روزنامه‌نگاران کار ربات‌ها را با یک جنبش مردمی اصیل اشتباه گرفتند. رسانه‌هایی که این داستان‌ها را منتشر کردند ناخواسته یک رسوایی ساخته‌شده را تقویت کردند. براون رقابت را برد و کواکلی آن را از دست داد.

ربات‌ها گنگ هستند، اما این به این معنی نیست که موثر نیستند.

هر زمان که وارد توئیتر می‌شوید و به یادداشت‌های معروف نگاه می‌کنید، احتمالاً با حساب‌های رباتی روبرو خواهید شد. آن‌ها مشغول پسندیدن، به اشتراک‌گذاری و اظهارنظر درباره محتوای سایر کاربران هستند. تشخیص پیام‌های تولیدشده توسط این نوع نرم‌افزار کار سختی نیست. این ربات‌ها خواسته یا  ناخواسته باشد و هم از نظر سموم سیاسی، نثرهای عجیب و غریب را با زبان وینکی [سبک داستانی از هری پاتر] می‌نویسند. یادداشت‌های آنها دقیقاً به‌موقع است و با انفجارهای مشابه در بستر آنلاین روبرو می‌شود.

 

به عبارت دیگر، ربات متوسط ​​شما بسیار پیچیده نیست. پس چرا بسیاری از روزنامه‌نگاران می‌گویند ربات‌ها «مردم‌سالاری را فتح کرده‌اند؟» یک پاسخ این است که تمرکز روی ربات‌ها آسان‌تر از پرسیدن سؤال ناخوشایندتر است: چرا هک مردم‌سالاری با چنین ابزارهای ساده بسیار آسان است؟ ما به این موضوع اخیر باز خواهیم گشت، اما در ابتدا، نگاهی دقیق‌تر به این ربات‌ها می‌اندازیم.

 

یک لحظه به عقب برگردید و رقابت انتخاباتی سال ۲۰۱۶ بین هیلاری کلینتون و دونالد ترامپ را تصور کنید. پیرامون نقشی که ربات‌ها در آن انتخابات بازی می‌کردند، هیاهوی زیادی وجود داشت. کمبریج آنالیتیکا، شرکت مشاوره سیاسی که به مبارزات انتخاباتی ترامپ مشاوره می‌داد، قول داد که یک لشگر کامل از آنها را راه‌اندازی کند. این شرکت ادعا کرد که ربات‌های هوشمند آن جمعیت‌های کلیدی را با نقاط صحبت طرفدار ترامپ و ضد کلینتون متمرکز بر یک هدف برّنده قرار می‌دهند. برای رسیدن به این هدف، کمبریج آنالیتیکا قصد داشت از داده‌هایی استفاده کند که «روانشناختی» نامیده می‌شود – یعنی پروفایل‌های مفصلی که از صفحات رسانه‌های اجتماعی رأی‌دهندگان جمع شده است.

 

این ابزار بسیار پیچیده است. اما تمام شواهد ما نشان می‌دهد که هرگز استفاده نشده است. ستاد انتخاباتی ترامپ یک کمپین دیجیتالی فوق‌العاده مؤثر اجرا کرد. و این مهم‌ترین نکته را در اینجا تأکید می‌کند. وقتی صحبت از تبلیغات محاسباتی می‌شود، برای بردن نیازی به هوشمند بودن نیست. آن را از پروژه تبلیغات محاسباتی در دانشگاه آکسفورد بگیرید. تحقیقات آن شاهد بوده است که همان داستان بارها و بارها پخش می‌شود. از حمله دیجیتالی روسیه علیه اوکراین در سال ۲۰۱۳ گرفته تا همه‌پرسی برگزیت (Brexit) و مبارزات انتخاباتی ریاست جمهوری ترامپ در سال ۲۰۱۶، اکثریت قریب به اتفاق ربات‌های بسیار ساده بوده‌اند که برای انتشار اطلاعات غلط استفاده شده‌اند. در واقع، تنها کاری که آنها می‌توانستند انجام دهند این بود که مطالب را دوست داشته (لایک کنند) یا دوباره به اشتراک بگذارند، پیوندها (لینک‌ها) را پخش کنند و افراد را دنبال کنند. این ربات‌ها از نظر عملکردی مکالمه ندارند. آنها هیچ هوش مصنوعی نداشتند.

 

اما کمترین کاری که آنها توانستند انجام دهند برای غلبه بر اهداف‌شان کافی بود. نمادهای تکراری صحبت آنها چنان پربار بود که مخالفان خود را در باتلاق می‌دیدند، و قادر به پاسخ سریع یا مؤثر نبودند.

شرکت‌های رسانه‌های اجتماعی باید خودتنظیم شوند، اما آنها مسئولیت سوءاستفاده از ابزارهای خود را نمی‌پذیرند.

همانطور که یاد گرفتیم، برای هک کردن افکار عمومی به فناوری پیشرفته‌ای نیاز ندارید. چه یک کارزار سیاسی داشته باشید، یا بخواهید اخبار ناخواسته‌ای را منتشر کنید، همه چیزهایی که برای غلبه بر الگوریتم‌های شبکه های اجتماعی نیاز دارید ربات‌های ابتدایی و عناوین قابل کلیک هستند. این ما را به پرسش ناراحت‌کننده‌ای که در پاراگراف قبلی مطرح کردیم برمی‌گرداند: چرا مردم‌سالاری در برابر ابزارهای ساده هک آسیب‌پذیر است؟ یک پاسخ را می‌توان در نحوه تنظیم شرکت‌های رسانه‌های اجتماعی یافت. در زندگی عمومی، این شرکت‌ها اکنون موقعیتی را در اختیار دارند که روزنامه‌ها و رادیو و تلویزیون در اختیار داشتند. اما قوانین حاکم بر کار آنها بسیار نرم‌تر است.

 

کمیسیون انتخابات فدرال را در نظر بگیرید. این نهاد نظارتی قانون مربوط به امور مالی مبارزات سیاسی را اجرا می‌کند. در سال ۲۰۰۶، کمیسیون تصمیم گرفت که تبلیغات آنلاین در حیطه مسئولیت‌هایش نیست. انصافاً آنها برای تبلیغات سیاسی استثنا قائل شدند. اما افزایش اخبار جعلی ویروسی و اطلاعات غلط دیجیتالی مبتنی بر ربات هرگز در رادار کمیسیون انتخابات آمریکا نبوده است. بنابراین، این ابزار نظارتی از بین رفته است. آیا قانون دیگری می‌توان از دولت فدرال پیدا کرد؟ خُب، فصل ۲۳۰ قانون شایستگی ارتباطات وجود دارد. این اساسنامه که در سال ۱۹۹۵ تصویب شد، به شرکت‌های اینترنتی حق سانسور گفتارهای مضر را می‌دهد. در صورت انجام اشتباه کار، آنها را از هرگونه مسئولیت معاف می‌کند.

شرکت‌های رسانه‌های اجتماعی در آمریکا از فصل ۲۳۰ استفاده می‌کنند. این امر به آنها کمک می‌کند تصمیم‌گیری در مورد حذف سخنان نفرت‌انگیز آشکار یا خشن، مانند سخنرانی‌های ضد یهودی هولوکاست و نئونازی را توجیه کنند. اما شرکت‌ها همچنین با این قانون به عنوان مجوزی برای نادیده گرفتن محتوای سیاسی مشکل‌ساز مانند اطلاعات نادرست رفتار می‌کنند. همانطور که مدیران این شرکت‌ها می‌بینند، اساسنامه نظر خود را تأیید می‌کند که وظیفه آنها به عنوان «داوران حقیقت» بر عهده آنها نیست. در واقع، فصل ۲۳۰ به این شرکت‌ها اختیار داوری در مورد محتوا را می‌دهد، اما آنها بندرت از آن استفاده می‌کنند. چرا؟ یک توضیح ممکن است این باشد که با اخلاق آزادی‌خواهانه‌ی سیلیکون ولی در تضاد است.

اما حتی اگر شرکت‌هایی مانند فیس‌بوک و توئیتر از این قدرت استفاده می‌کردند، تمیز کردن سیستم عامل‌های آن‌ها یک کار چالش‌برانگیز و دلهره‌آور است. این سایت‌ها بسیار سریع رشد کردند – و بدون توجه زیاد به طراحی اخلاقی. برای جلوگیری از سوءاستفاده در آینده، باید اصلاحات موقت را بر روی ساختار فعلی ایجاد کنند که برای جاسازی آنها هنوز ایجاد نشده است. همانطورکه یک کارمند فیس‌بوک در مصاحبه با نویسنده گفت، غول رسانه‌های اجتماعی مانند هواپیمایی است که با وجود اینکه فقط یک بال‌ش ساخته شده است، به پرواز در آمده است.

یادگیری ماشینی می‌تواند به ما کمک کند تا با اطلاعات نادرست دیجیتالی کنار بیاییم، اما به تنهایی کافی نیست.

بیایید پرسش آخر را مطر کنیم. آیا می‌توانیم به راحتی ربات‌ها را تحریم کنیم؟ در سال ۲۰۱۸، سناتور آمریکایی دیان فاینشتاین با پیشنهاد «قانون افشای ربات و پاسخگویی» سعی در انجام چنین کاری داشت. اما این لایحه در کنگره مسکوت ماند. اجرای اقدامات ضد ربات بدون نقض حق قانون اساسی برای آزادی بیان دشوار است. و در موارد دیگر و بیشتر ممکن است شما در مورد ربات‌ها قانون وضع کنید، اما این مسئله مشکل دیگر اطلاعات نادرست را حل نمی‌کند: بشر اخبار دروغ را به همان اندازه و مؤثر مانند ربات‌ها منتشر می‌کند. به عنوان مثال، «ارتش ۵۰ سنت» چینی یک گروه هماهنگ از حساب‌های انسانی است که مسئول تبلیغات وب با تبلیغات حامی دولت است. فعالیت‌های آنها تحت پوشش قوانین ضد ربات قرار نخواهد گرفت.

 

بنابراین ممکن است با تمرکز دیگری وضعیت بهتری داشته باشیم. شاید هدف ما نباید خود ربات‌ها باشد. در عوض، شاید ما باید بیشتر در مورد اطلاعات – و چگونگی جریان آنها باید فکر کنیم. رباتی را تصور کنید که از یادگیری ماشین استفاده می‌کند. این برنامه از مکالمه با مردم در شبکه‌های اجتماعی یاد می‌گیرد. دائماً در گفت‌وگو و تعامل با انسان‌های واقعی بهتر می‌شود.

 

حال تصور کنید این برنامه با افرادی شروع به گپ زدن کرده و آن‌ها را متقاعد کرده است تا مقاله‌ای درباره نفی گرم شدن کره زمین را به اشتراک بگذارند. این مکالمه به تنهایی داده‌های زیادی تولید می‌کند. سپس ربات داده‌ها را تجزیه و تحلیل می‌کند تا بفهمد کدام تاکتیک‌ها جواب می‌دهند و کدام‌ها نه. و این تجزیه و تحلیل رفتار آینده ربات را آگاه می‌کند.

 

یک کابوس کامل، درست است؟ مطمئناً، اما این یک خیابان یک طرفه نیست. یادگیری ماشینی هم‌چنین می‌تواند برای مقابله با اطلاعات نادرست دیجیتالی استفاده شود. آن را از محققان رصدخانه رسانه‌های اجتماعی در دانشگاه ایندیانا تهیه کنید که «باتومتر (botometer)» را ساختند.

 

باتومتر از یادگیری ماشینی برای طبقه‌بندی حساب‌های توئیتر به عنوان انسان یا ربات استفاده می‌کند. این کار را با تجزیه و تحلیل بیش از هزار ویژگی از هر حساب داده شده انجام می‌دهد. این نرم‌افزار به دوستان، الگوی فعالیت، زبان و لحن ارسال‌های حساب توئیتر نگاه می‌کند. در پایان این تجزیه و تحلیل، باتومتر یک «نمره ربات» کلی را ارائه می‌دهد. این به کاربران می‌گوید که آیا آن‌ها با یک انسان تعامل دارند یا یک ربات، و بلافاصله یکی از رایج‌ترین منابع اطلاعات نادرست را برجسته می‌کند.

 

اما الگوریتم‌های یادگیری ماشینی مانند باتومتر احتمالاً به تنهایی کافی نیستند. اکثر کارشناسان ظهور الگوهای نظارتی ترکیبی – یا «سایبورگ (cyborg)» را پیش‌بینی می‌کنند. به عنوان مثال، انسان‌ها می‌توانند داستان‌ها را بررسی کنند و سیستم‌های خودکار برای شناسایی سریع ربات‌هایی ممکن است استفاده شود که اخبار جعلی را منتشر می‌کنند.

خلاصه نهایی

فضای رسانه‌ای فراتر از شناخت تغییر کرده است. در روزهای آغازین اینترنت، بسیاری از مؤسسات رسانه‌ای سنتی مانند روزنامه‌ها و رادیو و تلویزیون طلوع آن را جشن گرفتند. اما اختیار مردم برای انتخاب منابع خبری خود مشارکت مدنی را افزایش نداد – بلکه باعث شد تا اعتماد را از بین ببرد و شرایط مناسبی برای اطلاعات غلط دیجیتالی ایجاد کرد. این مشکل با تنظیم کلیک ساده و جلوگیری شرکت‌های رسانه‌ای اجتماعی برای مقابله با ربات‌ها بیشتر شده است. اما یادگیری ماشینی، که در کنار هوش واقعی انسانی استفاده می‌شود، ممکن است به ما در پیروزی در این نبرد کمک کند.

این کتاب را می‌توانید از آمازون تهیه کنید.

امتیاز به این مطلب

مطالب بیشتر

برای نوشتن دیدگاه باید وارد بشوید.
بازی واقعی
بازدید : 71

با دوستانتان به اشتراک بگذارید

فهرست