1. خانه
  2. مقالات
  3. کارآفرینی
  4. بازی واقعی

بازی واقعی

بازی واقعی

بازی واقعی

4.3/5 - (6 امتیاز)

موج بعدی فناوری چگونه حقیقت را تغییر خواهد داد

بازی واقعی (۲۰۲۰) دنیای تیره «تبلیغات محاسباتی» – دست‌کاری سیاسی با استفاده از ابزارهای دیجیتال – را روشن می‌کند. ساموئل وولی استدلال می‌کند که اخبار جعلی، نظریه‌های توطئه ویروسی و لشگریان ربات توییتر فقط گیجی و اختلاف را ایجاد نمی‌کنند. از نظر وی، آنها فرایند مردم‌سالاری را نیز از بین می‌برند. بدان معنا که زمان آن فرا رسیده‌ست تا ما از پس بسترهای غول‌آسای غیرقابل پاسخگو به عقب برگردیم. و فضای دیجیتالی‌مان را بازیابی کنیم.

 

ساموئل وولی استادیار دانشکده روزنامه‌نگاری دانشگاه تگزاس در شهر آستین‌ست. وی در زمینه مطالعه سیاسی، متقاعدسازی و شبکه‌های اجتماعی تخصص دارد. وولی پروژه تبلیغات محاسباتی را بنیان نهاد که یک پژوهش بینِ رشته‌ای‌ست و سیاست‌های دیجیتالی را بررسی می‌کند. وی هم‌چنین مدیر و مؤسس آزمایشگاه هوش دیجیتال‌ست. و درباره تبلیغات محاسباتی برای گاردین (Guardian)، وایرد‌ (Wired)، آتلانتیک (Atlantic)، مادربرد (Motherboard)، تک‌کرانچ (TechCrunch)،‌ و اسلت (Slate) مطالبی را نوشته‌ست.

این کتاب چه‌چیزی برای من دارد؟ به جنبش مبارزه با اخبار جعلی بپیوندید.

شبکه‌های اجتماعي مسلح شده‌اند. دولت‌های اقتدارگرا در سراسر جهان لشگر ربات‌ها و حساب‌های جعلی را نظارت می‌کنند. هدف آنها چیست؟ بیشتر اوقات، آزار و اذیت روزنامه‌نگاران و ایجاد تردید درباره فعالیت مخالفان‌ست. بازی واقعی

 

اما این فقط دیکتاتورها نیستند که از سلاح‌های دیجیتالی استفاده می‌کنند. مردم نیز مصون نیستند. در انتخابات ریاست جمهوری ۲۰۱۶ در ایالات متحده، تیم دونالد ترامپ هزاران حساب جعلی در شبکه‌های اجتماعی ایجاد کرد تا نکات گفتاری موردنظرش را تحت فشار رسانه‌ها منتشر کند.

 

و در آن سوی اقیانوس اطلس، کمپین انگلیس برای خروج از اتحادیه اروپا شیوه‌های مشابهی را به کار گرفت. هم ترامپ و هم برگزیترز (Brexiteers) سوار بر موج اطلاعات غلط برای رسیدن به پیروزی شدند.

 

اما تلاش برای فریب و خدعه مردم فقط مربوط به فناوری نیست. در زیر سیل اخبار جعلی و دستکاری‌شده، شبکه پیچیده‌ای از مشکلات اجتماعی، اقتصادی و سیاسی قرار دارد. بازی واقعی

 

بدان معنی که مسئله اصلی خودِ رسانه‌های اجتماعی نیستند، که می‌توانند قدرت همیشگی باشند. بلکه سوءاستفاده از رسانه‌های اجتماعی‌ست. بنابراین مسئله اصلی اینکه چگونه می‌توانیم از سوءاستفاده از ابزارهای دیجیتالی جلوگیری کنیم. اولین قدم اینکه دریابید چرا رسانه‌های اجتماعی اینقدر ناکارآمد هستند.

رسانه‌های قدیمی به تقویت ایمان در نهادها کمک کردند. رسانه‌های جدید آن را تضعیف می‌کنند.

اعتماد به نهادهای مردم‌سالارانه به کمترین زمان خودش قرار دارد. نظرسنجی ۲۰۱۸ گالوپ نشان داد که طی چهارونیم دهه گذشته، تعداد آمریکایی‌هایی که به کنگره اعتماد دارند از ۴۳ به ۱۱ درصد کاهش یافته‌ست. اعتماد به بانک‌ها به نصف رسیده و از هر ۱۰۰ نفر فقط ۳۸ نفر می‌گویند که آنها به مؤسسات مذهبی اعتماد دارند. از ۶۵ نفری که در اوایل دهه ۱۹۷۰ بودند. بازی واقعی

 

اما مشکل فقط به ایالات متحده محدود نمی‌شود. روندهای مشابهی در برزیل، ایتالیا و آفریقای جنوبی ثبت شده‌ست. کشورهایی که ما همیشه آنها را مردم‌سالار می‌دانیم. چه خبر شده‌ست؟ چرا شهروندان نسبت به نهادهای مردم‌سالارانه خودشان این‌قدر بی‌اعتماد شده‌اند؟ خُب، همه‌چیز به نحوه استفاده ما از رسانه‌ها برای درک واقعیت برمی‌گردد.

 

اینترنت فضای رسانه‌ای را فراتر از جست‌وجو و شناخت صرف تغییر داده‌ست. قبل از عصر دیجیتال، اطلاعات در یک جهت واحد جریان می‌یافتند. یک نفر صحبت می‌کرد بسیاری گوش می‌دادند. به مجریان تلویزیون یا یادداشت‌نویسان روزنامه فکر کنید. افرادی که هزاران شنونده و خواننده را تحت تأثیر خودشان قرار داده‌اند. مجریان اخبار و روزنامه‌نگاران تلاش کردند تا عینیت داشته باشند. قبل از پخش یا انتشار برنامه یا یادداشتی، آنها باید بررسی شوند. البته، توطئه‌گران در نوشتن نامه به نیویورک‌تایمز آزاد بودند، اما این روزنامه هم در تصمیم‌گیری درباره انتشار یا عدم انتشار چنین نامه‌هایی آزاد بودند.

تغییر اوضاع

این الگو بدان معناست که میلیون‌ها شهروند اطلاعات‌شان را از همان منابع دریافت می‌کنند. این به ایجاد اجماع درباره حقیقت و واقعی بودن رویدادها کمک کرد و در نتیجه باعث ایجاد اعتماد شد. اما در چند سال گذشته، اوضاع تغییر کرده‌ست. اکنون اطلاعات از طریق الگوی «بسیار در بسیار» به اشتراک گذاشته می‌شود. دیگر لازم نیست کسی را ترغیب کنید که نظرات شما را چاپ یا پخش کند. در وب، شما ناشر خودتان هستید. و هر کسی می‌تواند آنچه را ارسال می‌کنید بخواند. بازی واقعی

 

پیشگامان اینترنت امیدوار بودند که عصر طلایی آزادی بیان و مشارکت مدنی باشد. اما آنچه آنها پیش بینی نکردند این بود که نظارت این بستر و نظارت بر آن فقط توسط چند شرکت غول‌پیکر رسانه اجتماعی صورت می‌گیرد، هر کدام از این بنگاه‌ها دیگر کمتر پاسخگو هستند. در دنیای رسانه‌ها مقررات کمی وجود دارد یا اصلاً وجود ندارد، بنابراین، اینترنت به مکانی برای توسعه اطلاعات غیرقانونی تبدیل شده‌ست. و در این آشفتگی تیره الگوریتم‌هایی که به راحتی در این بستر نقش بازی می‌کنند، تشخیص راست از دروغ دشوارست.

 

به عنوان مثال، یک نظرسنجی در ۲۰۱۸ در انگلیس نشان داد که ۶۴ درصد از انگلیسی‌ها برای تشخیص تفاوت اخبار واقعی و دروغ تلاش می‌کنند. بنابراین جای تعجب نیست که اعتماد در کمترین حد خودست. در این شرایط، اغلب نمی‌دانیم که به چه‌کسی اعتماد کنیم!

اخبار جعلی که غالباً با انگیزه‌های تجاری هدایت می‌شوند، تمایل افراد به تفکر انتقادی را جلب می‌کنند.

«عامل اف‌بی‌آی (FBI) مورد سوءظنِ نامه هیلاری ایمیل کشف‌شده در قتل عام‌ست.»

 

در اوایل نوامبر ۲۰۱۶، این عنوان پر سروصدا – چاپ‌شده با حروف بزرگ – در وبگاهی به نام دنور گاردین (Denver Guardian) ظاهر شد. که خودش را به عنوان «قدیمی‌ترین منبع خبری کلرادو» معرفی کرد. این داستان، نامزد دموکرات انتخابات ریاست جمهوری، هیلاری کلینتون را درگیر یک رسوائی کرد. بازی واقعی

 

طولی نکشید که هزاران نفر این داستان را کلیک کردند. در یک برهه، هر دقیقه بیش از ۱۰۰ نفر آن را در فیس‌بوک به اشتراک گذاشتند. فقط یک مشکل وجود داشت: افشاگری، مانند کاغذی که آن را مچاله کنید، ساختگی بود.

 

هیچ‌چیزی درباره آن داستان دنور گاردین درست نبود. مقاله توسط جستین کولر (Jestin Coler)، کارآفرینی از کالیفرنیا نوشته شده‌ست. وی مالک این وبگاه بود و تنها هدف انتشار او تولید کلیک‌های تبلیغاتی بود. كولر فهميد كه آسان‌ترين راه جذب ترافيك سایت، انتشار گزارش‌هاي دروغ درباره رقابت رياست جمهوري‌ست. این یک تجارت سودآور بود. در آستانه انتخابات نوامبر، اخبار ناخواسته برای کولر ماهیانه ۱۰ تا ۳۰ هزار دلار درآمد داشت.

 

كولر بعداً اظهار داشت: «مردم می‌خواستند این خبر را بشنوند و آگاه شوند.» او صریحاً اعتراف کرد که تک‌تک جزئیات آن داستان را ابداع کرده‌ست. این خبر همه‌اش داستان‌پردازی بود. شهری که وی از آن نام برد، مردم، کلانتر، عامل اف‌بی‌آی (FBI). كولر گفت، هنگامی‌كه این قصه را می‌نوشت، تیم رسانه‌ای اجتماعی وی آن را در انجمن‌های طرفدار ترامپ قرار دادند. در عرض چند ساعت، مانند آتش‌سوزی در حال گسترش بود. بازی واقعی

حمله به حقیقت

انگیزه‌های كولر كاملاً تجاری بود. و همین باعث شد كه وی با افرادی همتراز و متفاوت شود كه كارزارهای معروف‌تری برای اطلاعات غیرمجاز اجرا می‌كنند. اما داستان ویروسی او باعث حمله دیجیتالی بزرگتری به حقیقت شد. این حمله اهانت‌آمیز شامل تبلیغات ساختگی در فیس‌بوک بود؛ که توسط دولت روسیه پرداخت شده‌ست. و هم‌چنین داستان‌های جعلی که توسط نوجوانان در مولداوی و «گروه‌های اقدام سیاسی» مرتبط با اردوگاه ترامپ منتشر می‌شود.

 

حق با كولر بود – مردم مایل‌ند این داستان‌ها را بشنوند. چرا؟ خُب، هنوز هم بسیاری از آنها به دلیل اخباری فریب خورده‌اند که یک بار توسط پخش‌کنندگان قابل اعتماد پخش شده‌ست. به همین دلیل، دنور گاردین بر موقعیت خودش به عنوان قدیمی‌ترین منبع خبری کلرادو تأکید کرد.

 

مردم هم‌چنین می‌خواهند به همه چیز گیر دهند و آن را ریشه‌یابی کنند. پژوهش روزنامه‌نگاری تجربه‌شده برای پاسخگویی به اين نياز مورد استفاده قرار گرفت. اما با کم‌رنگ شدن، دست‌فروشان اطلاعات نادرست – که هیچ ابایی از ساختن اخبار یا پنهان کردن حدس و گمان وحشیانه به عنوان تفکر انتقادی ندارند – به منصه ظهور رسیده‌اند.

رویکرد عملی رسانه‌های اجتماعی برای نظارت بر سخنرانی مزیتی برای توطئه‌گران‌ست.

هیچ چیز جدیدی درباره نظریه‌های توطئه وجود ندارد. مردم همیشه سعی کرده‌اند کسانی را در ذهن داشته باشند که بر آنها حکومت می‌کنند. در هر جامعه‌ای شایعات تاریکی درباره توطئه‌ها، رسوائی‌ها و پنهان‌کاری‌ها وجود داشته است. اما در دهه‌های اخیر، چیزی تغییر کرد. در گذشته، توطئه‌ها به آرامی گسترش می‌یافتند. تأیید شایعات درباره اقدامات شرورانه پادشاهان و رؤسای جمهور، ناممکن‌ست، و به ندرت آنها را در اخبار شبانه می‌خوانند. اما دنیای رسانه‌های اجتماعی متفاوت‌ست. در بستر آنلاین، توطئه‌ها سریع‌تر گسترش می‌یابند و به مکان‌های دورتر می‌رسند. بازی واقعی

 

در کیوآنون (QAnon)، یک نظریه توطئه مرتبط با راست افراطی در ایالات متحده را می‌شود دید. طرفداران این حزب ادعا می‌کنند که گروهی از مقامات دولتی منتخب هستند و به «دولت عمیق» معروف‌ست. و گفته می‌شود علیه دونالد ترامپ کار می‌کند. توطئه‌گران هم‌چنین بر این باورند که یک میهن‌پرست گمنام به نام «کیو (Q)» در این باشگاه نفوذ کرده‌ست. این نام مستعار اشاره‌ای به بالاترین سطح امنیت در دسترس مقامات آمریکایی‌ست. یادداشت‌هایی که توسط Q امضاء می‌شود، گاه‌گاهی در انجمن‌هایی مانند فورچان (4chan) ظاهر می‌شوند. به عنوان مثال، Q ادعا کرده‌ست که سیاستمداران لیبرال حلقه جنسیت کودکانه را از زیرزمین مشترک یک پیتزافروشی اجرا می‌کردند.

ادعاهای کیو

ادعاهای Q به سرعت گسترش می‌یابد. گروه‌های هماهنگ از فعالان راست افراطی آنها را برداشته و در سایت‌های بزرگتری مانند ردیت (Reddit) و توئیتر (Twitter) منتشر می‌کنند. آنها این کار را با کمک «ربات‌ها» در رسانه‌های اجتماعی انجام می‌دهند. نرم‌افزاری که وظایفی مانند اشتراک محتوا را خودکار انجام می‌دهد. ربات‌ها، الگوریتم‌ها را فریب می‌دهند تا یادداشت‌هایی را افزایش دهند که محبوبیت آنها واقعی‌ست. پس از مدتی، افراد عادی شروع به انتخاب توطئه می‌کنند. این به یک داستان برای رسانه‌های سنتی تبدیل می‌شود، که موارد را حتی بیشتر تقویت می‌کند. بازی واقعی

 

مسئله اینکه این توطئه‌ها هنجارهای مردم‌سالارانه را از بین می‌برد. در گفته‌های کیوآنون (QAnon)، لیبرال‌ها چیزی جز تخریب ارزش‌های آمریکایی را هدف نگرفتند. اگر این ایده را بپذیرید، مطمئناً فکر می‌کنید که آنها حق ندارند کشور را اداره کنند. حتی اگر در انتخابات پیروز شوند. پس چرا شرکت‌های رسانه‌ایی مانند فیس‌بوک و توئیتر جلوی این توطئه‌ها را نمی‌گیرند؟ خُب، آنها اعتقاد ندارند که نقش آنها نظارت بر گفتار کاربران‌شان‌ست. و به هر حال، مردم حق آزادی بیان دارند، درسته؟

 

شرکت‌های رسانه‌ای نیز در جلوگیری از استفاده ربات‌هایی کُند عمل کرده‌اند که نظریه‌های توطئه را پیش می‌برند. نتیجه چه شده‌ست؟ محیطی که می‌تواند توسط توطئه‌گران حاشیه‌ای به بازی گرفته شود. و همانطورکه در بخش بعدی خلاصه‌کتاب خواهیم دید، بازیگران اصلی جریان سیاسی نیز در حال یادگیری بهره‌گیری از آن هستند.

اولین مورد شناخته‌شده دخالت ربات‌ها در روند سیاسی در ایالات متحده رخ داد.

در اواخر ۲۰۱۳، اوکراینی‌ها برای اعتراض به رئیس جمهور طرفدار روسیه، ویکتور یانوکوویچ، به خیابان‌ها آمدند. دولت روسیه، كه آقای یانوكویچ را یك متحد دیرینه می‌دید، با یورش آنلاین پاسخ داد. هزاران حساب کاربری و ربات‌های اجتماعی در روسیه توسط شبکه‌های روسی بسیج شدند. آنها اطلاعات نادرستی را علیه معترضین منتشر کردند. استراتژی مشابهی بعداً علیه ایالات متحده در انتخابات ریاست جمهوری ۲۰۱۶ استفاده می‌شود. بازی واقعی

 

در آن زمان، بسیاری از تماشاگران معتقد بودند که شاهد تولد تبلیغات محاسباتی هستند. اما اگرچه ممکن‌ست دولت روسیه به هنر تاریک براندازی دیجیتال تسلط داشته باشد، این اولین بازیگر سیاسی نبود که این شیوه‌ها را به کار گرفت.

 

در ۲۰۱۰، رأی‌دهندگان در ماساچوست برای انتخاب سناتور جدید به پای صندوق‌های رأی رفتند. دو نام در رأی‌گیری وجود داشت: اسکات براون، نامزد جمهوری‌خواهان و مارتا کوکلی، یک دموکرات. کواکلی محبوب موردعلاقه بود. ماساچوست برای ده‌ها سال سنگر لیبرال‌ها بود. تد کندی، سناتور دموکرات که مرگ ناگهانی آن رقابت را از بین برد، از ۱۹۶۲ نماینده این ایالت بود. ناگهان، محبوبیت براون شروع به افزایش کرد. و این زمانی بود که دانشمندان کامپیوتر در دانشگاه وسلیان متوجه چیز عجیبی شدند. به نظر می‌رسد حساب‌های توئیتر با ظاهری مشکوک در یک حمله هماهنگ به کوکلی نقش دارند. اتهام؟ بله، این نامزد دموکرات ضد کاتولیک بود. اتهامی جدی در ایالتی مانند ماساچوست. بازی واقعی

انتخابات

این حساب‌ها علاوه بر یکدیگر هیچ داده بیوگرافی یا پیروانی نداشتند و فقط درباره کوکلی یادداشت می‌گذاشتند. آنها در فواصل منظم ۱۰ ثانیه‌ای به او حمله می‌کردند. مشخص بود که اینها ربات هستند، اما چه کسی آنها را تحریک و هدایت می‌کند؟ محققان سرانجام این گزارش‌ها را به گروهی از فعالان محافظه‌کار باهوش فناوری مستقر در اوهایو، ایالتی که کیلومترها از ماساچوست فاصله دارد، پیگیری کردند. اما شخصیت‌های جعلی ایجادشده توسط آن فعالان به گونه‌ای طراحی شده بود که به نظر مردم محلی نگران‌کننده باشد. با یک نگاه اجمالی به شما گفته می‌شود که حملات از سوی مردم عادی در ایالت خود کواکلی انجام می‌شود – نه از ربات‌هایی که توسط سیاست‌مداران هدایت می‌شوند.

 

نگران‌کننده این بود که این شرط‌بندی نتیجه داد. ربات‌ها آنقدر سروصدا ایجاد کردند که رسانه‌های اصلی مانند نشنال کاتولیک ریجستر (National Catholic Register) و نشنال ریویو (National Review) شایعات ضد کاتولیک بودن کواکلی را پررنگ‌تر کردند. داستان‌هایی که آنها پخش کردند به فعالیت ربات‌ها در توئیتر اشاره داشتند. روزنامه‌نگاران کار ربات‌ها را با یک جنبش مردمی اصیل اشتباه گرفتند. رسانه‌هایی که این داستان‌ها را منتشر کردند ناخواسته یک رسوایی ساخته‌شده را تقویت کردند. براون رقابت را برد و کواکلی آن را از دست داد.

ربات‌ها گنگ هستند؛ اما به معنی این نیست که مؤثر نیستند.

هر زمان که وارد توئیتر می‌شوید و به یادداشت‌های معروف نگاه می‌کنید، احتمالاً با حساب‌های رباتی روبرو خواهید شد. آنها مشغول پسندیدن، به اشتراک‌گذاری و اظهارنظر درباره محتوای سایر کاربران هستند. تشخیص پیام‌های تولیدشده توسط این نوع نرم‌افزار کار سختی نیست. این ربات‌ها خواسته یا  ناخواسته باشد و هم از نظر سموم سیاسی، نثرهای عجیب و غریب را با زبان وینکی [سبک داستانی از هری پاتر] می‌نویسند. یادداشت‌های آنها دقیقاً به‌موقع‌ست و با انفجارهای مشابه در بستر آنلاین روبرو می‌شود. بازی واقعی

 

به عبارت دیگر، ربات متوسط ​​شما بسیار پیچیده نیست. پس چرا بسیاری از روزنامه‌نگاران می‌گویند ربات‌ها «مردم‌سالاری را فتح کرده‌اند؟» یک پاسخ اینکه تمرکز روی ربات‌ها آسان‌تر از پرسیدن سؤال ناخوشایندترست: چرا هک مردم‌سالاری با چنین ابزارهای ساده بسیار آسان‌ست؟ ما به این موضوع اخیر باز خواهیم گشت، اما در ابتدا، نگاهی دقیق‌تر به این ربات‌ها می‌اندازیم.

 

یک لحظه به عقب برگردید و رقابت انتخاباتی ۲۰۱۶ بین هیلاری کلینتون و دونالد ترامپ را تصور کنید. پیرامون نقشی که ربات‌ها در آن انتخابات بازی می‌کردند، هیاهوی زیادی وجود داشت. کمبریج آنالیتیکا، شرکت مشاوره سیاسی که به مبارزات انتخاباتی ترامپ مشاوره می‌داد، قول داد که یک لشگر کامل از آنها را راه‌اندازی کند. این شرکت ادعا کرد که ربات‌های هوشمند آن جمعیت‌های کلیدی را با نقاط صحبت طرفدار ترامپ و ضد کلینتون متمرکز بر یک هدف برّنده قرار می‌دهند. برای رسیدن به این هدف، کمبریج آنالیتیکا قصد داشت از داده‌هایی استفاده کند که «روان‌شناختی» نامیده می‌شود. یعنی پروفایل‌های مفصلی که از صفحات رسانه‌های اجتماعی رأی‌دهندگان جمع شده‌ست. بازی واقعی

ابزار تبلیغاتی

این ابزار بسیار پیچیده‌ست. اما تمام شواهد ما نشان می‌دهد که هرگز استفاده نشده‌ست. ستاد انتخاباتی ترامپ یک کارزار دیجیتالی فوق‌العاده مؤثر اجرا کرد. و این مهم‌ترین نکته را در اینجا تأکید می‌کند. وقتی صحبت از تبلیغات محاسباتی می‌شود، برای بردن نیازی به هوشمند بودن نیست. آن را از پروژه تبلیغات محاسباتی در دانشگاه آکسفورد بگیرید. تحقیقات آن شاهد بوده‌ست که همان داستان بارها و بارها پخش می‌شود.

 

از حمله دیجیتالی روسیه علیه اوکراین در ۲۰۱۳ گرفته تا همه‌پرسی برگزیت (Brexit) و مبارزات انتخاباتی ریاست جمهوری ترامپ در ۲۰۱۶، اکثریت قریب به اتفاق ربات‌های بسیار ساده بوده‌اند که برای انتشار اطلاعات غلط استفاده شده‌اند. در واقع، تنها کاری که آنها می‌توانستند انجام دهند اینکه مطالب را دوست داشته (لایک کنند) یا دوباره به اشتراک بگذارند، پیوندها (لینک‌ها) را پخش و افراد را دنبال کنند. این ربات‌ها از نظر عملکردی مکالمه ندارند. آنها هیچ هوش مصنوعی نداشتند.

 

اما کمترین کاری که آنها توانستند انجام دهند برای غلبه بر اهداف‌شان کافی بود. نمادهای تکراری صحبت آنها چنان پربار بود که مخالفان خود را در باتلاق می‌دیدند، و قادر به پاسخ سریع یا مؤثر نبودند.

شرکت‌های رسانه‌های اجتماعی باید خودتنظیم شوند، اما آنها مسئولیت سوءاستفاده از ابزارهای‌شان را نمی‌پذیرند.

همانطورکه یاد گرفتیم، برای هک کردن افکار عمومی به فناوری پیشرفته‌ای نیاز ندارید. چه یک کارزار سیاسی داشته باشید، یا بخواهید اخبار ناخواسته‌ای را منتشر کنید، همه چیزهایی که برای غلبه بر الگوریتم‌های شبکه های اجتماعی نیاز دارید ربات‌های ابتدایی و عناوین قابل کلیک هستند. این ما را به پرسش ناراحت‌کننده‌ای که در پاراگراف قبلی مطرح کردیم برمی‌گرداند: چرا مردم‌سالاری در برابر ابزارهای ساده هک آسیب‌پذیرست؟ یک پاسخ را می‌توان در نحوه تنظیم شرکت‌های رسانه‌های اجتماعی یافت. در زندگی عمومی، این شرکت‌ها اکنون موقعیتی را در اختیار دارند که روزنامه‌ها و رادیو و تلویزیون در اختیار داشتند. اما قوانین حاکم بر کار آنها بسیار نرم‌ترست.

 

کمیسیون انتخابات فدرال را در نظر بگیرید. این نهاد نظارتی قانون مربوط به امور مالی مبارزات سیاسی را اجرا می‌کند. در ۲۰۰۶، کمیسیون تصمیم گرفت که تبلیغات آنلاین در حیطه مسئولیت‌هایش نیست. انصافاً آنها برای تبلیغات سیاسی استثنا قائل شدند. اما افزایش اخبار جعلی ویروسی و اطلاعات غلط دیجیتالی مبتنی بر ربات هرگز در رادار کمیسیون انتخابات آمریکا نبوده‌ست. بنابراین، این ابزار نظارتی از بین رفته‌ست. آیا قانون دیگری می‌توان از دولت فدرال پیدا کرد؟ خُب، فصل ۲۳۰ قانون شایستگی ارتباطات وجود دارد. این اساسنامه که در ۱۹۹۵ تصویب شد، به شرکت‌های اینترنتی حق سانسور گفتارهای مضر را می‌دهد. در صورت انجام اشتباه کار، آنها را از هرگونه مسئولیت معاف می‌کند.بازی واقعی

شرکت‌های رسانه‌ایی

شرکت‌های رسانه‌ایی در آمریکا از فصل ۲۳۰ استفاده می‌کنند. این امر به آنها کمک می‌کند تصمیم‌گیری درباره حذف سخنان نفرت‌انگیز آشکار یا خشن، مانند سخنرانی‌های ضد یهودی هولوکاست و نئونازی را توجیه کنند. اما شرکت‌ها هم‌چنین با این قانون به عنوان مجوزی برای نادیده گرفتن محتوای سیاسی مشکل‌ساز مانند اطلاعات نادرست رفتار می‌کنند. همانطورکه مدیران این شرکت‌ها می‌بینند، اساسنامه نظرش را تأیید می‌کند که وظیفه آنها به عنوان «داوران حقیقت» بر عهده آنها نیست. در واقع، فصل ۲۳۰ به این شرکت‌ها اختیار داوری درباره محتوا را می‌دهد، اما آنها بندرت از آن استفاده می‌کنند. چرا؟ یک توضیح ممکن‌ست این باشد که با اخلاق آزادی‌خواهانه سیلیکون ولی در تضادست.

 

اما حتی اگر شرکت‌هایی مانند فیس‌بوک و توئیتر از این قدرت استفاده می‌کردند، تمیز کردن سیستم عامل‌های آنها یک کار چالش‌برانگیز و دلهره‌آورست. این سایت‌ها بسیار سریع رشد کردند – و بدون توجه زیاد به طراحی اخلاقی. برای جلوگیری از سوءاستفاده در آینده، باید اصلاحات موقت را بر روی ساختار فعلی ایجاد کنند که برای جاسازی آنها هنوز ایجاد نشده‌ست. همانطورکه یک کارمند فیس‌بوک در مصاحبه با نویسنده گفت، غول رسانه‌های اجتماعی مانند هواپیمایی‌ست که با وجود اینکه فقط یک بال‌ش ساخته شده‌ست، به پرواز در آمده‌ست.

یادگیری ماشین می‌تواند به ما کمک کند تا با اطلاعات نادرست دیجیتالی کنار بیاییم، اما به‌تنهایی کافی نیست.

بیایید پرسش آخر را مطر کنیم. آیا می‌توانیم به راحتی ربات‌ها را تحریم کنیم؟ در سال ۲۰۱۸، سناتور آمریکایی دیان فاینشتاین با پیشنهاد «قانون افشای ربات و پاسخگویی» سعی در انجام چنین کاری داشت. اما این لایحه در کنگره مسکوت ماند. اجرای اقدامات ضد ربات بدون نقض حق قانون اساسی برای آزادی بیان دشوارست. و در موارد دیگر و بیشتر ممکن‌ست شما درباره ربات‌ها قانون وضع کنید، اما این مسئله مشکل دیگر اطلاعات نادرست را حل نمی‌کند: بشر اخبار دروغ را به همان اندازه و مؤثر مانند ربات‌ها منتشر می‌کند. به عنوان مثال، «ارتش ۵۰ سنت» چینی یک گروه هماهنگ از حساب‌های انسانی‌ست که مسئول تبلیغات وب با تبلیغات حامی دولت‌ست. فعالیت‌های آنها تحت پوشش قوانین ضد ربات قرار نخواهد گرفت. بازی واقعی

 

بنابراین ممکن‌ست با تمرکز دیگری وضعیت بهتری داشته باشیم. شاید هدف ما نباید خود ربات‌ها باشد. در عوض، شاید ما باید بیشتر درباره اطلاعات – و چگونگی جریان آنها باید فکر کنیم. رباتی را تصور کنید که از یادگیری ماشین استفاده می‌کند. این برنامه از مکالمه با مردم در شبکه‌های اجتماعی یاد می‌گیرد. دائماً در گفت‌وگو و تعامل با انسان‌های واقعی بهتر می‌شود.

 

حال تصور کنید این برنامه با افرادی شروع به گپ زدن کرده و آنها را متقاعد کرده‌ست تا مقاله‌ای درباره نفی گرم شدن کره زمین را به اشتراک بگذارند. این مکالمه به تنهایی داده‌های زیادی تولید می‌کند. سپس ربات داده‌ها را تجزیه و تحلیل می‌کند تا بفهمد کدام تاکتیک‌ها جواب می‌دهند و کدام‌ها نه. و این تجزیه و تحلیل رفتار آینده ربات را آگاه می‌کند.

 

یک کابوس کامل، درسته؟ مطمئناً، اما این یک خیابان یک طرفه نیست. یادگیری ماشینی هم‌چنین می‌تواند برای مقابله با اطلاعات نادرست دیجیتالی استفاده شود. آن را از محققان رصدخانه رسانه‌های اجتماعی در دانشگاه ایندیانا تهیه کنید که «باتومتر (botometer)» را ساختند.

یادگیری ماشینی

باتومتر از یادگیری ماشینی برای طبقه‌بندی حساب‌های توئیتر به عنوان انسان یا ربات استفاده می‌کند. این کار را با تجزیه و تحلیل بیش از هزار ویژگی از هر حساب داده شده انجام می‌دهد. این نرم‌افزار به دوستان، الگوی فعالیت، زبان و لحن ارسال‌های حساب توئیتر نگاه می‌کند. در پایان این تجزیه و تحلیل، باتومتر یک «نمره ربات» کلی را ارائه می‌دهد. این به کاربران می‌گوید که آیا آنها با یک انسان تعامل دارند یا یک ربات، و بلافاصله یکی از رایج‌ترین منابع اطلاعات نادرست را برجسته می‌کند. بازی واقعی

 

اما الگوریتم‌های یادگیری ماشینی مانند باتومتر احتمالاً به تنهایی کافی نیستند. اکثر کارشناسان ظهور الگوهای نظارتی ترکیبی – یا «سایبورگ (cyborg)» را پیش‌بینی می‌کنند. به عنوان مثال، انسان‌ها می‌توانند داستان‌ها را بررسی کنند و سیستم‌های خودکار برای شناسایی سریع ربات‌هایی ممکن‌ست استفاده شود که اخبار جعلی را منتشر می‌کنند.

خلاصه نهایی

فضای رسانه‌ای فراتر از شناخت تغییر کرده‌ست. در روزهای آغازین اینترنت، بسیاری از مؤسسات رسانه‌ای سنتی مانند روزنامه‌ها و رادیو و تلویزیون طلوع آن را جشن گرفتند. اما اختیار مردم برای انتخاب منابع خبری خود مشارکت مدنی را افزایش نداد – بلکه باعث شد تا اعتماد را از بین ببرد و شرایط مناسبی برای اطلاعات غلط دیجیتالی ایجاد کرد. این مشکل با تنظیم کلیک ساده و جلوگیری شرکت‌های رسانه‌ای اجتماعی برای مقابله با ربات‌ها بیشتر شده‌ست. اما یادگیری ماشینی، که در کنار هوش واقعی انسانی استفاده می‌شود، ممکن‌ست به ما در پیروزی در این نبرد کمک کند. بازی واقعی

 

این کتاب را می‌توانید از انتشارات چیتگرها تهیه کنید.

 

دوره کارآفرینی سازمانی

امتیاز به این مطلب

4.3/5 - (6 امتیاز)

مطالب بیشتر

برای نوشتن دیدگاه باید وارد بشوید.
بازی واقعی
شما هم می‌توانید تغییر را رهبری کنیدبیشتر بدانید
+