موج بعدی فناوری چگونه حقیقت را تغییر خواهد داد
بازی واقعی (۲۰۲۰) دنیای تیره «تبلیغات محاسباتی» – دستکاری سیاسی با استفاده از ابزارهای دیجیتال – را روشن میکند. ساموئل وولی استدلال میکند که اخبار جعلی، نظریههای توطئه ویروسی و لشگریان ربات توییتر فقط گیجی و اختلاف را ایجاد نمیکنند. از نظر وی، آنها فرایند مردمسالاری را نیز از بین میبرند. بدان معنا که زمان آن فرا رسیدهست تا ما از پس بسترهای غولآسای غیرقابل پاسخگو به عقب برگردیم. و فضای دیجیتالیمان را بازیابی کنیم.
ساموئل وولی استادیار دانشکده روزنامهنگاری دانشگاه تگزاس در شهر آستینست. وی در زمینه مطالعه سیاسی، متقاعدسازی و شبکههای اجتماعی تخصص دارد. وولی پروژه تبلیغات محاسباتی را بنیان نهاد که یک پژوهش بینِ رشتهایست و سیاستهای دیجیتالی را بررسی میکند. وی همچنین مدیر و مؤسس آزمایشگاه هوش دیجیتالست. و درباره تبلیغات محاسباتی برای گاردین (Guardian)، وایرد (Wired)، آتلانتیک (Atlantic)، مادربرد (Motherboard)، تککرانچ (TechCrunch)، و اسلت (Slate) مطالبی را نوشتهست.
این کتاب چهچیزی برای من دارد؟ به جنبش مبارزه با اخبار جعلی بپیوندید.
شبکههای اجتماعي مسلح شدهاند. دولتهای اقتدارگرا در سراسر جهان لشگر رباتها و حسابهای جعلی را نظارت میکنند. هدف آنها چیست؟ بیشتر اوقات، آزار و اذیت روزنامهنگاران و ایجاد تردید درباره فعالیت مخالفانست. بازی واقعی
اما این فقط دیکتاتورها نیستند که از سلاحهای دیجیتالی استفاده میکنند. مردم نیز مصون نیستند. در انتخابات ریاست جمهوری ۲۰۱۶ در ایالات متحده، تیم دونالد ترامپ هزاران حساب جعلی در شبکههای اجتماعی ایجاد کرد تا نکات گفتاری موردنظرش را تحت فشار رسانهها منتشر کند.
و در آن سوی اقیانوس اطلس، کمپین انگلیس برای خروج از اتحادیه اروپا شیوههای مشابهی را به کار گرفت. هم ترامپ و هم برگزیترز (Brexiteers) سوار بر موج اطلاعات غلط برای رسیدن به پیروزی شدند.
اما تلاش برای فریب و خدعه مردم فقط مربوط به فناوری نیست. در زیر سیل اخبار جعلی و دستکاریشده، شبکه پیچیدهای از مشکلات اجتماعی، اقتصادی و سیاسی قرار دارد. بازی واقعی
بدان معنی که مسئله اصلی خودِ رسانههای اجتماعی نیستند، که میتوانند قدرت همیشگی باشند. بلکه سوءاستفاده از رسانههای اجتماعیست. بنابراین مسئله اصلی اینکه چگونه میتوانیم از سوءاستفاده از ابزارهای دیجیتالی جلوگیری کنیم. اولین قدم اینکه دریابید چرا رسانههای اجتماعی اینقدر ناکارآمد هستند.
رسانههای قدیمی به تقویت ایمان در نهادها کمک کردند. رسانههای جدید آن را تضعیف میکنند.
اعتماد به نهادهای مردمسالارانه به کمترین زمان خودش قرار دارد. نظرسنجی ۲۰۱۸ گالوپ نشان داد که طی چهارونیم دهه گذشته، تعداد آمریکاییهایی که به کنگره اعتماد دارند از ۴۳ به ۱۱ درصد کاهش یافتهست. اعتماد به بانکها به نصف رسیده و از هر ۱۰۰ نفر فقط ۳۸ نفر میگویند که آنها به مؤسسات مذهبی اعتماد دارند. از ۶۵ نفری که در اوایل دهه ۱۹۷۰ بودند. بازی واقعی
اما مشکل فقط به ایالات متحده محدود نمیشود. روندهای مشابهی در برزیل، ایتالیا و آفریقای جنوبی ثبت شدهست. کشورهایی که ما همیشه آنها را مردمسالار میدانیم. چه خبر شدهست؟ چرا شهروندان نسبت به نهادهای مردمسالارانه خودشان اینقدر بیاعتماد شدهاند؟ خُب، همهچیز به نحوه استفاده ما از رسانهها برای درک واقعیت برمیگردد.
اینترنت فضای رسانهای را فراتر از جستوجو و شناخت صرف تغییر دادهست. قبل از عصر دیجیتال، اطلاعات در یک جهت واحد جریان مییافتند. یک نفر صحبت میکرد بسیاری گوش میدادند. به مجریان تلویزیون یا یادداشتنویسان روزنامه فکر کنید. افرادی که هزاران شنونده و خواننده را تحت تأثیر خودشان قرار دادهاند. مجریان اخبار و روزنامهنگاران تلاش کردند تا عینیت داشته باشند. قبل از پخش یا انتشار برنامه یا یادداشتی، آنها باید بررسی شوند. البته، توطئهگران در نوشتن نامه به نیویورکتایمز آزاد بودند، اما این روزنامه هم در تصمیمگیری درباره انتشار یا عدم انتشار چنین نامههایی آزاد بودند.
تغییر اوضاع
این الگو بدان معناست که میلیونها شهروند اطلاعاتشان را از همان منابع دریافت میکنند. این به ایجاد اجماع درباره حقیقت و واقعی بودن رویدادها کمک کرد و در نتیجه باعث ایجاد اعتماد شد. اما در چند سال گذشته، اوضاع تغییر کردهست. اکنون اطلاعات از طریق الگوی «بسیار در بسیار» به اشتراک گذاشته میشود. دیگر لازم نیست کسی را ترغیب کنید که نظرات شما را چاپ یا پخش کند. در وب، شما ناشر خودتان هستید. و هر کسی میتواند آنچه را ارسال میکنید بخواند. بازی واقعی
پیشگامان اینترنت امیدوار بودند که عصر طلایی آزادی بیان و مشارکت مدنی باشد. اما آنچه آنها پیش بینی نکردند این بود که نظارت این بستر و نظارت بر آن فقط توسط چند شرکت غولپیکر رسانه اجتماعی صورت میگیرد، هر کدام از این بنگاهها دیگر کمتر پاسخگو هستند. در دنیای رسانهها مقررات کمی وجود دارد یا اصلاً وجود ندارد، بنابراین، اینترنت به مکانی برای توسعه اطلاعات غیرقانونی تبدیل شدهست. و در این آشفتگی تیره الگوریتمهایی که به راحتی در این بستر نقش بازی میکنند، تشخیص راست از دروغ دشوارست.
به عنوان مثال، یک نظرسنجی در ۲۰۱۸ در انگلیس نشان داد که ۶۴ درصد از انگلیسیها برای تشخیص تفاوت اخبار واقعی و دروغ تلاش میکنند. بنابراین جای تعجب نیست که اعتماد در کمترین حد خودست. در این شرایط، اغلب نمیدانیم که به چهکسی اعتماد کنیم!
اخبار جعلی که غالباً با انگیزههای تجاری هدایت میشوند، تمایل افراد به تفکر انتقادی را جلب میکنند.
«عامل افبیآی (FBI) مورد سوءظنِ نامه هیلاری ایمیل کشفشده در قتل عامست.»
در اوایل نوامبر ۲۰۱۶، این عنوان پر سروصدا – چاپشده با حروف بزرگ – در وبگاهی به نام دنور گاردین (Denver Guardian) ظاهر شد. که خودش را به عنوان «قدیمیترین منبع خبری کلرادو» معرفی کرد. این داستان، نامزد دموکرات انتخابات ریاست جمهوری، هیلاری کلینتون را درگیر یک رسوائی کرد. بازی واقعی
طولی نکشید که هزاران نفر این داستان را کلیک کردند. در یک برهه، هر دقیقه بیش از ۱۰۰ نفر آن را در فیسبوک به اشتراک گذاشتند. فقط یک مشکل وجود داشت: افشاگری، مانند کاغذی که آن را مچاله کنید، ساختگی بود.
هیچچیزی درباره آن داستان دنور گاردین درست نبود. مقاله توسط جستین کولر (Jestin Coler)، کارآفرینی از کالیفرنیا نوشته شدهست. وی مالک این وبگاه بود و تنها هدف انتشار او تولید کلیکهای تبلیغاتی بود. كولر فهميد كه آسانترين راه جذب ترافيك سایت، انتشار گزارشهاي دروغ درباره رقابت رياست جمهوريست. این یک تجارت سودآور بود. در آستانه انتخابات نوامبر، اخبار ناخواسته برای کولر ماهیانه ۱۰ تا ۳۰ هزار دلار درآمد داشت.
كولر بعداً اظهار داشت: «مردم میخواستند این خبر را بشنوند و آگاه شوند.» او صریحاً اعتراف کرد که تکتک جزئیات آن داستان را ابداع کردهست. این خبر همهاش داستانپردازی بود. شهری که وی از آن نام برد، مردم، کلانتر، عامل افبیآی (FBI). كولر گفت، هنگامیكه این قصه را مینوشت، تیم رسانهای اجتماعی وی آن را در انجمنهای طرفدار ترامپ قرار دادند. در عرض چند ساعت، مانند آتشسوزی در حال گسترش بود. بازی واقعی
حمله به حقیقت
انگیزههای كولر كاملاً تجاری بود. و همین باعث شد كه وی با افرادی همتراز و متفاوت شود كه كارزارهای معروفتری برای اطلاعات غیرمجاز اجرا میكنند. اما داستان ویروسی او باعث حمله دیجیتالی بزرگتری به حقیقت شد. این حمله اهانتآمیز شامل تبلیغات ساختگی در فیسبوک بود؛ که توسط دولت روسیه پرداخت شدهست. و همچنین داستانهای جعلی که توسط نوجوانان در مولداوی و «گروههای اقدام سیاسی» مرتبط با اردوگاه ترامپ منتشر میشود.
حق با كولر بود – مردم مایلند این داستانها را بشنوند. چرا؟ خُب، هنوز هم بسیاری از آنها به دلیل اخباری فریب خوردهاند که یک بار توسط پخشکنندگان قابل اعتماد پخش شدهست. به همین دلیل، دنور گاردین بر موقعیت خودش به عنوان قدیمیترین منبع خبری کلرادو تأکید کرد.
مردم همچنین میخواهند به همه چیز گیر دهند و آن را ریشهیابی کنند. پژوهش روزنامهنگاری تجربهشده برای پاسخگویی به اين نياز مورد استفاده قرار گرفت. اما با کمرنگ شدن، دستفروشان اطلاعات نادرست – که هیچ ابایی از ساختن اخبار یا پنهان کردن حدس و گمان وحشیانه به عنوان تفکر انتقادی ندارند – به منصه ظهور رسیدهاند.
رویکرد عملی رسانههای اجتماعی برای نظارت بر سخنرانی مزیتی برای توطئهگرانست.
هیچ چیز جدیدی درباره نظریههای توطئه وجود ندارد. مردم همیشه سعی کردهاند کسانی را در ذهن داشته باشند که بر آنها حکومت میکنند. در هر جامعهای شایعات تاریکی درباره توطئهها، رسوائیها و پنهانکاریها وجود داشته است. اما در دهههای اخیر، چیزی تغییر کرد. در گذشته، توطئهها به آرامی گسترش مییافتند. تأیید شایعات درباره اقدامات شرورانه پادشاهان و رؤسای جمهور، ناممکنست، و به ندرت آنها را در اخبار شبانه میخوانند. اما دنیای رسانههای اجتماعی متفاوتست. در بستر آنلاین، توطئهها سریعتر گسترش مییابند و به مکانهای دورتر میرسند. بازی واقعی
در کیوآنون (QAnon)، یک نظریه توطئه مرتبط با راست افراطی در ایالات متحده را میشود دید. طرفداران این حزب ادعا میکنند که گروهی از مقامات دولتی منتخب هستند و به «دولت عمیق» معروفست. و گفته میشود علیه دونالد ترامپ کار میکند. توطئهگران همچنین بر این باورند که یک میهنپرست گمنام به نام «کیو (Q)» در این باشگاه نفوذ کردهست. این نام مستعار اشارهای به بالاترین سطح امنیت در دسترس مقامات آمریکاییست. یادداشتهایی که توسط Q امضاء میشود، گاهگاهی در انجمنهایی مانند فورچان (4chan) ظاهر میشوند. به عنوان مثال، Q ادعا کردهست که سیاستمداران لیبرال حلقه جنسیت کودکانه را از زیرزمین مشترک یک پیتزافروشی اجرا میکردند.
ادعاهای کیو
ادعاهای Q به سرعت گسترش مییابد. گروههای هماهنگ از فعالان راست افراطی آنها را برداشته و در سایتهای بزرگتری مانند ردیت (Reddit) و توئیتر (Twitter) منتشر میکنند. آنها این کار را با کمک «رباتها» در رسانههای اجتماعی انجام میدهند. نرمافزاری که وظایفی مانند اشتراک محتوا را خودکار انجام میدهد. رباتها، الگوریتمها را فریب میدهند تا یادداشتهایی را افزایش دهند که محبوبیت آنها واقعیست. پس از مدتی، افراد عادی شروع به انتخاب توطئه میکنند. این به یک داستان برای رسانههای سنتی تبدیل میشود، که موارد را حتی بیشتر تقویت میکند. بازی واقعی
مسئله اینکه این توطئهها هنجارهای مردمسالارانه را از بین میبرد. در گفتههای کیوآنون (QAnon)، لیبرالها چیزی جز تخریب ارزشهای آمریکایی را هدف نگرفتند. اگر این ایده را بپذیرید، مطمئناً فکر میکنید که آنها حق ندارند کشور را اداره کنند. حتی اگر در انتخابات پیروز شوند. پس چرا شرکتهای رسانهایی مانند فیسبوک و توئیتر جلوی این توطئهها را نمیگیرند؟ خُب، آنها اعتقاد ندارند که نقش آنها نظارت بر گفتار کاربرانشانست. و به هر حال، مردم حق آزادی بیان دارند، درسته؟
شرکتهای رسانهای نیز در جلوگیری از استفاده رباتهایی کُند عمل کردهاند که نظریههای توطئه را پیش میبرند. نتیجه چه شدهست؟ محیطی که میتواند توسط توطئهگران حاشیهای به بازی گرفته شود. و همانطورکه در بخش بعدی خلاصهکتاب خواهیم دید، بازیگران اصلی جریان سیاسی نیز در حال یادگیری بهرهگیری از آن هستند.
اولین مورد شناختهشده دخالت رباتها در روند سیاسی در ایالات متحده رخ داد.
در اواخر ۲۰۱۳، اوکراینیها برای اعتراض به رئیس جمهور طرفدار روسیه، ویکتور یانوکوویچ، به خیابانها آمدند. دولت روسیه، كه آقای یانوكویچ را یك متحد دیرینه میدید، با یورش آنلاین پاسخ داد. هزاران حساب کاربری و رباتهای اجتماعی در روسیه توسط شبکههای روسی بسیج شدند. آنها اطلاعات نادرستی را علیه معترضین منتشر کردند. استراتژی مشابهی بعداً علیه ایالات متحده در انتخابات ریاست جمهوری ۲۰۱۶ استفاده میشود. بازی واقعی
در آن زمان، بسیاری از تماشاگران معتقد بودند که شاهد تولد تبلیغات محاسباتی هستند. اما اگرچه ممکنست دولت روسیه به هنر تاریک براندازی دیجیتال تسلط داشته باشد، این اولین بازیگر سیاسی نبود که این شیوهها را به کار گرفت.
در ۲۰۱۰، رأیدهندگان در ماساچوست برای انتخاب سناتور جدید به پای صندوقهای رأی رفتند. دو نام در رأیگیری وجود داشت: اسکات براون، نامزد جمهوریخواهان و مارتا کوکلی، یک دموکرات. کواکلی محبوب موردعلاقه بود. ماساچوست برای دهها سال سنگر لیبرالها بود. تد کندی، سناتور دموکرات که مرگ ناگهانی آن رقابت را از بین برد، از ۱۹۶۲ نماینده این ایالت بود. ناگهان، محبوبیت براون شروع به افزایش کرد. و این زمانی بود که دانشمندان کامپیوتر در دانشگاه وسلیان متوجه چیز عجیبی شدند. به نظر میرسد حسابهای توئیتر با ظاهری مشکوک در یک حمله هماهنگ به کوکلی نقش دارند. اتهام؟ بله، این نامزد دموکرات ضد کاتولیک بود. اتهامی جدی در ایالتی مانند ماساچوست. بازی واقعی
انتخابات
این حسابها علاوه بر یکدیگر هیچ داده بیوگرافی یا پیروانی نداشتند و فقط درباره کوکلی یادداشت میگذاشتند. آنها در فواصل منظم ۱۰ ثانیهای به او حمله میکردند. مشخص بود که اینها ربات هستند، اما چه کسی آنها را تحریک و هدایت میکند؟ محققان سرانجام این گزارشها را به گروهی از فعالان محافظهکار باهوش فناوری مستقر در اوهایو، ایالتی که کیلومترها از ماساچوست فاصله دارد، پیگیری کردند. اما شخصیتهای جعلی ایجادشده توسط آن فعالان به گونهای طراحی شده بود که به نظر مردم محلی نگرانکننده باشد. با یک نگاه اجمالی به شما گفته میشود که حملات از سوی مردم عادی در ایالت خود کواکلی انجام میشود – نه از رباتهایی که توسط سیاستمداران هدایت میشوند.
نگرانکننده این بود که این شرطبندی نتیجه داد. رباتها آنقدر سروصدا ایجاد کردند که رسانههای اصلی مانند نشنال کاتولیک ریجستر (National Catholic Register) و نشنال ریویو (National Review) شایعات ضد کاتولیک بودن کواکلی را پررنگتر کردند. داستانهایی که آنها پخش کردند به فعالیت رباتها در توئیتر اشاره داشتند. روزنامهنگاران کار رباتها را با یک جنبش مردمی اصیل اشتباه گرفتند. رسانههایی که این داستانها را منتشر کردند ناخواسته یک رسوایی ساختهشده را تقویت کردند. براون رقابت را برد و کواکلی آن را از دست داد.
رباتها گنگ هستند؛ اما به معنی این نیست که مؤثر نیستند.
هر زمان که وارد توئیتر میشوید و به یادداشتهای معروف نگاه میکنید، احتمالاً با حسابهای رباتی روبرو خواهید شد. آنها مشغول پسندیدن، به اشتراکگذاری و اظهارنظر درباره محتوای سایر کاربران هستند. تشخیص پیامهای تولیدشده توسط این نوع نرمافزار کار سختی نیست. این رباتها خواسته یا ناخواسته باشد و هم از نظر سموم سیاسی، نثرهای عجیب و غریب را با زبان وینکی [سبک داستانی از هری پاتر] مینویسند. یادداشتهای آنها دقیقاً بهموقعست و با انفجارهای مشابه در بستر آنلاین روبرو میشود. بازی واقعی
به عبارت دیگر، ربات متوسط شما بسیار پیچیده نیست. پس چرا بسیاری از روزنامهنگاران میگویند رباتها «مردمسالاری را فتح کردهاند؟» یک پاسخ اینکه تمرکز روی رباتها آسانتر از پرسیدن سؤال ناخوشایندترست: چرا هک مردمسالاری با چنین ابزارهای ساده بسیار آسانست؟ ما به این موضوع اخیر باز خواهیم گشت، اما در ابتدا، نگاهی دقیقتر به این رباتها میاندازیم.
یک لحظه به عقب برگردید و رقابت انتخاباتی ۲۰۱۶ بین هیلاری کلینتون و دونالد ترامپ را تصور کنید. پیرامون نقشی که رباتها در آن انتخابات بازی میکردند، هیاهوی زیادی وجود داشت. کمبریج آنالیتیکا، شرکت مشاوره سیاسی که به مبارزات انتخاباتی ترامپ مشاوره میداد، قول داد که یک لشگر کامل از آنها را راهاندازی کند. این شرکت ادعا کرد که رباتهای هوشمند آن جمعیتهای کلیدی را با نقاط صحبت طرفدار ترامپ و ضد کلینتون متمرکز بر یک هدف برّنده قرار میدهند. برای رسیدن به این هدف، کمبریج آنالیتیکا قصد داشت از دادههایی استفاده کند که «روانشناختی» نامیده میشود. یعنی پروفایلهای مفصلی که از صفحات رسانههای اجتماعی رأیدهندگان جمع شدهست. بازی واقعی
ابزار تبلیغاتی
این ابزار بسیار پیچیدهست. اما تمام شواهد ما نشان میدهد که هرگز استفاده نشدهست. ستاد انتخاباتی ترامپ یک کارزار دیجیتالی فوقالعاده مؤثر اجرا کرد. و این مهمترین نکته را در اینجا تأکید میکند. وقتی صحبت از تبلیغات محاسباتی میشود، برای بردن نیازی به هوشمند بودن نیست. آن را از پروژه تبلیغات محاسباتی در دانشگاه آکسفورد بگیرید. تحقیقات آن شاهد بودهست که همان داستان بارها و بارها پخش میشود.
از حمله دیجیتالی روسیه علیه اوکراین در ۲۰۱۳ گرفته تا همهپرسی برگزیت (Brexit) و مبارزات انتخاباتی ریاست جمهوری ترامپ در ۲۰۱۶، اکثریت قریب به اتفاق رباتهای بسیار ساده بودهاند که برای انتشار اطلاعات غلط استفاده شدهاند. در واقع، تنها کاری که آنها میتوانستند انجام دهند اینکه مطالب را دوست داشته (لایک کنند) یا دوباره به اشتراک بگذارند، پیوندها (لینکها) را پخش و افراد را دنبال کنند. این رباتها از نظر عملکردی مکالمه ندارند. آنها هیچ هوش مصنوعی نداشتند.
اما کمترین کاری که آنها توانستند انجام دهند برای غلبه بر اهدافشان کافی بود. نمادهای تکراری صحبت آنها چنان پربار بود که مخالفان خود را در باتلاق میدیدند، و قادر به پاسخ سریع یا مؤثر نبودند.
شرکتهای رسانههای اجتماعی باید خودتنظیم شوند، اما آنها مسئولیت سوءاستفاده از ابزارهایشان را نمیپذیرند.
همانطورکه یاد گرفتیم، برای هک کردن افکار عمومی به فناوری پیشرفتهای نیاز ندارید. چه یک کارزار سیاسی داشته باشید، یا بخواهید اخبار ناخواستهای را منتشر کنید، همه چیزهایی که برای غلبه بر الگوریتمهای شبکه های اجتماعی نیاز دارید رباتهای ابتدایی و عناوین قابل کلیک هستند. این ما را به پرسش ناراحتکنندهای که در پاراگراف قبلی مطرح کردیم برمیگرداند: چرا مردمسالاری در برابر ابزارهای ساده هک آسیبپذیرست؟ یک پاسخ را میتوان در نحوه تنظیم شرکتهای رسانههای اجتماعی یافت. در زندگی عمومی، این شرکتها اکنون موقعیتی را در اختیار دارند که روزنامهها و رادیو و تلویزیون در اختیار داشتند. اما قوانین حاکم بر کار آنها بسیار نرمترست.
کمیسیون انتخابات فدرال را در نظر بگیرید. این نهاد نظارتی قانون مربوط به امور مالی مبارزات سیاسی را اجرا میکند. در ۲۰۰۶، کمیسیون تصمیم گرفت که تبلیغات آنلاین در حیطه مسئولیتهایش نیست. انصافاً آنها برای تبلیغات سیاسی استثنا قائل شدند. اما افزایش اخبار جعلی ویروسی و اطلاعات غلط دیجیتالی مبتنی بر ربات هرگز در رادار کمیسیون انتخابات آمریکا نبودهست. بنابراین، این ابزار نظارتی از بین رفتهست. آیا قانون دیگری میتوان از دولت فدرال پیدا کرد؟ خُب، فصل ۲۳۰ قانون شایستگی ارتباطات وجود دارد. این اساسنامه که در ۱۹۹۵ تصویب شد، به شرکتهای اینترنتی حق سانسور گفتارهای مضر را میدهد. در صورت انجام اشتباه کار، آنها را از هرگونه مسئولیت معاف میکند.بازی واقعی
شرکتهای رسانهایی
شرکتهای رسانهایی در آمریکا از فصل ۲۳۰ استفاده میکنند. این امر به آنها کمک میکند تصمیمگیری درباره حذف سخنان نفرتانگیز آشکار یا خشن، مانند سخنرانیهای ضد یهودی هولوکاست و نئونازی را توجیه کنند. اما شرکتها همچنین با این قانون به عنوان مجوزی برای نادیده گرفتن محتوای سیاسی مشکلساز مانند اطلاعات نادرست رفتار میکنند. همانطورکه مدیران این شرکتها میبینند، اساسنامه نظرش را تأیید میکند که وظیفه آنها به عنوان «داوران حقیقت» بر عهده آنها نیست. در واقع، فصل ۲۳۰ به این شرکتها اختیار داوری درباره محتوا را میدهد، اما آنها بندرت از آن استفاده میکنند. چرا؟ یک توضیح ممکنست این باشد که با اخلاق آزادیخواهانه سیلیکون ولی در تضادست.
اما حتی اگر شرکتهایی مانند فیسبوک و توئیتر از این قدرت استفاده میکردند، تمیز کردن سیستم عاملهای آنها یک کار چالشبرانگیز و دلهرهآورست. این سایتها بسیار سریع رشد کردند – و بدون توجه زیاد به طراحی اخلاقی. برای جلوگیری از سوءاستفاده در آینده، باید اصلاحات موقت را بر روی ساختار فعلی ایجاد کنند که برای جاسازی آنها هنوز ایجاد نشدهست. همانطورکه یک کارمند فیسبوک در مصاحبه با نویسنده گفت، غول رسانههای اجتماعی مانند هواپیماییست که با وجود اینکه فقط یک بالش ساخته شدهست، به پرواز در آمدهست.
یادگیری ماشین میتواند به ما کمک کند تا با اطلاعات نادرست دیجیتالی کنار بیاییم، اما بهتنهایی کافی نیست.
بیایید پرسش آخر را مطر کنیم. آیا میتوانیم به راحتی رباتها را تحریم کنیم؟ در سال ۲۰۱۸، سناتور آمریکایی دیان فاینشتاین با پیشنهاد «قانون افشای ربات و پاسخگویی» سعی در انجام چنین کاری داشت. اما این لایحه در کنگره مسکوت ماند. اجرای اقدامات ضد ربات بدون نقض حق قانون اساسی برای آزادی بیان دشوارست. و در موارد دیگر و بیشتر ممکنست شما درباره رباتها قانون وضع کنید، اما این مسئله مشکل دیگر اطلاعات نادرست را حل نمیکند: بشر اخبار دروغ را به همان اندازه و مؤثر مانند رباتها منتشر میکند. به عنوان مثال، «ارتش ۵۰ سنت» چینی یک گروه هماهنگ از حسابهای انسانیست که مسئول تبلیغات وب با تبلیغات حامی دولتست. فعالیتهای آنها تحت پوشش قوانین ضد ربات قرار نخواهد گرفت. بازی واقعی
بنابراین ممکنست با تمرکز دیگری وضعیت بهتری داشته باشیم. شاید هدف ما نباید خود رباتها باشد. در عوض، شاید ما باید بیشتر درباره اطلاعات – و چگونگی جریان آنها باید فکر کنیم. رباتی را تصور کنید که از یادگیری ماشین استفاده میکند. این برنامه از مکالمه با مردم در شبکههای اجتماعی یاد میگیرد. دائماً در گفتوگو و تعامل با انسانهای واقعی بهتر میشود.
حال تصور کنید این برنامه با افرادی شروع به گپ زدن کرده و آنها را متقاعد کردهست تا مقالهای درباره نفی گرم شدن کره زمین را به اشتراک بگذارند. این مکالمه به تنهایی دادههای زیادی تولید میکند. سپس ربات دادهها را تجزیه و تحلیل میکند تا بفهمد کدام تاکتیکها جواب میدهند و کدامها نه. و این تجزیه و تحلیل رفتار آینده ربات را آگاه میکند.
یک کابوس کامل، درسته؟ مطمئناً، اما این یک خیابان یک طرفه نیست. یادگیری ماشینی همچنین میتواند برای مقابله با اطلاعات نادرست دیجیتالی استفاده شود. آن را از محققان رصدخانه رسانههای اجتماعی در دانشگاه ایندیانا تهیه کنید که «باتومتر (botometer)» را ساختند.
یادگیری ماشینی
باتومتر از یادگیری ماشینی برای طبقهبندی حسابهای توئیتر به عنوان انسان یا ربات استفاده میکند. این کار را با تجزیه و تحلیل بیش از هزار ویژگی از هر حساب داده شده انجام میدهد. این نرمافزار به دوستان، الگوی فعالیت، زبان و لحن ارسالهای حساب توئیتر نگاه میکند. در پایان این تجزیه و تحلیل، باتومتر یک «نمره ربات» کلی را ارائه میدهد. این به کاربران میگوید که آیا آنها با یک انسان تعامل دارند یا یک ربات، و بلافاصله یکی از رایجترین منابع اطلاعات نادرست را برجسته میکند. بازی واقعی
اما الگوریتمهای یادگیری ماشینی مانند باتومتر احتمالاً به تنهایی کافی نیستند. اکثر کارشناسان ظهور الگوهای نظارتی ترکیبی – یا «سایبورگ (cyborg)» را پیشبینی میکنند. به عنوان مثال، انسانها میتوانند داستانها را بررسی کنند و سیستمهای خودکار برای شناسایی سریع رباتهایی ممکنست استفاده شود که اخبار جعلی را منتشر میکنند.
خلاصه نهایی
فضای رسانهای فراتر از شناخت تغییر کردهست. در روزهای آغازین اینترنت، بسیاری از مؤسسات رسانهای سنتی مانند روزنامهها و رادیو و تلویزیون طلوع آن را جشن گرفتند. اما اختیار مردم برای انتخاب منابع خبری خود مشارکت مدنی را افزایش نداد – بلکه باعث شد تا اعتماد را از بین ببرد و شرایط مناسبی برای اطلاعات غلط دیجیتالی ایجاد کرد. این مشکل با تنظیم کلیک ساده و جلوگیری شرکتهای رسانهای اجتماعی برای مقابله با رباتها بیشتر شدهست. اما یادگیری ماشینی، که در کنار هوش واقعی انسانی استفاده میشود، ممکنست به ما در پیروزی در این نبرد کمک کند. بازی واقعی
این کتاب را میتوانید از انتشارات چیتگرها تهیه کنید.