موج بعدی فناوری چگونه حقیقت را تغییر خواهد داد
بازی واقعی (کتابی که در سال ۲۰۲۰ منتشر شده است) دنیای تیره «تبلیغات محاسباتی» – دستکاری سیاسی با استفاده از ابزارهای دیجیتال – را روشن میکند. ساموئل وولی استدلال میکند که اخبار جعلی، نظریههای توطئه ویروسی و لشگریان ربات توییتر فقط گیجی و اختلاف را ایجاد نمیکنند. از نظر وی، آنها فرایند مردمسالاری را نیز از بین میبرند. این بدان معناست که زمان آن فرا رسیده است تا ما از پس بسترهای غولآسای غیرقابل پاسخگو به عقب برگردیم و فضای دیجیتالی خود را بازیابی کنیم.
ساموئل وولی استادیار دانشکده روزنامهنگاری دانشگاه تگزاس در شهر آستین است. وی در زمینه مطالعه سیاسی، متقاعدسازی و شبکههای اجتماعی تخصص دارد. وولی پروژه تبلیغات محاسباتی را بنیان نهاد که یک پژوهش بینِ رشتهای است و سیاستهای دیجیتالی را بررسی میکند. وی همچنین مدیر و مؤسس آزمایشگاه هوش دیجیتال است و درباره تبلیغات محاسباتی برای گاردین (Guardian)، وایرد (Wired)، آتلانتیک (Atlantic)، مادربرد (Motherboard)، تککرانچ (TechCrunch)، و اسلت (Slate) مطالبی را نوشته است.
این کتاب چه چیزی برای من دارد؟ به جنبش مبارزه با اخبار جعلی بپیوندید.
شبکههای اجتماعی مسلح شدهاند. دولتهای اقتدارگرا در سراسر جهان لشگر رباتها و حسابهای جعلی را کنترل و نظارت میکنند. هدف آنها چیست؟ بیشتر اوقات، آزار و اذیت روزنامهنگاران و ایجاد تردید در مورد فعالیت مخالفان است. بازی واقعی
اما این فقط دیکتاتورها نیستند که از سلاحهای دیجیتالی استفاده میکنند. مردم نیز مصون نیستند. در انتخابات ریاست جمهوری سال ۲۰۱۶ در ایالات متحده، تیم دونالد ترامپ هزاران حساب جعلی در شبکههای اجتماعی ایجاد کرد تا نکات گفتاری موردنظر خود را تحت فشار رسانهها منتشر کند.
و در آن سوی اقیانوس اطلس، کمپین انگلیس برای خروج از اتحادیه اروپا تاکتیکهای مشابهی را به کار گرفت. هم ترامپ و هم برگزیترز (Brexiteers) سوار بر موج اطلاعات غلط برای رسیدن به پیروزی شدند.
اما تلاش برای فریب و فریب دادن مردم فقط مربوط به فناوری نیست. در زیر سیل اخبار جعلی و دستکاری شده، شبکهی پیچیدهای از مشکلات اجتماعی، اقتصادی و سیاسی قرار دارد. بازی واقعی
این بدان معنی است که مسئله اصلی خود رسانههای اجتماعی نیستند، که میتوانند قدرت همیشگی باشند، بلکه سوءاستفاده از رسانههای اجتماعی است. بنابراین مسئله اصلی این است که چگونه میتوانیم از سوءاستفاده از ابزارهای دیجیتالی جلوگیری کنیم. اولین قدم این است که دریابید چرا رسانههای اجتماعی اینقدر ناکارآمد هستند.
در این خلاصهکتاب، متوجه خواهید شد
- چرا رباتها تقریباً آنقدری که فکر میکنید باهوش نیستند؛
- چگونه اخبار جعلی از تمایل مردم به تفکر عمیق استفاده میکند؛
- و چرا آزادی بیان نامحدود پاسخی برای مشکلات رسانههای اجتماعی نیست.
رسانههای قدیمی به تقویت ایمان در نهادها کمک کردند. رسانههای جدید آن را تضعیف میکنند.
اعتماد به نهادهای مردمسالارانه در کمترین زمان خود قرار دارد. نظرسنجی سال ۲۰۱۸ گالوپ نشان داد که طی چهار و نیم دهه گذشته، تعداد آمریکاییهایی که به کنگره اعتماد دارند از ۴۳ به ۱۱ درصد کاهش یافته است. اعتماد به بانکها به نصف رسیده و از هر ۱۰۰ نفر فقط ۳۸ نفر میگویند که آنها به مؤسسات مذهبی اعتماد دارند – از ۶۵ نفری که در اوایل دهه ۱۹۷۰ بودند. بازی واقعی
اما مشکل فقط به ایالات متحده محدود نمیشود. روندهای مشابهی در برزیل، ایتالیا و آفریقای جنوبی ثبت شده است – کشورهایی که ما همیشه آنها را مردمسالار میدانیم. چه خبر شده است؟ چرا شهروندان نسبت به نهادهای مردمسالارانه خود اینقدر بیاعتماد شدهاند؟ خُب، همه چیز به نحوه استفاده ما از رسانهها برای درک واقعیت برمیگردد.
اینترنت فضای رسانهای را فراتر از جستوجو و شناخت صرف تغییر داده است. قبل از عصر دیجیتال، اطلاعات در یک جهت واحد جریان مییافتند. یک نفر صحبت کرد بسیاری گوش میدادند. به مجریان تلویزیون یا یادداشتنویسان روزنامه فکر کنید – افرادی که هزاران شنونده و خواننده را تحت تأثیر خود قرار دادهاند. مجریان اخبار و روزنامهنگاران تلاش کردند تا عینیت داشته باشند. قبل از پخش یا انتشار برنامه یا یادداشتی، آنها باید بررسی شوند. البته، توطئهگران در نوشتن نامه به نیویورکتایمز آزاد بودند، اما این روزنامه هم در تصمیمگیری درباره انتشار یا عدم انتشار چنین نامههایی آزاد بود.
این الگو بدان معناست که میلیونها شهروند اطلاعات خود را از همان منابع دریافت میکنند. این به ایجاد اجماع در مورد واقعیت و واقعی بودن رویدادها کمک کرد و در نتیجه باعث ایجاد اعتماد شد. اما در چند سال گذشته، اوضاع تغییر کرده است. اکنون اطلاعات از طریق الگوی «بسیار در بسیار» به اشتراک گذاشته میشود. دیگر لازم نیست کسی را ترغیب کنید که نظرات شما را چاپ یا پخش کند. در وب، شما ناشر خود هستید – و هر کسی میتواند آنچه را ارسال میکنید بخواند. بازی واقعی
پیشگامان اینترنت امیدوار بودند که عصر طلایی آزادی بیان و مشارکت مدنی باشد. اما آنچه آنها پیش بینی نکردند این بود که کنترل این بستر و نظارت بر آن فقط توسط چند شرکت غولپیکر رسانهی اجتماعی صورت میگیرد، هر کدام از این بنگاهها دیگر کمتر پاسخگو هستند. در دنیای رسانههای اجتماعی مقررات کمی وجود دارد یا اصلاً وجود ندارد، بنابراین، اینترنت به مکانی برای توسعهی اطلاعات غیرقانونی تبدیل شده است. و در این آشفتگی تیره الگوریتمهایی که به راحتی در این بستر نقش بازی میکنند، تشخیص واقعیت از دروغ دشوار است.
به عنوان مثال، یک نظرسنجی در سال ۲۰۱۸ در انگلیس نشان داد که ۶۴ درصد از انگلیسیها برای تشخیص تفاوت اخبار واقعی و دروغ تلاش میکنند. بنابراین جای تعجب نیست که اعتماد در کمترین حد خود است – در این شرایط، اغلب نمیدانیم که به چه کسی اعتماد کنیم!
اخبار جعلی که غالباً با انگیزههای تجاری هدایت میشوند، تمایل افراد به تفکر انتقادی را جلب میکنند.
«عامل افبیآی (FBI) مورد سوءظنِ نامه هیلاری ایمیل کشف شده در قتل عام است.»
در اوایل نوامبر ۲۰۱۶، این عنوان پر سر و صدا – چاپ شده با حروف بزرگ – در وبسایتی به نام دنور گاردین (Denver Guardian) ظاهر شد، که خود را به عنوان «قدیمیترین منبع خبری کلرادو» معرفی کرد. این داستان، نامزد دموکرات انتخابات ریاست جمهوری، هیلاری کلینتون را درگیر یک رسوائی کرد. بازی واقعی
طولی نکشید که هزاران نفر این داستان را کلیک کردند. در یک برهه، هر دقیقه بیش از ۱۰۰ نفر آن را در فیسبوک به اشتراک گذاشتند. فقط یک مشکل وجود داشت: افشاگری، مانند کاغذی که آن را مچاله کنید، ساختگی بود.
هیچ چیزی در مورد آن داستان دنور گاردین درست نبود. مقاله توسط جستین کولر (Jestin Coler)، کارآفرینی از کالیفرنیا نوشته شده است. وی مالک این وبسایت بود و تنها هدف انتشار او تولید کلیکهای تبلیغاتی بود. كولر فهميد كه آسانترين راه جذب ترافيك سایت، انتشار گزارشهاي دروغ در مورد رقابت رياست جمهوري است. این یک تجارت سودآور بود. در آستانه انتخابات نوامبر، اخبار ناخواسته برای کولر ماهیانه ۱۰ تا ۳۰ هزار دلار درآمد داشت.
كولر بعداً اظهار داشت: «مردم میخواستند این خبر را بشنوند و آگاه شوند.» او صریحاً اعتراف کرد که تک تک جزئیات آن داستان را ابداع کرده است. این خبر همهاش داستانپردازی بود – شهری که وی از آن نام برد، مردم، کلانتر، عامل افبیآی (FBI). كولر گفت، هنگامی كه این قصه را مینوشت، تیم رسانهای اجتماعی وی آن را در انجمنهای طرفدار ترامپ قرار دادند. در عرض چند ساعت، مانند آتشسوزی در حال گسترش بود. بازی واقعی
انگیزههای كولر كاملاً تجاری بود و همین باعث شد كه وی با افرادی همتراز و متفاوت شود كه كمپینهای معروفتری برای اطلاعات غیرمجاز اجرا میكنند. اما داستان ویروسی او باعث حمله دیجیتالی بزرگتری به حقیقت شد. این حمله اهانتآمیز شامل تبلیغات ساختگی در فیسبوک بود – که توسط دولت روسیه پرداخت شده است – و همچنین داستانهای جعلی که توسط نوجوانان در مولداوی و «گروههای اقدام سیاسی» مرتبط با اردوگاه ترامپ منتشر میشود.
حق با كولر بود – مردم مایلند این داستانها را بشنوند. چرا؟ خُب، هنوز هم بسیاری از آنها به دلیل اخباری فریب خوردهاند که یک بار توسط پخشکنندگان قابل اعتماد پخش شده است. به همین دلیل، دنور گاردین بر موقعیت خود به عنوان قدیمیترین منبع خبری کلرادو تأکید کرد.
مردم همچنین میخواهند به همه چیز گیر دهند و آن را ریشهیابی کنند. پژوهش روزنامهنگاری تجربهشده برای پاسخگویی به اين نياز مورد استفاده قرار گرفت. اما با کمرنگ شدن، دستفروشان اطلاعات نادرست – که هیچ ابایی از ساختن اخبار یا پنهان کردن حدس و گمان وحشیانه به عنوان تفکر انتقادی ندارند – به منصه ظهور رسیدهاند.
رویکرد عملی رسانههای اجتماعی برای نظارت بر سخنرانی مزیتی برای توطئهگران است.
هیچ چیز جدیدی در مورد نظریههای توطئه وجود ندارد. مردم همیشه سعی کردهاند کسانی را در ذهن داشته باشند که بر آنها حکومت میکنند. در هر جامعهای شایعات تاریکی درباره توطئهها، رسوائیها و پنهانکاریها وجود داشته است. اما در دهههای اخیر، چیزی تغییر کرد. در گذشته، توطئهها به آرامی گسترش مییافتند. تأیید شایعات درباره اقدامات شرورانه پادشاهان و رؤسای جمهور، ناممکن است، و به ندرت آنها را در اخبار شبانه میخوانند. اما دنیای رسانههای اجتماعی متفاوت است. در بستر آنلاین، توطئهها سریعتر گسترش مییابند و به مکانهای دورتر میرسند. بازی واقعی
در کیوآنون (QAnon)، یک نظریه توطئه مرتبط با راست افراطی در ایالات متحده را میشود دید. طرفداران این حزب ادعا میکنند که گروهی از مقامات دولتی منتخب هستند و به «دولت عمیق» معروف است و گفته میشود علیه دونالد ترامپ کار میکند. توطئهگران همچنین بر این باورند که یک میهنپرست گمنام به نام «کیو (Q)» در این باشگاه نفوذ کرده است. این نام مستعار اشارهای به بالاترین سطح امنیت در دسترس مقامات آمریکایی است. یادداشتهایی که توسط Q امضاء میشود، گاهگاهی در انجمنهایی مانند فورچان (4chan) ظاهر میشوند. به عنوان مثال، Q ادعا کرده است که سیاستمداران لیبرال حلقه جنسیت کودکانه را از زیرزمین مشترک یک پیتزافروشی اجرا میکردند.
ادعاهای Q به سرعت گسترش مییابد. گروههای هماهنگ از فعالان راست افراطی آنها را برداشته و در سایتهای بزرگتری مانند ردیت (Reddit) و توئیتر (Twitter) منتشر میکنند. آنها این کار را با کمک «رباتها» در رسانههای اجتماعی انجام میدهند – نرمافزاری که وظایفی مانند اشتراک محتوا را خودکار انجام میدهد. رباتها، الگوریتمها را فریب میدهند تا یادداشتهایی را افزایش دهند که محبوبیت آنها واقعی است. پس از مدتی، افراد عادی شروع به انتخاب توطئه میکنند. این به یک داستان برای رسانههای سنتی تبدیل میشود، که موارد را حتی بیشتر تقویت میکند. بازی واقعی
مسئله این است که این توطئهها هنجارهای مردمسالارانه را از بین میبرد. در گفتههای کیوآنون (QAnon)، لیبرالها چیزی جز تخریب ارزشهای آمریکایی را هدف نگرفتند. اگر این ایده را بپذیرید، مطمئناً فکر میکنید که آنها حق ندارند کشور را اداره کنند – حتی اگر در انتخابات پیروز شوند. پس چرا شرکتهای رسانههای اجتماعی مانند فیسبوک و توئیتر جلوی این توطئهها را نمیگیرند؟ خُب، آنها اعتقاد ندارند که نقش آنها نظارت بر گفتار کاربرانشان است. و به هر حال، مردم حق آزادی بیان دارند، درسته؟
شرکتهای رسانههای اجتماعی نیز در جلوگیری از استفادهي رباتهایی کُند عمل کردهاند که نظریههای توطئه را پیش میبرند. نتیجه چه شده است؟ محیطی که میتواند توسط توطئهگران حاشیهای به بازی گرفته شود. و همانطور که در بخش بعدی یادداشت خواهیم دید، بازیگران اصلی جریان سیاسی نیز در حال یادگیری بهرهگیری از آن هستند.
اولین مورد شناختهشده دخالت رباتها در روند سیاسی در ایالات متحده رخ داد.
در اواخر سال ۲۰۱۳، اوکراینیها برای اعتراض به رئیس جمهور طرفدار روسیه، ویکتور یانوکوویچ، به خیابانها آمدند. دولت روسیه، كه آقای یانوكویچ را یك متحد دیرینه میدید، با یورش آنلاین پاسخ داد. هزاران حساب کاربری و رباتهای اجتماعی در روسیه توسط شبکههای روسی بسیج شدند. آنها اطلاعات نادرستی را علیه معترضین منتشر کردند. استراتژی مشابهی بعداً علیه ایالات متحده در انتخابات ریاست جمهوری ۲۰۱۶ استفاده میشود. بازی واقعی
در آن زمان، بسیاری از تماشاگران معتقد بودند که شاهد تولد تبلیغات محاسباتی هستند. اما اگرچه ممکن است دولت روسیه به هنر تاریک براندازی دیجیتال تسلط داشته باشد، این اولین بازیگر سیاسی نبود که این تاکتیکها را به کار گرفت.
در سال ۲۰۱۰، رأیدهندگان در ماساچوست برای انتخاب سناتور جدید به پای صندوقهای رأی رفتند. دو نام در رأیگیری وجود داشت: اسکات براون، نامزد جمهوریخواهان و مارتا کوکلی، یک دموکرات. کواکلی محبوب موردعلاقه بود. ماساچوست برای دهها سال سنگر لیبرالها بود. تد کندی، سناتور دموکرات که مرگ ناگهانی آن رقابت را از بین برد، از سال ۱۹۶۲ نماینده این ایالت بود. ناگهان، محبوبیت براون شروع به افزایش کرد. و این زمانی بود که دانشمندان کامپیوتر در دانشگاه وسلیان متوجه چیز عجیبی شدند. به نظر میرسد حسابهای توئیتر با ظاهری مشکوک در یک حمله هماهنگ به کوکلی نقش دارند. اتهام؟ بله، این نامزد دموکرات ضد کاتولیک بود – اتهامی جدی در ایالتی مانند ماساچوست. بازی واقعی
این حسابها علاوه بر یکدیگر هیچ داده بیوگرافی یا پیروانی نداشتند و فقط در مورد کوکلی یادداشت میگذاشتند. آنها در فواصل منظم ۱۰ ثانیهای به او حمله میکردند. مشخص بود که اینها ربات هستند، اما چه کسی آنها را تحریک و هدایت میکند؟ محققان سرانجام این گزارشها را به گروهی از فعالان محافظهکار باهوش فناوری مستقر در اوهایو، ایالتی که کیلومترها از ماساچوست فاصله دارد، پیگیری کردند. اما شخصیتهای جعلی ایجادشده توسط آن فعالان به گونهای طراحی شده بود که به نظر مردم محلی نگرانکننده باشد. با یک نگاه اجمالی به شما گفته میشود که حملات از سوی مردم عادی در ایالت خود کواکلی انجام میشود – نه از رباتهایی که توسط سیاستمداران هدایت میشوند.
نگرانکننده این بود که این شرطبندی نتیجه داد. رباتها آنقدر سر و صدا ایجاد کردند که رسانههای اصلی مانند نشنال کاتولیک ریجستر (National Catholic Register) و نشنال ریویو (National Review) شایعات ضد کاتولیک بودن کواکلی را پررنگتر کردند. داستانهایی که آنها پخش کردند به فعالیت رباتها در توئیتر اشاره داشتند. روزنامهنگاران کار رباتها را با یک جنبش مردمی اصیل اشتباه گرفتند. رسانههایی که این داستانها را منتشر کردند ناخواسته یک رسوایی ساختهشده را تقویت کردند. براون رقابت را برد و کواکلی آن را از دست داد.
رباتها گنگ هستند؛ اما این به این معنی نیست که مؤثر نیستند.
هر زمان که وارد توئیتر میشوید و به یادداشتهای معروف نگاه میکنید، احتمالاً با حسابهای رباتی روبرو خواهید شد. آنها مشغول پسندیدن، به اشتراکگذاری و اظهارنظر درباره محتوای سایر کاربران هستند. تشخیص پیامهای تولیدشده توسط این نوع نرمافزار کار سختی نیست. این رباتها خواسته یا ناخواسته باشد و هم از نظر سموم سیاسی، نثرهای عجیب و غریب را با زبان وینکی [سبک داستانی از هری پاتر] مینویسند. یادداشتهای آنها دقیقاً بهموقع است و با انفجارهای مشابه در بستر آنلاین روبرو میشود. بازی واقعی
به عبارت دیگر، ربات متوسط شما بسیار پیچیده نیست. پس چرا بسیاری از روزنامهنگاران میگویند رباتها «مردمسالاری را فتح کردهاند؟» یک پاسخ این است که تمرکز روی رباتها آسانتر از پرسیدن سؤال ناخوشایندتر است: چرا هک مردمسالاری با چنین ابزارهای ساده بسیار آسان است؟ ما به این موضوع اخیر باز خواهیم گشت، اما در ابتدا، نگاهی دقیقتر به این رباتها میاندازیم.
یک لحظه به عقب برگردید و رقابت انتخاباتی سال ۲۰۱۶ بین هیلاری کلینتون و دونالد ترامپ را تصور کنید. پیرامون نقشی که رباتها در آن انتخابات بازی میکردند، هیاهوی زیادی وجود داشت. کمبریج آنالیتیکا، شرکت مشاوره سیاسی که به مبارزات انتخاباتی ترامپ مشاوره میداد، قول داد که یک لشگر کامل از آنها را راهاندازی کند. این شرکت ادعا کرد که رباتهای هوشمند آن جمعیتهای کلیدی را با نقاط صحبت طرفدار ترامپ و ضد کلینتون متمرکز بر یک هدف برّنده قرار میدهند. برای رسیدن به این هدف، کمبریج آنالیتیکا قصد داشت از دادههایی استفاده کند که «روانشناختی» نامیده میشود – یعنی پروفایلهای مفصلی که از صفحات رسانههای اجتماعی رأیدهندگان جمع شده است. بازی واقعی
این ابزار بسیار پیچیده است. اما تمام شواهد ما نشان میدهد که هرگز استفاده نشده است. ستاد انتخاباتی ترامپ یک کمپین دیجیتالی فوقالعاده مؤثر اجرا کرد. و این مهمترین نکته را در اینجا تأکید میکند. وقتی صحبت از تبلیغات محاسباتی میشود، برای بردن نیازی به هوشمند بودن نیست. آن را از پروژه تبلیغات محاسباتی در دانشگاه آکسفورد بگیرید. تحقیقات آن شاهد بوده است که همان داستان بارها و بارها پخش میشود.
از حمله دیجیتالی روسیه علیه اوکراین در سال ۲۰۱۳ گرفته تا همهپرسی برگزیت (Brexit) و مبارزات انتخاباتی ریاست جمهوری ترامپ در سال ۲۰۱۶، اکثریت قریب به اتفاق رباتهای بسیار ساده بودهاند که برای انتشار اطلاعات غلط استفاده شدهاند. در واقع، تنها کاری که آنها میتوانستند انجام دهند این بود که مطالب را دوست داشته (لایک کنند) یا دوباره به اشتراک بگذارند، پیوندها (لینکها) را پخش کنند و افراد را دنبال کنند. این رباتها از نظر عملکردی مکالمه ندارند. آنها هیچ هوش مصنوعی نداشتند.
اما کمترین کاری که آنها توانستند انجام دهند برای غلبه بر اهدافشان کافی بود. نمادهای تکراری صحبت آنها چنان پربار بود که مخالفان خود را در باتلاق میدیدند، و قادر به پاسخ سریع یا مؤثر نبودند.
شرکتهای رسانههای اجتماعی باید خودتنظیم شوند، اما آنها مسئولیت سوءاستفاده از ابزارهای خود را نمیپذیرند.
همانطور که یاد گرفتیم، برای هک کردن افکار عمومی به فناوری پیشرفتهای نیاز ندارید. چه یک کارزار سیاسی داشته باشید، یا بخواهید اخبار ناخواستهای را منتشر کنید، همه چیزهایی که برای غلبه بر الگوریتمهای شبکه های اجتماعی نیاز دارید رباتهای ابتدایی و عناوین قابل کلیک هستند. این ما را به پرسش ناراحتکنندهای که در پاراگراف قبلی مطرح کردیم برمیگرداند: چرا مردمسالاری در برابر ابزارهای ساده هک آسیبپذیر است؟ یک پاسخ را میتوان در نحوه تنظیم شرکتهای رسانههای اجتماعی یافت. در زندگی عمومی، این شرکتها اکنون موقعیتی را در اختیار دارند که روزنامهها و رادیو و تلویزیون در اختیار داشتند. اما قوانین حاکم بر کار آنها بسیار نرمتر است.
کمیسیون انتخابات فدرال را در نظر بگیرید. این نهاد نظارتی قانون مربوط به امور مالی مبارزات سیاسی را اجرا میکند. در سال ۲۰۰۶، کمیسیون تصمیم گرفت که تبلیغات آنلاین در حیطه مسئولیتهایش نیست. انصافاً آنها برای تبلیغات سیاسی استثنا قائل شدند. اما افزایش اخبار جعلی ویروسی و اطلاعات غلط دیجیتالی مبتنی بر ربات هرگز در رادار کمیسیون انتخابات آمریکا نبوده است. بنابراین، این ابزار نظارتی از بین رفته است. آیا قانون دیگری میتوان از دولت فدرال پیدا کرد؟ خُب، فصل ۲۳۰ قانون شایستگی ارتباطات وجود دارد. این اساسنامه که در سال ۱۹۹۵ تصویب شد، به شرکتهای اینترنتی حق سانسور گفتارهای مضر را میدهد. در صورت انجام اشتباه کار، آنها را از هرگونه مسئولیت معاف میکند.بازی واقعی
شرکتهای رسانههای اجتماعی در آمریکا از فصل ۲۳۰ استفاده میکنند. این امر به آنها کمک میکند تصمیمگیری در مورد حذف سخنان نفرتانگیز آشکار یا خشن، مانند سخنرانیهای ضد یهودی هولوکاست و نئونازی را توجیه کنند. اما شرکتها همچنین با این قانون به عنوان مجوزی برای نادیده گرفتن محتوای سیاسی مشکلساز مانند اطلاعات نادرست رفتار میکنند. همانطور که مدیران این شرکتها میبینند، اساسنامه نظر خود را تأیید میکند که وظیفه آنها به عنوان «داوران حقیقت» بر عهده آنها نیست. در واقع، فصل ۲۳۰ به این شرکتها اختیار داوری در مورد محتوا را میدهد، اما آنها بندرت از آن استفاده میکنند. چرا؟ یک توضیح ممکن است این باشد که با اخلاق آزادیخواهانهی سیلیکون ولی در تضاد است.
اما حتی اگر شرکتهایی مانند فیسبوک و توئیتر از این قدرت استفاده میکردند، تمیز کردن سیستم عاملهای آنها یک کار چالشبرانگیز و دلهرهآور است. این سایتها بسیار سریع رشد کردند – و بدون توجه زیاد به طراحی اخلاقی. برای جلوگیری از سوءاستفاده در آینده، باید اصلاحات موقت را بر روی ساختار فعلی ایجاد کنند که برای جاسازی آنها هنوز ایجاد نشده است. همانطورکه یک کارمند فیسبوک در مصاحبه با نویسنده گفت، غول رسانههای اجتماعی مانند هواپیمایی است که با وجود اینکه فقط یک بالش ساخته شده است، به پرواز در آمده است.
یادگیری ماشین میتواند به ما کمک کند تا با اطلاعات نادرست دیجیتالی کنار بیاییم، اما به تنهایی کافی نیست.
بیایید پرسش آخر را مطر کنیم. آیا میتوانیم به راحتی رباتها را تحریم کنیم؟ در سال ۲۰۱۸، سناتور آمریکایی دیان فاینشتاین با پیشنهاد «قانون افشای ربات و پاسخگویی» سعی در انجام چنین کاری داشت. اما این لایحه در کنگره مسکوت ماند. اجرای اقدامات ضد ربات بدون نقض حق قانون اساسی برای آزادی بیان دشوار است. و در موارد دیگر و بیشتر ممکن است شما در مورد رباتها قانون وضع کنید، اما این مسئله مشکل دیگر اطلاعات نادرست را حل نمیکند: بشر اخبار دروغ را به همان اندازه و مؤثر مانند رباتها منتشر میکند. به عنوان مثال، «ارتش ۵۰ سنت» چینی یک گروه هماهنگ از حسابهای انسانی است که مسئول تبلیغات وب با تبلیغات حامی دولت است. فعالیتهای آنها تحت پوشش قوانین ضد ربات قرار نخواهد گرفت. بازی واقعی
بنابراین ممکن است با تمرکز دیگری وضعیت بهتری داشته باشیم. شاید هدف ما نباید خود رباتها باشد. در عوض، شاید ما باید بیشتر در مورد اطلاعات – و چگونگی جریان آنها باید فکر کنیم. رباتی را تصور کنید که از یادگیری ماشین استفاده میکند. این برنامه از مکالمه با مردم در شبکههای اجتماعی یاد میگیرد. دائماً در گفتوگو و تعامل با انسانهای واقعی بهتر میشود.
حال تصور کنید این برنامه با افرادی شروع به گپ زدن کرده و آنها را متقاعد کرده است تا مقالهای درباره نفی گرم شدن کره زمین را به اشتراک بگذارند. این مکالمه به تنهایی دادههای زیادی تولید میکند. سپس ربات دادهها را تجزیه و تحلیل میکند تا بفهمد کدام تاکتیکها جواب میدهند و کدامها نه. و این تجزیه و تحلیل رفتار آینده ربات را آگاه میکند.
یک کابوس کامل، درست است؟ مطمئناً، اما این یک خیابان یک طرفه نیست. یادگیری ماشینی همچنین میتواند برای مقابله با اطلاعات نادرست دیجیتالی استفاده شود. آن را از محققان رصدخانه رسانههای اجتماعی در دانشگاه ایندیانا تهیه کنید که «باتومتر (botometer)» را ساختند.
باتومتر از یادگیری ماشینی برای طبقهبندی حسابهای توئیتر به عنوان انسان یا ربات استفاده میکند. این کار را با تجزیه و تحلیل بیش از هزار ویژگی از هر حساب داده شده انجام میدهد. این نرمافزار به دوستان، الگوی فعالیت، زبان و لحن ارسالهای حساب توئیتر نگاه میکند. در پایان این تجزیه و تحلیل، باتومتر یک «نمره ربات» کلی را ارائه میدهد. این به کاربران میگوید که آیا آنها با یک انسان تعامل دارند یا یک ربات، و بلافاصله یکی از رایجترین منابع اطلاعات نادرست را برجسته میکند. بازی واقعی
اما الگوریتمهای یادگیری ماشینی مانند باتومتر احتمالاً به تنهایی کافی نیستند. اکثر کارشناسان ظهور الگوهای نظارتی ترکیبی – یا «سایبورگ (cyborg)» را پیشبینی میکنند. به عنوان مثال، انسانها میتوانند داستانها را بررسی کنند و سیستمهای خودکار برای شناسایی سریع رباتهایی ممکن است استفاده شود که اخبار جعلی را منتشر میکنند.
خلاصه نهایی
فضای رسانهای فراتر از شناخت تغییر کرده است. در روزهای آغازین اینترنت، بسیاری از مؤسسات رسانهای سنتی مانند روزنامهها و رادیو و تلویزیون طلوع آن را جشن گرفتند. اما اختیار مردم برای انتخاب منابع خبری خود مشارکت مدنی را افزایش نداد – بلکه باعث شد تا اعتماد را از بین ببرد و شرایط مناسبی برای اطلاعات غلط دیجیتالی ایجاد کرد. این مشکل با تنظیم کلیک ساده و جلوگیری شرکتهای رسانهای اجتماعی برای مقابله با رباتها بیشتر شده است. اما یادگیری ماشینی، که در کنار هوش واقعی انسانی استفاده میشود، ممکن است به ما در پیروزی در این نبرد کمک کند. بازی واقعی
این کتاب را میتوانید از سایت آمازون تهیه کنید.