Алгоритъм на манипулацията

Влиянието на пропагандата върху общественото мнение, реакцията на администрацията на социалната мрежа към оплаквания, както и правните аспекти, свързани с разпространението на чужда пропаганда в американски социални платформи – Тук се разглеждат всички аспекти на този проблеми.

Влиянието на пропагандата върху общественото мнение, реакцията на администрацията на социалната мрежа на жалбите, както и правните аспекти, свързани с разпространението на чуждестранна пропаганда на американската платформа — МОСТ. Медиа проучи всички аспекти на този проблем

От февруари 2022 г. руската пропаганда разгърна мащабна информационна кампания, за да оправдае агресията и да подкопае подкрепата за Украйна на международната сцена. Ключовият сюжети стана реториката за „денацификацията“ на Украйна – твърденията, че страната се управлява от нацисти и Русия е принудена да очисти съседната държава от екстремисти. Тази линия беше съпроводена с разпалване на омраза и дехуманизация на украинците, включително етнически обиди, с цел да се оправдае насилието.

Същевременно Кремъл промотираше тезата, че Украйна е марионетка на Запада, а разширяването на НАТО и „агресията“ на САЩ/ЕС са принудили Русия да започне „специална операция“. В информационното пространство се появяват и конспиративни теории – например, за тайни биолаборатории на САЩ в Украйна или инсценирани масови убийства (по-специално, отричане на клането в Буча, представяно като инсценировка).

Докато вниманието на много разследващи журналисти се премести към проучването на активността на проруските групи в мрежата X (Twitter) и Telegram, руските пропагандисти развиваха своите методи за промотиране в други социални платформи. И преди всичко във Facebook.

Нашето разследване показа, че координирана мрежа от фалшиви акаунти и страници във Facebook изкуствено увеличаваше ангажираността на публикациите – с харесвания, коментари и репостове. Това позволяваше на пропагандата да заобикаля алгоритмите на платформата и да засилва влиянието си върху западната аудитория, включително американските избиратели.

Особено изтънчена форма на промотиране на проруската пропаганда във Facebook станаха публикациите и дори цели страници, посветени на демонстрацията на руски оръжейни системи и тяхното „техническо превъзходство“, както и визуален контент с изображения на културни и исторически обекти, към които бяха добавени AI-генерирани елементи. Такива публикации създават ефект на „мека сила“ (Joseph Nye, Soft Power: The Means to Success in World Politics), насочена към формиране на положително възприятие за Русия в чужбина. Визуално привлекателните сцени можеха да бъдат придружени от пропагандни надписи или символика, засилвайки основните сюжети на кампанията и спомагайки за разпространението им сред различни категории западни аудитории. Някои от разкритите публикации бяха умишлено адаптирани към политическия контекст на САЩ, което можеше да повлияе косвено или пряко на предпочитанията на американските избиратели, особено в навечерието на изборите.

Подобни публикации не само подкопават подкрепата за Украйна и засилват антинатовските настроения, но и можеха да повлияят на последните президентски избори в САЩ, формирайки общественото мнение по ключови въпроси на международната политика.

Призивите за прекратяване на военната подкрепа за Украйна през 2023-2024 г. се превърнаха в точка на пресичане между реториката на Кремъл и предизборните изявления на Тръмп. Според оценките на експерта по политически комуникации, професор Сара Отс, изборите в САЩ през 2024 г. станаха едни от най-значимите за Русия, тъй като в случай на победа на Тръмп беше много вероятно да се стигне до съществено намаляване на американската помощ за Украйна. Руската пропаганда по всякакъв начин подклаждаше настроенията в полза на такъв изход. В информационното поле на Facebook това се изрази в появата на съдържание, насочено към американските консерватори и поддръжниците на Тръмп.

Методи за манипулация и експлоатация на алгоритмите на Facebook

За да промотират своето съдържание във Facebook, проруските актьори използваха цял арсенал от тактики, често разчитайки на уязвимостите на алгоритмичните механизми на платформата. В докладите на Meta такива координирани операции се обозначават като CIB (Coordinated Inauthentic Behavior) – координирана неавтентична активност. Ето основните методи, установени в периода след 2022 г.

Мрежи от фалшиви акаунти и страници

Както и през предходните години, основата на операциите се състоеше от хиляди фалшиви профили, които се представяха за обикновени потребители или администратори на страници с подобни интереси. По-рано Meta многократно разкриваше и блокираше подобни мрежи. Например, през 2022 г. беше разкрита най-голямата от началото на войната мрежа, свързана с Русия: над 1600 фалшиви акаунти и страници, които координирано разпространяваха кремълската пропаганда за войната. Тази кампания, започнала през май 2022 г., включваше над 60 фалшиви новинарски сайта, имитиращи известни издания (Spiegel, The Guardian, Bild и др.) на различни езици. След публикуването на материали с прокремълска програма (очерняне на Украйна, дискредитиране на бежанците, твърдения, че санкциите не работят и вредят само на страните, които ги налагат), организаторите масово споделяха линкове към тези сайтове чрез мрежа от фалшиви акаунти във Facebook, Instagram, Twitter, Telegram, както и пускаха реклами по тях.

Meta охарактеризира тази операция като комбинация от технически сложни елементи (имитацията на медийни сайтове на седем езика е изисквала значителни ресурси) и груба сила (множество фалшиви профили и реклами). Такъв „хибриден“ подход позволяваше на злоумишлениците сравнително бързо да обхванат широка аудитория: те не губеха време за органичен растеж на абонатите, а веднага наводняваха информационното пространство с масивно разпращане на еднотипни съобщения. Подобни „фронтални” атаки срещу информационната среда са по-скоро насочени към краткосрочен ефект („hit-and-run”), отколкото към дългосрочно изграждане на доверие, но могат да нанесат значителни щети до момента на неутрализирането им. 1 600 фалшиви акаунти и страници, които координирано разпространяваха кремълската пропаганда за войната

Използване на рекламните инструменти на Facebook

Алгоритмите на социалната мрежа, предназначени за таргетиране на реклами, се превърнаха в оръжие в ръцете на пропагандистите. Стана ясно, че проруските групи активно закупуваха реклами с политическо съдържание, заобикаляйки контрола. В хода на разследването AI Forensics бяха открити хиляди рекламни обяви от анонимни страници, промотиращи прокремълски послания в страните от ЕС. При това над 65% от тази политическа реклама е излизала без изискваното маркиране (т.е. Facebook не я е маркирал като политическа) и не е била придружена от информация за платеца. Това свидетелства за уязвимостта на алгоритмите за модерация на рекламите: злоумишлениците са се научили да създават еднодневни страници, които публикуват платени постове, достигат до десетки или стотици хиляди потребители и след това се изтриват. „Страницата всъщност се създава само за да се плати рекламата, за да се достигне веднага широка аудитория, а след това просто се изтрива – това е по-ефективно, отколкото дълго да се развива общност с надеждата за обхват“, отбелязва изследователят Пол Бушо от AI Forensics.

Освен това, таргетираната реклама се използваше не само за разпространяване на идеи, но и като инструмент за анализ: руските оператори наблюдаваха кои съобщения се приемат по-добре, проследявайки реакциите на потребителите в реално време. В един от документите, създаден от прокремълския политически технолог Иля Гамбашидзе в рамките на дезинформационната кампания Good Old Usa Project, се казва директно: „Таргетирането във Facebook позволява да се проследява реакцията на аудиторията към разпространяваните материали и да се коригират по-нататъшните пускания, изхождайки от това коя група е била засегната най-силно“.

По този начин рекламната платформа Facebook е служила като своеобразен полигон за тестване на пропаганда, където чрез A/B тестове враговете са подбирали най-ефективните сюжети. През втората половина на 2022 г. специалистите на Meta успяха ръчно да идентифицират и неутрализират злонамерени акаунти, които все още не бяха премахнати от автоматичните системи преди началото на пълноценното разследване. >65% от политическата реклама се разпространяваше без маркировка във Facebook.

Злоупотреба с алгоритми за ангажираност

Алгоритмите на лентата на Facebook са устроени така, че да показват на потребителя най-релевантния и интересен за него съдържание – често това, което предизвиква силна емоционална реакция (гняв, възмущение, страх). Пропагандистите умело се възползват от това, разпространявайки максимално провокативни публикации и изображения, които предизвикват спорове. Колкото по-активно хората коментират или споделят публикацията (дори и да са възмутени), толкова по-широко алгоритъмът я разпространява в мрежата. В случая с проруската дезинформация това означава, че изключително поляризиращият съдържание получава непропорционално голям обхват. Изследванията показват, че платформите, оптимизирани за ангажираност, неволно допринасят за бързото вирусно разпространение на лъжи и конспиративни теории.

Освен това злоумишлениците практикуваха тактика на изкуствено разширяване на ангажираността: създаваха се групи от „ботове“ или контролирани акаунти, които веднага след публикуването започваха масово да харесват и коментират нужния пост, за да го „промотират“ в алгоритмичния рейтинг. Мрежи от фалшиви акаунти и страници Както и през предходните години, основата на операциите се състоеше от хиляди фалшиви профили, които се представяха за обикновени потребители или администратори на страници с подобни интереси. По-рано Meta многократно разкриваше и блокираше подобни мрежи. Например, през 2022 г. беше разкрита най-голямата от началото на войната мрежа, свързана с Русия: над 1600 фалшиви акаунти и страници, които координирано разпространяваха кремълската пропаганда за войната. Тази кампания, започнала през май 2022 г., включваше над 60 фалшиви новинарски сайта, имитиращи известни издания (Spiegel, The Guardian, Bild и др.) на различни езици. След публикуването на материали с прокремълска програма (очерняне на Украйна, дискредитиране на бежанците, твърдения, че санкциите не работят и вредят само на страните, които ги налагат), организаторите масово споделяха линкове към тези сайтове чрез мрежа от фалшиви акаунти във Facebook, Instagram, Twitter, Telegram, както и пускаха реклами по тях.

Meta охарактеризира тази операция като комбинация от технически сложни елементи (имитацията на медийни сайтове на седем езика е изисквала значителни ресурси) и груба сила (множество фалшиви профили и реклами). Такъв „хибриден“ подход позволяваше на злоумишлениците сравнително бързо да обхванат широка аудитория: те не губеха време за органичен растеж на абонатите, а веднага наводняваха информационното пространство с масивно разпращане на еднотипни съобщения. Подобни „фронтални” атаки срещу информационната среда са по-скоро насочени към краткосрочен ефект („hit-and-run”), отколкото към дългосрочно изграждане на доверие, но могат да нанесат значителни щети до момента на неутрализирането им. 1 600 фалшиви акаунти и страници, които координирано разпространяваха кремълската пропаганда за войната

Използване на рекламните инструменти на Facebook

Алгоритмите на социалната мрежа, предназначени за таргетиране на реклами, се превърнаха в оръжие в ръцете на пропагандистите. Стана ясно, че проруските групи активно закупуваха реклами с политическо съдържание, заобикаляйки контрола. В хода на разследването AI Forensics бяха открити хиляди рекламни обяви от анонимни страници, промотиращи прокремълски послания в страните от ЕС. При това над 65% от тази политическа реклама е излизала без изискваното маркиране (т.е. Facebook не я е маркирал като политическа) и не е била придружена от информация за платеца. Това свидетелства за уязвимостта на алгоритмите за модерация на рекламите: злоумишлениците са се научили да създават еднодневни страници, които публикуват платени постове, достигат до десетки или стотици хиляди потребители и след това се изтриват. „Страницата всъщност се създава само за да се плати рекламата, за да се достигне веднага широка аудитория, а след това просто се изтрива – това е по-ефективно, отколкото дълго да се развива общност с надеждата за обхват“, отбелязва изследователят Пол Бушо от AI Forensics.

Освен това, таргетираната реклама се използваше не само за разпространяване на идеи, но и като инструмент за анализ: руските оператори наблюдаваха кои съобщения се приемат по-добре, проследявайки реакциите на потребителите в реално време. В един от документите, създаден от прокремълския политически технолог Иля Гамбашидзе в рамките на дезинформационната кампания Good Old Usa Project, се казва директно: „Таргетирането във Facebook позволява да се проследява реакцията на аудиторията към разпространяваните материали и да се коригират по-нататъшните пускания, изхождайки от това коя група е била засегната най-силно“.

По този начин рекламната платформа Facebook е служила като своеобразен полигон за тестване на пропаганда, където чрез A/B тестове враговете са подбирали най-ефективните нарративи. През втората половина на 2022 г. специалистите на Meta успяха ръчно да идентифицират и неутрализират злонамерени акаунти, които все още не бяха премахнати от автоматичните системи преди началото на пълноценното разследване. >65% от политическата реклама се разпространяваше без маркировка във Facebook

Злоупотреба с алгоритми за ангажираност

Алгоритмите на лентата на Facebook са устроени така, че да показват на потребителя най-релевантния и интересен за него съдържание – често това, което предизвиква силна емоционална реакция (гняв, възмущение, страх). Пропагандистите умело се възползват от това, разпространявайки максимално провокативни публикации и изображения, които предизвикват спорове. Колкото по-активно хората коментират или споделят публикацията (дори и да са възмутени), толкова по-широко алгоритъмът я разпространява в мрежата. В случая с проруската дезинформация това означава, че изключително поляризиращият съдържание получава непропорционално голям обхват. Изследванията показват, че платформите, оптимизирани за ангажираност, неволно допринасят за бързото вирусно разпространение на лъжи и конспиративни теории.

Освен това злоумишлениците практикуваха тактика на изкуствено разширяване на ангажираността: създаваха се групи от „ботове“ или контролирани акаунти, които веднага след публикуването започваха масово да харесват и коментират нужния пост, за да го „промотират“ в алгоритмичния рейтинг. Във вече споменатия план „Good Old USA” се говореше за използването на „мрежа от ботове”, които ще модерират топ дискусиите в коментарите и ще ги насочват в изгодна посока. Има се предвид, че под всяка целева публикация се появяват десетки координирани коментари, които създават видимост за масова подкрепа на дадена позиция или за тормоз на противоположната. Обикновените потребители, виждайки такъв „резонанс“, могат погрешно да приемат пропагандната информация за широко споделяно мнение.

„Спящи“ общности и групи

Руските оператори предварително създаваха и управляваха, понякога в продължение на месеци, общности във Facebook, маскирайки се като местни групи по интереси – например, групи от поддръжници на Тръмп в отделни щати („Alabama for America the Great“ и др.). Такива групи се пълнеха с неутрално или близо по смисъл съдържание, без да будят подозрения. Планът беше в решаващия момент тези „спящи клетки“ в социалната мрежа да бъдат събудени: администраторите рязко да преминат към разпространение на агитационни материали, превръщайки групите с вече набрана аудитория в инструмент за въздействие върху общественото мнение. В съдебните документи по делото Гамбашидзе, разсекретени от Министерството на правосъдието на САЩ, фигурираха намеренията да се създадат по 18 такива клетки в ключови колебаещи се щати на САЩ, за да могат в решаващия момент да започнат да промотират съгласувано необходимите сюжети и връзки.

Подобна тактика се основава на вградените механизми за препоръки на Facebook: хората в такива групи започват да споделят материали, които могат да се разпространяват по-нататък в лентите на техните приятели, а алгоритмите могат да препоръчват на познати с подобни интереси да се присъединят към популярни групи, което увеличава обхвата. планираха да създадат по 18 „спящи клетки“ във всеки ключов колебаещ се щат на САЩ.

Манипулации извън платформата

Въпреки че въпросът се фокусира върху Facebook, заслужава да се спомене, че много от операциите бяха междуплатформени. Съдържанието и фалшивите новини, появили се на други ресурси (например, генерирани фалшиви видеоклипове в YouTube или „изтичания“ в Telegram), често след това попадаха във Facebook чрез потребители, които споделяха линкове. По този начин пропагандистите използваха екосистемата на социалните медии в комплекс: ако една платформа блокираше акаунтите им, те все пак постигаха обхват на друга и се връщаха чрез нея. В този случай Facebook често се превръщаше във вторичен предавател на дезинформация, пусната извън него, особено когато тя се споделяше от реални хора, които бяха заблудени. Например, описаните по-горе фалшиви видеоклипове с „украински войници срещу Тръмп“ първоначално се разпространяваха в проруски канали, но след това бяха подети от американски конспиративни групи във Facebook, благодарение на което обхватът им значително се увеличи.

По този начин руската пропагандна мрежа във Facebook представлява сложна структура, състояща се от стотици фалшиви акаунти и страници, които действат координирано за разпространение на проруски сюжети. Тези акаунти, много от които изкуствено взаимодействат помежду си, създават илюзия за широка подкрепа за Русия и нейната политика, особено на фона на текущия конфликт с Украйна. Те активно коментират и репостват публикациите си, което повишава индекса на ангажираност и увеличава обхвата на съдържанието.

Много от тези страници имат хиляди последователи и редовно публикуват изображения и видеоклипове, показващи руска военна техника и символика, включително символа „Z“, свързан с руските въоръжени сили. Примери за такива страници, като „Vladimir Poutine Z“, показват как визуалните материали и националната символика се използват за засилване на проруските настроения.

Статистически данни, примери за публикации и обхват на аудиторията

За да оценим обхвата на проруските публикации във Facebook, ние приложихме подход, основан на анализ на активността (харесвания, коментари, репостове) и съществуващи проучвания [ от Даниел Шнайдер, директор „Контент маркетинг“ – „Как ефективно да изчислим коефициента на ангажираност?“ ], по коефициенти на ангажираност. Според редица аналитични данни средният коефициент на лайкове към прегледи във Facebook съответства на диапазона от 2% до 10%. Това позволява да се оцени броя на прегледите въз основа на броя лайкове: 1 лайк може да съответства на приблизително 10–50 прегледа в зависимост от нивото на ангажираност на аудиторията и типа съдържание.

Например, публикация с 5 хиляди лайка може да достигне от 50 до 250 хиляди преглеждания. Нивото на ангажираност, изразено в коментари и репостове, също играе значителна роля, като увеличава обхвата на публикациите.

При това важен фактор е не произходът на лайковете и коментарите, а тяхното влияние върху алгоритмите на Facebook. Високата активност под публикациите, организирана между другото с помощта на фалшиви акаунти или с използването на така наречената „фабрика за тролове“, води до това, че съдържанието се промотира органично и е видимо в лентите на потребители, които не са абонирани за тези страници. Това позволява на проруския контент да достигне по-широка аудитория, заобикаляйки ограниченията за реклама и дезинформация. Планът Good Old USA, разработен в рамките на руските информационни операции, предвиждаше създаването и използването на „мрежа от ботове“ за създаване и модериране на топ дискусии в коментарите. Тези ботове имаха за цел да насочват дискусиите в социалните мрежи в изгодна за Русия посока, създавайки илюзия за масова подкрепа на необходимите сюжети. Планът беше част от по-широката кампания „Doppelganger“ и се споменава в редица разследвания, включително в доклад на Министерството на правосъдието на САЩ (Department of Justice, 2024).

За илюстрация може да се разгледа конкретен пример – публикация с изображение на военна техника (БМ-21 „Град“), която е събрала 21 000 харесвания, 1500 коментара и 581 репоста. Въз основа на коефициента тази публикация може да е достигнала от 210 хиляди до 1 милион преглеждания, дори без да се отчитат допълнителните преглеждания чрез репостове. Такива високи показатели показват как мрежата от фалшиви акаунти може ефективно да промотира съдържание чрез алгоритмите на платформата.

По този начин проруските публикации, разпространявани с помощта на фалшиви акаунти, достигат до значителен брой реални потребители, формирайки тяхното възприятие и оказвайки осезаемо влияние върху информационното пространство на платформата.

Тези страници и акаунти публикуват съдържание предимно на английски език и са ориентирани към западната аудитория, включително потребители в САЩ. Високият ниво на ангажираност позволява на тези страници да промотират своите публикации в новинарските ленти на широк кръг от потребители, включително и на тези, които не са абонирани за тези страници.

В хода на анализа ние открихме десетки подобни публикации, демонстриращи руска военна техника и символика, с хиляди харесвания, коментари и репостове. Това позволява да се оцени обхватът им в стотици хиляди или дори милиони прегледи. Изкуствено създадената активност, поддържана от мрежа от фалшиви акаунти, спомага за широкото разпространение на тези публикации чрез алгоритмите на Facebook, засилвайки проруските сюжети в западната информационна среда.

Ето някои примери за такива профили и страници

Публикация с 5 хиляди лайкове би могла да достигне 50-250 хиляди прегледа

Десетки и стотици подобни страници и профили, анализът на които показва, че единствената цел на тяхното създаване е да се промотира пропагандата на Руската федерация в чужбина.

Използване на фалшиви акаунти за заобикаляне на алгоритмите

Фалшивите акаунти и страници се създават с цел да се заобиколят алгоритмите на Facebook и да се достигне възможно най-голяма аудитория. Взаимните абонаменти, харесвания и коментари на тези акаунти изкуствено повишават индекса на ангажираност, което позволява на съдържанието да се появява по-често в новинарските ленти на потребителите. В резултат на това публикациите с милитаристки изображения и проруски сюжети получават значително внимание, включително от американските избиратели, което потенциално влияе на тяхното политическо мнение.

Тези аспекти демонстрират значителен обхват и добре обмислена стратегия на руската пропаганда в социалните мрежи, насочена към промяна на възприятието на западната общественост по въпросите на подкрепата за Украйна и доверието в демократичните институции.

Активни потребители в коментарите и успешно заобикаляне на алгоритмите на Facebook

Анализът на профилите и страниците, участващи в промотирането на проруски съдържание, показва, че поне половината от коментиращите публикации са реални потребители. Те проявяват обичайна активност в социалната мрежа: обсъждат публикации, споделят лично мнение и се включват в дискусии. Това потвърждава, че алгоритмите на Facebook се заобикалят успешно, дори ако в ранния етап на промотирането се използват ботове или потребители, които извършват действия срещу заплащане.

По-нататъшният анализ на профилите, които оставят коментари, показва, че много от тях принадлежат на жители на различни страни, включително САЩ, Великобритания, Германия и други. Тези потребители активно участват в дискусии и споделят съдържание със своите последователи, засилвайки органичното промотиране на подобни публикации.

По този начин, въпреки първоначалното използване на изкуствени методи за увеличаване на обхвата, страниците, промотиращи проруски сюжети, намират реален отклик сред живите потребители, което прави тяхното влияние още по-значително.

Влиянието на проруската пропаганда върху изборите в Германия и Европа

Руската пропагандна кампания във Facebook и други социални мрежи, насочена към англоговорящата аудитория, има косвени, но важни последствия за европейската политика, особено в страни като Германия. САЩ, като водещ партньор на НАТО и ключов участник в подкрепата на Украйна, оказва значително влияние върху политическия елит в Германия, Великобритания и други страни. Руските сюжети в САЩ, които промотират антивоенна реторика и идеи за прекратяване на подкрепата за Украйна, могат да намерят отзвук и в европейското общество, особено чрез „медийни кръстовища“ и международни групи за влияние.

Ключови рискове за Германия и ЕС:

Разпространение на антинатовски и антиукраински настроения. Проруските послания, успешно промотирани в САЩ, могат да проникнат в политическия дискурс на Германия и други европейски страни чрез социалните мрежи. Това беше особено забележимо в навечерието на парламентарните избори в Германия, където десните популистки сили, като „Алтернатива за Германия“ (AfD), активно използваха антивоенни тези за мобилизиране на електората.

Формиране на умора от войната сред европейската аудитория. Проруските сюжети, действащи върху англоговорящите потребители, могат да окажат вторично влияние върху германското общество чрез транснационални информационни канали. Тъй като Германия е един от водещите донори на военна помощ за Украйна в Европа, намаляването на обществената подкрепа може да доведе до натиск върху политиците и до намаляване на обема на помощта.

Политическа дестабилизация чрез социални групи и миграционен дискурс. Важно е да се отбележи, че Русия активно използва миграционните кризи, за да създава напрежение в европейските страни. Това беше забележимо по време на предишните изборни цикли в Германия и Австрия, когато дезинформацията за бежанците се превърна в ключов инструмент за мобилизиране на консервативния и крайно десен електорат.

Реакцията на Facebook

Ние многократно се опитахме да подадем жалби за проруски съдържание във Facebook, включващо милитаристки изображения и сюжети, подкопаващи подкрепата за Украйна. Въпреки многобройните жалби, реакцията на Facebook остана незадоволителна. Платформата отхвърли без изключение всички наши жалби, посочвайки, че публикациите не нарушават стандартите на общността.

Един от отговорите на службата за поддръжка на Facebook гласи: „Не сме премахнали снимката. Проверихме и установихме, че този съдържание не нарушава нашите стандарти на общността.“ Съобщението също така предлага на потребителите „да използват наличните опции, за да контролират това, което виждат“, вместо да премахват проблемното съдържание. Този пример, както и много други, илюстрира, че Facebook не разглежда публикациите със символа „Z“ или изображения на руски военни като нарушение, въпреки пропагандния им характер.

Тъй като жалбите за подобно съдържание се отхвърлят, алгоритмите на Facebook продължават да отчитат високата степен на ангажираност на такива публикации, което спомага за тяхното разпространение. Проруските страници и фалшивите акаунти, които активно взаимодействат помежду си, получават допълнителен органичен обхват, което позволява на тези публикации да попадат в новинарските ленти дори на потребители, които не са абонирани за такива страници. Това изкуствено повишаване на индекса на ангажираност позволява на проруския съдържание да достигне до широк кръг от хора, засилвайки влиянието на пропагандата.

Недостатъци на модерацията на международния контент

Липсата на адекватна модерация на подобни публикации вероятно се дължи на трудностите при работата с международния контент и на неясните правила. Тъй като проруските страници са ориентирани към международна аудитория, алгоритмите за модерация не винаги ги възприемат като нарушаващи стандартите, особено ако не използват явни признаци на дезинформация. Този недостатък позволява на проруските сюжети да се разпространяват безпрепятствено, въпреки многобройните жалби от страна на изследователи и активисти.

Недостатъчната реакция от страна на Facebook прави платформата уязвима за чуждестранни информационни операции, които подкопават подкрепата за Украйна и формират проруски настроения сред западната аудитория. Без адекватен контрол и модерация подобно съдържание ще продължи да оказва значително влияние върху възприемането на събитията в международната политика.

Влияние върху общественото мнение

Предвид значителния си обхват, руската дезинформационна кампания в социалните мрежи оказва значително влияние върху общественото мнение в САЩ и други западни страни. Използвайки визуални образи, символика и милитаристки сюжети, като символа „Z“ и фотографии на руска военна техника, руската пропаганда формира положителен имидж на руските въоръжени сили и подкрепя политиката на Кремъл. Това съдържание се разпространява чрез стотици фалшиви акаунти и страници, които, използвайки механизмите на алгоритмите на Facebook, достигат до широка аудитория, включително и до тези, които първоначално не са били абонирани за такива страници.

Изследвания и доклади за влиянието на руската пропаганда

Според доклада на Комитета по разузнаване на Сената на САЩ, Русия активно използва социалните мрежи за разпространение на милитаристка пропаганда, за да демонстрира своята сила и да привлече вниманието на западната аудитория. Военни изображения, като танкове и ракети, създават привлекателна нарратива за патриотично настроената аудитория и често служат за мобилизиране на проруски настроения. Това е особено забележимо на фона на текущия конфликт с Украйна, където изображенията на военна техника и символика могат да допринесат за формирането на антинатовски и антиукраински нагласи сред западната аудитория.

Други проучвания, като например анализът на Центъра за стратегически и международни изследвания (CSIS), също показват, че руските информационни операции включват използването на ботове и фалшиви акаунти за създаване на видимост на подкрепа за Русия. Например, докладите на CSIS описват как с помощта на изкуствен интелект и автоматизирани акаунти се разпространяват антиукраински нарративи, създавайки илюзията за масова подкрепа на тези идеи сред американските потребители.

Дълбокото проучване на нашия проект за ролята на социалните медии в политическата пропаганда също показва, че социалните мрежи са се превърнали в ключов канал за разпространение на политическа пропаганда, измествайки до голяма степен традиционните медии. Около две трети от населението на света използва социални мрежи, като повече от половината от възрастните, например в САЩ, редовно получават новини чрез тях. Алгоритмите на платформите (Facebook, Twitter/X, TikTok, Telegram и др.) спомагат за вирусното разпространение на съдържание – проучванията показват, че фалшивите новини се разпространяват в мрежите по-бързо от истинските. Механизми като ленти с препоръки и групи по интереси създават „ехо камери“, в които потребителите виждат предимно информация, потвърждаваща техните възгледи.

В тези условия социалните мрежи се превърнаха в мощен инструмент за влияние върху общественото мнение, който се използва активно, включително за държавна пропаганда. Те се превърнаха в най-мощното средство за въздействие върху съзнанието, като спомагат за разпространението както на информация, така и на дезинформация.

Формиране на проруски настроения и умора от войната

Разпространението на проруски сюжети също допринася за „умората от войната“ сред западната аудитория. Постоянното появяване в новинарските ленти на изображения на руската армия и положителни публикации за Русия може да създаде погрешно впечатление за нейната легитимност и сила, което намалява нивото на подкрепа за Украйна. Това може да доведе до това, че западната общественост, особено в САЩ, да започне да възприема подкрепата за Украйна като неоправдана, което отслабва позицията на западните демокрации на международната сцена и допринася за намаляване на финансовата и военната помощ за Украйна.

Подкопаване на доверието в демократичните институции

Руските дезинформационни кампании подкопават и доверието в западните демократични институции, представяйки ги като неспособни да реагират адекватно на информационните заплахи и да защитят своите граждани от външно влияние. Според проучване на Georgetown Journal of International Affairs (GJIA), путинската пропаганда често се фокусира върху представянето на западните правителства като неефективни, а подкрепата за Украйна като ненужна.

Руската пропаганда създава негативно възприятие за западните институции, което може да повлияе или вероятно вече влияе на политическите предпочитания на американските избиратели и да доведе до засилване на проруските настроения в САЩ.

Правна оценка и правни аспекти

Въпросът за това как да се регулира разпространението на чуждестранна пропаганда на американски платформи е сложен поради необходимостта да се балансира между защитата на свободата на словото и националната сигурност. В случая с руската пропаганда, разпространявана чрез Facebook, съществува вероятност страниците, промотиращи проруски нарративи, да нарушават както законите на САЩ, така и редица изисквания в областта на регулирането на някои бизнес практики. Например, изискванията на Федералната търговска комисия (FTC) и Комисията по ценните книжа и борсите на САЩ (SEC) за защита на потребителите, прозрачност на бизнес практиките и предотвратяване на манипулации.

Заключение

За борба с руската пропаганда във Facebook е необходим комплексен подход. Използвайки фалшиви акаунти и страници, руските информационни кампании успешно заобикалят алгоритмите на платформата, създавайки илюзията за широка подкрепа на проруските нарративи сред западната аудитория.

Необходимост от подобряване на алгоритмите и модерацията на съдържанието

За по-ефективно противодействие на чуждестранната пропаганда са необходими прозрачни и усъвършенствани алгоритми, способни да откриват и ограничават разпространението на съдържание, което изкуствено увеличава ангажираността чрез мрежи от фалшиви акаунти. Facebook, както и други социални мрежи, трябва да разгледат възможността за подобряване на механизмите за модерация, за да не достига подобен съдържание до широка аудитория. Прозрачните процедури за подаване на жалби и оперативният отговор на тях също ще помогнат на потребителите да се чувстват защитени от дезинформация. За съжаление, опитите да се постигне поне някаква смислена реакция от модераторската служба на Facebook се провалят отново и отново.

Вместо това автоматичните алгоритми на Facebook налагат несправедливи временни ограничения на акаунти, които разпространяват истината за действията на руските въоръжени сили на територията на Украйна, или изображения на меми, сравняващи Адолф Хитлер и Владимир Путин (точно това, например, се случи в моя случай – без никаква последваща реакция от Facebook на подадената жалба). Създава се усещането, че социалната мрежа поощрява разпространението на пропаганда и по никакъв начин не се бори с хилядите фалшиви акаунти и страници, създадени с единствената цел – да повлияят на избирателите в САЩ и страните от ЕС.

Комплексното решение на проблема изисква съвместни усилия на американските държавни органи, социалните платформи и гражданското общество. Законодателите и регулаторните органи биха могли да разгледат допълнителни мерки за контрол върху дейността на платформите и техните алгоритми, особено що се отнася до разпространението на руска пропаганда, която може да окаже влияние върху демократичните процеси в страната.

В условията на информационна война и международна агресия е важно не само да се реагира на отделни случаи, но и да се въвеждат дългосрочни стратегии за защита на западната общественост от манипулиране на общественото мнение. Прозрачните правила и ефективната модерация ще помогнат на социална платформа като Facebook да остане безопасна и заслужаваща доверие среда за потребителите.

Максим Новичков

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert