Алгоритъм на манипулацията

Влиянието на пропагандата върху общественото мнение, реакцията на администрацията на социалната мрежа към оплаквания, както и правните аспекти, свързани с разпространението на чужда пропаганда в американски социални платформи – Тук се разглеждат всички аспекти на този проблеми.

Влиянието на пропагандата върху общественото мнение, реакцията на администрацията на социалната мрежа на жалбите, както и правните аспекти, свързани с разпространението на чуждестранна пропаганда на американската платформа — МОСТ. Медиа проучи всички аспекти на този проблем

От февруари 2022 г. руската пропаганда разгърна мащабна информационна кампания, за да оправдае агресията и да подкопае подкрепата за Украйна на международната сцена. Ключовият сюжети стана реториката за „денацификацията“ на Украйна – твърденията, че страната се управлява от нацисти и Русия е принудена да очисти съседната държава от екстремисти. Тази линия беше съпроводена с разпалване на омраза и дехуманизация на украинците, включително етнически обиди, с цел да се оправдае насилието.

Същевременно Кремъл промотираше тезата, че Украйна е марионетка на Запада, а разширяването на НАТО и „агресията“ на САЩ/ЕС са принудили Русия да започне „специална операция“. В информационното пространство се появяват и конспиративни теории – например, за тайни биолаборатории на САЩ в Украйна или инсценирани масови убийства (по-специално, отричане на клането в Буча, представяно като инсценировка).

Докато вниманието на много разследващи журналисти се премести към проучването на активността на проруските групи в мрежата X (Twitter) и Telegram, руските пропагандисти развиваха своите методи за промотиране в други социални платформи. И преди всичко във Facebook.

Нашето разследване показа, че координирана мрежа от фалшиви акаунти и страници във Facebook изкуствено увеличаваше ангажираността на публикациите – с харесвания, коментари и репостове. Това позволяваше на пропагандата да заобикаля алгоритмите на платформата и да засилва влиянието си върху западната аудитория, включително американските избиратели.

Особено изтънчена форма на промотиране на проруската пропаганда във Facebook станаха публикациите и дори цели страници, посветени на демонстрацията на руски оръжейни системи и тяхното „техническо превъзходство“, както и визуален контент с изображения на културни и исторически обекти, към които бяха добавени AI-генерирани елементи. Такива публикации създават ефект на „мека сила“ (Joseph Nye, Soft Power: The Means to Success in World Politics), насочена към формиране на положително възприятие за Русия в чужбина. Визуално привлекателните сцени можеха да бъдат придружени от пропагандни надписи или символика, засилвайки основните сюжети на кампанията и спомагайки за разпространението им сред различни категории западни аудитории. Някои от разкритите публикации бяха умишлено адаптирани към политическия контекст на САЩ, което можеше да повлияе косвено или пряко на предпочитанията на американските избиратели, особено в навечерието на изборите.

Подобни публикации не само подкопават подкрепата за Украйна и засилват антинатовските настроения, но и можеха да повлияят на последните президентски избори в САЩ, формирайки общественото мнение по ключови въпроси на международната политика.

Призивите за прекратяване на военната подкрепа за Украйна през 2023-2024 г. се превърнаха в точка на пресичане между реториката на Кремъл и предизборните изявления на Тръмп. Според оценките на експерта по политически комуникации, професор Сара Отс, изборите в САЩ през 2024 г. станаха едни от най-значимите за Русия, тъй като в случай на победа на Тръмп беше много вероятно да се стигне до съществено намаляване на американската помощ за Украйна. Руската пропаганда по всякакъв начин подклаждаше настроенията в полза на такъв изход. В информационното поле на Facebook това се изрази в появата на съдържание, насочено към американските консерватори и поддръжниците на Тръмп.

Методи за манипулация и експлоатация на алгоритмите на Facebook

За да промотират своето съдържание във Facebook, проруските актьори използваха цял арсенал от тактики, често разчитайки на уязвимостите на алгоритмичните механизми на платформата. В докладите на Meta такива координирани операции се обозначават като CIB (Coordinated Inauthentic Behavior) – координирана неавтентична активност. Ето основните методи, установени в периода след 2022 г.

Мрежи от фалшиви акаунти и страници

Както и през предходните години, основата на операциите се състоеше от хиляди фалшиви профили, които се представяха за обикновени потребители или администратори на страници с подобни интереси. По-рано Meta многократно разкриваше и блокираше подобни мрежи. Например, през 2022 г. беше разкрита най-голямата от началото на войната мрежа, свързана с Русия: над 1600 фалшиви акаунти и страници, които координирано разпространяваха кремълската пропаганда за войната. Тази кампания, започнала през май 2022 г., включваше над 60 фалшиви новинарски сайта, имитиращи известни издания (Spiegel, The Guardian, Bild и др.) на различни езици. След публикуването на материали с прокремълска програма (очерняне на Украйна, дискредитиране на бежанците, твърдения, че санкциите не работят и вредят само на страните, които ги налагат), организаторите масово споделяха линкове към тези сайтове чрез мрежа от фалшиви акаунти във Facebook, Instagram, Twitter, Telegram, както и пускаха реклами по тях.

Meta охарактеризира тази операция като комбинация от технически сложни елементи (имитацията на медийни сайтове на седем езика е изисквала значителни ресурси) и груба сила (множество фалшиви профили и реклами). Такъв „хибриден“ подход позволяваше на злоумишлениците сравнително бързо да обхванат широка аудитория: те не губеха време за органичен растеж на абонатите, а веднага наводняваха информационното пространство с масивно разпращане на еднотипни съобщения. Подобни „фронтални” атаки срещу информационната среда са по-скоро насочени към краткосрочен ефект („hit-and-run”), отколкото към дългосрочно изграждане на доверие, но могат да нанесат значителни щети до момента на неутрализирането им. 1 600 фалшиви акаунти и страници, които координирано разпространяваха кремълската пропаганда за войната

Използване на рекламните инструменти на Facebook

Алгоритмите на социалната мрежа, предназначени за таргетиране на реклами, се превърнаха в оръжие в ръцете на пропагандистите. Стана ясно, че проруските групи активно закупуваха реклами с политическо съдържание, заобикаляйки контрола. В хода на разследването AI Forensics бяха открити хиляди рекламни обяви от анонимни страници, промотиращи прокремълски послания в страните от ЕС. При това над 65% от тази политическа реклама е излизала без изискваното маркиране (т.е. Facebook не я е маркирал като политическа) и не е била придружена от информация за платеца. Това свидетелства за уязвимостта на алгоритмите за модерация на рекламите: злоумишлениците са се научили да създават еднодневни страници, които публикуват платени постове, достигат до десетки или стотици хиляди потребители и след това се изтриват. „Страницата всъщност се създава само за да се плати рекламата, за да се достигне веднага широка аудитория, а след това просто се изтрива – това е по-ефективно, отколкото дълго да се развива общност с надеждата за обхват“, отбелязва изследователят Пол Бушо от AI Forensics.

Освен това, таргетираната реклама се използваше не само за разпространяване на идеи, но и като инструмент за анализ: руските оператори наблюдаваха кои съобщения се приемат по-добре, проследявайки реакциите на потребителите в реално време. В един от документите, създаден от прокремълския политически технолог Иля Гамбашидзе в рамките на дезинформационната кампания Good Old Usa Project, се казва директно: „Таргетирането във Facebook позволява да се проследява реакцията на аудиторията към разпространяваните материали и да се коригират по-нататъшните пускания, изхождайки от това коя група е била засегната най-силно“.

По този начин рекламната платформа Facebook е служила като своеобразен полигон за тестване на пропаганда, където чрез A/B тестове враговете са подбирали най-ефективните сюжети. През втората половина на 2022 г. специалистите на Meta успяха ръчно да идентифицират и неутрализират злонамерени акаунти, които все още не бяха премахнати от автоматичните системи преди началото на пълноценното разследване. >65% от политическата реклама се разпространяваше без маркировка във Facebook.

Злоупотреба с алгоритми за ангажираност

Алгоритмите на лентата на Facebook са устроени така, че да показват на потребителя най-релевантния и интересен за него съдържание – често това, което предизвиква силна емоционална реакция (гняв, възмущение, страх). Пропагандистите умело се възползват от това, разпространявайки максимално провокативни публикации и изображения, които предизвикват спорове. Колкото по-активно хората коментират или споделят публикацията (дори и да са възмутени), толкова по-широко алгоритъмът я разпространява в мрежата. В случая с проруската дезинформация това означава, че изключително поляризиращият съдържание получава непропорционално голям обхват. Изследванията показват, че платформите, оптимизирани за ангажираност, неволно допринасят за бързото вирусно разпространение на лъжи и конспиративни теории.

Освен това злоумишлениците практикуваха тактика на изкуствено разширяване на ангажираността: създаваха се групи от „ботове“ или контролирани акаунти, които веднага след публикуването започваха масово да харесват и коментират нужния пост, за да го „промотират“ в алгоритмичния рейтинг. Мрежи от фалшиви акаунти и страници Както и през предходните години, основата на операциите се състоеше от хиляди фалшиви профили, които се представяха за обикновени потребители или администратори на страници с подобни интереси. По-рано Meta многократно разкриваше и блокираше подобни мрежи. Например, през 2022 г. беше разкрита най-голямата от началото на войната мрежа, свързана с Русия: над 1600 фалшиви акаунти и страници, които координирано разпространяваха кремълската пропаганда за войната. Тази кампания, започнала през май 2022 г., включваше над 60 фалшиви новинарски сайта, имитиращи известни издания (Spiegel, The Guardian, Bild и др.) на различни езици. След публикуването на материали с прокремълска програма (очерняне на Украйна, дискредитиране на бежанците, твърдения, че санкциите не работят и вредят само на страните, които ги налагат), организаторите масово споделяха линкове към тези сайтове чрез мрежа от фалшиви акаунти във Facebook, Instagram, Twitter, Telegram, както и пускаха реклами по тях.

Meta охарактеризира тази операция като комбинация от технически сложни елементи (имитацията на медийни сайтове на седем езика е изисквала значителни ресурси) и груба сила (множество фалшиви профили и реклами). Такъв „хибриден“ подход позволяваше на злоумишлениците сравнително бързо да обхванат широка аудитория: те не губеха време за органичен растеж на абонатите, а веднага наводняваха информационното пространство с масивно разпращане на еднотипни съобщения. Подобни „фронтални” атаки срещу информационната среда са по-скоро насочени към краткосрочен ефект („hit-and-run”), отколкото към дългосрочно изграждане на доверие, но могат да нанесат значителни щети до момента на неутрализирането им. 1 600 фалшиви акаунти и страници, които координирано разпространяваха кремълската пропаганда за войната

Използване на рекламните инструменти на Facebook

Алгоритмите на социалната мрежа, предназначени за таргетиране на реклами, се превърнаха в оръжие в ръцете на пропагандистите. Стана ясно, че проруските групи активно закупуваха реклами с политическо съдържание, заобикаляйки контрола. В хода на разследването AI Forensics бяха открити хиляди рекламни обяви от анонимни страници, промотиращи прокремълски послания в страните от ЕС. При това над 65% от тази политическа реклама е излизала без изискваното маркиране (т.е. Facebook не я е маркирал като политическа) и не е била придружена от информация за платеца. Това свидетелства за уязвимостта на алгоритмите за модерация на рекламите: злоумишлениците са се научили да създават еднодневни страници, които публикуват платени постове, достигат до десетки или стотици хиляди потребители и след това се изтриват. „Страницата всъщност се създава само за да се плати рекламата, за да се достигне веднага широка аудитория, а след това просто се изтрива – това е по-ефективно, отколкото дълго да се развива общност с надеждата за обхват“, отбелязва изследователят Пол Бушо от AI Forensics.

Освен това, таргетираната реклама се използваше не само за разпространяване на идеи, но и като инструмент за анализ: руските оператори наблюдаваха кои съобщения се приемат по-добре, проследявайки реакциите на потребителите в реално време. В един от документите, създаден от прокремълския политически технолог Иля Гамбашидзе в рамките на дезинформационната кампания Good Old Usa Project, се казва директно: „Таргетирането във Facebook позволява да се проследява реакцията на аудиторията към разпространяваните материали и да се коригират по-нататъшните пускания, изхождайки от това коя група е била засегната най-силно“.

По този начин рекламната платформа Facebook е служила като своеобразен полигон за тестване на пропаганда, където чрез A/B тестове враговете са подбирали най-ефективните нарративи. През втората половина на 2022 г. специалистите на Meta успяха ръчно да идентифицират и неутрализират злонамерени акаунти, които все още не бяха премахнати от автоматичните системи преди началото на пълноценното разследване. >65% от политическата реклама се разпространяваше без маркировка във Facebook

Злоупотреба с алгоритми за ангажираност

Алгоритмите на лентата на Facebook са устроени така, че да показват на потребителя най-релевантния и интересен за него съдържание – често това, което предизвиква силна емоционална реакция (гняв, възмущение, страх). Пропагандистите умело се възползват от това, разпространявайки максимално провокативни публикации и изображения, които предизвикват спорове. Колкото по-активно хората коментират или споделят публикацията (дори и да са възмутени), толкова по-широко алгоритъмът я разпространява в мрежата. В случая с проруската дезинформация това означава, че изключително поляризиращият съдържание получава непропорционално голям обхват. Изследванията показват, че платформите, оптимизирани за ангажираност, неволно допринасят за бързото вирусно разпространение на лъжи и конспиративни теории.

Освен това злоумишлениците практикуваха тактика на изкуствено разширяване на ангажираността: създаваха се групи от „ботове“ или контролирани акаунти, които веднага след публикуването започваха масово да харесват и коментират нужния пост, за да го „промотират“ в алгоритмичния рейтинг. Във вече споменатия план „Good Old USA” се говореше за използването на „мрежа от ботове”, които ще модерират топ дискусиите в коментарите и ще ги насочват в изгодна посока. Има се предвид, че под всяка целева публикация се появяват десетки координирани коментари, които създават видимост за масова подкрепа на дадена позиция или за тормоз на противоположната. Обикновените потребители, виждайки такъв „резонанс“, могат погрешно да приемат пропагандната информация за широко споделяно мнение.

„Спящи“ общности и групи

Руските оператори предварително създаваха и управляваха, понякога в продължение на месеци, общности във Facebook, маскирайки се като местни групи по интереси – например, групи от поддръжници на Тръмп в отделни щати („Alabama for America the Great“ и др.). Такива групи се пълнеха с неутрално или близо по смисъл съдържание, без да будят подозрения. Планът беше в решаващия момент тези „спящи клетки“ в социалната мрежа да бъдат събудени: администраторите рязко да преминат към разпространение на агитационни материали, превръщайки групите с вече набрана аудитория в инструмент за въздействие върху общественото мнение. В съдебните документи по делото Гамбашидзе, разсекретени от Министерството на правосъдието на САЩ, фигурираха намеренията да се създадат по 18 такива клетки в ключови колебаещи се щати на САЩ, за да могат в решаващия момент да започнат да промотират съгласувано необходимите сюжети и връзки.

Подобна тактика се основава на вградените механизми за препоръки на Facebook: хората в такива групи започват да споделят материали, които могат да се разпространяват по-нататък в лентите на техните приятели, а алгоритмите могат да препоръчват на познати с подобни интереси да се присъединят към популярни групи, което увеличава обхвата. планираха да създадат по 18 „спящи клетки“ във всеки ключов колебаещ се щат на САЩ.

Манипулации извън платформата

Въпреки че въпросът се фокусира върху Facebook, заслужава да се спомене, че много от операциите бяха междуплатформени. Съдържанието и фалшивите новини, появили се на други ресурси (например, генерирани фалшиви видеоклипове в YouTube или „изтичания“ в Telegram), често след това попадаха във Facebook чрез потребители, които споделяха линкове. По този начин пропагандистите използваха екосистемата на социалните медии в комплекс: ако една платформа блокираше акаунтите им, те все пак постигаха обхват на друга и се връщаха чрез нея. В този случай Facebook често се превръщаше във вторичен предавател на дезинформация, пусната извън него, особено когато тя се споделяше от реални хора, които бяха заблудени. Например, описаните по-горе фалшиви видеоклипове с „украински войници срещу Тръмп“ първоначално се разпространяваха в проруски канали, но след това бяха подети от американски конспиративни групи във Facebook, благодарение на което обхватът им значително се увеличи.

По този начин руската пропагандна мрежа във Facebook представлява сложна структура, състояща се от стотици фалшиви акаунти и страници, които действат координирано за разпространение на проруски сюжети. Тези акаунти, много от които изкуствено взаимодействат помежду си, създават илюзия за широка подкрепа за Русия и нейната политика, особено на фона на текущия конфликт с Украйна. Те активно коментират и репостват публикациите си, което повишава индекса на ангажираност и увеличава обхвата на съдържанието.

Много от тези страници имат хиляди последователи и редовно публикуват изображения и видеоклипове, показващи руска военна техника и символика, включително символа „Z“, свързан с руските въоръжени сили. Примери за такива страници, като „Vladimir Poutine Z“, показват как визуалните материали и националната символика се използват за засилване на проруските настроения.

Статистически данни, примери за публикации и обхват на аудиторията

За да оценим обхвата на проруските публикации във Facebook, ние приложихме подход, основан на анализ на активността (харесвания, коментари, репостове) и съществуващи проучвания [ от Даниел Шнайдер, директор „Контент маркетинг“ – „Как ефективно да изчислим коефициента на ангажираност?“ ], по коефициенти на ангажираност. Според редица аналитични данни средният коефициент на лайкове към прегледи във Facebook съответства на диапазона от 2% до 10%. Това позволява да се оцени броя на прегледите въз основа на броя лайкове: 1 лайк може да съответства на приблизително 10–50 прегледа в зависимост от нивото на ангажираност на аудиторията и типа съдържание.

Например, публикация с 5 хиляди лайка може да достигне от 50 до 250 хиляди преглеждания. Нивото на ангажираност, изразено в коментари и репостове, също играе значителна роля, като увеличава обхвата на публикациите.

При това важен фактор е не произходът на лайковете и коментарите, а тяхното влияние върху алгоритмите на Facebook. Високата активност под публикациите, организирана между другото с помощта на фалшиви акаунти или с използването на така наречената „фабрика за тролове“, води до това, че съдържанието се промотира органично и е видимо в лентите на потребители, които не са абонирани за тези страници. Това позволява на проруския контент да достигне по-широка аудитория, заобикаляйки ограниченията за реклама и дезинформация. Планът Good Old USA, разработен в рамките на руските информационни операции, предвиждаше създаването и използването на „мрежа от ботове“ за създаване и модериране на топ дискусии в коментарите. Тези ботове имаха за цел да насочват дискусиите в социалните мрежи в изгодна за Русия посока, създавайки илюзия за масова подкрепа на необходимите сюжети. Планът беше част от по-широката кампания „Doppelganger“ и се споменава в редица разследвания, включително в доклад на Министерството на правосъдието на САЩ (Department of Justice, 2024).

За илюстрация може да се разгледа конкретен пример – публикация с изображение на военна техника (БМ-21 „Град“), която е събрала 21 000 харесвания, 1500 коментара и 581 репоста. Въз основа на коефициента тази публикация може да е достигнала от 210 хиляди до 1 милион преглеждания, дори без да се отчитат допълнителните преглеждания чрез репостове. Такива високи показатели показват как мрежата от фалшиви акаунти може ефективно да промотира съдържание чрез алгоритмите на платформата.

По този начин проруските публикации, разпространявани с помощта на фалшиви акаунти, достигат до значителен брой реални потребители, формирайки тяхното възприятие и оказвайки осезаемо влияние върху информационното пространство на платформата.

Тези страници и акаунти публикуват съдържание предимно на английски език и са ориентирани към западната аудитория, включително потребители в САЩ. Високият ниво на ангажираност позволява на тези страници да промотират своите публикации в новинарските ленти на широк кръг от потребители, включително и на тези, които не са абонирани за тези страници.

В хода на анализа ние открихме десетки подобни публикации, демонстриращи руска военна техника и символика, с хиляди харесвания, коментари и репостове. Това позволява да се оцени обхватът им в стотици хиляди или дори милиони прегледи. Изкуствено създадената активност, поддържана от мрежа от фалшиви акаунти, спомага за широкото разпространение на тези публикации чрез алгоритмите на Facebook, засилвайки проруските сюжети в западната информационна среда.

Ето някои примери за такива профили и страници

Публикация с 5 хиляди лайкове би могла да достигне 50-250 хиляди прегледа

Десетки и стотици подобни страници и профили, анализът на които показва, че единствената цел на тяхното създаване е да се промотира пропагандата на Руската федерация в чужбина.

Използване на фалшиви акаунти за заобикаляне на алгоритмите

Фалшивите акаунти и страници се създават с цел да се заобиколят алгоритмите на Facebook и да се достигне възможно най-голяма аудитория. Взаимните абонаменти, харесвания и коментари на тези акаунти изкуствено повишават индекса на ангажираност, което позволява на съдържанието да се появява по-често в новинарските ленти на потребителите. В резултат на това публикациите с милитаристки изображения и проруски сюжети получават значително внимание, включително от американските избиратели, което потенциално влияе на тяхното политическо мнение.

Тези аспекти демонстрират значителен обхват и добре обмислена стратегия на руската пропаганда в социалните мрежи, насочена към промяна на възприятието на западната общественост по въпросите на подкрепата за Украйна и доверието в демократичните институции.

Активни потребители в коментарите и успешно заобикаляне на алгоритмите на Facebook

Анализът на профилите и страниците, участващи в промотирането на проруски съдържание, показва, че поне половината от коментиращите публикации са реални потребители. Те проявяват обичайна активност в социалната мрежа: обсъждат публикации, споделят лично мнение и се включват в дискусии. Това потвърждава, че алгоритмите на Facebook се заобикалят успешно, дори ако в ранния етап на промотирането се използват ботове или потребители, които извършват действия срещу заплащане.

По-нататъшният анализ на профилите, които оставят коментари, показва, че много от тях принадлежат на жители на различни страни, включително САЩ, Великобритания, Германия и други. Тези потребители активно участват в дискусии и споделят съдържание със своите последователи, засилвайки органичното промотиране на подобни публикации.

По този начин, въпреки първоначалното използване на изкуствени методи за увеличаване на обхвата, страниците, промотиращи проруски сюжети, намират реален отклик сред живите потребители, което прави тяхното влияние още по-значително.

Влиянието на проруската пропаганда върху изборите в Германия и Европа

Руската пропагандна кампания във Facebook и други социални мрежи, насочена към англоговорящата аудитория, има косвени, но важни последствия за европейската политика, особено в страни като Германия. САЩ, като водещ партньор на НАТО и ключов участник в подкрепата на Украйна, оказва значително влияние върху политическия елит в Германия, Великобритания и други страни. Руските сюжети в САЩ, които промотират антивоенна реторика и идеи за прекратяване на подкрепата за Украйна, могат да намерят отзвук и в европейското общество, особено чрез „медийни кръстовища“ и международни групи за влияние.

Ключови рискове за Германия и ЕС:

Разпространение на антинатовски и антиукраински настроения. Проруските послания, успешно промотирани в САЩ, могат да проникнат в политическия дискурс на Германия и други европейски страни чрез социалните мрежи. Това беше особено забележимо в навечерието на парламентарните избори в Германия, където десните популистки сили, като „Алтернатива за Германия“ (AfD), активно използваха антивоенни тези за мобилизиране на електората.

Формиране на умора от войната сред европейската аудитория. Проруските сюжети, действащи върху англоговорящите потребители, могат да окажат вторично влияние върху германското общество чрез транснационални информационни канали. Тъй като Германия е един от водещите донори на военна помощ за Украйна в Европа, намаляването на обществената подкрепа може да доведе до натиск върху политиците и до намаляване на обема на помощта.

Политическа дестабилизация чрез социални групи и миграционен дискурс. Важно е да се отбележи, че Русия активно използва миграционните кризи, за да създава напрежение в европейските страни. Това беше забележимо по време на предишните изборни цикли в Германия и Австрия, когато дезинформацията за бежанците се превърна в ключов инструмент за мобилизиране на консервативния и крайно десен електорат.

Реакцията на Facebook

Ние многократно се опитахме да подадем жалби за проруски съдържание във Facebook, включващо милитаристки изображения и сюжети, подкопаващи подкрепата за Украйна. Въпреки многобройните жалби, реакцията на Facebook остана незадоволителна. Платформата отхвърли без изключение всички наши жалби, посочвайки, че публикациите не нарушават стандартите на общността.

Един от отговорите на службата за поддръжка на Facebook гласи: „Не сме премахнали снимката. Проверихме и установихме, че този съдържание не нарушава нашите стандарти на общността.“ Съобщението също така предлага на потребителите „да използват наличните опции, за да контролират това, което виждат“, вместо да премахват проблемното съдържание. Този пример, както и много други, илюстрира, че Facebook не разглежда публикациите със символа „Z“ или изображения на руски военни като нарушение, въпреки пропагандния им характер.

Тъй като жалбите за подобно съдържание се отхвърлят, алгоритмите на Facebook продължават да отчитат високата степен на ангажираност на такива публикации, което спомага за тяхното разпространение. Проруските страници и фалшивите акаунти, които активно взаимодействат помежду си, получават допълнителен органичен обхват, което позволява на тези публикации да попадат в новинарските ленти дори на потребители, които не са абонирани за такива страници. Това изкуствено повишаване на индекса на ангажираност позволява на проруския съдържание да достигне до широк кръг от хора, засилвайки влиянието на пропагандата.

Недостатъци на модерацията на международния контент

Липсата на адекватна модерация на подобни публикации вероятно се дължи на трудностите при работата с международния контент и на неясните правила. Тъй като проруските страници са ориентирани към международна аудитория, алгоритмите за модерация не винаги ги възприемат като нарушаващи стандартите, особено ако не използват явни признаци на дезинформация. Този недостатък позволява на проруските сюжети да се разпространяват безпрепятствено, въпреки многобройните жалби от страна на изследователи и активисти.

Недостатъчната реакция от страна на Facebook прави платформата уязвима за чуждестранни информационни операции, които подкопават подкрепата за Украйна и формират проруски настроения сред западната аудитория. Без адекватен контрол и модерация подобно съдържание ще продължи да оказва значително влияние върху възприемането на събитията в международната политика.

Влияние върху общественото мнение

Предвид значителния си обхват, руската дезинформационна кампания в социалните мрежи оказва значително влияние върху общественото мнение в САЩ и други западни страни. Използвайки визуални образи, символика и милитаристки сюжети, като символа „Z“ и фотографии на руска военна техника, руската пропаганда формира положителен имидж на руските въоръжени сили и подкрепя политиката на Кремъл. Това съдържание се разпространява чрез стотици фалшиви акаунти и страници, които, използвайки механизмите на алгоритмите на Facebook, достигат до широка аудитория, включително и до тези, които първоначално не са били абонирани за такива страници.

Изследвания и доклади за влиянието на руската пропаганда

Според доклада на Комитета по разузнаване на Сената на САЩ, Русия активно използва социалните мрежи за разпространение на милитаристка пропаганда, за да демонстрира своята сила и да привлече вниманието на западната аудитория. Военни изображения, като танкове и ракети, създават привлекателна нарратива за патриотично настроената аудитория и често служат за мобилизиране на проруски настроения. Това е особено забележимо на фона на текущия конфликт с Украйна, където изображенията на военна техника и символика могат да допринесат за формирането на антинатовски и антиукраински нагласи сред западната аудитория.

Други проучвания, като например анализът на Центъра за стратегически и международни изследвания (CSIS), също показват, че руските информационни операции включват използването на ботове и фалшиви акаунти за създаване на видимост на подкрепа за Русия. Например, докладите на CSIS описват как с помощта на изкуствен интелект и автоматизирани акаунти се разпространяват антиукраински нарративи, създавайки илюзията за масова подкрепа на тези идеи сред американските потребители.

Дълбокото проучване на нашия проект за ролята на социалните медии в политическата пропаганда също показва, че социалните мрежи са се превърнали в ключов канал за разпространение на политическа пропаганда, измествайки до голяма степен традиционните медии. Около две трети от населението на света използва социални мрежи, като повече от половината от възрастните, например в САЩ, редовно получават новини чрез тях. Алгоритмите на платформите (Facebook, Twitter/X, TikTok, Telegram и др.) спомагат за вирусното разпространение на съдържание – проучванията показват, че фалшивите новини се разпространяват в мрежите по-бързо от истинските. Механизми като ленти с препоръки и групи по интереси създават „ехо камери“, в които потребителите виждат предимно информация, потвърждаваща техните възгледи.

В тези условия социалните мрежи се превърнаха в мощен инструмент за влияние върху общественото мнение, който се използва активно, включително за държавна пропаганда. Те се превърнаха в най-мощното средство за въздействие върху съзнанието, като спомагат за разпространението както на информация, така и на дезинформация.

Формиране на проруски настроения и умора от войната

Разпространението на проруски сюжети също допринася за „умората от войната“ сред западната аудитория. Постоянното появяване в новинарските ленти на изображения на руската армия и положителни публикации за Русия може да създаде погрешно впечатление за нейната легитимност и сила, което намалява нивото на подкрепа за Украйна. Това може да доведе до това, че западната общественост, особено в САЩ, да започне да възприема подкрепата за Украйна като неоправдана, което отслабва позицията на западните демокрации на международната сцена и допринася за намаляване на финансовата и военната помощ за Украйна.

Подкопаване на доверието в демократичните институции

Руските дезинформационни кампании подкопават и доверието в западните демократични институции, представяйки ги като неспособни да реагират адекватно на информационните заплахи и да защитят своите граждани от външно влияние. Според проучване на Georgetown Journal of International Affairs (GJIA), путинската пропаганда често се фокусира върху представянето на западните правителства като неефективни, а подкрепата за Украйна като ненужна.

Руската пропаганда създава негативно възприятие за западните институции, което може да повлияе или вероятно вече влияе на политическите предпочитания на американските избиратели и да доведе до засилване на проруските настроения в САЩ.

Правна оценка и правни аспекти

Въпросът за това как да се регулира разпространението на чуждестранна пропаганда на американски платформи е сложен поради необходимостта да се балансира между защитата на свободата на словото и националната сигурност. В случая с руската пропаганда, разпространявана чрез Facebook, съществува вероятност страниците, промотиращи проруски нарративи, да нарушават както законите на САЩ, така и редица изисквания в областта на регулирането на някои бизнес практики. Например, изискванията на Федералната търговска комисия (FTC) и Комисията по ценните книжа и борсите на САЩ (SEC) за защита на потребителите, прозрачност на бизнес практиките и предотвратяване на манипулации.

Заключение

За борба с руската пропаганда във Facebook е необходим комплексен подход. Използвайки фалшиви акаунти и страници, руските информационни кампании успешно заобикалят алгоритмите на платформата, създавайки илюзията за широка подкрепа на проруските нарративи сред западната аудитория.

Необходимост от подобряване на алгоритмите и модерацията на съдържанието

За по-ефективно противодействие на чуждестранната пропаганда са необходими прозрачни и усъвършенствани алгоритми, способни да откриват и ограничават разпространението на съдържание, което изкуствено увеличава ангажираността чрез мрежи от фалшиви акаунти. Facebook, както и други социални мрежи, трябва да разгледат възможността за подобряване на механизмите за модерация, за да не достига подобен съдържание до широка аудитория. Прозрачните процедури за подаване на жалби и оперативният отговор на тях също ще помогнат на потребителите да се чувстват защитени от дезинформация. За съжаление, опитите да се постигне поне някаква смислена реакция от модераторската служба на Facebook се провалят отново и отново.

Вместо това автоматичните алгоритми на Facebook налагат несправедливи временни ограничения на акаунти, които разпространяват истината за действията на руските въоръжени сили на територията на Украйна, или изображения на меми, сравняващи Адолф Хитлер и Владимир Путин (точно това, например, се случи в моя случай – без никаква последваща реакция от Facebook на подадената жалба). Създава се усещането, че социалната мрежа поощрява разпространението на пропаганда и по никакъв начин не се бори с хилядите фалшиви акаунти и страници, създадени с единствената цел – да повлияят на избирателите в САЩ и страните от ЕС.

Комплексното решение на проблема изисква съвместни усилия на американските държавни органи, социалните платформи и гражданското общество. Законодателите и регулаторните органи биха могли да разгледат допълнителни мерки за контрол върху дейността на платформите и техните алгоритми, особено що се отнася до разпространението на руска пропаганда, която може да окаже влияние върху демократичните процеси в страната.

В условията на информационна война и международна агресия е важно не само да се реагира на отделни случаи, но и да се въвеждат дългосрочни стратегии за защита на западната общественост от манипулиране на общественото мнение. Прозрачните правила и ефективната модерация ще помогнат на социална платформа като Facebook да остане безопасна и заслужаваща доверие среда за потребителите.

Максим Новичков

Екипът „Хорхе“: Хакове, ботове и изнудване за манипулиране на изборите

Репортери под прикритие записаха група тайни специалисти по кибервлияние, докато представяха своите услуги. Те включват използване на кампании за дезинформация, фалшиво разузнаване, хакове и изнудване за насърчаване на интересите на клиентите им. Групата, която нарича себе си Team Jorge /Екип „Хорхе“/, твърди, че е работила по десетки президентски избори по света. Услугите й се продават за милиони долари.

Базираната в Израел тайна група използва напреднали хакерски технологии, както и инструмента AIMS за създаване на фалшиви акаунти и разпространение на фейк съдържание, включително чрез изкуствен интелект. Експертите на проекта „Убийци на истории“ /StoryKillers/ и българският партньор BIRD.BG откриха и българска връзка, която още се проучва.

Какво е известно до момента:

  • Репортерите успяха да проверят твърденията на Екипа „Хорхе“ за достъп до акаунти за съобщения на важни политически цели и разгръщането на кампании в социалните медии, организирани чрез фалшиви акаунти.
  • Екипът „Хорхе“ изглежда се е намесил в миналогодишните президентски избори в Кения, които бяха поразени от дезинформационна кампания..
  • Тайната група включва хора с опит в израелските служби за сигурност.

„Това е нашият опит… да навредим на логистиката на опонентите, да ги сплашим, да създадем такава атмосфера, че никой да не отиде на изборите“, каза член на Team Jorge  през юли 2022 г. във видеочат с репортерите.

Разследването под прикритие е дело на журналистите Гур Мегидо (TheMarker), Фредерик Метезо (Radio France) и Омер Бенякоб (Haaretz). Те са част от разследването, наречено Story Killers, координирано от Forbidden Stories и включващо повече от 100 журналисти от 30 медийни организации, включително OCCRP. Forbidden Stories е международен консорциум от разследващи журналисти, които преследват работата на журналисти, които са били убити или работят под заплаха. BIRD.BG е българският партньор в проекта.

15 милиона за президентска кампания

В няколко обаждания и една лична среща членовете на екипа –– водени от човек, наричащ себе си „Хорхе“ –– описаха услуги за „разузнаване и влияние“, които казаха, че могат да осигурят за своите клиенти. Те твърдят, че са работили по „33 кампании на президентско ниво“ – 27 от тях „успешни“.

Техните тактики включват хакване, фалшифициране на материали за изнудване, разпространение на дезинформация, внедряване на фалшива информация, физическо прекъсване на избори и разгръщане на целенасочени кампании в социалните медии.

Репортерите успяха да потвърдят, че някои от тези тактики са използвани. Екипът „Хорхе“ изглежда е получил неоторизиран достъп до Telegram и Gmail акаунти на високопоставени държавни служители и е разгърнал ботнет кампании в социалните медии. Доказателствата, прегледани от репортерите, сочат, че групата се е намесила в поне два президентски избора.

„Хорхе“ – Тан Ханан

Текущата цена за президентска кампания е била 15 милиона евро, информира „Хорхе“ репортерите под прикритие, които се представиха като посредници на бъдещ африкански клиент. За тази краткосрочна работа – само с два свободни месеца – екипът „Хорхе“ поиска минимум 6 милиона евро. На репортерите беше казано, че парите могат лесно да бъдат прехвърлени чрез скрити средства, вероятно с помощта на френска неправителствена организация, адвокатска кантора в Дубай или ислямски училища.

„Ние обичаме да сме зад кулисите и това е част от нашата сила – другата страна да не разбира, че съществуваме“, каза „Хорхе“.

Псевдонимът му е испанско име, което не отговаряше на акцента му. Това е част от легендата – опит да се прикрие самоличността и местоположението му. Екранът на работния плот на компютъра, който той използва в презентацията, прескача между часовите зони и показва емисия от трафик камера в Литва. Неговите номера за контакт обхващат целия свят: Индонезия, Украйна, САЩ и Израел.

Репортерите в крайна сметка откриха, че истинското му име е Тал Ханан, самоопределящ се експерт по борба с тероризма, който е цитиран в медиите като специалист по киберсигурност.

Ханан отрече каквото и да е нарушение, но не отговори на подробни въпроси.

Да хакнеш Кения

По време на една от записаните презентации по Zoom Тал Ханан показа екран с акаунт в Telegram и кликна върху контактите и личните чатове на кенийския политически съветник Денис Итумби.

Тази демонстрацият на живо се проведе в края на юли 2022 г., в критичен момент от кампанията за президентските избори в Кения. Итумби беше дигитален стратег на Уилям Руто, заместник-президент на източноафриканската нация по това време, който щеше да бъде избран за президент след седмици. Местните медии описват Итумби като „дясната ръка“ на Руто.

Ханан показа доказателство, че не само може да чете личните чатове и файлове на Итумби – включително вътрешно проучване, свързано с предстоящите избори – но че дори може да се представя като Итумби, като изпраща съобщения от акаунта си. Ханан започна разговор от акаунта на Итумби с виден кенийски бизнесмен и изпрати текст, който гласеше просто: „11“.

Това съобщение беше безсмислено, целта му беше само демонстрация на способността му да контролира акаунта. Но Екипът „Хорхе“ твърди, че е изпратил фалшифицирани съобщения до военни командири и правителствени министри, всичко това в опит да повлияе на събитията и да предизвика хаос сред цели на високо ниво.

„Обикновено ще изчакам той да го види и след това ще го изтрия. Защо? Защото искам да създам объркване“, каза Ханан. В случая с демонстрацията на Итумби Ханан случайно изтри текстовото съобщение само за подателя. Впоследствие репортерите имаха възможност да се свържат с бизнесмена, който го е получил, и да потвърдят, че загадъчното съобщение наистина е било изпратено.

Услугите на Екипът „Хорхе“ според Haaretz

Кенийските избори са само един от примерите. В свое разследване журналистите на Haaretz идентифицираха атаки срещу избори в Мексико, Еквадор, Нигерия и Каталуния, както и дезинформационни намеси на свързани с Екипа „Хорхе“ акаунти във Франция, Великобритания, Канада, Мароко, Монголия, Индонезия, Шри Ланка и други държави.

Пробив на комуникациите

„Знам, че в някои страни вярват, че Telegram е много безопасен“, каза Ханан в демонстрацията по Zoom. „И така, ето, ще ви покажа колко е безопасно… Значи това също е министър на някаква държава, мога да отида [и] мога да проверя всичките му обаждания.“

Ханан показа и акаунта в Gmail на министъра на земеделието на Мозамбик Селсо Корея, който потвърди пред репортери, че имейл адресът и съдържанието изглежда са негови. По време на презентацията бяха видими и папките от личния Google диск на министъра.

От решаващо значение за хакване на имейл акаунти и услуги за съобщения като Telegram е SS7 /Signaling System 7/*, международен стандартен „протокол“ за комуникации по мобилни телефони, който трябва да гарантира, че обаждане или SMS, изпратени от един потребител, се прехвърлят към правилния номер на предвидения получател. Въведен е през 80-те години на миналия век, в ранните дни на цифровата сигурност и криптиране, така че съдържа недостатъци, които могат да позволят на трети страни да се представят за конкретен потребител и да получават техните съобщения и обаждания.

Това е, което Ханан твърди, че неговият екип може да направи. Той каза на репортери под прикритие, че Екипът „Хорхе“ отива директно при доставчик на телекомуникационни услуги в страната, в която работят, и инсталира физическо устройство, което позволява на екипа му да вмъква фалшиви команди през SS7 в системата. Това подмамва телекомуникационния оператор да изпрати SMS за удостоверяване на фалшивия целеви акаунт, позволявайки на Екипът „Хорхе“ да чете съобщенията на своята цел и дори да изпраща съобщения.

Въпреки че вратичките са общоизвестни и повечето доставчици на телекомуникационни услуги са въвели контрамерки, някои оператори все още поддържат уязвими мрежи.

Нищо в Израел, нищо против г-н Путин и внимателно в САЩ

Екипът „Хорхе“ каза, че две трети от президентските кампании, в които са се намесили, са били в Африка, но рекламните им материали включват и страни в Европа, Латинска Америка, Югоизточна Азия и Карибите.

Братът на Ханан, Зохар, каза на среща през декември, че има само три задачи, които Екипът „Хорхе няма да поеме: Нищо в Израел („Не искаме да акаме там, където спим.“); никаква американска политика на партийно ниво (те твърдят, че са отхвърлили покана да помогнат при избирането на бившия президент на САЩ Доналд Тръмп); и „нищо против г-н Путин“.

Зохар Ханан, братът на Тал Ханан, известен също като „Ник“ в екипа „Хорхе“.

По време на демонстрации пред репортери под прикритие, Тал Ханан беше нетърпелив да покаже техническите инструменти, които екипът му използва, за да помогне на клиентите.

Той показа статия със заглавия от Нигерия, които описват атаки срещу телефонни линии на опозицията, като част от тяхното видео за продажби „Екип Хорхе представя: Разузнаване при поискване“. Тези атаки претоварват телефонната мрежа.

„Искаме някои хора да бъдат накарани да млъкнат, искаме някои хора да имат погрешна комуникация“, каза той по време на едно обаждане, в което нарече деня на изборите „ден D“. „Така че имаме капацитета в Деня D да обезвредим стотици телефони… конкретен началник на полицията или хора от армията, които не са в наша полза. Всички телефони ще спрат да работят.”

И Ханан твърди, че е използвал подобна тактика срещу компютърни мрежи.

„Можем да премахваме уебсайтове, всичко с IP, сървъри. Ако имат собствени сървъри, приложения, понякога две, три информационни агенции – можем да ги извадим от строя“, похвали се той.

Възможностите, описани от Ханан, приличат на „разпределен отказ на услуга“ или DDOS атаки. Тези атаки обикновено включват претоварване на системите на дадена цел, като ги заливат със заявки, принуждавайки ги да произвеждат отговор „отказ на услуга“ на законни заявки.

Той показа заглавия за подобно нападение по време на референдума през 2014 г. в Каталуния. Испанските следователи казаха на OCCRP, че нямат доказателства за участието на Ханан, но казаха, че е правдоподобно.

Екранна снимка от презентация от запис под прикритие
Презентация на екип Хорхе, показваща DDOS атака на референдума през 2014 г.

AIMS: Платформата за влияние

Технологичният набор от инструменти на Екипът „Хорхе“ също включва и „платформа за влияние“, наречена Advanced Impact Media Solutions или AIMS, която Ханан твърди, че е продала на разузнавателните служби на повече от 10 държави.

Софтуерът AIMS е предназначен да създава убедителни аватари за кампании в социалните медии. Аватарите или ботовете използват откраднати снимки на реални хора, работят на всяка социална медийна платформа и могат да бъдат свързани с функциониращи акаунти в Amazon и Bitcoin. Те също така изглежда имат дългогодишно присъствие онлайн, включително акаунти в Gmail и банални коментари към видеоклипове на знаменитости в YouTube, за да създадат на разследващите ги впечатлението, че са истински хора.

„Ние имитираме човешкото поведение“, каза Ханан на репортерите под прикритие.

Повечето онлайн акаунти изискват потвърждение на телефонен номер и имейл адрес, за да предотвратят ботове като тези, внедрени от AIMS. Но има уебсайтове, създадени специално, за да позволят еднократни услуги за потвърждение чрез SMS за 50 цента или по-малко. Много акаунти – като Gmail и WhatsApp – могат да бъдат регистрирани с „проверени“ телефонни номера. Екипът „Хорхе“ изглежда използва услуга, наречена SMSpva.com, за проверка на телефонни номера. SMSpva.com не отговори на запитване за коментар.

Екранна снимка от презентация от запис под прикритие. Профилът на Shannon Aiken в AIMS: нейните данни са фалшиви, но изображението е откраднато от истински човек.

Местните проксита – горивото на дезинформацията

AIMS също така разчита на местни /домашни/ проксита, които пренасочват интернет трафика от ботове през домовете на хората, така че да изглежда автентичен. Това затруднява платформите на социалните медии да идентифицират координирана кампания за дезинформация.

Както подчерта един експерт, консултирал проекта Story Killers, местните проксита са „абсолютно необходими“ в индустрията за дезинформация, тъй като позволяват създаването на трудни за откриване ботове и могат да симулират дейност от конкретен регион. Трудно е да се предотврати това, тъй като IP адресите, използвани от местни проксита, обикновено се използват и от реални хора.

По-конкретно, участниците в кампания за дезинформация биха могли да купят домашни прокси сървъри и да ги използват за масово създаване на фалшиви акаунти, които изглеждат свързани с реални акаунти, тъй като използват реални IP адреси.

В данните, презентирани от Екип „Хорхе“, експертите на проекта и българският партньор BIRD.BG откриха връзки и към сайтове, базирани в България. Те все още се проучват в рамките на отделна публикация.

Анализът на партньорите по докладване Le Monde и Guardian идентифицира групи от аватари, включително тези, които се виждат в презентациите на Ханан, които изглежда са били използвани за координирани кампании в Twitter. Репортери откриха над 1700 акаунта в Twitter, свързани с 21 кампании, свързани с AIMS, чиито мрежи са произвели десетки хиляди туитове.

На декемврийската лична среща с репортери под прикритие екипът „Хорхе“ показа нова способност на AIMS: инструменти за изкуствен интелект за генериране на фалшиви новини, използвайки определени ключови думи, тон и тема.

„Един оператор може да има около 300 профила“, каза Зохар Ханан по време на демонстрацията. „Така че в рамките на два часа цялата страна ще започне да ретранслира посланието, разказа, който искам.“

Аватар за приближен на Лукашенко

Установено е, че кампания с аватар, видяна на компютър на Екипа „Хорхе“ по време на търговското представяне на услугите, популяризира дейността на Александър Зингман, бизнесмен, близък до авторитарния беларуски президент Александър Лукашенко.

През март 2021 г. Зингман беше арестуван в Демократична република Конго за предполагаем трафик на оръжие, но по-късно беше освободен. През октомври същата година OCCRP разкри как Зингман и друг приятел на беларуския президент са използвали фиктивни компании, за да скрият доходоносна сделка за добив на злато с държавната минна компания на Зимбабве.

Предходната година аватарите на AIMS популяризираха благоприятни истории за Зингман и неговия бизнес в съгласувана и автоматизирана кампания. Някои бяха използвани за насочване на вниманието към неговия съперник Виталий Фишман. Журналистите идентифицираха още 35 аватара, свързани с Екипа „Хорхе“ чрез дело за клевета в САЩ, което Фишман спечели.

Адвокатът на Зингман каза, че клиентът му никога не е работил с компании, които участват в кампании за дезинформация, и всъщност самият той е бил жертва на подобна схема.

Не е пиар, а разузнаване

Тал Ханан е служил в израелските специални сили като експерт по експлозиви, според неговата онлайн биография. Той е посочен като изпълнителен директор на най-малко две израелски компании, Tal Sol Energy и Demoman International Ltd., разузнавателна фирма, включена в регистъра на отбранителните компании на уебсайта на израелското министерство на отбраната.

Офисът на Хорхе в Израел, посетен от журналистите под прикритие. Снимка ZDF

Ханан посочи, че е организирал лобистки операции в САЩ, въпреки че не се е регистрирал като „чуждестранен агент“, както се изисква от закона. Той каза, че е работил чрез консултанти и компании, които вече са регистрирани, и каза на репортери, че наскоро е създал фирма за връзки с обществеността, наречена Axiomatics, за да рекламира Екипът „Хорхе“ със „съществуващи лобистки групи“.

В годините след атаките през септември 2001 г. срещу Световния търговски център в Ню Йорк Ханан, Ханан се позиционира като експерт по борба с тероризма. Той твърди, че е обучавал правоприлагащите органи, включително федералните агенции на САЩ, според архивирана страница от неговия вече несъществуващ уебсайт suicide-terrorism.com. През 2010 г. Ханан беше цитиран в The Jerusalem Post като експерт по киберсигурност, коментирайки възможностите за хакване.

По време на разговори с репортери под прикритие Екипът „Хорхе“ навлезе в дълбочина относно технологията, която според тях групата използва, за да влияе върху избори. Те добавиха, че имат шест офиса и в тях работят най-малко 100 души, като подчертаха, че черпят опит от колеги с опит в разузнаването. Това позиционира дейностите на „Хорхе“ далеч отвъд сферата на стратегиите за връзки с обществеността, които обикновено се прилагат по време на избори.

„Това е повече от всичко разузнавателна работа. Това не е PR работа. Това е разузнавателна работа“, подчерта Ханан.

OCCRP и екип на BIRD.BG

Заглавна илюстрация: OCCRP

Медийни партньори на Forbidden Stories за разследването Story Killers:

The Guardian and Observer, Le Monde, The Washington Post, Der Spiegel, ZDF, Paper Trail Media, Die Zeit, Radio France, Proceso, OCCRP, Knack, Le Soir, Haaretz, The Marker, El País, SverigesTelevision, Radio Télévision Suisse, Folha, Confluence Media, IRPI, IStories, Armando Info, Code for Africa, Bird, Tempo Media Group, El Espectador, Der Standard, Tamedia, Krik.

Проектът Убийци на истории The Story Killers е публикуван със съдействието на International Center for Journalists’ (ICFJ) Online Violence Project, партньорство между ICFJ Research и компютърни специалисти от University of Sheffield computer scientists. Екипът на ICFJ предостави своята експертиза и изчислителна мощ на партньорите от  Story Killers.

*В България е базирана голяма израелска компания, която е специализирана точно в хакване на SS7 и дистанционно подслушване на телефони. Нейното име е Circles и е част от печално известната NSO Group, която произвежда софтуера Pegasus. Въпреки сигналите до институциите, че такава технология е потенциално опасна и вредна, ДАНС не предприе нищо за ограничаване на дейността на Circles дори след скандала Pegasus.

bird.bg