Алгоритъм на манипулацията

Влиянието на пропагандата върху общественото мнение, реакцията на администрацията на социалната мрежа към оплаквания, както и правните аспекти, свързани с разпространението на чужда пропаганда в американски социални платформи – Тук се разглеждат всички аспекти на този проблеми.

Влиянието на пропагандата върху общественото мнение, реакцията на администрацията на социалната мрежа на жалбите, както и правните аспекти, свързани с разпространението на чуждестранна пропаганда на американската платформа — МОСТ. Медиа проучи всички аспекти на този проблем

От февруари 2022 г. руската пропаганда разгърна мащабна информационна кампания, за да оправдае агресията и да подкопае подкрепата за Украйна на международната сцена. Ключовият сюжети стана реториката за „денацификацията“ на Украйна – твърденията, че страната се управлява от нацисти и Русия е принудена да очисти съседната държава от екстремисти. Тази линия беше съпроводена с разпалване на омраза и дехуманизация на украинците, включително етнически обиди, с цел да се оправдае насилието.

Същевременно Кремъл промотираше тезата, че Украйна е марионетка на Запада, а разширяването на НАТО и „агресията“ на САЩ/ЕС са принудили Русия да започне „специална операция“. В информационното пространство се появяват и конспиративни теории – например, за тайни биолаборатории на САЩ в Украйна или инсценирани масови убийства (по-специално, отричане на клането в Буча, представяно като инсценировка).

Докато вниманието на много разследващи журналисти се премести към проучването на активността на проруските групи в мрежата X (Twitter) и Telegram, руските пропагандисти развиваха своите методи за промотиране в други социални платформи. И преди всичко във Facebook.

Нашето разследване показа, че координирана мрежа от фалшиви акаунти и страници във Facebook изкуствено увеличаваше ангажираността на публикациите – с харесвания, коментари и репостове. Това позволяваше на пропагандата да заобикаля алгоритмите на платформата и да засилва влиянието си върху западната аудитория, включително американските избиратели.

Особено изтънчена форма на промотиране на проруската пропаганда във Facebook станаха публикациите и дори цели страници, посветени на демонстрацията на руски оръжейни системи и тяхното „техническо превъзходство“, както и визуален контент с изображения на културни и исторически обекти, към които бяха добавени AI-генерирани елементи. Такива публикации създават ефект на „мека сила“ (Joseph Nye, Soft Power: The Means to Success in World Politics), насочена към формиране на положително възприятие за Русия в чужбина. Визуално привлекателните сцени можеха да бъдат придружени от пропагандни надписи или символика, засилвайки основните сюжети на кампанията и спомагайки за разпространението им сред различни категории западни аудитории. Някои от разкритите публикации бяха умишлено адаптирани към политическия контекст на САЩ, което можеше да повлияе косвено или пряко на предпочитанията на американските избиратели, особено в навечерието на изборите.

Подобни публикации не само подкопават подкрепата за Украйна и засилват антинатовските настроения, но и можеха да повлияят на последните президентски избори в САЩ, формирайки общественото мнение по ключови въпроси на международната политика.

Призивите за прекратяване на военната подкрепа за Украйна през 2023-2024 г. се превърнаха в точка на пресичане между реториката на Кремъл и предизборните изявления на Тръмп. Според оценките на експерта по политически комуникации, професор Сара Отс, изборите в САЩ през 2024 г. станаха едни от най-значимите за Русия, тъй като в случай на победа на Тръмп беше много вероятно да се стигне до съществено намаляване на американската помощ за Украйна. Руската пропаганда по всякакъв начин подклаждаше настроенията в полза на такъв изход. В информационното поле на Facebook това се изрази в появата на съдържание, насочено към американските консерватори и поддръжниците на Тръмп.

Методи за манипулация и експлоатация на алгоритмите на Facebook

За да промотират своето съдържание във Facebook, проруските актьори използваха цял арсенал от тактики, често разчитайки на уязвимостите на алгоритмичните механизми на платформата. В докладите на Meta такива координирани операции се обозначават като CIB (Coordinated Inauthentic Behavior) – координирана неавтентична активност. Ето основните методи, установени в периода след 2022 г.

Мрежи от фалшиви акаунти и страници

Както и през предходните години, основата на операциите се състоеше от хиляди фалшиви профили, които се представяха за обикновени потребители или администратори на страници с подобни интереси. По-рано Meta многократно разкриваше и блокираше подобни мрежи. Например, през 2022 г. беше разкрита най-голямата от началото на войната мрежа, свързана с Русия: над 1600 фалшиви акаунти и страници, които координирано разпространяваха кремълската пропаганда за войната. Тази кампания, започнала през май 2022 г., включваше над 60 фалшиви новинарски сайта, имитиращи известни издания (Spiegel, The Guardian, Bild и др.) на различни езици. След публикуването на материали с прокремълска програма (очерняне на Украйна, дискредитиране на бежанците, твърдения, че санкциите не работят и вредят само на страните, които ги налагат), организаторите масово споделяха линкове към тези сайтове чрез мрежа от фалшиви акаунти във Facebook, Instagram, Twitter, Telegram, както и пускаха реклами по тях.

Meta охарактеризира тази операция като комбинация от технически сложни елементи (имитацията на медийни сайтове на седем езика е изисквала значителни ресурси) и груба сила (множество фалшиви профили и реклами). Такъв „хибриден“ подход позволяваше на злоумишлениците сравнително бързо да обхванат широка аудитория: те не губеха време за органичен растеж на абонатите, а веднага наводняваха информационното пространство с масивно разпращане на еднотипни съобщения. Подобни „фронтални” атаки срещу информационната среда са по-скоро насочени към краткосрочен ефект („hit-and-run”), отколкото към дългосрочно изграждане на доверие, но могат да нанесат значителни щети до момента на неутрализирането им. 1 600 фалшиви акаунти и страници, които координирано разпространяваха кремълската пропаганда за войната

Използване на рекламните инструменти на Facebook

Алгоритмите на социалната мрежа, предназначени за таргетиране на реклами, се превърнаха в оръжие в ръцете на пропагандистите. Стана ясно, че проруските групи активно закупуваха реклами с политическо съдържание, заобикаляйки контрола. В хода на разследването AI Forensics бяха открити хиляди рекламни обяви от анонимни страници, промотиращи прокремълски послания в страните от ЕС. При това над 65% от тази политическа реклама е излизала без изискваното маркиране (т.е. Facebook не я е маркирал като политическа) и не е била придружена от информация за платеца. Това свидетелства за уязвимостта на алгоритмите за модерация на рекламите: злоумишлениците са се научили да създават еднодневни страници, които публикуват платени постове, достигат до десетки или стотици хиляди потребители и след това се изтриват. „Страницата всъщност се създава само за да се плати рекламата, за да се достигне веднага широка аудитория, а след това просто се изтрива – това е по-ефективно, отколкото дълго да се развива общност с надеждата за обхват“, отбелязва изследователят Пол Бушо от AI Forensics.

Освен това, таргетираната реклама се използваше не само за разпространяване на идеи, но и като инструмент за анализ: руските оператори наблюдаваха кои съобщения се приемат по-добре, проследявайки реакциите на потребителите в реално време. В един от документите, създаден от прокремълския политически технолог Иля Гамбашидзе в рамките на дезинформационната кампания Good Old Usa Project, се казва директно: „Таргетирането във Facebook позволява да се проследява реакцията на аудиторията към разпространяваните материали и да се коригират по-нататъшните пускания, изхождайки от това коя група е била засегната най-силно“.

По този начин рекламната платформа Facebook е служила като своеобразен полигон за тестване на пропаганда, където чрез A/B тестове враговете са подбирали най-ефективните сюжети. През втората половина на 2022 г. специалистите на Meta успяха ръчно да идентифицират и неутрализират злонамерени акаунти, които все още не бяха премахнати от автоматичните системи преди началото на пълноценното разследване. >65% от политическата реклама се разпространяваше без маркировка във Facebook.

Злоупотреба с алгоритми за ангажираност

Алгоритмите на лентата на Facebook са устроени така, че да показват на потребителя най-релевантния и интересен за него съдържание – често това, което предизвиква силна емоционална реакция (гняв, възмущение, страх). Пропагандистите умело се възползват от това, разпространявайки максимално провокативни публикации и изображения, които предизвикват спорове. Колкото по-активно хората коментират или споделят публикацията (дори и да са възмутени), толкова по-широко алгоритъмът я разпространява в мрежата. В случая с проруската дезинформация това означава, че изключително поляризиращият съдържание получава непропорционално голям обхват. Изследванията показват, че платформите, оптимизирани за ангажираност, неволно допринасят за бързото вирусно разпространение на лъжи и конспиративни теории.

Освен това злоумишлениците практикуваха тактика на изкуствено разширяване на ангажираността: създаваха се групи от „ботове“ или контролирани акаунти, които веднага след публикуването започваха масово да харесват и коментират нужния пост, за да го „промотират“ в алгоритмичния рейтинг. Мрежи от фалшиви акаунти и страници Както и през предходните години, основата на операциите се състоеше от хиляди фалшиви профили, които се представяха за обикновени потребители или администратори на страници с подобни интереси. По-рано Meta многократно разкриваше и блокираше подобни мрежи. Например, през 2022 г. беше разкрита най-голямата от началото на войната мрежа, свързана с Русия: над 1600 фалшиви акаунти и страници, които координирано разпространяваха кремълската пропаганда за войната. Тази кампания, започнала през май 2022 г., включваше над 60 фалшиви новинарски сайта, имитиращи известни издания (Spiegel, The Guardian, Bild и др.) на различни езици. След публикуването на материали с прокремълска програма (очерняне на Украйна, дискредитиране на бежанците, твърдения, че санкциите не работят и вредят само на страните, които ги налагат), организаторите масово споделяха линкове към тези сайтове чрез мрежа от фалшиви акаунти във Facebook, Instagram, Twitter, Telegram, както и пускаха реклами по тях.

Meta охарактеризира тази операция като комбинация от технически сложни елементи (имитацията на медийни сайтове на седем езика е изисквала значителни ресурси) и груба сила (множество фалшиви профили и реклами). Такъв „хибриден“ подход позволяваше на злоумишлениците сравнително бързо да обхванат широка аудитория: те не губеха време за органичен растеж на абонатите, а веднага наводняваха информационното пространство с масивно разпращане на еднотипни съобщения. Подобни „фронтални” атаки срещу информационната среда са по-скоро насочени към краткосрочен ефект („hit-and-run”), отколкото към дългосрочно изграждане на доверие, но могат да нанесат значителни щети до момента на неутрализирането им. 1 600 фалшиви акаунти и страници, които координирано разпространяваха кремълската пропаганда за войната

Използване на рекламните инструменти на Facebook

Алгоритмите на социалната мрежа, предназначени за таргетиране на реклами, се превърнаха в оръжие в ръцете на пропагандистите. Стана ясно, че проруските групи активно закупуваха реклами с политическо съдържание, заобикаляйки контрола. В хода на разследването AI Forensics бяха открити хиляди рекламни обяви от анонимни страници, промотиращи прокремълски послания в страните от ЕС. При това над 65% от тази политическа реклама е излизала без изискваното маркиране (т.е. Facebook не я е маркирал като политическа) и не е била придружена от информация за платеца. Това свидетелства за уязвимостта на алгоритмите за модерация на рекламите: злоумишлениците са се научили да създават еднодневни страници, които публикуват платени постове, достигат до десетки или стотици хиляди потребители и след това се изтриват. „Страницата всъщност се създава само за да се плати рекламата, за да се достигне веднага широка аудитория, а след това просто се изтрива – това е по-ефективно, отколкото дълго да се развива общност с надеждата за обхват“, отбелязва изследователят Пол Бушо от AI Forensics.

Освен това, таргетираната реклама се използваше не само за разпространяване на идеи, но и като инструмент за анализ: руските оператори наблюдаваха кои съобщения се приемат по-добре, проследявайки реакциите на потребителите в реално време. В един от документите, създаден от прокремълския политически технолог Иля Гамбашидзе в рамките на дезинформационната кампания Good Old Usa Project, се казва директно: „Таргетирането във Facebook позволява да се проследява реакцията на аудиторията към разпространяваните материали и да се коригират по-нататъшните пускания, изхождайки от това коя група е била засегната най-силно“.

По този начин рекламната платформа Facebook е служила като своеобразен полигон за тестване на пропаганда, където чрез A/B тестове враговете са подбирали най-ефективните нарративи. През втората половина на 2022 г. специалистите на Meta успяха ръчно да идентифицират и неутрализират злонамерени акаунти, които все още не бяха премахнати от автоматичните системи преди началото на пълноценното разследване. >65% от политическата реклама се разпространяваше без маркировка във Facebook

Злоупотреба с алгоритми за ангажираност

Алгоритмите на лентата на Facebook са устроени така, че да показват на потребителя най-релевантния и интересен за него съдържание – често това, което предизвиква силна емоционална реакция (гняв, възмущение, страх). Пропагандистите умело се възползват от това, разпространявайки максимално провокативни публикации и изображения, които предизвикват спорове. Колкото по-активно хората коментират или споделят публикацията (дори и да са възмутени), толкова по-широко алгоритъмът я разпространява в мрежата. В случая с проруската дезинформация това означава, че изключително поляризиращият съдържание получава непропорционално голям обхват. Изследванията показват, че платформите, оптимизирани за ангажираност, неволно допринасят за бързото вирусно разпространение на лъжи и конспиративни теории.

Освен това злоумишлениците практикуваха тактика на изкуствено разширяване на ангажираността: създаваха се групи от „ботове“ или контролирани акаунти, които веднага след публикуването започваха масово да харесват и коментират нужния пост, за да го „промотират“ в алгоритмичния рейтинг. Във вече споменатия план „Good Old USA” се говореше за използването на „мрежа от ботове”, които ще модерират топ дискусиите в коментарите и ще ги насочват в изгодна посока. Има се предвид, че под всяка целева публикация се появяват десетки координирани коментари, които създават видимост за масова подкрепа на дадена позиция или за тормоз на противоположната. Обикновените потребители, виждайки такъв „резонанс“, могат погрешно да приемат пропагандната информация за широко споделяно мнение.

„Спящи“ общности и групи

Руските оператори предварително създаваха и управляваха, понякога в продължение на месеци, общности във Facebook, маскирайки се като местни групи по интереси – например, групи от поддръжници на Тръмп в отделни щати („Alabama for America the Great“ и др.). Такива групи се пълнеха с неутрално или близо по смисъл съдържание, без да будят подозрения. Планът беше в решаващия момент тези „спящи клетки“ в социалната мрежа да бъдат събудени: администраторите рязко да преминат към разпространение на агитационни материали, превръщайки групите с вече набрана аудитория в инструмент за въздействие върху общественото мнение. В съдебните документи по делото Гамбашидзе, разсекретени от Министерството на правосъдието на САЩ, фигурираха намеренията да се създадат по 18 такива клетки в ключови колебаещи се щати на САЩ, за да могат в решаващия момент да започнат да промотират съгласувано необходимите сюжети и връзки.

Подобна тактика се основава на вградените механизми за препоръки на Facebook: хората в такива групи започват да споделят материали, които могат да се разпространяват по-нататък в лентите на техните приятели, а алгоритмите могат да препоръчват на познати с подобни интереси да се присъединят към популярни групи, което увеличава обхвата. планираха да създадат по 18 „спящи клетки“ във всеки ключов колебаещ се щат на САЩ.

Манипулации извън платформата

Въпреки че въпросът се фокусира върху Facebook, заслужава да се спомене, че много от операциите бяха междуплатформени. Съдържанието и фалшивите новини, появили се на други ресурси (например, генерирани фалшиви видеоклипове в YouTube или „изтичания“ в Telegram), често след това попадаха във Facebook чрез потребители, които споделяха линкове. По този начин пропагандистите използваха екосистемата на социалните медии в комплекс: ако една платформа блокираше акаунтите им, те все пак постигаха обхват на друга и се връщаха чрез нея. В този случай Facebook често се превръщаше във вторичен предавател на дезинформация, пусната извън него, особено когато тя се споделяше от реални хора, които бяха заблудени. Например, описаните по-горе фалшиви видеоклипове с „украински войници срещу Тръмп“ първоначално се разпространяваха в проруски канали, но след това бяха подети от американски конспиративни групи във Facebook, благодарение на което обхватът им значително се увеличи.

По този начин руската пропагандна мрежа във Facebook представлява сложна структура, състояща се от стотици фалшиви акаунти и страници, които действат координирано за разпространение на проруски сюжети. Тези акаунти, много от които изкуствено взаимодействат помежду си, създават илюзия за широка подкрепа за Русия и нейната политика, особено на фона на текущия конфликт с Украйна. Те активно коментират и репостват публикациите си, което повишава индекса на ангажираност и увеличава обхвата на съдържанието.

Много от тези страници имат хиляди последователи и редовно публикуват изображения и видеоклипове, показващи руска военна техника и символика, включително символа „Z“, свързан с руските въоръжени сили. Примери за такива страници, като „Vladimir Poutine Z“, показват как визуалните материали и националната символика се използват за засилване на проруските настроения.

Статистически данни, примери за публикации и обхват на аудиторията

За да оценим обхвата на проруските публикации във Facebook, ние приложихме подход, основан на анализ на активността (харесвания, коментари, репостове) и съществуващи проучвания [ от Даниел Шнайдер, директор „Контент маркетинг“ – „Как ефективно да изчислим коефициента на ангажираност?“ ], по коефициенти на ангажираност. Според редица аналитични данни средният коефициент на лайкове към прегледи във Facebook съответства на диапазона от 2% до 10%. Това позволява да се оцени броя на прегледите въз основа на броя лайкове: 1 лайк може да съответства на приблизително 10–50 прегледа в зависимост от нивото на ангажираност на аудиторията и типа съдържание.

Например, публикация с 5 хиляди лайка може да достигне от 50 до 250 хиляди преглеждания. Нивото на ангажираност, изразено в коментари и репостове, също играе значителна роля, като увеличава обхвата на публикациите.

При това важен фактор е не произходът на лайковете и коментарите, а тяхното влияние върху алгоритмите на Facebook. Високата активност под публикациите, организирана между другото с помощта на фалшиви акаунти или с използването на така наречената „фабрика за тролове“, води до това, че съдържанието се промотира органично и е видимо в лентите на потребители, които не са абонирани за тези страници. Това позволява на проруския контент да достигне по-широка аудитория, заобикаляйки ограниченията за реклама и дезинформация. Планът Good Old USA, разработен в рамките на руските информационни операции, предвиждаше създаването и използването на „мрежа от ботове“ за създаване и модериране на топ дискусии в коментарите. Тези ботове имаха за цел да насочват дискусиите в социалните мрежи в изгодна за Русия посока, създавайки илюзия за масова подкрепа на необходимите сюжети. Планът беше част от по-широката кампания „Doppelganger“ и се споменава в редица разследвания, включително в доклад на Министерството на правосъдието на САЩ (Department of Justice, 2024).

За илюстрация може да се разгледа конкретен пример – публикация с изображение на военна техника (БМ-21 „Град“), която е събрала 21 000 харесвания, 1500 коментара и 581 репоста. Въз основа на коефициента тази публикация може да е достигнала от 210 хиляди до 1 милион преглеждания, дори без да се отчитат допълнителните преглеждания чрез репостове. Такива високи показатели показват как мрежата от фалшиви акаунти може ефективно да промотира съдържание чрез алгоритмите на платформата.

По този начин проруските публикации, разпространявани с помощта на фалшиви акаунти, достигат до значителен брой реални потребители, формирайки тяхното възприятие и оказвайки осезаемо влияние върху информационното пространство на платформата.

Тези страници и акаунти публикуват съдържание предимно на английски език и са ориентирани към западната аудитория, включително потребители в САЩ. Високият ниво на ангажираност позволява на тези страници да промотират своите публикации в новинарските ленти на широк кръг от потребители, включително и на тези, които не са абонирани за тези страници.

В хода на анализа ние открихме десетки подобни публикации, демонстриращи руска военна техника и символика, с хиляди харесвания, коментари и репостове. Това позволява да се оцени обхватът им в стотици хиляди или дори милиони прегледи. Изкуствено създадената активност, поддържана от мрежа от фалшиви акаунти, спомага за широкото разпространение на тези публикации чрез алгоритмите на Facebook, засилвайки проруските сюжети в западната информационна среда.

Ето някои примери за такива профили и страници

Публикация с 5 хиляди лайкове би могла да достигне 50-250 хиляди прегледа

Десетки и стотици подобни страници и профили, анализът на които показва, че единствената цел на тяхното създаване е да се промотира пропагандата на Руската федерация в чужбина.

Използване на фалшиви акаунти за заобикаляне на алгоритмите

Фалшивите акаунти и страници се създават с цел да се заобиколят алгоритмите на Facebook и да се достигне възможно най-голяма аудитория. Взаимните абонаменти, харесвания и коментари на тези акаунти изкуствено повишават индекса на ангажираност, което позволява на съдържанието да се появява по-често в новинарските ленти на потребителите. В резултат на това публикациите с милитаристки изображения и проруски сюжети получават значително внимание, включително от американските избиратели, което потенциално влияе на тяхното политическо мнение.

Тези аспекти демонстрират значителен обхват и добре обмислена стратегия на руската пропаганда в социалните мрежи, насочена към промяна на възприятието на западната общественост по въпросите на подкрепата за Украйна и доверието в демократичните институции.

Активни потребители в коментарите и успешно заобикаляне на алгоритмите на Facebook

Анализът на профилите и страниците, участващи в промотирането на проруски съдържание, показва, че поне половината от коментиращите публикации са реални потребители. Те проявяват обичайна активност в социалната мрежа: обсъждат публикации, споделят лично мнение и се включват в дискусии. Това потвърждава, че алгоритмите на Facebook се заобикалят успешно, дори ако в ранния етап на промотирането се използват ботове или потребители, които извършват действия срещу заплащане.

По-нататъшният анализ на профилите, които оставят коментари, показва, че много от тях принадлежат на жители на различни страни, включително САЩ, Великобритания, Германия и други. Тези потребители активно участват в дискусии и споделят съдържание със своите последователи, засилвайки органичното промотиране на подобни публикации.

По този начин, въпреки първоначалното използване на изкуствени методи за увеличаване на обхвата, страниците, промотиращи проруски сюжети, намират реален отклик сред живите потребители, което прави тяхното влияние още по-значително.

Влиянието на проруската пропаганда върху изборите в Германия и Европа

Руската пропагандна кампания във Facebook и други социални мрежи, насочена към англоговорящата аудитория, има косвени, но важни последствия за европейската политика, особено в страни като Германия. САЩ, като водещ партньор на НАТО и ключов участник в подкрепата на Украйна, оказва значително влияние върху политическия елит в Германия, Великобритания и други страни. Руските сюжети в САЩ, които промотират антивоенна реторика и идеи за прекратяване на подкрепата за Украйна, могат да намерят отзвук и в европейското общество, особено чрез „медийни кръстовища“ и международни групи за влияние.

Ключови рискове за Германия и ЕС:

Разпространение на антинатовски и антиукраински настроения. Проруските послания, успешно промотирани в САЩ, могат да проникнат в политическия дискурс на Германия и други европейски страни чрез социалните мрежи. Това беше особено забележимо в навечерието на парламентарните избори в Германия, където десните популистки сили, като „Алтернатива за Германия“ (AfD), активно използваха антивоенни тези за мобилизиране на електората.

Формиране на умора от войната сред европейската аудитория. Проруските сюжети, действащи върху англоговорящите потребители, могат да окажат вторично влияние върху германското общество чрез транснационални информационни канали. Тъй като Германия е един от водещите донори на военна помощ за Украйна в Европа, намаляването на обществената подкрепа може да доведе до натиск върху политиците и до намаляване на обема на помощта.

Политическа дестабилизация чрез социални групи и миграционен дискурс. Важно е да се отбележи, че Русия активно използва миграционните кризи, за да създава напрежение в европейските страни. Това беше забележимо по време на предишните изборни цикли в Германия и Австрия, когато дезинформацията за бежанците се превърна в ключов инструмент за мобилизиране на консервативния и крайно десен електорат.

Реакцията на Facebook

Ние многократно се опитахме да подадем жалби за проруски съдържание във Facebook, включващо милитаристки изображения и сюжети, подкопаващи подкрепата за Украйна. Въпреки многобройните жалби, реакцията на Facebook остана незадоволителна. Платформата отхвърли без изключение всички наши жалби, посочвайки, че публикациите не нарушават стандартите на общността.

Един от отговорите на службата за поддръжка на Facebook гласи: „Не сме премахнали снимката. Проверихме и установихме, че този съдържание не нарушава нашите стандарти на общността.“ Съобщението също така предлага на потребителите „да използват наличните опции, за да контролират това, което виждат“, вместо да премахват проблемното съдържание. Този пример, както и много други, илюстрира, че Facebook не разглежда публикациите със символа „Z“ или изображения на руски военни като нарушение, въпреки пропагандния им характер.

Тъй като жалбите за подобно съдържание се отхвърлят, алгоритмите на Facebook продължават да отчитат високата степен на ангажираност на такива публикации, което спомага за тяхното разпространение. Проруските страници и фалшивите акаунти, които активно взаимодействат помежду си, получават допълнителен органичен обхват, което позволява на тези публикации да попадат в новинарските ленти дори на потребители, които не са абонирани за такива страници. Това изкуствено повишаване на индекса на ангажираност позволява на проруския съдържание да достигне до широк кръг от хора, засилвайки влиянието на пропагандата.

Недостатъци на модерацията на международния контент

Липсата на адекватна модерация на подобни публикации вероятно се дължи на трудностите при работата с международния контент и на неясните правила. Тъй като проруските страници са ориентирани към международна аудитория, алгоритмите за модерация не винаги ги възприемат като нарушаващи стандартите, особено ако не използват явни признаци на дезинформация. Този недостатък позволява на проруските сюжети да се разпространяват безпрепятствено, въпреки многобройните жалби от страна на изследователи и активисти.

Недостатъчната реакция от страна на Facebook прави платформата уязвима за чуждестранни информационни операции, които подкопават подкрепата за Украйна и формират проруски настроения сред западната аудитория. Без адекватен контрол и модерация подобно съдържание ще продължи да оказва значително влияние върху възприемането на събитията в международната политика.

Влияние върху общественото мнение

Предвид значителния си обхват, руската дезинформационна кампания в социалните мрежи оказва значително влияние върху общественото мнение в САЩ и други западни страни. Използвайки визуални образи, символика и милитаристки сюжети, като символа „Z“ и фотографии на руска военна техника, руската пропаганда формира положителен имидж на руските въоръжени сили и подкрепя политиката на Кремъл. Това съдържание се разпространява чрез стотици фалшиви акаунти и страници, които, използвайки механизмите на алгоритмите на Facebook, достигат до широка аудитория, включително и до тези, които първоначално не са били абонирани за такива страници.

Изследвания и доклади за влиянието на руската пропаганда

Според доклада на Комитета по разузнаване на Сената на САЩ, Русия активно използва социалните мрежи за разпространение на милитаристка пропаганда, за да демонстрира своята сила и да привлече вниманието на западната аудитория. Военни изображения, като танкове и ракети, създават привлекателна нарратива за патриотично настроената аудитория и често служат за мобилизиране на проруски настроения. Това е особено забележимо на фона на текущия конфликт с Украйна, където изображенията на военна техника и символика могат да допринесат за формирането на антинатовски и антиукраински нагласи сред западната аудитория.

Други проучвания, като например анализът на Центъра за стратегически и международни изследвания (CSIS), също показват, че руските информационни операции включват използването на ботове и фалшиви акаунти за създаване на видимост на подкрепа за Русия. Например, докладите на CSIS описват как с помощта на изкуствен интелект и автоматизирани акаунти се разпространяват антиукраински нарративи, създавайки илюзията за масова подкрепа на тези идеи сред американските потребители.

Дълбокото проучване на нашия проект за ролята на социалните медии в политическата пропаганда също показва, че социалните мрежи са се превърнали в ключов канал за разпространение на политическа пропаганда, измествайки до голяма степен традиционните медии. Около две трети от населението на света използва социални мрежи, като повече от половината от възрастните, например в САЩ, редовно получават новини чрез тях. Алгоритмите на платформите (Facebook, Twitter/X, TikTok, Telegram и др.) спомагат за вирусното разпространение на съдържание – проучванията показват, че фалшивите новини се разпространяват в мрежите по-бързо от истинските. Механизми като ленти с препоръки и групи по интереси създават „ехо камери“, в които потребителите виждат предимно информация, потвърждаваща техните възгледи.

В тези условия социалните мрежи се превърнаха в мощен инструмент за влияние върху общественото мнение, който се използва активно, включително за държавна пропаганда. Те се превърнаха в най-мощното средство за въздействие върху съзнанието, като спомагат за разпространението както на информация, така и на дезинформация.

Формиране на проруски настроения и умора от войната

Разпространението на проруски сюжети също допринася за „умората от войната“ сред западната аудитория. Постоянното появяване в новинарските ленти на изображения на руската армия и положителни публикации за Русия може да създаде погрешно впечатление за нейната легитимност и сила, което намалява нивото на подкрепа за Украйна. Това може да доведе до това, че западната общественост, особено в САЩ, да започне да възприема подкрепата за Украйна като неоправдана, което отслабва позицията на западните демокрации на международната сцена и допринася за намаляване на финансовата и военната помощ за Украйна.

Подкопаване на доверието в демократичните институции

Руските дезинформационни кампании подкопават и доверието в западните демократични институции, представяйки ги като неспособни да реагират адекватно на информационните заплахи и да защитят своите граждани от външно влияние. Според проучване на Georgetown Journal of International Affairs (GJIA), путинската пропаганда често се фокусира върху представянето на западните правителства като неефективни, а подкрепата за Украйна като ненужна.

Руската пропаганда създава негативно възприятие за западните институции, което може да повлияе или вероятно вече влияе на политическите предпочитания на американските избиратели и да доведе до засилване на проруските настроения в САЩ.

Правна оценка и правни аспекти

Въпросът за това как да се регулира разпространението на чуждестранна пропаганда на американски платформи е сложен поради необходимостта да се балансира между защитата на свободата на словото и националната сигурност. В случая с руската пропаганда, разпространявана чрез Facebook, съществува вероятност страниците, промотиращи проруски нарративи, да нарушават както законите на САЩ, така и редица изисквания в областта на регулирането на някои бизнес практики. Например, изискванията на Федералната търговска комисия (FTC) и Комисията по ценните книжа и борсите на САЩ (SEC) за защита на потребителите, прозрачност на бизнес практиките и предотвратяване на манипулации.

Заключение

За борба с руската пропаганда във Facebook е необходим комплексен подход. Използвайки фалшиви акаунти и страници, руските информационни кампании успешно заобикалят алгоритмите на платформата, създавайки илюзията за широка подкрепа на проруските нарративи сред западната аудитория.

Необходимост от подобряване на алгоритмите и модерацията на съдържанието

За по-ефективно противодействие на чуждестранната пропаганда са необходими прозрачни и усъвършенствани алгоритми, способни да откриват и ограничават разпространението на съдържание, което изкуствено увеличава ангажираността чрез мрежи от фалшиви акаунти. Facebook, както и други социални мрежи, трябва да разгледат възможността за подобряване на механизмите за модерация, за да не достига подобен съдържание до широка аудитория. Прозрачните процедури за подаване на жалби и оперативният отговор на тях също ще помогнат на потребителите да се чувстват защитени от дезинформация. За съжаление, опитите да се постигне поне някаква смислена реакция от модераторската служба на Facebook се провалят отново и отново.

Вместо това автоматичните алгоритми на Facebook налагат несправедливи временни ограничения на акаунти, които разпространяват истината за действията на руските въоръжени сили на територията на Украйна, или изображения на меми, сравняващи Адолф Хитлер и Владимир Путин (точно това, например, се случи в моя случай – без никаква последваща реакция от Facebook на подадената жалба). Създава се усещането, че социалната мрежа поощрява разпространението на пропаганда и по никакъв начин не се бори с хилядите фалшиви акаунти и страници, създадени с единствената цел – да повлияят на избирателите в САЩ и страните от ЕС.

Комплексното решение на проблема изисква съвместни усилия на американските държавни органи, социалните платформи и гражданското общество. Законодателите и регулаторните органи биха могли да разгледат допълнителни мерки за контрол върху дейността на платформите и техните алгоритми, особено що се отнася до разпространението на руска пропаганда, която може да окаже влияние върху демократичните процеси в страната.

В условията на информационна война и международна агресия е важно не само да се реагира на отделни случаи, но и да се въвеждат дългосрочни стратегии за защита на западната общественост от манипулиране на общественото мнение. Прозрачните правила и ефективната модерация ще помогнат на социална платформа като Facebook да остане безопасна и заслужаваща доверие среда за потребителите.

Максим Новичков

Без морал, без угризения, без граници: Тал Ханан и екип Хорхе превърнаха хаоса в бизнес

Благодарност за статията, която дължим на тази израелска медия

Една вечер през юли миналата година Маши Мейдан, 63 – добре известна фигура в сферата на корпоративното разузнаване – се свърза чрез посредник с неизвестен чуждестранен бизнес съветник.

В разговор в Zoom няколко дни по-късно съветникът – който имаше френски акцент и носеше бабини очила – каза, че представлява бизнесмен, който е близък до управляващото семейство във френскоговоряща африканска държава, но не назова име. Без фанфари съветникът обясни на събеседника си причината за обаждането. „В края на септември ще има избори. И според моя клиент тези избори не могат да се случат.

Услугите на Екипът „Хорхе“ според Haaretz

Мейдан веднага заключи, че страната е Чад – обхваната от конфликти пустинна земя с оскъдни ресурси в сърцето на Африка. Мащабът на мисията не го смути и въпросите му бяха предимно от техническо естество: съветникът имаше ли списък с телефонни номера на командирите в армията на Чад или на онези, които бяха против преместването?

Съветникът обеща да проучи въпроса и да се върне при Мейдан с отговор.

Мейдан използва псевдоним в разговора, наричайки себе си Макс. Той продължи да използва това име в следващия разговор в Zoom, който се проведе няколко дни по-късно. Тогава съветникът се срещна за първи път с Хорхе – жизнерадостен мъж, който сега пое водещата роля в отношенията с клиента.

Самоличността на Хорхе остана тайна по време на следващите срещи в Zoom, които бяха проведени на английски. Гласът му беше ясен, но уеб камерата му предаваше само замъглено изображение. Същият модел се повтаря, когато в разговорите се включват двама мними съветници на мистериозния клиент – единият американец, другият бивш израелец.

Пикселият Хорхе се оказа първокласен търговец. В зашеметяваща презентация пред клиентите той разкри набора от инструменти, с които разполага, за да постигне целите, за които клиентите са се обърнали към него: кибератаки; транс национални кампании за дезинформация*; подправени документи; инкриминиране на политически противници; разпространение на фалшиви доклади; кражба на банкови документи.

Операции за влияние*

Кампания, която използва стари и нови медии за манипулиране на публичния дискурс. Първоначално военен термин, тази услуга за психологическа война сега се предлага частно

Всеки от инструментите беше инструмент, който можеше да се използва за разбиване на съпротивата срещу политически ходове или просто за ликвидиране (във всеки нефизически смисъл) на политическите, лични или бизнес съперници на клиента.

Без задръжки, без морал и без дискриминация, кутията с инструменти на Хорхе може да бъде предоставена на разположение на всеки, готов да плати за нея – дори ако използването й доведе до непосредствена опасност за живота.

На една от срещите Мейдан предложи дестабилизиране на Чад като средство за забавяне на изборите . На друга среща съветниците обясниха, че може да има експлозия на пазар в столицата Нджамена, за да оправдаят отлагането. Това не попречи на Хорхе, който поиска 6 милиона евро (6,4 милиона долара), за да завърши кампанията.

Хорхе твърди, че той и неговият екип са се намесили в „33 предизборни кампании на президентско ниво“ по света, „в 27 от тях успешно“. Дори и да е преувеличавал, това разследване показва, че той се е опитал да се намеси в редица избори в различни страни през последното десетилетие ( отделна статия , която също се публикува днес, е посветена на инструментите, които е използвал, за да постигне целите си) .

За да впечатли клиентите си, той ги заведе на „обиколка“ на частни разговори, водени от министри от кабинета в Кения и Мозамбик в акаунти в Gmail и Telegram (приложението за незабавни съобщения). На клиентите е обяснено, че Хорхе е хакнал кореспонденцията на видни африкански личности, докато е предоставял услуги на други клиенти.

Той също така пое отговорност за скандална кибератака, която имаше за цел да саботира референдума за независимост на Каталуния през 2014 г. Той също така разказа как клиент му е платил, за да помогне при арестуването на канадския моден магнат Питър Нигорд за предполагаеми сексуални престъпления. И той се похвали с атака през 2015 г. срещу телефоните на опозиционната партия в Нигерия, в рамките на предизборна кампания, в която – както впоследствие установи разследването – той е работил заедно с прословутата британска консултантска фирма Cambridge Analytica .

На всичкото отгоре дойде представянето на софтуер, подобен на който не беше виждан досега. Тази система управлява цяла армия аватари* (фалшиви самоличности) в сайтове на социални медии, разпространяване на слухове, тормоз, клевета или възхвала – каквото клиентът поиска.

Аватар*

Фиктивна личност, която за разлика от бот – автоматизиран акаунт, активен в една мрежа – има сложна цифрова идентичност. Той се управлява по „киборг“ начин на редица платформи без откриване.

Хорхе небрежно призна, че част от дейността се използва за надуване на стойността на криптовалутата.

Всичко това може да се разкрие, защото събеседниците на Хорхе също са използвали псевдоними. Френският съветник всъщност е Фредерик Метезо, кореспондент на Радио Франс в Израел. Американските и израелските съветници са автори на тази статия.

Разследващият доклад, който се публикува тук, е плод на деветмесечно международно сътрудничество, като десетки журналисти се трудят да проверят колкото е възможно повече подробностите, които Хорхе разкри в поредицата от записани срещи.

Журналисти от The Guardian, Der Spiegel, Die Zeit, Le Monde, международната организация на разследващите журналисти OCCRP, Radio France, Haaretz, TheMarker и други медии са работили във Франция, Кения, Израел, САЩ, Индонезия, Германия, Танзания и Испания да провери истинността на твърденията на Хорхе за делата му в световен мащаб. Шокиращо, много от обвиненията бяха потвърдени.

Собствениците на тази токсична машина за международен хаос, както беше разкрито в хода на разследването, са двама братя израелци, Тал и Зохар Ханан, които живеят и работят в израелския град Модиин.

Разследващият доклад за „Екип Хорхе“, както групата се наричаше във всички презентации, е част от още по-мащабен журналистически проект, Story Killers, който се занимава с индустрията за дезинформация срещу наемане.

Проектът е иницииран и координиран от базираната в Париж организация Forbidden Stories , която преследва работата на убити или заплашени журналисти, а също така участва и в самото разследване.

Целият проект Story Killers е посветен на паметта на Гаури Ланкеш – индийската журналистка, убита в Бангалор през 2017 г. след подбуждане и разпространение на дезинформация срещу нея в социалните медии.

Детска игра

Интелигентността е „пъзел“, каза Хорхе, прибягвайки до изтъркано от времето клише само 15 минути след първата си презентация, която бързо взе мрачен обрат.

Показвайки ни акаунт в Gmail, който не е негов, той попита: „Виждате ли сега? Това е една цел на име Фарук. Той е помощник на много важен човек и ние сме вътре“, каза той, разглеждайки хакнатия акаунт.

Разследването разкри, че Фарук е Фарук Кибет – дясната ръка на президента на Кения Уилям Руто . Хакването беше част от услугата, която Хорхе предоставяше на клиент в кампанията за президентските избори в Кения през 2022 г., в която Руто победи съперника си Райла Одинга.

Хорхе се порови още малко в акаунта, подчерта някои вътрешни проучвания и вътрешна група за служители на щаба на предизборната кампания, преди да премине към следващата цел.

Хорхе обяснява, че хакването на акаунта в Gmail е станало възможно благодарение на сътрудничеството на местен мобилен оператор и инсталирането на малко устройство, което позволява пренасочване на съобщенията, изпратени до телефона на мишената, така че те да достигнат до хакерите.

Прокси за ползване на адрес*

„Маслото“ на онлайн индустрията за дезинформация. Това е система от отдалечени връзки, предоставящи реални регионални IP адреси. Така се създава буфер между операторите, клиентите, фалшивите акаунти и клеветническата кампания

Механизмът за подмяна на паролата на много онлайн сървъри, включително Google, се основава на проверка на самоличността чрез текстово съобщение. „Отвличането“ на съобщенията позволява на тези, които не притежават акаунта, да проникнат в него.

Следват акаунтите в Telegram. „Знам, че в някои страни вярват, че Telegram е много безопасен“, каза Хорхе няколко минути по-късно. „И така, тук ще ви покажа колко е безопасно … това е някакъв министър на, ъъъ, някаква държава.“

В горния ляв ъгъл на екрана се появи име: Дейвис Чирчир – по това време ръководител на предизборната кампания на Руто, а сега енергиен министър на Кения. Пред очите ни изплува личната сметка на министъра – не скрийншот от далечното минало, а реалната му кореспонденция в реално време.

По-късно консорциумът от журналисти успя да потвърди, че номерът, който се появява на екрана, наистина е на Чирчир.

„Мога да проверя всичките му обаждания“, похвали се Хорхе, „и мога да отида във всеки чат и да видя какво казват“, добави той, насочвайки се към произволен чат. „Б. му казва това и това“, каза той, като назова събеседницата на министъра – жена, и кликна върху профилната й снимка. „Това означава активна интелигентност“, каза Хорхе. „[Това] означава, че мога да ви пиша.“

Активен интелект

Ангажиране с цели не само за пасивно събиране на информация, но също така и създаване на приложима информация. Например, дадена цел може не само да бъде хакната, но и да се изпращат съобщения от нейно или нейно име, като по този начин се извлича повече информация

След това той написа думите „Здравей, как си, скъпи“ в чата на акаунта на кенийския министър. „Сега, когато натисна „enter“, съобщението ще се предаде. Ще видиш?“ попита той и натисна „Изпрати“. „Обикновено ще изчакам да видят [то] и след това ще изтрия [то]“, обясни той, като незабавно изтрива изпратеното съобщение.

Хорхе ще ни покаже този трик – изпращане на съобщения от хакнати акаунти – още няколко пъти в следващите презентации. Това даде на консорциума от журналисти възможност да се уверят, че това, което се представя като хакване на акаунт, наистина е такова.

Миналия декември репортер, участващ в разследването, успя да се свърже с един от получателите на съобщенията от хакнатите акаунти. Те помолиха човека да отвори телефона си, намериха съобщението, което Хорхе е изпратил от хакнатия акаунт и го помолиха да го документира. Това беше доказателство, че Хорхе не само демонстрира хакване; той наистина хакваше.

По време на поредицата от презентации Хорхе и неговият екип ни показаха хакнати имейли и акаунти в Telegram на пет жертви в Кения: помощник на президента Кибет; министър Чирчир; бивш член на Националното събрание Джеймс Оминго Магара; съветник по предизборната кампания Денис Итумби; и политически функционер на име Симон Мбугуа.

След като Руто спечели изборите през август 2022 г., губещата страна започна кампания за делегитимиране на резултатите. Тяхната кампания се основаваше отчасти на обвинения, които посочваха двама от лицата, чиито акаунти Хорхе хакна пред очите ни: Итумби и Чирчир.

В следващите презентации Хорхе ни показа хакнатите акаунти на още четири цели: министърът на земеделието на Мозамбик Селсо Исмаел Корея, който по-късно прегледа имейл адреса, който Хорхе ни показа, и потвърди, че принадлежи на стар негов имейл акаунт. Корея по-късно оттегли това изявление; индонезийски бизнесмен; гражданин на Танзания; и Zhaxylyk Zharimbetov, бивш високопоставен служител в BTA Bank в Казахстан. Сметките в Мозамбик, Индонезия и Танзания бяха представени в рамките на „активно разузнаване“; сметката на казахстанския банкер беше показана като екранна снимка в презентация.

Кой уби Емануел Ему?

В поредицата от презентации Хорхе ни направи няколко обиколки с екскурзовод на потребителски интерфейс, който изглежда е най-модерният известен софтуер до момента за извършване на действия на измама в социалните медии.

Софтуерът за създаване и активиране на аватари се нарича AIMS, което означава Advanced Impact Media Solutions. Според потребителския интерфейс на екрана AIMS контролира над 39 000 аватара към декември 2022 г. и притежава способността да създава нови лесно и бързо.

„Имаме араби, руснаци, азиатци, всичко. Африканците, разбира се — каза Хорхе, преглеждайки списъка си с фиктивни сметки.

Пред очите ни той изгради нов аватар. След като избере страната на пребиваване, пола и възрастовата граница на фиктивния потребител, софтуерът предлага набори от изображения (откраднати от истински профил), които той да използва за попълване на профила.

Фиктивните самоличности, създадени от AIMS, обясни Хорхе, могат да работят на различни платформи. Google, Facebook и Instagram са лесните. Системата може също така да отваря акаунти в сайтове като Amazon, Airbnb, Reddit, Netflix или дори цифрови портфейли.

За да се заобиколят процесите на различните сайтове за потвърждаване на самоличността, текстовите съобщения се изпращат до виртуални номера, създадени за аватарите. Преминаването на тези проверки прави аватарите на Хорхе много по-трудни за идентифициране като фалшиви.

Аватарите на AIMS, както показа Хорхе, не са солови изпълнители; те могат да пеят заедно в хор. Те могат да бъдат активирани в координация като кампания за разпространение на съобщения чрез разпръскване на туитове или публикации в периоди от време, които имитират истинското поведение на уеб потребителите.

Създаването на съдържание също е автоматично, управлявано от AI. Вие избирате тон (негативен, положителен или неутрален) и системата генерира туитове и публикации, които е трудно, даже невъзможно, да бъдат разпознати като машинно генерирани.

Презентацията на Хорхе изглеждаше убедителна, но елегантната презентация не гарантира, че технологията работи в реалния свят. Затова го помолихме да тества AIMS на действителните бойни полета на Twitter и Facebook. С други думи, да проведем малка демо кампания за нас.

През лятото на 2022 г. сайтовете на социалните медии бяха разтревожени от вирусен хит, който беше трудно да се избегне: Emmanuel the Emu . За тези, които не са добре запознати със зоологията, ему е голяма, нелетяща австралийска птица.

Емануел Ему е едно от селскостопанските животни на Тейлър Блейк, уеб инфлуенсър, който стана известен благодарение на своите видеоклипове в TikTok с участието на Емануел и неговите приятели, включително принцесата елен.

За да изпробваме способността на Хорхе, ние му дадохме мисия: да разпространи слух в Twitter, обявяващ преждевременната смърт на Емануел. Беше решено, че кампанията ще носи етикета #RIP_Emmanuel.

На следващия ден армията на Хорхе започна да изпълва Twitter – и в по-малка степен Facebook – със слухове за смъртта на голямата птица. Кампанията, както можехме сами да се убедим, включваше хиляди туитове, споделяния и харесвания.

Хорхе ни изпрати екранна снимка, според която #RIP_Emmanuel е един от най-популярните елементи в Twitter в Словакия, с 1347 туита само в тази страна. В Африка, Европа, а също и в Съединените щати смъртта на „легендата“ беше оплакана и хората писаха колко много „ще липсва Емануел“.

На следващата сутрин Блейк се събуди уплашена. „Събудих се, за да разбера, че някой е пуснал слух, че Емануел е УМРАЛ, и аз буквално изтичах до хамбара, за да видя дали е вярно. Той ме чакаше на портата, много жив и готов за гушкане. ЕМАНУЕЛ НЕ Е МЪРТЪВ!!” тя написа в Туитър сутринта на 29 юли 2022 г. чрез нейното име в Twitter „еко сестра“.

Някои от последователите й реагираха бурно. „Хората просто търсят внимание“, туитна един от тях за фалшивите новини.

Отговорът на Блейк на слуха и 37 200 харесвания, които тя получи, само засилиха експозицията на кампанията. Според Хорхе, той е събрал около 7 милиона гледания. Това е мястото да се извиня на Еманюел, Тейлър и останалата част от нейната животинска ферма.

Коментирайте, хвалете или осъждайте

Кампанията #RIP_Emmanuel демонстрира, че AIMS е истинска машина. Но тестването на възможностите му беше само първата цел на нашата кампания. Фалшивата смърт на голямата птица накара Хорхе и екипа му да ни разкрият по невнимание самоличността на някои от тяхната мрежа от аватари и издълбаха пътя за продължаване на разследването с други средства.

Сега би било възможно да се проследят профилите, които са разпространили фалшивия слух и да се анализира тяхната историческа дейност.

Журналисти от Le Monde, Der Spiegel и базираната в Мюнхен разследваща редакция Paper Trail Media ръководиха усилията.

Първо в светлината на прожекторите беше кампания срещу Peter Nygård, 81-годишният финландско-канадски моден магнат, който основа канадския лейбъл, който носи неговото име и според обвиненията е сериен сексуален извършител.

Оказа се, че Хорхе е преследвал Нигорд около пет години. Неговата цел беше да направи публично достояние твърденията, че Nygård е сериен изнасилвач и да настоява за повдигане на обвинение, съдебен процес и осъждане.

Nygård е задържан в Канада от края на 2020 г. и се бори срещу екстрадиция в Съединените щати, за да бъде изправен пред нови наказателни обвинения там (след като приключат процесите срещу него в Канада). Модният магнат е наричан „канадският Джефри Епщайн“ както от Хорхе, така и от аватарите.

Откритието, че армия на AIMS е била мобилизирана срещу Nygård, беше потвърдено на по-късна среща с Хорхе.

Хорхе, както самият той би ни обяснил, не заема морална позиция в работата си. Той може да работи срещу заподозрени или за тях: единственият въпрос е кой плаща. Съответно мрежата от аватари, които туитваха срещу Nygård и оплакаха смъртта на Emmanuel, проведе две кампании от името на лица, издирвани за екстрадиция. Един от тях беше бивш високопоставен служител в Агенцията за криминални разследвания на Мексико: Томас Зерон.

Томас Зерон

Зерон живее в Израел през последните няколко години. Мексико се опита, но безуспешно, да го екстрадира по подозрение за възпрепятстване на разследване и измъчване на разпитвани по случая с отвличането и изчезването през 2014 г. на 43 студенти, които бяха на път за протест срещу правителството в град Игуала.

Виртуалните войници на Хорхе изиграха ролята на Зерон в залавянето на наркобоса Хоакин „Ел Чапо“ Гузман и популяризираха разказ в смисъл, че подозренията срещу Зерон са политически мотивирани.

Някои от аватарите също настояваха за невинността на братята Уилям и Роберто Исаяс – водещи бизнесмени, които бяха осъдени в родния си Еквадор през 2012 г. за присвояване на стотици милиони долари от контролирана от тях банка.

Братята, които живеят в Съединените щати, от години са изправени пред многократни искания за екстрадиция от Кито. „Политическа кампания на преследване“, нарекоха я аватарите на Хорхе. Други обвиниха Рафаел Кореа, президент на Еквадор от 2007 до 2017 г., че ги е преследвал.

В една от нашите видео презентации в Zoom Хорхе беше попитан за връзки с лица, които биха могли да повлияят на политиката на САЩ, за да помогнат на правителството на Чад да се справи с отговора на администрацията на отлагането на общите избори в страната. Хорхе предложи да се използват услугите на двама души: бивш заместник-ръководител на Мосад и съветник по националната сигурност Илан Мизрахи; и Роджър Нориега, бивш помощник-държавен секретар на САЩ по въпросите на Западното полукълбо и „моят бивш партньор“, както го нарече Хорхе. Нориега очевидно е действал и в миналото от името на еквадорските банкери в изгнание, като е публикувал две про-статии в тяхна полза и осъждайки тогавашния президент Кореа на уебсайта на American Enterprise Institute, базиран във Вашингтон мозъчен тръст.

Оказа се, че в Калифорния армията от аватари е нападнала губернатора на Демократическата партия Гавин Нюсъм, когато той смятал да не поднови лиценза за експлоатация на ядрена централа поради проблеми с безопасността. Губернаторът най-накрая даде зелена светлина през септември 2022 г. и аватарите на Хорхе се отказаха.

Като цяло консорциумът от репортери откри 19 кампании, в които са участвали около 1800 предполагаеми аватари, свързани с AIMS.

Шоуто на ужасите на екип Хорхе

В презентациите на Хорхе имаше забележимо напрежение между желанието да се покажат минали „постижения“ и необходимостта да се запази анонимността на клиентите и дистанцирането на Хорхе и неговия персонал от отговорност за операциите. Това напрежение достигна своя връх в клип, прожектиран във всяка негова презентация.

Шоуреелът, който е дълъг около две минути, започва с надпис: „Екипът Хорхе представя: Разузнаване при поискване.“ Клипът включва набор от инциденти, включващи компютърни хакове, измама на журналисти чрез публикуване на невярна информация, кибератаки и други измами.

Хорхе понякога замразява рамката, за да даде обяснение. За разлика от твърденията на Хорхе, които бяха проверени, към днешна дата не беше възможно нито да се потвърди, че той действително е извършил действията, за които е поел отговорност в клипа, нито да се опровергаят тези твърдения.

Според клипа Хорхе стои зад кибератаката през 2019 г. срещу централната избирателна комисия на държава, която идентифицирахме като Индонезия, около месец преди общи избори там. Появи се сглобена екранна снимка, в която се вижда надписът KPU (името на индонезийската избирателна комисия). Под изображението имаше надпис „По време на деня на изборите в Югоизточна Азия“. Хорхе придружи слайда с обяснение, че по политически причини неговият клиент е поискал да бъде разглеждан като противник на Китай. Така че те започнаха офанзива, каза той, „и ние показахме, че целият трафик – всичко идва от Китай.“

През март 2019 г. няколко медии (включително Bloomberg) съобщиха за „китайско-руска“ атака срещу компютърната система на избирателната комисия.

Операцията с фалшив флаг проработи отчасти. Експертът по информационна безопасност, нает от изборната комисия, беше цитиран от The Guardian , като каза, че трафикът наистина изглежда идва предимно от Китай и Русия. Той обаче добави: „Вероятно повечето от тях са местни хакери. Те просто използват точки за скок в тези страни, за да прикрият следите си.“

Хакване и изтичане

Вид операция за влияние, която включва проникване и изтичане на лична информация, имейли и документи на целта. В някои случаи материалът е манипулиран

Следващият сегмент от шоуто на ужасите „Екипът Хорхе представя“ се занимаваше с прекъсване на референдума през 2014 г. по въпроса за независимостта на Каталуния от Испания. Според клипа смущението е причинено от DDoS атака (отразено за разпределен отказ на услуга – която претоварва сайт с трафик, като го прекратява офлайн). Според тогавашния каталунски лидер Артур Мас кибератаката е повредила каталунския интернет сутринта на референдума. Гласуването обаче не беше отменено и виновните за събитието не бяха открити.

Хорхе също си приписва заслугите за съобщения в испанските медии през това време за предполагаеми връзки между сепаратистката каталунска партия и Ислямска държава. Как беше произведено това? „Те откриха листовки, свързващи партията и радикалните [ислямисти], и разузнаването [службите] започнаха разследване“, каза Хорхе, добавяйки: „Никога не знаеш как се случват нещата. луд.

Хорхе се гордееше с очевидната си роля в друга атака, този път в Африка. Това беше подобно по същество на събитието DDoS, но беше на мобилните телефони на лидерите на опозиционната партия в Нигерия, Конгресът на всички прогресисти (APC), който в крайна сметка спечели общите избори през март 2015 г. там.

Британи Кайзер, която беше разобличител в скандала с Cambridge Analytica.

Клипът показва заглавие от нигерийския новинарски сайт Vanguard. Няколко думи бяха редактирани – привидно небрежен опит за прикриване на идентичността на страната и атака, която се случи сутринта в деня на изборите. „Това е най-голямата страна в Африка“, каза Хорхе, неспособен да устои на изкушението да разкрие самоличността на страната, „и цялата опозиция идва, показва телефоните си на медиите и казва „блокиране на всички лидери“. телефони“, цитирайки заглавие на нигерийски вестник.

Както ще разкрие друга глава от разследващия доклад, Team Jorge е работил в Нигерия през 2015 г. в сътрудничество с вече опозорената британска фирма Cambridge Analytica . Още през 2018 г. британският седмичник The Observer публикува свидетелства за използването на Cambridge Analytica от услугите на „израелски хакери“ в Нигерия, а също и в малката карибска държава Сейнт Китс и Невис.

Нови имейли в ръцете на консорциума от журналисти идентифицират хакерите като Team Jorge и свързват екипа с предложения за работа в други страни – включително предложение за участие в президентската кампания на Доналд Тръмп през 2016 г.

Хорхе също твърди, по време на прожекцията на клипа, че е използвал достъп до имейли на началника на кабинета в правителството на Тринидад и Тобаго, тогавашния министър-председател Камла Персад-Бисесар, за да подклажда политическа криза в карибската островна държава.

Най-ранното събитие, представено в клипа, се случи по време на президентските избори във Венецуела през 2012 г. Хорхе призна, че е разпространявал невярна информация, за да повлияе на изборите, спечелени от Уго Чавес. Хорхе и неговите партньори поеха отговорност за разпространението на вътрешни презентации от лагера на Чавес – които впоследствие бяха публикувани от мрежата ABC News – след като направиха свои допълнения към документите.

„Връщаме се към въпроса за фалшивите новини“, каза Хорхе, затопляйки темата си. „Какво е фалшиво? Казвам на клиентите си: Под 80 процента достоверност, това е фалшиво. Но между 80 и 100 процента има… игра, която можем да играем.

Тал Ханан, 50, Модиин

За първи път чухме за „Отбор Хорхе“ от източник, който беше научил за подвизите на Хорхе. За да се организира среща с Хорхе, беше използвана мрежа от посредници – включително някои, които бяха подмамени да мислят, че представят истински клиент на Хорхе.

Последният от тях беше собственикът на медийна консултантска фирма в израелския град Хадера Яков Цедек. Цедек, който присъства на първата среща на Zoom с Мейдан, мълчеше, когато се обсъждаше кампания, чиято цел беше да отложи изборите в Чад.

Също така присъстваше и мълчеше на тази среща Ишай Шехтер, бивш изпълнителен директор в Еврейския национален фонд, който е описан на сайта на лобистката фирма Goren Amir Consultants като неин „стратегически директор“.

Присъстващ на друга среща в Zoom, на която беше представено хакване на акаунти, беше Шуки Фридман, пенсионер от службите за сигурност, когото Мейдан описа като „част от нашия основен екип“. Фридман е известен сред бившите служители по сигурността като вербовчик на много известен актив, който не може да бъде назован. Но той не е нищо повече от поддържащ актьор в историята на Team Jorge.

Общият знаменател сред хората, водещи презентацията, беше използването на измислени имена: Макс, Хорхе и друг човек, който ще влезе в образа по-късно, Ник. Открихме бързо самоличността на Макс (Мейдан). Беше достатъчно небрежен да използва израелския си телефонен номер.

Хорхе беше по-предпазлив. Той говори с нас само от индонезийски телефонен номер, не разкри лицето си и през първите пет месеца от контактите с него отричаше да действа от Израел.

Когато го попитахме дали се притеснява да изнася хакерски услуги без разрешение от Агенцията за контрол на износа на отбраната към Министерството на отбраната на Израел, той заяви, че въпросът не е от значение за него. „Всички тези глупости са за израелски компании. Ние не сме израелци. Тази технология е от Java Selatan [област в Индонезия]. … Всъщност ние имаме офис там [в Индонезия], ако проявявате интерес. Така че уведомете ме, когато идвате. И завърши, като ни пожела „ Selamat malam “ – „Лека нощ“ на индонезийски.

След значителни усилия намерихме надеждна информация за самоличността на Хорхе. Истинското му име е Тал Ханан, 50-годишен израелец, който е роден в Горен Назарет (сега Ноф Хагалил) и сега живее в Модиин със семейството си. Малко след като разкрихме самоличността му, беше публикувано разследване, в което името му бе споменато мимоходом. Версията на иврит на този доклад от Международния консорциум на разследващите журналисти и Ури Блау от Shomrim – Центърът за медии и демокрация, беше публикувана в TheMarker.

В този доклад се отбелязва, че Ханан е приятел и бизнес партньор на Мартин Родил, венецуелски гражданин, който преди това е работил в Международния валутен фонд. Bloomberg News съобщи, че чрез посредничеството на Ханан той е станал източник на Мосад в борбата срещу Хизбула и иранските терористични фондове в Латинска Америка. Родил е заподозрян в Испания, че се опитва да разклати водещи бизнес фигури във Венецуела, за които е предавал информация на властите в Испания.

Ханан е бил активен в сферата на сигурността много преди раждането на социалните медии. През 1999 г. той основава компания, наречена Demoman International, която е регистрирана на домашния му адрес в Модиин и в миналото дори имаше разрешение за износ от Министерството на отбраната.

Уебсайтът на компанията съдържа обичайните изказвания на тези фирми за борбата срещу тероризма и обучението на сили. Там обаче няма да намерите нито дума за аватари, хакерство или кибератаки.

„Нямам представа как Ханан се озова в тази позиция. Няма разузнавателно минало, служил е в някакво неизвестно поделение във ВВС. Но знам, че той има връзки с високопоставени и много сериозни хора сред разузнавателните агенции в Израел и САЩ“, каза бивш високопоставен служител в израелското разузнаване, научил за дейността на Ханан.

Продавам френски журналист

Докато усилията за проследяване на действията на Ханан продължиха, датата на планираните избори в Чад изтече – и изборите наистина бяха отложени. Нито Ханан, нито журналистите под прикритие имаха пръст в това. Историята на корицата току-що се оказа щастливо предположение.

Времето свърши работата си и Ханан отхвърли част от подозренията си. Когато му казахме, че идваме в Израел във връзка със съдебно производство и ще се радваме да се срещнем с него, той забрави, че преди това е отрекъл да работи от Израел и ни покани в офисите си в Модиин.

Офисите се намират на трети етаж в невзрачен, полупразен офис блок срещу търговски център в промишлената зона.

На входната врата няма име или идентификационен знак. Стаята, в която бяхме въведени – след като бяхме помолени да оставим телефоните си на входа – беше голямо и не особено впечатляващо бомбоубежище, което никой не си беше направил труда да декорира или проектира. Други, тоест от нещо, което приличаше на сувенири от пътувания в чужбина, които бяха разпръснати тук-там, заедно с хартиени чаши за топли напитки с надпис „Free Love“.

Ханан ни чакаше, без никакъв опит да се прикрие: покрито със стърнища лице, харизматичен, ликуващ както винаги, изпълнен със самочувствие.

В началото на срещата той спекулира какво предстои да бъде намерено в лаптопа на Хънтър Байдън. „[Знаете ли] разликата между конспирация и истина?“ — попита той и както обикновено отговори на собствения си въпрос: — Осемнадесет месеца.

До Ханан седеше Мейдан, а от другата страна на масата беше Ник. Той ни беше представен като „главен изпълнителен директор на компанията“. Главният изпълнителен директор по-късно ще бъде идентифициран като Зохар, 55-годишният брат на Тал Ханан. Зохар е работил за израелска агенция за сигурност и е бил експерт по тестване с полиграф.

На срещата Тал Ханан твърди, че има повече от 100 служители в бизнеса си. Може да е преувеличил малко. По наша оценка пространството, в което бяхме, можеше да побере около 20 служители. Той каза, че също има офиси в Индонезия, Босна и израелския технологичен център Херцлия, както и допълнителни служители в Украйна. Офисът в Херцлия, отбеляза той, обслужва отделна компания, която той твърди, че притежава, наречена Deep Impact, която, каза той, използва AIMS за надуване на стойността на криптовалутата.

Срещата се проведе отчасти на английски и отчасти на иврит. Започна с дискусия за нова цел: да се предизвикат проблеми между президента на Чад и бизнесмен. След това Ханан повтори досегашното си редовно изпълнение на проникване в имейли и акаунти в Telegram – този път на цели в Индонезия и Танзания.

Една услуга, за която научихме по време на тази среща, включваше влагане на фалшиви доклади във френските медии.

Ханан прожектира клип от репортаж, излъчен по новинарския канал BFMTV няколко дни по-рано, и твърди, че самият той го е подложил. В материала френският телевизионен водещ Рашид М’Барки заявява, че санкциите на САЩ срещу руски олигарси ще доведат до безработица на десетки хиляди поради забавяне на дейността на корабостроителниците, които обработват яхтите на олигарсите в Монако – малко вероятно развитие .

Тъй като материалът изглежда странен, консорциумът от журналисти се свързва с ръководството на BFMTV миналия месец. Това накара директорите на канала да започнат вътрешно разследване, което породи допълнителни опасения относно докладването на М’Барки. Водещият беше отстранен, а във френските медии се появиха статии по въпроса. Малцина знаеха обаче, че всичко започна с случайна забележка, направена от Тал Ханан в неговия офис на Модиин.

Не всички твърдения на Ханан обаче се оказаха верни. На срещата с Модиин той представи резултата от друга операция, която предполагаемо е провел, която се оказа блъф. Той ни показа уж вътрешна презентация от кампанията на съперник на негови клиенти в „страна от Латинска Америка“. Впоследствие разбрахме, че документът е публичен доклад, в който няма нищо тайно и може да се намери в Google.

След това той прекара много време, демонстрирайки услуга, която нарече „Глобално банково сканиране“, чрез която се предполага, че се получава вътрешна банкова информация. В предишните презентации вече ни беше показано как изглежда информация от банковите сметки на Batkhuu Gavaa, монголски политик и собственик на медийна група, който почина през 2019 г., след като падна по стълбите в Държавния дворец (години след като Ханан очевидно бръкна през неговата сметки).

На срещата в Модиин беше представен подобен доклад. Според Ханан това включва открадната банкова информация на турски бизнесмен, чието име не беше предоставено – въпреки че за част от секундата беше възможно да бъде идентифициран в документите, които бяха показани: корабният магнат Мехмет Али Умар. Мейдан обясни на срещата, че материалът е получен от човешки източник с достъп до световната банкова система.

Научихме също така, че поне в два случая бивши клиенти на Ханан са се оплакали, че финансовите отчети, които са закупили от него, са се оказали ненадеждни и дори фалшиви.

Един от докладите, за който се твърди, че е фалшифициран, е продаден преди повече от 10 години на тайна израелска агенция. „Това струваше на държавата стотици хиляди долари. Информацията беше проверена и голяма част от нея се оказа пълна глупост – явно фалшификат”, каза запознат. Твърди се, че другият доклад е бил продаден на клиент в Босна.

На една от мебелите в офиса имаше книга за Nygård, която предлагаше златна възможност за съпоставяне на разследването, което беше проведено въз основа на анализ на армията от аватари.

Въпрос за книгата предизвика реч от Hanan за Nygård и начина, по който се разви сексуалният му скандал. Той започна, като разказа как е изпратил армията си от аватари да атакува водещата на токшоу в САЩ Опра Уинфри – чийто очевиден грях беше, че веднъж интервюира Нигорд по време на посещение в имението му на Бахамските острови. Атаката срещу Уинфри доведе до статия в Newsweek за задоволство на клиента на Ханан.

Ханан също намекна, че всъщност е довел до разкриването на скандала чрез хакване на определени акаунти. „Преди шест години намерих първото споразумение за заглушаване“, каза той, споменавайки детайл, който идентифицира лицето, с което Nygård уж е сключил споразумение за неразкриване. „Той плати 100 000 долара на това бедно момиче. Тя беше на 16, когато я изнасили.

Според Ханан неговият клиент е платил много за работата. „Това струваше милиони, много милиони. Пет години [работа]. Пет!“

„Да продължим напред“

Един от многото елементи, които Ханан ни показа по време на срещата с Модиин, беше фотокопие на чек, който според него се намираше в хакнат имейл. Той ни каза какво може да се направи с такава находка. „Взимам чека… фалшиво дарение за кандидат“, каза той.

„Има ли вече избори без тези глупости?“ – попитахме ние, опитвайки се да въвлечем Ханан в дискусия относно разговора за фалшивото дарение.

— Не — отвърна той сухо.

„Добре. Тогава какъв е смисълът от избори? той беше попитан.

Ханан игнорира това, но Мейдан започна да предлага отговор. „Вижте“, каза той, но преди да успее да продължи, ние го попитахме: „Гласувате ли?“

„Разбира се“, отвърна той.

„Но знаете, че така работи.“

„Вижте, вие говорите за други места. Не че тук [в Израел] нямаме това. Тук има други механизми.” Той спря за секунда. „Но слушайте, веднъж някой ми каза нещо: „Където има вяра, няма логика“. Казвам го със скръб“, каза той и ни стрелна леко емоционално.

Мейдан не създава впечатлението, че е лош човек. Той е напълно нормален индивид. Израелец на около 60 години с опит в сигурността живее в сърцето на страната. Във всяко отношение той е точно като онези, които изпълват градските площади в събота вечер, за да протестират срещу атаката на правителството на Нетаняху срещу демокрацията.

Мейдан се бореше да формулира смислено изявление. Сякаш му беше трудно да намери думите.

„Вие ми казвате: „Аз съм вярващ човек, нося кипа“, каза той, посочвайки носещия кипа „съветник“, присъстващ на срещата. „Аз също съм вярващ“, каза той. „Аз съм напълно светски, но също така съм човек на вярата … и това ми дава толкова много сила.“

Разговорът продължи още няколко секунди. Но точно когато изглеждаше, че може да накараме Мейдан да говори за това, което си казва човек, чиято професия е да разрушава демокрациите – точно тогава Ханан сложи край на разговора.

„Момчета, трябва да продължим напред“, каза той и продължи да ни показва друг хакнат имейл.

о оттогава беше прекратен

Отговори

Тал Ханан и Зохар Ханан отказаха да отговарят на въпроси. Тал Ханан отрече „каквито и да е нарушения“. Зохар Ханан каза: „Цял живот съм работил според закона!“

Demoman International, Шуки Фридман, Яков Цедек и Рачид М’Барки отказаха да коментират тази история.

Адвокатът на Mashy Meidan отговори: „Противно на обвиненията, повдигнати във вашето искане за отговор, г-н Meidan не е и никога не е бил свързан с компания или юридическо лице на име „Team Jorge“ и определено не е „бизнес партньор“ в такова начинание. Всъщност, докато не получи вашите имейли, г-н Мейдан никога преди това не беше чувал името „Екип Хорхе“ и следователно не можеше да бъде „един от основния екип“ на тази компания, както грешно твърдите от вас.“

Ишай Шехтер отговори: „Никога не съм имал никакви бизнес отношения с Хорхе или Тал Ханан. Не съм запознат или наясно с предполагаемата незаконна или неправомерна дейност на неговия екип. За да изясня нещата – никога не съм свързвал или посредничил между г-н Хорхе и който и да е клиент .. Не разбирам защо някой би смесил името ми със случая, освен ако този човек не се опитва да ме нарани.“

Илан Мизрахи коментира: „Познавам Тал Ханан, но никога не съм бил част от неговия бизнес.“

haaretz.com