Алгоритъм на манипулацията

Влиянието на пропагандата върху общественото мнение, реакцията на администрацията на социалната мрежа към оплаквания, както и правните аспекти, свързани с разпространението на чужда пропаганда в американски социални платформи – Тук се разглеждат всички аспекти на този проблеми.

Влиянието на пропагандата върху общественото мнение, реакцията на администрацията на социалната мрежа на жалбите, както и правните аспекти, свързани с разпространението на чуждестранна пропаганда на американската платформа — МОСТ. Медиа проучи всички аспекти на този проблем

От февруари 2022 г. руската пропаганда разгърна мащабна информационна кампания, за да оправдае агресията и да подкопае подкрепата за Украйна на международната сцена. Ключовият сюжети стана реториката за „денацификацията“ на Украйна – твърденията, че страната се управлява от нацисти и Русия е принудена да очисти съседната държава от екстремисти. Тази линия беше съпроводена с разпалване на омраза и дехуманизация на украинците, включително етнически обиди, с цел да се оправдае насилието.

Същевременно Кремъл промотираше тезата, че Украйна е марионетка на Запада, а разширяването на НАТО и „агресията“ на САЩ/ЕС са принудили Русия да започне „специална операция“. В информационното пространство се появяват и конспиративни теории – например, за тайни биолаборатории на САЩ в Украйна или инсценирани масови убийства (по-специално, отричане на клането в Буча, представяно като инсценировка).

Докато вниманието на много разследващи журналисти се премести към проучването на активността на проруските групи в мрежата X (Twitter) и Telegram, руските пропагандисти развиваха своите методи за промотиране в други социални платформи. И преди всичко във Facebook.

Нашето разследване показа, че координирана мрежа от фалшиви акаунти и страници във Facebook изкуствено увеличаваше ангажираността на публикациите – с харесвания, коментари и репостове. Това позволяваше на пропагандата да заобикаля алгоритмите на платформата и да засилва влиянието си върху западната аудитория, включително американските избиратели.

Особено изтънчена форма на промотиране на проруската пропаганда във Facebook станаха публикациите и дори цели страници, посветени на демонстрацията на руски оръжейни системи и тяхното „техническо превъзходство“, както и визуален контент с изображения на културни и исторически обекти, към които бяха добавени AI-генерирани елементи. Такива публикации създават ефект на „мека сила“ (Joseph Nye, Soft Power: The Means to Success in World Politics), насочена към формиране на положително възприятие за Русия в чужбина. Визуално привлекателните сцени можеха да бъдат придружени от пропагандни надписи или символика, засилвайки основните сюжети на кампанията и спомагайки за разпространението им сред различни категории западни аудитории. Някои от разкритите публикации бяха умишлено адаптирани към политическия контекст на САЩ, което можеше да повлияе косвено или пряко на предпочитанията на американските избиратели, особено в навечерието на изборите.

Подобни публикации не само подкопават подкрепата за Украйна и засилват антинатовските настроения, но и можеха да повлияят на последните президентски избори в САЩ, формирайки общественото мнение по ключови въпроси на международната политика.

Призивите за прекратяване на военната подкрепа за Украйна през 2023-2024 г. се превърнаха в точка на пресичане между реториката на Кремъл и предизборните изявления на Тръмп. Според оценките на експерта по политически комуникации, професор Сара Отс, изборите в САЩ през 2024 г. станаха едни от най-значимите за Русия, тъй като в случай на победа на Тръмп беше много вероятно да се стигне до съществено намаляване на американската помощ за Украйна. Руската пропаганда по всякакъв начин подклаждаше настроенията в полза на такъв изход. В информационното поле на Facebook това се изрази в появата на съдържание, насочено към американските консерватори и поддръжниците на Тръмп.

Методи за манипулация и експлоатация на алгоритмите на Facebook

За да промотират своето съдържание във Facebook, проруските актьори използваха цял арсенал от тактики, често разчитайки на уязвимостите на алгоритмичните механизми на платформата. В докладите на Meta такива координирани операции се обозначават като CIB (Coordinated Inauthentic Behavior) – координирана неавтентична активност. Ето основните методи, установени в периода след 2022 г.

Мрежи от фалшиви акаунти и страници

Както и през предходните години, основата на операциите се състоеше от хиляди фалшиви профили, които се представяха за обикновени потребители или администратори на страници с подобни интереси. По-рано Meta многократно разкриваше и блокираше подобни мрежи. Например, през 2022 г. беше разкрита най-голямата от началото на войната мрежа, свързана с Русия: над 1600 фалшиви акаунти и страници, които координирано разпространяваха кремълската пропаганда за войната. Тази кампания, започнала през май 2022 г., включваше над 60 фалшиви новинарски сайта, имитиращи известни издания (Spiegel, The Guardian, Bild и др.) на различни езици. След публикуването на материали с прокремълска програма (очерняне на Украйна, дискредитиране на бежанците, твърдения, че санкциите не работят и вредят само на страните, които ги налагат), организаторите масово споделяха линкове към тези сайтове чрез мрежа от фалшиви акаунти във Facebook, Instagram, Twitter, Telegram, както и пускаха реклами по тях.

Meta охарактеризира тази операция като комбинация от технически сложни елементи (имитацията на медийни сайтове на седем езика е изисквала значителни ресурси) и груба сила (множество фалшиви профили и реклами). Такъв „хибриден“ подход позволяваше на злоумишлениците сравнително бързо да обхванат широка аудитория: те не губеха време за органичен растеж на абонатите, а веднага наводняваха информационното пространство с масивно разпращане на еднотипни съобщения. Подобни „фронтални” атаки срещу информационната среда са по-скоро насочени към краткосрочен ефект („hit-and-run”), отколкото към дългосрочно изграждане на доверие, но могат да нанесат значителни щети до момента на неутрализирането им. 1 600 фалшиви акаунти и страници, които координирано разпространяваха кремълската пропаганда за войната

Използване на рекламните инструменти на Facebook

Алгоритмите на социалната мрежа, предназначени за таргетиране на реклами, се превърнаха в оръжие в ръцете на пропагандистите. Стана ясно, че проруските групи активно закупуваха реклами с политическо съдържание, заобикаляйки контрола. В хода на разследването AI Forensics бяха открити хиляди рекламни обяви от анонимни страници, промотиращи прокремълски послания в страните от ЕС. При това над 65% от тази политическа реклама е излизала без изискваното маркиране (т.е. Facebook не я е маркирал като политическа) и не е била придружена от информация за платеца. Това свидетелства за уязвимостта на алгоритмите за модерация на рекламите: злоумишлениците са се научили да създават еднодневни страници, които публикуват платени постове, достигат до десетки или стотици хиляди потребители и след това се изтриват. „Страницата всъщност се създава само за да се плати рекламата, за да се достигне веднага широка аудитория, а след това просто се изтрива – това е по-ефективно, отколкото дълго да се развива общност с надеждата за обхват“, отбелязва изследователят Пол Бушо от AI Forensics.

Освен това, таргетираната реклама се използваше не само за разпространяване на идеи, но и като инструмент за анализ: руските оператори наблюдаваха кои съобщения се приемат по-добре, проследявайки реакциите на потребителите в реално време. В един от документите, създаден от прокремълския политически технолог Иля Гамбашидзе в рамките на дезинформационната кампания Good Old Usa Project, се казва директно: „Таргетирането във Facebook позволява да се проследява реакцията на аудиторията към разпространяваните материали и да се коригират по-нататъшните пускания, изхождайки от това коя група е била засегната най-силно“.

По този начин рекламната платформа Facebook е служила като своеобразен полигон за тестване на пропаганда, където чрез A/B тестове враговете са подбирали най-ефективните сюжети. През втората половина на 2022 г. специалистите на Meta успяха ръчно да идентифицират и неутрализират злонамерени акаунти, които все още не бяха премахнати от автоматичните системи преди началото на пълноценното разследване. >65% от политическата реклама се разпространяваше без маркировка във Facebook.

Злоупотреба с алгоритми за ангажираност

Алгоритмите на лентата на Facebook са устроени така, че да показват на потребителя най-релевантния и интересен за него съдържание – често това, което предизвиква силна емоционална реакция (гняв, възмущение, страх). Пропагандистите умело се възползват от това, разпространявайки максимално провокативни публикации и изображения, които предизвикват спорове. Колкото по-активно хората коментират или споделят публикацията (дори и да са възмутени), толкова по-широко алгоритъмът я разпространява в мрежата. В случая с проруската дезинформация това означава, че изключително поляризиращият съдържание получава непропорционално голям обхват. Изследванията показват, че платформите, оптимизирани за ангажираност, неволно допринасят за бързото вирусно разпространение на лъжи и конспиративни теории.

Освен това злоумишлениците практикуваха тактика на изкуствено разширяване на ангажираността: създаваха се групи от „ботове“ или контролирани акаунти, които веднага след публикуването започваха масово да харесват и коментират нужния пост, за да го „промотират“ в алгоритмичния рейтинг. Мрежи от фалшиви акаунти и страници Както и през предходните години, основата на операциите се състоеше от хиляди фалшиви профили, които се представяха за обикновени потребители или администратори на страници с подобни интереси. По-рано Meta многократно разкриваше и блокираше подобни мрежи. Например, през 2022 г. беше разкрита най-голямата от началото на войната мрежа, свързана с Русия: над 1600 фалшиви акаунти и страници, които координирано разпространяваха кремълската пропаганда за войната. Тази кампания, започнала през май 2022 г., включваше над 60 фалшиви новинарски сайта, имитиращи известни издания (Spiegel, The Guardian, Bild и др.) на различни езици. След публикуването на материали с прокремълска програма (очерняне на Украйна, дискредитиране на бежанците, твърдения, че санкциите не работят и вредят само на страните, които ги налагат), организаторите масово споделяха линкове към тези сайтове чрез мрежа от фалшиви акаунти във Facebook, Instagram, Twitter, Telegram, както и пускаха реклами по тях.

Meta охарактеризира тази операция като комбинация от технически сложни елементи (имитацията на медийни сайтове на седем езика е изисквала значителни ресурси) и груба сила (множество фалшиви профили и реклами). Такъв „хибриден“ подход позволяваше на злоумишлениците сравнително бързо да обхванат широка аудитория: те не губеха време за органичен растеж на абонатите, а веднага наводняваха информационното пространство с масивно разпращане на еднотипни съобщения. Подобни „фронтални” атаки срещу информационната среда са по-скоро насочени към краткосрочен ефект („hit-and-run”), отколкото към дългосрочно изграждане на доверие, но могат да нанесат значителни щети до момента на неутрализирането им. 1 600 фалшиви акаунти и страници, които координирано разпространяваха кремълската пропаганда за войната

Използване на рекламните инструменти на Facebook

Алгоритмите на социалната мрежа, предназначени за таргетиране на реклами, се превърнаха в оръжие в ръцете на пропагандистите. Стана ясно, че проруските групи активно закупуваха реклами с политическо съдържание, заобикаляйки контрола. В хода на разследването AI Forensics бяха открити хиляди рекламни обяви от анонимни страници, промотиращи прокремълски послания в страните от ЕС. При това над 65% от тази политическа реклама е излизала без изискваното маркиране (т.е. Facebook не я е маркирал като политическа) и не е била придружена от информация за платеца. Това свидетелства за уязвимостта на алгоритмите за модерация на рекламите: злоумишлениците са се научили да създават еднодневни страници, които публикуват платени постове, достигат до десетки или стотици хиляди потребители и след това се изтриват. „Страницата всъщност се създава само за да се плати рекламата, за да се достигне веднага широка аудитория, а след това просто се изтрива – това е по-ефективно, отколкото дълго да се развива общност с надеждата за обхват“, отбелязва изследователят Пол Бушо от AI Forensics.

Освен това, таргетираната реклама се използваше не само за разпространяване на идеи, но и като инструмент за анализ: руските оператори наблюдаваха кои съобщения се приемат по-добре, проследявайки реакциите на потребителите в реално време. В един от документите, създаден от прокремълския политически технолог Иля Гамбашидзе в рамките на дезинформационната кампания Good Old Usa Project, се казва директно: „Таргетирането във Facebook позволява да се проследява реакцията на аудиторията към разпространяваните материали и да се коригират по-нататъшните пускания, изхождайки от това коя група е била засегната най-силно“.

По този начин рекламната платформа Facebook е служила като своеобразен полигон за тестване на пропаганда, където чрез A/B тестове враговете са подбирали най-ефективните нарративи. През втората половина на 2022 г. специалистите на Meta успяха ръчно да идентифицират и неутрализират злонамерени акаунти, които все още не бяха премахнати от автоматичните системи преди началото на пълноценното разследване. >65% от политическата реклама се разпространяваше без маркировка във Facebook

Злоупотреба с алгоритми за ангажираност

Алгоритмите на лентата на Facebook са устроени така, че да показват на потребителя най-релевантния и интересен за него съдържание – често това, което предизвиква силна емоционална реакция (гняв, възмущение, страх). Пропагандистите умело се възползват от това, разпространявайки максимално провокативни публикации и изображения, които предизвикват спорове. Колкото по-активно хората коментират или споделят публикацията (дори и да са възмутени), толкова по-широко алгоритъмът я разпространява в мрежата. В случая с проруската дезинформация това означава, че изключително поляризиращият съдържание получава непропорционално голям обхват. Изследванията показват, че платформите, оптимизирани за ангажираност, неволно допринасят за бързото вирусно разпространение на лъжи и конспиративни теории.

Освен това злоумишлениците практикуваха тактика на изкуствено разширяване на ангажираността: създаваха се групи от „ботове“ или контролирани акаунти, които веднага след публикуването започваха масово да харесват и коментират нужния пост, за да го „промотират“ в алгоритмичния рейтинг. Във вече споменатия план „Good Old USA” се говореше за използването на „мрежа от ботове”, които ще модерират топ дискусиите в коментарите и ще ги насочват в изгодна посока. Има се предвид, че под всяка целева публикация се появяват десетки координирани коментари, които създават видимост за масова подкрепа на дадена позиция или за тормоз на противоположната. Обикновените потребители, виждайки такъв „резонанс“, могат погрешно да приемат пропагандната информация за широко споделяно мнение.

„Спящи“ общности и групи

Руските оператори предварително създаваха и управляваха, понякога в продължение на месеци, общности във Facebook, маскирайки се като местни групи по интереси – например, групи от поддръжници на Тръмп в отделни щати („Alabama for America the Great“ и др.). Такива групи се пълнеха с неутрално или близо по смисъл съдържание, без да будят подозрения. Планът беше в решаващия момент тези „спящи клетки“ в социалната мрежа да бъдат събудени: администраторите рязко да преминат към разпространение на агитационни материали, превръщайки групите с вече набрана аудитория в инструмент за въздействие върху общественото мнение. В съдебните документи по делото Гамбашидзе, разсекретени от Министерството на правосъдието на САЩ, фигурираха намеренията да се създадат по 18 такива клетки в ключови колебаещи се щати на САЩ, за да могат в решаващия момент да започнат да промотират съгласувано необходимите сюжети и връзки.

Подобна тактика се основава на вградените механизми за препоръки на Facebook: хората в такива групи започват да споделят материали, които могат да се разпространяват по-нататък в лентите на техните приятели, а алгоритмите могат да препоръчват на познати с подобни интереси да се присъединят към популярни групи, което увеличава обхвата. планираха да създадат по 18 „спящи клетки“ във всеки ключов колебаещ се щат на САЩ.

Манипулации извън платформата

Въпреки че въпросът се фокусира върху Facebook, заслужава да се спомене, че много от операциите бяха междуплатформени. Съдържанието и фалшивите новини, появили се на други ресурси (например, генерирани фалшиви видеоклипове в YouTube или „изтичания“ в Telegram), често след това попадаха във Facebook чрез потребители, които споделяха линкове. По този начин пропагандистите използваха екосистемата на социалните медии в комплекс: ако една платформа блокираше акаунтите им, те все пак постигаха обхват на друга и се връщаха чрез нея. В този случай Facebook често се превръщаше във вторичен предавател на дезинформация, пусната извън него, особено когато тя се споделяше от реални хора, които бяха заблудени. Например, описаните по-горе фалшиви видеоклипове с „украински войници срещу Тръмп“ първоначално се разпространяваха в проруски канали, но след това бяха подети от американски конспиративни групи във Facebook, благодарение на което обхватът им значително се увеличи.

По този начин руската пропагандна мрежа във Facebook представлява сложна структура, състояща се от стотици фалшиви акаунти и страници, които действат координирано за разпространение на проруски сюжети. Тези акаунти, много от които изкуствено взаимодействат помежду си, създават илюзия за широка подкрепа за Русия и нейната политика, особено на фона на текущия конфликт с Украйна. Те активно коментират и репостват публикациите си, което повишава индекса на ангажираност и увеличава обхвата на съдържанието.

Много от тези страници имат хиляди последователи и редовно публикуват изображения и видеоклипове, показващи руска военна техника и символика, включително символа „Z“, свързан с руските въоръжени сили. Примери за такива страници, като „Vladimir Poutine Z“, показват как визуалните материали и националната символика се използват за засилване на проруските настроения.

Статистически данни, примери за публикации и обхват на аудиторията

За да оценим обхвата на проруските публикации във Facebook, ние приложихме подход, основан на анализ на активността (харесвания, коментари, репостове) и съществуващи проучвания [ от Даниел Шнайдер, директор „Контент маркетинг“ – „Как ефективно да изчислим коефициента на ангажираност?“ ], по коефициенти на ангажираност. Според редица аналитични данни средният коефициент на лайкове към прегледи във Facebook съответства на диапазона от 2% до 10%. Това позволява да се оцени броя на прегледите въз основа на броя лайкове: 1 лайк може да съответства на приблизително 10–50 прегледа в зависимост от нивото на ангажираност на аудиторията и типа съдържание.

Например, публикация с 5 хиляди лайка може да достигне от 50 до 250 хиляди преглеждания. Нивото на ангажираност, изразено в коментари и репостове, също играе значителна роля, като увеличава обхвата на публикациите.

При това важен фактор е не произходът на лайковете и коментарите, а тяхното влияние върху алгоритмите на Facebook. Високата активност под публикациите, организирана между другото с помощта на фалшиви акаунти или с използването на така наречената „фабрика за тролове“, води до това, че съдържанието се промотира органично и е видимо в лентите на потребители, които не са абонирани за тези страници. Това позволява на проруския контент да достигне по-широка аудитория, заобикаляйки ограниченията за реклама и дезинформация. Планът Good Old USA, разработен в рамките на руските информационни операции, предвиждаше създаването и използването на „мрежа от ботове“ за създаване и модериране на топ дискусии в коментарите. Тези ботове имаха за цел да насочват дискусиите в социалните мрежи в изгодна за Русия посока, създавайки илюзия за масова подкрепа на необходимите сюжети. Планът беше част от по-широката кампания „Doppelganger“ и се споменава в редица разследвания, включително в доклад на Министерството на правосъдието на САЩ (Department of Justice, 2024).

За илюстрация може да се разгледа конкретен пример – публикация с изображение на военна техника (БМ-21 „Град“), която е събрала 21 000 харесвания, 1500 коментара и 581 репоста. Въз основа на коефициента тази публикация може да е достигнала от 210 хиляди до 1 милион преглеждания, дори без да се отчитат допълнителните преглеждания чрез репостове. Такива високи показатели показват как мрежата от фалшиви акаунти може ефективно да промотира съдържание чрез алгоритмите на платформата.

По този начин проруските публикации, разпространявани с помощта на фалшиви акаунти, достигат до значителен брой реални потребители, формирайки тяхното възприятие и оказвайки осезаемо влияние върху информационното пространство на платформата.

Тези страници и акаунти публикуват съдържание предимно на английски език и са ориентирани към западната аудитория, включително потребители в САЩ. Високият ниво на ангажираност позволява на тези страници да промотират своите публикации в новинарските ленти на широк кръг от потребители, включително и на тези, които не са абонирани за тези страници.

В хода на анализа ние открихме десетки подобни публикации, демонстриращи руска военна техника и символика, с хиляди харесвания, коментари и репостове. Това позволява да се оцени обхватът им в стотици хиляди или дори милиони прегледи. Изкуствено създадената активност, поддържана от мрежа от фалшиви акаунти, спомага за широкото разпространение на тези публикации чрез алгоритмите на Facebook, засилвайки проруските сюжети в западната информационна среда.

Ето някои примери за такива профили и страници

Публикация с 5 хиляди лайкове би могла да достигне 50-250 хиляди прегледа

Десетки и стотици подобни страници и профили, анализът на които показва, че единствената цел на тяхното създаване е да се промотира пропагандата на Руската федерация в чужбина.

Използване на фалшиви акаунти за заобикаляне на алгоритмите

Фалшивите акаунти и страници се създават с цел да се заобиколят алгоритмите на Facebook и да се достигне възможно най-голяма аудитория. Взаимните абонаменти, харесвания и коментари на тези акаунти изкуствено повишават индекса на ангажираност, което позволява на съдържанието да се появява по-често в новинарските ленти на потребителите. В резултат на това публикациите с милитаристки изображения и проруски сюжети получават значително внимание, включително от американските избиратели, което потенциално влияе на тяхното политическо мнение.

Тези аспекти демонстрират значителен обхват и добре обмислена стратегия на руската пропаганда в социалните мрежи, насочена към промяна на възприятието на западната общественост по въпросите на подкрепата за Украйна и доверието в демократичните институции.

Активни потребители в коментарите и успешно заобикаляне на алгоритмите на Facebook

Анализът на профилите и страниците, участващи в промотирането на проруски съдържание, показва, че поне половината от коментиращите публикации са реални потребители. Те проявяват обичайна активност в социалната мрежа: обсъждат публикации, споделят лично мнение и се включват в дискусии. Това потвърждава, че алгоритмите на Facebook се заобикалят успешно, дори ако в ранния етап на промотирането се използват ботове или потребители, които извършват действия срещу заплащане.

По-нататъшният анализ на профилите, които оставят коментари, показва, че много от тях принадлежат на жители на различни страни, включително САЩ, Великобритания, Германия и други. Тези потребители активно участват в дискусии и споделят съдържание със своите последователи, засилвайки органичното промотиране на подобни публикации.

По този начин, въпреки първоначалното използване на изкуствени методи за увеличаване на обхвата, страниците, промотиращи проруски сюжети, намират реален отклик сред живите потребители, което прави тяхното влияние още по-значително.

Влиянието на проруската пропаганда върху изборите в Германия и Европа

Руската пропагандна кампания във Facebook и други социални мрежи, насочена към англоговорящата аудитория, има косвени, но важни последствия за европейската политика, особено в страни като Германия. САЩ, като водещ партньор на НАТО и ключов участник в подкрепата на Украйна, оказва значително влияние върху политическия елит в Германия, Великобритания и други страни. Руските сюжети в САЩ, които промотират антивоенна реторика и идеи за прекратяване на подкрепата за Украйна, могат да намерят отзвук и в европейското общество, особено чрез „медийни кръстовища“ и международни групи за влияние.

Ключови рискове за Германия и ЕС:

Разпространение на антинатовски и антиукраински настроения. Проруските послания, успешно промотирани в САЩ, могат да проникнат в политическия дискурс на Германия и други европейски страни чрез социалните мрежи. Това беше особено забележимо в навечерието на парламентарните избори в Германия, където десните популистки сили, като „Алтернатива за Германия“ (AfD), активно използваха антивоенни тези за мобилизиране на електората.

Формиране на умора от войната сред европейската аудитория. Проруските сюжети, действащи върху англоговорящите потребители, могат да окажат вторично влияние върху германското общество чрез транснационални информационни канали. Тъй като Германия е един от водещите донори на военна помощ за Украйна в Европа, намаляването на обществената подкрепа може да доведе до натиск върху политиците и до намаляване на обема на помощта.

Политическа дестабилизация чрез социални групи и миграционен дискурс. Важно е да се отбележи, че Русия активно използва миграционните кризи, за да създава напрежение в европейските страни. Това беше забележимо по време на предишните изборни цикли в Германия и Австрия, когато дезинформацията за бежанците се превърна в ключов инструмент за мобилизиране на консервативния и крайно десен електорат.

Реакцията на Facebook

Ние многократно се опитахме да подадем жалби за проруски съдържание във Facebook, включващо милитаристки изображения и сюжети, подкопаващи подкрепата за Украйна. Въпреки многобройните жалби, реакцията на Facebook остана незадоволителна. Платформата отхвърли без изключение всички наши жалби, посочвайки, че публикациите не нарушават стандартите на общността.

Един от отговорите на службата за поддръжка на Facebook гласи: „Не сме премахнали снимката. Проверихме и установихме, че този съдържание не нарушава нашите стандарти на общността.“ Съобщението също така предлага на потребителите „да използват наличните опции, за да контролират това, което виждат“, вместо да премахват проблемното съдържание. Този пример, както и много други, илюстрира, че Facebook не разглежда публикациите със символа „Z“ или изображения на руски военни като нарушение, въпреки пропагандния им характер.

Тъй като жалбите за подобно съдържание се отхвърлят, алгоритмите на Facebook продължават да отчитат високата степен на ангажираност на такива публикации, което спомага за тяхното разпространение. Проруските страници и фалшивите акаунти, които активно взаимодействат помежду си, получават допълнителен органичен обхват, което позволява на тези публикации да попадат в новинарските ленти дори на потребители, които не са абонирани за такива страници. Това изкуствено повишаване на индекса на ангажираност позволява на проруския съдържание да достигне до широк кръг от хора, засилвайки влиянието на пропагандата.

Недостатъци на модерацията на международния контент

Липсата на адекватна модерация на подобни публикации вероятно се дължи на трудностите при работата с международния контент и на неясните правила. Тъй като проруските страници са ориентирани към международна аудитория, алгоритмите за модерация не винаги ги възприемат като нарушаващи стандартите, особено ако не използват явни признаци на дезинформация. Този недостатък позволява на проруските сюжети да се разпространяват безпрепятствено, въпреки многобройните жалби от страна на изследователи и активисти.

Недостатъчната реакция от страна на Facebook прави платформата уязвима за чуждестранни информационни операции, които подкопават подкрепата за Украйна и формират проруски настроения сред западната аудитория. Без адекватен контрол и модерация подобно съдържание ще продължи да оказва значително влияние върху възприемането на събитията в международната политика.

Влияние върху общественото мнение

Предвид значителния си обхват, руската дезинформационна кампания в социалните мрежи оказва значително влияние върху общественото мнение в САЩ и други западни страни. Използвайки визуални образи, символика и милитаристки сюжети, като символа „Z“ и фотографии на руска военна техника, руската пропаганда формира положителен имидж на руските въоръжени сили и подкрепя политиката на Кремъл. Това съдържание се разпространява чрез стотици фалшиви акаунти и страници, които, използвайки механизмите на алгоритмите на Facebook, достигат до широка аудитория, включително и до тези, които първоначално не са били абонирани за такива страници.

Изследвания и доклади за влиянието на руската пропаганда

Според доклада на Комитета по разузнаване на Сената на САЩ, Русия активно използва социалните мрежи за разпространение на милитаристка пропаганда, за да демонстрира своята сила и да привлече вниманието на западната аудитория. Военни изображения, като танкове и ракети, създават привлекателна нарратива за патриотично настроената аудитория и често служат за мобилизиране на проруски настроения. Това е особено забележимо на фона на текущия конфликт с Украйна, където изображенията на военна техника и символика могат да допринесат за формирането на антинатовски и антиукраински нагласи сред западната аудитория.

Други проучвания, като например анализът на Центъра за стратегически и международни изследвания (CSIS), също показват, че руските информационни операции включват използването на ботове и фалшиви акаунти за създаване на видимост на подкрепа за Русия. Например, докладите на CSIS описват как с помощта на изкуствен интелект и автоматизирани акаунти се разпространяват антиукраински нарративи, създавайки илюзията за масова подкрепа на тези идеи сред американските потребители.

Дълбокото проучване на нашия проект за ролята на социалните медии в политическата пропаганда също показва, че социалните мрежи са се превърнали в ключов канал за разпространение на политическа пропаганда, измествайки до голяма степен традиционните медии. Около две трети от населението на света използва социални мрежи, като повече от половината от възрастните, например в САЩ, редовно получават новини чрез тях. Алгоритмите на платформите (Facebook, Twitter/X, TikTok, Telegram и др.) спомагат за вирусното разпространение на съдържание – проучванията показват, че фалшивите новини се разпространяват в мрежите по-бързо от истинските. Механизми като ленти с препоръки и групи по интереси създават „ехо камери“, в които потребителите виждат предимно информация, потвърждаваща техните възгледи.

В тези условия социалните мрежи се превърнаха в мощен инструмент за влияние върху общественото мнение, който се използва активно, включително за държавна пропаганда. Те се превърнаха в най-мощното средство за въздействие върху съзнанието, като спомагат за разпространението както на информация, така и на дезинформация.

Формиране на проруски настроения и умора от войната

Разпространението на проруски сюжети също допринася за „умората от войната“ сред западната аудитория. Постоянното появяване в новинарските ленти на изображения на руската армия и положителни публикации за Русия може да създаде погрешно впечатление за нейната легитимност и сила, което намалява нивото на подкрепа за Украйна. Това може да доведе до това, че западната общественост, особено в САЩ, да започне да възприема подкрепата за Украйна като неоправдана, което отслабва позицията на западните демокрации на международната сцена и допринася за намаляване на финансовата и военната помощ за Украйна.

Подкопаване на доверието в демократичните институции

Руските дезинформационни кампании подкопават и доверието в западните демократични институции, представяйки ги като неспособни да реагират адекватно на информационните заплахи и да защитят своите граждани от външно влияние. Според проучване на Georgetown Journal of International Affairs (GJIA), путинската пропаганда често се фокусира върху представянето на западните правителства като неефективни, а подкрепата за Украйна като ненужна.

Руската пропаганда създава негативно възприятие за западните институции, което може да повлияе или вероятно вече влияе на политическите предпочитания на американските избиратели и да доведе до засилване на проруските настроения в САЩ.

Правна оценка и правни аспекти

Въпросът за това как да се регулира разпространението на чуждестранна пропаганда на американски платформи е сложен поради необходимостта да се балансира между защитата на свободата на словото и националната сигурност. В случая с руската пропаганда, разпространявана чрез Facebook, съществува вероятност страниците, промотиращи проруски нарративи, да нарушават както законите на САЩ, така и редица изисквания в областта на регулирането на някои бизнес практики. Например, изискванията на Федералната търговска комисия (FTC) и Комисията по ценните книжа и борсите на САЩ (SEC) за защита на потребителите, прозрачност на бизнес практиките и предотвратяване на манипулации.

Заключение

За борба с руската пропаганда във Facebook е необходим комплексен подход. Използвайки фалшиви акаунти и страници, руските информационни кампании успешно заобикалят алгоритмите на платформата, създавайки илюзията за широка подкрепа на проруските нарративи сред западната аудитория.

Необходимост от подобряване на алгоритмите и модерацията на съдържанието

За по-ефективно противодействие на чуждестранната пропаганда са необходими прозрачни и усъвършенствани алгоритми, способни да откриват и ограничават разпространението на съдържание, което изкуствено увеличава ангажираността чрез мрежи от фалшиви акаунти. Facebook, както и други социални мрежи, трябва да разгледат възможността за подобряване на механизмите за модерация, за да не достига подобен съдържание до широка аудитория. Прозрачните процедури за подаване на жалби и оперативният отговор на тях също ще помогнат на потребителите да се чувстват защитени от дезинформация. За съжаление, опитите да се постигне поне някаква смислена реакция от модераторската служба на Facebook се провалят отново и отново.

Вместо това автоматичните алгоритми на Facebook налагат несправедливи временни ограничения на акаунти, които разпространяват истината за действията на руските въоръжени сили на територията на Украйна, или изображения на меми, сравняващи Адолф Хитлер и Владимир Путин (точно това, например, се случи в моя случай – без никаква последваща реакция от Facebook на подадената жалба). Създава се усещането, че социалната мрежа поощрява разпространението на пропаганда и по никакъв начин не се бори с хилядите фалшиви акаунти и страници, създадени с единствената цел – да повлияят на избирателите в САЩ и страните от ЕС.

Комплексното решение на проблема изисква съвместни усилия на американските държавни органи, социалните платформи и гражданското общество. Законодателите и регулаторните органи биха могли да разгледат допълнителни мерки за контрол върху дейността на платформите и техните алгоритми, особено що се отнася до разпространението на руска пропаганда, която може да окаже влияние върху демократичните процеси в страната.

В условията на информационна война и международна агресия е важно не само да се реагира на отделни случаи, но и да се въвеждат дългосрочни стратегии за защита на западната общественост от манипулиране на общественото мнение. Прозрачните правила и ефективната модерация ще помогнат на социална платформа като Facebook да остане безопасна и заслужаваща доверие среда за потребителите.

Максим Новичков

Дийпфейк технологиите излизат извън контрол

Представете си как един ден приятелите ви се обаждат, че са видели многократно гледано видео с вашето лице, голото ви тяло, включително гласа ви, в злонамерен пост. Не си спомняте да сте пускали такова видео. И не можете да повярвате, че се държите по толкова шокиращ начин и казвате тези отвратителни думи. Ощипвате се, мислейки че е някакъв кошмар, но сте напълно будни и се оказвате виктимизирани в киберпространството. Добре дошли в света на дийпфейк! Това вече не е хипотетична ситуация, тъй като се е случвала на различни хора, оказали се жертва на порносайтове и популярни социални медии. Поради това притесненията за дийпфейк технологиите не са незначителни и със сигурност изискват сериозно внимание и корективни действия.

Много прости инструменти за видеомонтаж произвеждат фалшиви видеа от години. Обикновено с малко старание можем да забележим фалшификацията в тези изкуствени видеа. Не ги взимаме твърде сериозно. Но технологията, използваща Изкуствен интелект, известна като „Дийпфейк“ сега прави реалността в тези синтетични видеа все по-трудно различима от фалшификата.

Тази статия представя накратко дийпфейк технологиите и основните им приложения, осветлява огромните притеснения и предлага няколко възможни практически решения, основаващи се на опита ми в областта на новите технологии.

Преглед на Дийпфейк технологиите

Аудио и видео технологиите за дийпфейк могат да бъдат използвани както поотделно, така и заедно. Има различни случаи на употреба на всяка от тях и на комбинираната им употреба. Но комбинацията от двете може да създаде по-убедителни резултати на крайния продукт.

В рамките на компютърното визуално поле, дийпфейк видеата използват технологиите на изкуствения интелект, включващи машинното обучаване, дълбокото обучаване, неврологичните мрежи, генеративните състезателни мрежи и автоенкодерите.

Идентифицирах значими случаи на употреба и валидни притеснения, докато провеждах работни групи по проектно мислене върху противодействието на дийпфейк технологиите. Притесненията са съсредоточени основно около безопасността, сигурността, накърняването на репутацията, фалшивите новини, масовите измами и изнудванията, водещи до финансови загуби.

Поставянето на неодобрени видеа на политици, директори и знаменитости е най-разпространено. Тези публични фигури могат да бъдат стратегически таргетирани в социалните мрежи. И техните фалшиви видеа могат да изтекат дори и в традиционните медии, ако не бъде приложена елементарна наблюдателност.

Ако подмяната на смисъла на едно истинско видео е предизвикателство за обикновените инструменти, то това е много по-лесно при използването на технологиите на изкуствения интелект, чрез добавянето на емоции и наподобяването на човешки черти като лицево разпознаване от снимки и видеа. Няколко изследователски института създадоха забележителни примери, използвайки ИИ-техниките за дълбоко учене.

Техниката, която забавя или леко забързва скоростта на говоренето в дадено видео, е проста. Но дори и тази проста техника може да обърка зрителите, създавайки променено впечатление за човек, който в действителност не е увреден. Виждали сме подобни примери на такива променени видеа в YouTube.

Редактирането и пререждането на текст в аудио-файлове с речеви шрифтове и маркировки са директни и бързи за употреба софтуерни пакети. Патентованите инструменти са обикновено скъпи, но някои инструменти от обществената сфера са свободно достъпни за всеки.

Някои социални медии имат инструменти за идентифициране на фейк видеа, сравнявайки ги с оригиналните. Но, за жалост, докато ги разкрият, вредата от дезинформацията вече се е случила и компенсацията обикновено не е възможна.

Съществуват и инструменти, превръщащи роботите в естествени участници в някои видеоигри и филми. Една от техниките за постигане на такава цел е модулацията. От техническа гледна точка, колкото по-дълго е едно видео и колкото по-голяма база от данни използва то, толкова по-силни могат да бъдат възможните резултати.

Първоначалните приложения и инструменти за дийпфейк бяха произвеждани от регистрирани технологични компании, но в момента се правят от множество опънсорс организации. Така например, в Github съществуват повече от 80 опънсорс проекти за дийпфейк.

Дийпфейк технологията може да бъде полезна за различни цели, като образование и обучение. Тя може също да бъде идеална в подпомагането на хора с увреждания при ефективно споделяне на тяхното съдържание. Например, знаем че Стивън Хокинг е споделял стойностните си послания чрез компютъризирани инструменти, тъй като беше лишен от глас поради заболяването си от АЛС.

Филми и видеоигри могат да бъдат направени по-атрактивни с участието на дийпфейк технологиите. Например, въвеждането на необичаен персонаж във филм или игра, което е логистичо невъзможно, е неоценима възможност за медийната и развлекателната индустрии.

Бизнес лидери на световни организации могат да споделят съдържание на множество езици, използвайки лицата си. По този начин, например, изпълнителен директор на голяма корпорация може да държи една и съща реч в различни страни на съответния език. Промяната на чуждестранен акцент в речта е също със значима употреба в мултинационалните екипи.

Преподавателите използват подобен род видеа за вдъхновяване и мотивация в процеса на преподаване и обучение.

Основни притеснения при дийпфейк технологиите

Целта ми в този раздел не е да плаша хората, а да дам по-балансирана перспектива на положителните и отрицателните страни на дийпфейк видео и аудио технологиите. Ключовият момент е, че използвайки предимствата на тези технологии, трябва да имаме предвид и рисковете и активно и съвместно да вземем мерки.

Критичните аспекти при новите технологии, като изкуствения интелект, са етиката и законът. Въпреки че има много притеснения относно ИИ, в този пост ще засегна само дийпфейк видео и аудио технологиите. Имам намерение да публикувам още постове за различните аспекти на етичните и законовите проблеми, свързани с ИИ.

Потребителите обичат дийпфейк видео и аудио документите по различни причини, в това число образователни и развлекателни. Забавните и обучаващи видеа обикновено се приемат много добре от публиката и поради това имат потенциала да станат много популярни посредством мощта на социалните медии.

Може би сте виждали лицето на Барак Обама, озвучено с гласа на Джордън Пийл във видеото от 2018 г. Джордан, актьор, комедиант и продуцент на филми направи видеото с помощта на ИИ, за да предупреди за бъдещето на фалшивите новини.

Най-големите тревоги, породени от дийпфейк технологиите, са свързани с етиката и законите. Измамата оглавява списъка в тази индустрия. Например, манипулирането на медицински изображения е критичен проблем за сферата на здравеопазването.

В допълнение, взимайки предвид силата на криптовалутите и социалното инженерство, дийпфейк видеата могат да бъдат използвани за изнудване на публични фигури, богати хора и бизнес организации.

Когато тези мощни техники попаднат в неправилните ръце, например на терористи, последствията могат да бъдат сериозни. Опасенията са основателни, защото инструментите на ИИ са широкодостъпни. По-сложни и организирани усилия с използването на ИИ могат да застрашат дори живота ни на тази планета. Ще засегна този критичен момент в друга статия.

Визуални и аудио характеристики могат лесно да бъдат манипулирани с помощта на ИИ. Коригирането на скоростта е най-широко употребяваната техника за създаване на нови модели. Тези техники могат лесно да променят контекста на дадено съдържание. Когато ИИ влезе в уравнението на видеомонтажа и разпространението, това повдига основателни притеснения и засилени страхове.

В края на статията добавям и нейната аудиоверсия. Читателка ми изпрати интересно лично съобщение, след като чула женски глас: „Мислех, че сте мъж, съдейки по профилната Ви снимка и името.“ Това съобщение ме разсмя тогава, но също така породии притеснения, защото хората лесно могат да се заблудят относно различията на половете в един аудиофайл.

Ние използваме аудиофайлове, за да създаваме подкастове. Една медийна компания ми предложи безплатно да конвертира пробно моите блогове в подкастове. Много съм впечатлен от ефективността при обръщането на блоговете ми в подкастове с няколко кликвания. Това е отлична възможност за блогъри, които биха желали да публикуват текстовете си в подкаст.

Но тази възможност носи също и риск от подмяната на блог публикации в подкаст с променено съдържание, извън контрола на блогъра. Например, някой би могъл да копира и препубликува блога и с минимална редакция да превърне блог поста в подкаст, това просто приложение може да има сериозни усложнения, като нарушаване на авторските права и причиняване на финансови загуби за блогъри и писатели.

Силно притеснение създават и дийпфейк видео и аудио, които чрез измама причиняват вреда на организации, очернят хора, подкопават общественото доверие в правителствата, отслабват журналистиката и застрашават обществената сигурност. Всички тези възможности са вероятни, и нито една от тях не е за подценяване.

Дори и все още да сме в зародишния етап на технологиите, очакваме мобилните технологии да направят тези инструменти още по-достъпни. Много скоро например всеки ще бъде в състояние да създаде дийпфейк видео и аудио с помощта на апликациите от смартфона си. При тази масова употреба може да се окаже твърде трудно да се контролира ситуацията.

Знаем, че свободата на словото е нож с две остриета, такава е и сегашната ситуация с дийпфейк технологиите. ИИ технологиите носят много ползи за обществото, но в същото време крият и много рискове за сигурността ни, безопасността и качеството на живот.

Обама никога не е произнасял тези думи…

Правителствата много бавно подхождат към проблемите с дийпфейк, но има някои обещаващи действия от държавното управление на Съединените щати и правителството на Китай. Някои медийни компании също бавно обръщат вниманието си към проблема, но поне Туитър и Фейсбук създадоха някои политики.

Туитър предприе някои мерки, както се съобщава в техния официален блог, озаглавен „Публично изграждане на правила: Нашият подход към изкуствените и манипулирани медии. Накратко, „Не можете да споделяте измама посредством синтетични или манипулирани медии, които е вероятно да предизвикат вреда. В допълнение, ние можем да обозначаваме туитове, съдържащи синтетични и манипулирани материали, за да улесним хората в разпознаването на медийната автентичност и да подсигурим допълнителен контекст на информацията.“ Този туит, публикуван от Туитър на 18 февруари 2020 г., имаше 1996 цитирания, което може да ви даде представа за различните туитър потребители.

Фейсбук разви някои мерки през 2020 година. Например, творението Противодействие на манипулираните медии, публикувано от Моника Бикърт, вицепрезидент по „Мениджмънт на глобалната политика“, посочи, че Фейсбук засилва политиката си срещу подвеждащи манипулирани видеа, които са били идентифицирани като дийпфейк.

Фейсбук също така си партнира с лидери в индустрията и академични експерти в създаването на Deepfake Detection Challenge (DFDC), за ускоряване създаването на нови начини за откриване на дийпфейк видеа през 2020 година. „Чрез създаването и споделянето на уникална нова база данни от повече от 100 000 видеа, DFDC позволи на експерти от цял свят да се съберат, да сравнят моделите си за откриване на дийпфейк, да опитат нови подходи и да учат едни от други.“

Според InfoSecurity Magazine, „YouTube стана първата голяма социална медийна платформа, която свали дийпфейк видеото на говорителя на Камарата на представителите на Съединените щати Нанси Пелоси. Клипът беше със забавена скорост, така че да изглежда сякаш Пелоси заваля думите си, представяйки я като едва ли не толкова пияна, че всеки момент ще поведе танца конга.“

Какво можем да направим?

Като професионалист в технологиите, препоръчвам холистичен подход за справяне с проблемите. Развивайки предложенията си и вниквайки в архитектурата на въпроса, аз виждам ролята на всеки от участниците в жизнения цикъл на дийпфейк решенията. Ключовите действащи лица в този жизнен цикъл са анализаторите, разработчиците, архитектите, мениджърите на проекти, праивтелствените органи и потребителите.

Ако технологията и дизайна са от основно значение за доставчиците, то яснотата и образоваността на потребителите са също основни фактори. Проблемите, свързани с дийпфейк, могат да бъдат добавени към комплекта за сигурността и безопасността на работното място и у дома за лична употреба на Интернет.

Тъй като разпространението на фейк видео и аудио файлове има значителни неблагоприятни ефекти, една от най-важните роли и отговорности се пада на социалните и традиционните медийни компании. Те могат да предприемат ефективни и автоматизирани мерки за намаляване на рисковете.

Например, понеже повечето от жертвите са уважавани публични фигури, система на изкуствен интелект може да маркира тези видеа, да приложи скрининг процес и да задържи онези от тях, които са рискови, в зона за сортиране, преди да бъдат публикувани. Този подход е съвсем достъпен за социалните медии, предвид че те имат вграден ИИ капацитет, включително инфраструктура и апликации.

Журналистите играят също важна роля в този процес. Не мога да вляза в детайли по въпроса. На много високо ниво обаче, преди да се употребят каквито и да е сензационни видео и аудио материали в традиционна медия, журналистите трябва да имат система за проверка, която да е информативна и изчерпателна.

Като отговорни потребители, ние трябва да бъдем внимателни, когато консумираме видео и аудио файлове. Например, преди да правим заключения за някой шокиращ материал, можем да поставим под въпрос и да проверим валидността на даден артефакт, използвайки онлайн източници.

Трябва да насърчаваме потребителите да докладват подобни материали. В допълнение, докладваните случаи трябва да бъдат незабавно проверявани от доставчиците на услугата. Като отговорни потребители, ние трябва да ги проследяваме и да изискваме потвърждение за докладваните случаи, ако не са предприети действия.

От гледна точка на една бъдеща и устойчива перспектива, имаме нови появяващи се инструменти и процеси за валидиране. Разработването на алгоритми за засичане на фейк видеа е приложимо решение. Освен това, един от инструментите е блокчейн технологията с дигитални ключове. Представил съм блокчейн в отделна статия.

Вторият инструмент е контролиране на вредата в сътрудничество, с помощта на етически процеси на проследяване от доставчици, дистрибутори и потребители. Говорил съм за това също в отделна статия.

Съществува и документ, който посочва различните социални и законови проблеми, пред които регулаторите и обществото трябва да се изправят. Документът засяга потенциалната роля на платформите за онлайн разпространение на съдържание и на правителствата в решаването на проблемите на дийпфейк. Авторите правят три предложения. Едното от тях е от технологична гледна точка, а другите две са от перспективата на регулаторите за ограничаване разпространението на дийпфейк резултатите.

Заключения

Претърпяхме много неблагоприятни последствия от манипулирани снимки през последните две десетилетия. Сега подобни притеснения се появяват и преобладават онтосно фейк видеата и гласовите документи, засягащи нашето ментално здраве и благополучие.

Дийпфейк технологиите носят много възможности за артисти, предприемачи, учени, технолози и преподаватели, но също така поставят и сериозни етични, правни и финансови проблеми за обществото. С добре обмислен подход ние трябва да вземем предпазни мерки, преди ситуацията да излезе извън контрол.

Доколкото дийпфейк видео и аудио файловете са социален проблем, разрешаването му изисква колективно усилие. Може да се окаже невъзможно да се облекчат рисковете единствено чрез нашите действия в близко време, но ние можем значително да ги намалим и да подходим към належащите проблеми с обединени усилия в дългосрочен план.

Тъй като дийпфейк видеата използват сложни инструменти и процеси на изкуствения интелект, те могат да бъдат убедителни за опитния журналист, за информирания потребител и дори за специалиста по технологии. Поради това трябва да обучим всички видове потребители, да създадем политика, да разработим устойчиви решения и постоянно да наблюдаваме дейсностите, за да предотвратим вредите от дийпфейк технологиите.

Благодаря ви за това, че прочетохте моите възгледи.

Д-р Мехмед Йълдъз e специалист по технологии, хабилитиран изследовател по когнитивна наука, автор на няколко книги, редактор на публикации, и стратег по дигитален маркетинг с 40 години опит в сферата.

Източник: medium.com

Превод за „Гласове“: Екатерина Грънчарова