Изкуствения Интелект (ИИ) и дезинформацията

Вниманието на човечеството днес е насочено към изкуствения интелект (AI). OpenAI предоставя безплатен достъп до чатбота ChatGPT и публикуване в социалните мрежи на подправени изображения, създадени с помощта на Midjorney и други невронни мрежи, направи този инструмент по-близо от всякога до обикновените потребители на мрежата. 

Това актуализира дискусиите за рисковете и възможностите, които изкуственият интелект носи като част от информационните войни.

Как изкуственият интелект помага при работата с информация

AI има голям потенциал за създаване и обработка на съдържание. Центърът за стратегическа комуникация и информационна сигурност използва способности на AI, за да наблюдава медийното пространство и да анализира набор от онлайн публикации. Става въпрос за автоматизирани инструменти, включително платформи SemanticForce и Attack Index.

SemanticForce помага на потребителите да идентифицират информационните тенденции, да проследяват промените в отговора на потребителите в социалните медии на новини и събития, да идентифицират речта на омразата и т.н. Друг вектор на приложението на невронната мрежа е подробен анализ на изображения, който позволява бързо откриване на неподходящо или злонамерено съдържание.

Attack Index използва машинно обучение (оценка на тоналността на съобщението, класиране на източника, прогнозиране на развитието на динамиката на информацията), клъстерен анализ (автоматично групиране на текстови съобщения, откриване на сюжети, формиране на вериги от истории), компютърна лингвистика (за идентифициране на установени фрази и разкази ), формиране, групиране и визуализация на семантични мрежи (за определяне на връзки и възли, разработване на когнитивни карти) и анализ на корелация и вълни (за откриване на продължаващи психически проблеми).

Наличните инструменти позволяват разграничаване между органично и координирано разпространение на съдържание, откриване на автоматизирани системи за разпространение на нежелана поща, оценка на въздействието върху аудиторията на определени потребителски акаунти в социални медии, разпознаване на ботове от реални потребители и много повече – всичко това с помощта на AI.

Тези инструменти могат да се използват както за откриване на дезинформация, така и за анализ на кампании за дезинформация и разработване на противодействия. 

AI потенциал за създаване и разпространение на дезинформация

Почти всеки ден невронните мрежи демонстрират подобрение на своите възможности за създаване на графично, текстово и аудиовизуално съдържание. Качеството му ще се подобри предвид възможностите на машинното обучение. Днес популярните невронни мрежи се използват от интернет потребителите повече като играчка, отколкото като инструмент за създаване на фалшификати.

Въпреки това вече има примери как изображенията, генерирани от невронни мрежи, не само стават вирусни, но и се възприемат от потребителите като реални. По-специално изображението на „момче, оцеляло след ракетен удар в Днепър“ или „Путин, поздравяващ Си Дзинпин на колене“.

Тези примери ясно показват, че изображенията, проектирани с помощта на невронни мрежи, вече се конкурират с реалните по отношение на емоционалния си заряд и това със сигурност ще бъде използвано с цел дезинформация.

Проучване на аналитичния център NewsGuard, проведено през януари 2023 г., установи, че ChatGPT може да генерира текстове, които развиват вече съществуващите теории на конспирацията и включват реални събития в техния контекст. Инструментът има потенциал за автоматизирано разпространение (чрез бот ферми) на множество съобщения, чиято тема и тон ще се определят от човешки оператор, но техният текст ще се генерира от AI. Още днес с помощта на този бот могат да се създават дезинформационни съобщения, включително такива, базирани на наративите на кремълската пропаганда – чрез формулиране на подходящи искания. Противодействието на разпространението на изкуствено генерирано фалшиво съдържание е предизвикателство, на което вече трябва да сме готови да отговорим.

Военно използване на AI: какво да очакваме от руснаците

Руските специални служби, които вече имат богат опит в използването на фото и видео редактиране за създаване на фалшификати и провеждане на психологически операции, сега активно овладяват AI. Технологията Deepfake е базирана на AI. Той беше използван по-специално за създаване на фалшиво видеообръщение на президента Зеленски за „капитулацията“ на Украйна, което се появи в медийното пространство през март 2022 г.

Предвид лошото качество на този „продукт“, бързата реакция на държавните комуникационни органи, президента, който лично опроверга фалшификата, и журналистите, въпросът не получи много внимание. Видеото не постигна целта си нито в Украйна, нито в чужбина. Но руснаците очевидно няма да спрат дотук. 

Днес Кремъл използва огромен брой инструменти за разпространение на дезинформация: телевизия, радио, уебсайтове, пропагандни блогове в Telegram, YouTube и социални мрежи. 

AI има потенциала да се използва предимно за създаване на фалшификати на снимки, аудио и видео, както и за ферми за ботове. AI може да замени значителна част от човешкия персонал в руските „фабрики за тролове“, интернет воини, които провокират конфликти в социалните медии и създават илюзията за масова подкрепа за наративите на Кремъл онлайн.

Вместо „тролове“, които пишат коментари според определени ръководства, това може да се направи от AI, използвайки ключови думи и речника, с който се захранва. В същото време решаващо влияние върху лоялната аудитория оказват реалните инфлуенсъри (политици, пропагандисти, блогъри, теоретици на конспирацията и др.), а не безименни ботове и интернет тролове. Въпреки това, с помощта на AI, тежестта на последния може да бъде увеличена чрез количествен растеж и „фина настройка“ на съобщенията за различни целеви аудитории.

През 2020 г. украинското правителство одобри „Концепция за развитие на изкуствения интелект“. Рамковият документ дефинира ИИ като компютърна програма, съответно правната уредба на използването на ИИ е същата като при другите софтуерни продукти. Така че е твърде рано да се говори за някакво правно регулиране на ИИ в Украйна.

Развитието на ИИ изпреварва създаването на предпазни мерки срещу злонамерената му употреба и формулирането на политики за регулирането му.

Следователно сътрудничеството на украинските правителствени агенции с големите технологични компании в противодействието на разпространението на дезинформация, както и идентифицирането и елиминирането на ферми за ботове, трябва само да се задълбочи. От това се интересуват както украинското правителство, така и световните технологични гиганти.

Преведено от Мрежата

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert