Дийпфейк технологиите излизат извън контрол

Представете си как един ден приятелите ви се обаждат, че са видели многократно гледано видео с вашето лице, голото ви тяло, включително гласа ви, в злонамерен пост. Не си спомняте да сте пускали такова видео. И не можете да повярвате, че се държите по толкова шокиращ начин и казвате тези отвратителни думи. Ощипвате се, мислейки че е някакъв кошмар, но сте напълно будни и се оказвате виктимизирани в киберпространството. Добре дошли в света на дийпфейк! Това вече не е хипотетична ситуация, тъй като се е случвала на различни хора, оказали се жертва на порносайтове и популярни социални медии. Поради това притесненията за дийпфейк технологиите не са незначителни и със сигурност изискват сериозно внимание и корективни действия.

Много прости инструменти за видеомонтаж произвеждат фалшиви видеа от години. Обикновено с малко старание можем да забележим фалшификацията в тези изкуствени видеа. Не ги взимаме твърде сериозно. Но технологията, използваща Изкуствен интелект, известна като „Дийпфейк“ сега прави реалността в тези синтетични видеа все по-трудно различима от фалшификата.

Тази статия представя накратко дийпфейк технологиите и основните им приложения, осветлява огромните притеснения и предлага няколко възможни практически решения, основаващи се на опита ми в областта на новите технологии.

Преглед на Дийпфейк технологиите

Аудио и видео технологиите за дийпфейк могат да бъдат използвани както поотделно, така и заедно. Има различни случаи на употреба на всяка от тях и на комбинираната им употреба. Но комбинацията от двете може да създаде по-убедителни резултати на крайния продукт.

В рамките на компютърното визуално поле, дийпфейк видеата използват технологиите на изкуствения интелект, включващи машинното обучаване, дълбокото обучаване, неврологичните мрежи, генеративните състезателни мрежи и автоенкодерите.

Идентифицирах значими случаи на употреба и валидни притеснения, докато провеждах работни групи по проектно мислене върху противодействието на дийпфейк технологиите. Притесненията са съсредоточени основно около безопасността, сигурността, накърняването на репутацията, фалшивите новини, масовите измами и изнудванията, водещи до финансови загуби.

Поставянето на неодобрени видеа на политици, директори и знаменитости е най-разпространено. Тези публични фигури могат да бъдат стратегически таргетирани в социалните мрежи. И техните фалшиви видеа могат да изтекат дори и в традиционните медии, ако не бъде приложена елементарна наблюдателност.

Ако подмяната на смисъла на едно истинско видео е предизвикателство за обикновените инструменти, то това е много по-лесно при използването на технологиите на изкуствения интелект, чрез добавянето на емоции и наподобяването на човешки черти като лицево разпознаване от снимки и видеа. Няколко изследователски института създадоха забележителни примери, използвайки ИИ-техниките за дълбоко учене.

Техниката, която забавя или леко забързва скоростта на говоренето в дадено видео, е проста. Но дори и тази проста техника може да обърка зрителите, създавайки променено впечатление за човек, който в действителност не е увреден. Виждали сме подобни примери на такива променени видеа в YouTube.

Редактирането и пререждането на текст в аудио-файлове с речеви шрифтове и маркировки са директни и бързи за употреба софтуерни пакети. Патентованите инструменти са обикновено скъпи, но някои инструменти от обществената сфера са свободно достъпни за всеки.

Някои социални медии имат инструменти за идентифициране на фейк видеа, сравнявайки ги с оригиналните. Но, за жалост, докато ги разкрият, вредата от дезинформацията вече се е случила и компенсацията обикновено не е възможна.

Съществуват и инструменти, превръщащи роботите в естествени участници в някои видеоигри и филми. Една от техниките за постигане на такава цел е модулацията. От техническа гледна точка, колкото по-дълго е едно видео и колкото по-голяма база от данни използва то, толкова по-силни могат да бъдат възможните резултати.

Първоначалните приложения и инструменти за дийпфейк бяха произвеждани от регистрирани технологични компании, но в момента се правят от множество опънсорс организации. Така например, в Github съществуват повече от 80 опънсорс проекти за дийпфейк.

Дийпфейк технологията може да бъде полезна за различни цели, като образование и обучение. Тя може също да бъде идеална в подпомагането на хора с увреждания при ефективно споделяне на тяхното съдържание. Например, знаем че Стивън Хокинг е споделял стойностните си послания чрез компютъризирани инструменти, тъй като беше лишен от глас поради заболяването си от АЛС.

Филми и видеоигри могат да бъдат направени по-атрактивни с участието на дийпфейк технологиите. Например, въвеждането на необичаен персонаж във филм или игра, което е логистичо невъзможно, е неоценима възможност за медийната и развлекателната индустрии.

Бизнес лидери на световни организации могат да споделят съдържание на множество езици, използвайки лицата си. По този начин, например, изпълнителен директор на голяма корпорация може да държи една и съща реч в различни страни на съответния език. Промяната на чуждестранен акцент в речта е също със значима употреба в мултинационалните екипи.

Преподавателите използват подобен род видеа за вдъхновяване и мотивация в процеса на преподаване и обучение.

Основни притеснения при дийпфейк технологиите

Целта ми в този раздел не е да плаша хората, а да дам по-балансирана перспектива на положителните и отрицателните страни на дийпфейк видео и аудио технологиите. Ключовият момент е, че използвайки предимствата на тези технологии, трябва да имаме предвид и рисковете и активно и съвместно да вземем мерки.

Критичните аспекти при новите технологии, като изкуствения интелект, са етиката и законът. Въпреки че има много притеснения относно ИИ, в този пост ще засегна само дийпфейк видео и аудио технологиите. Имам намерение да публикувам още постове за различните аспекти на етичните и законовите проблеми, свързани с ИИ.

Потребителите обичат дийпфейк видео и аудио документите по различни причини, в това число образователни и развлекателни. Забавните и обучаващи видеа обикновено се приемат много добре от публиката и поради това имат потенциала да станат много популярни посредством мощта на социалните медии.

Може би сте виждали лицето на Барак Обама, озвучено с гласа на Джордън Пийл във видеото от 2018 г. Джордан, актьор, комедиант и продуцент на филми направи видеото с помощта на ИИ, за да предупреди за бъдещето на фалшивите новини.

Най-големите тревоги, породени от дийпфейк технологиите, са свързани с етиката и законите. Измамата оглавява списъка в тази индустрия. Например, манипулирането на медицински изображения е критичен проблем за сферата на здравеопазването.

В допълнение, взимайки предвид силата на криптовалутите и социалното инженерство, дийпфейк видеата могат да бъдат използвани за изнудване на публични фигури, богати хора и бизнес организации.

Когато тези мощни техники попаднат в неправилните ръце, например на терористи, последствията могат да бъдат сериозни. Опасенията са основателни, защото инструментите на ИИ са широкодостъпни. По-сложни и организирани усилия с използването на ИИ могат да застрашат дори живота ни на тази планета. Ще засегна този критичен момент в друга статия.

Визуални и аудио характеристики могат лесно да бъдат манипулирани с помощта на ИИ. Коригирането на скоростта е най-широко употребяваната техника за създаване на нови модели. Тези техники могат лесно да променят контекста на дадено съдържание. Когато ИИ влезе в уравнението на видеомонтажа и разпространението, това повдига основателни притеснения и засилени страхове.

В края на статията добавям и нейната аудиоверсия. Читателка ми изпрати интересно лично съобщение, след като чула женски глас: „Мислех, че сте мъж, съдейки по профилната Ви снимка и името.“ Това съобщение ме разсмя тогава, но също така породии притеснения, защото хората лесно могат да се заблудят относно различията на половете в един аудиофайл.

Ние използваме аудиофайлове, за да създаваме подкастове. Една медийна компания ми предложи безплатно да конвертира пробно моите блогове в подкастове. Много съм впечатлен от ефективността при обръщането на блоговете ми в подкастове с няколко кликвания. Това е отлична възможност за блогъри, които биха желали да публикуват текстовете си в подкаст.

Но тази възможност носи също и риск от подмяната на блог публикации в подкаст с променено съдържание, извън контрола на блогъра. Например, някой би могъл да копира и препубликува блога и с минимална редакция да превърне блог поста в подкаст, това просто приложение може да има сериозни усложнения, като нарушаване на авторските права и причиняване на финансови загуби за блогъри и писатели.

Силно притеснение създават и дийпфейк видео и аудио, които чрез измама причиняват вреда на организации, очернят хора, подкопават общественото доверие в правителствата, отслабват журналистиката и застрашават обществената сигурност. Всички тези възможности са вероятни, и нито една от тях не е за подценяване.

Дори и все още да сме в зародишния етап на технологиите, очакваме мобилните технологии да направят тези инструменти още по-достъпни. Много скоро например всеки ще бъде в състояние да създаде дийпфейк видео и аудио с помощта на апликациите от смартфона си. При тази масова употреба може да се окаже твърде трудно да се контролира ситуацията.

Знаем, че свободата на словото е нож с две остриета, такава е и сегашната ситуация с дийпфейк технологиите. ИИ технологиите носят много ползи за обществото, но в същото време крият и много рискове за сигурността ни, безопасността и качеството на живот.

Обама никога не е произнасял тези думи…

Правителствата много бавно подхождат към проблемите с дийпфейк, но има някои обещаващи действия от държавното управление на Съединените щати и правителството на Китай. Някои медийни компании също бавно обръщат вниманието си към проблема, но поне Туитър и Фейсбук създадоха някои политики.

Туитър предприе някои мерки, както се съобщава в техния официален блог, озаглавен „Публично изграждане на правила: Нашият подход към изкуствените и манипулирани медии. Накратко, „Не можете да споделяте измама посредством синтетични или манипулирани медии, които е вероятно да предизвикат вреда. В допълнение, ние можем да обозначаваме туитове, съдържащи синтетични и манипулирани материали, за да улесним хората в разпознаването на медийната автентичност и да подсигурим допълнителен контекст на информацията.“ Този туит, публикуван от Туитър на 18 февруари 2020 г., имаше 1996 цитирания, което може да ви даде представа за различните туитър потребители.

Фейсбук разви някои мерки през 2020 година. Например, творението Противодействие на манипулираните медии, публикувано от Моника Бикърт, вицепрезидент по „Мениджмънт на глобалната политика“, посочи, че Фейсбук засилва политиката си срещу подвеждащи манипулирани видеа, които са били идентифицирани като дийпфейк.

Фейсбук също така си партнира с лидери в индустрията и академични експерти в създаването на Deepfake Detection Challenge (DFDC), за ускоряване създаването на нови начини за откриване на дийпфейк видеа през 2020 година. „Чрез създаването и споделянето на уникална нова база данни от повече от 100 000 видеа, DFDC позволи на експерти от цял свят да се съберат, да сравнят моделите си за откриване на дийпфейк, да опитат нови подходи и да учат едни от други.“

Според InfoSecurity Magazine, „YouTube стана първата голяма социална медийна платформа, която свали дийпфейк видеото на говорителя на Камарата на представителите на Съединените щати Нанси Пелоси. Клипът беше със забавена скорост, така че да изглежда сякаш Пелоси заваля думите си, представяйки я като едва ли не толкова пияна, че всеки момент ще поведе танца конга.“

Какво можем да направим?

Като професионалист в технологиите, препоръчвам холистичен подход за справяне с проблемите. Развивайки предложенията си и вниквайки в архитектурата на въпроса, аз виждам ролята на всеки от участниците в жизнения цикъл на дийпфейк решенията. Ключовите действащи лица в този жизнен цикъл са анализаторите, разработчиците, архитектите, мениджърите на проекти, праивтелствените органи и потребителите.

Ако технологията и дизайна са от основно значение за доставчиците, то яснотата и образоваността на потребителите са също основни фактори. Проблемите, свързани с дийпфейк, могат да бъдат добавени към комплекта за сигурността и безопасността на работното място и у дома за лична употреба на Интернет.

Тъй като разпространението на фейк видео и аудио файлове има значителни неблагоприятни ефекти, една от най-важните роли и отговорности се пада на социалните и традиционните медийни компании. Те могат да предприемат ефективни и автоматизирани мерки за намаляване на рисковете.

Например, понеже повечето от жертвите са уважавани публични фигури, система на изкуствен интелект може да маркира тези видеа, да приложи скрининг процес и да задържи онези от тях, които са рискови, в зона за сортиране, преди да бъдат публикувани. Този подход е съвсем достъпен за социалните медии, предвид че те имат вграден ИИ капацитет, включително инфраструктура и апликации.

Журналистите играят също важна роля в този процес. Не мога да вляза в детайли по въпроса. На много високо ниво обаче, преди да се употребят каквито и да е сензационни видео и аудио материали в традиционна медия, журналистите трябва да имат система за проверка, която да е информативна и изчерпателна.

Като отговорни потребители, ние трябва да бъдем внимателни, когато консумираме видео и аудио файлове. Например, преди да правим заключения за някой шокиращ материал, можем да поставим под въпрос и да проверим валидността на даден артефакт, използвайки онлайн източници.

Трябва да насърчаваме потребителите да докладват подобни материали. В допълнение, докладваните случаи трябва да бъдат незабавно проверявани от доставчиците на услугата. Като отговорни потребители, ние трябва да ги проследяваме и да изискваме потвърждение за докладваните случаи, ако не са предприети действия.

От гледна точка на една бъдеща и устойчива перспектива, имаме нови появяващи се инструменти и процеси за валидиране. Разработването на алгоритми за засичане на фейк видеа е приложимо решение. Освен това, един от инструментите е блокчейн технологията с дигитални ключове. Представил съм блокчейн в отделна статия.

Вторият инструмент е контролиране на вредата в сътрудничество, с помощта на етически процеси на проследяване от доставчици, дистрибутори и потребители. Говорил съм за това също в отделна статия.

Съществува и документ, който посочва различните социални и законови проблеми, пред които регулаторите и обществото трябва да се изправят. Документът засяга потенциалната роля на платформите за онлайн разпространение на съдържание и на правителствата в решаването на проблемите на дийпфейк. Авторите правят три предложения. Едното от тях е от технологична гледна точка, а другите две са от перспективата на регулаторите за ограничаване разпространението на дийпфейк резултатите.

Заключения

Претърпяхме много неблагоприятни последствия от манипулирани снимки през последните две десетилетия. Сега подобни притеснения се появяват и преобладават онтосно фейк видеата и гласовите документи, засягащи нашето ментално здраве и благополучие.

Дийпфейк технологиите носят много възможности за артисти, предприемачи, учени, технолози и преподаватели, но също така поставят и сериозни етични, правни и финансови проблеми за обществото. С добре обмислен подход ние трябва да вземем предпазни мерки, преди ситуацията да излезе извън контрол.

Доколкото дийпфейк видео и аудио файловете са социален проблем, разрешаването му изисква колективно усилие. Може да се окаже невъзможно да се облекчат рисковете единствено чрез нашите действия в близко време, но ние можем значително да ги намалим и да подходим към належащите проблеми с обединени усилия в дългосрочен план.

Тъй като дийпфейк видеата използват сложни инструменти и процеси на изкуствения интелект, те могат да бъдат убедителни за опитния журналист, за информирания потребител и дори за специалиста по технологии. Поради това трябва да обучим всички видове потребители, да създадем политика, да разработим устойчиви решения и постоянно да наблюдаваме дейсностите, за да предотвратим вредите от дийпфейк технологиите.

Благодаря ви за това, че прочетохте моите възгледи.

Д-р Мехмед Йълдъз e специалист по технологии, хабилитиран изследовател по когнитивна наука, автор на няколко книги, редактор на публикации, и стратег по дигитален маркетинг с 40 години опит в сферата.

Източник: medium.com

Превод за „Гласове“: Екатерина Грънчарова

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.