Кордони цифрового світу розширюються, а разом зі стрімким розвитком можливостей штучного інтелекту зростає і занепокоєння щодо його використання у створенні й поширенні фейкових новин. Навіть у текстовій формі дезінформація та боротьба з нею стали справжнім викликом сьогодення, але що робити, коли предметом маніпуляції можуть стати сфабриковані відеозвернення лідерів країн, які можуть публічно закликати, наприклад, до бойових дій? Це питання досліджує Тетяна Савчук (“Радіо Свобода”).
Більшість людей уже звикла до багатьох форм маніпуляцій зображеннями: додаток на смартфоні сьогодні за лічені хвилини може допомогти змінити будь-які деталі фотографії або ж, наприклад, обмінятися обличчями з будь-якою особою, включаючи політиків, і почати говорити від їхнього імені. Але ці зображення (та відео) зазвичай дуже легко відрізнити від реальних, як мінімум, через недосконале зображення.
Однак можливості штучного інтелекту вже досягли рівня, коли він здатен генерувати надзвичайно реалістичні фото та відео людей, справжність яких складно перевірити навіть йому самому.
«Нам часто казали не вірити всьому, що ми читаємо, але скоро нам потрібно буде почати сумніватися в усьому, що ми бачимо й чуємо», – йдеться у виданні The Guardian. Експерти попереджають: незабаром штучний інтелект зможе якісно підроблювати не лише фото, але й аудіо, що суттєво ускладнить боротьбу із фейковими новинами та дезінформацією.
Проблематика фейкових відео
Американська корпорація Nvidia ще в жовтні минулого року продемонструвала спроможність її штучного інтелекту створювати «тривожно реалістичні образи людей, яких не існує», йдеться у виданні Futurism. Пізніше цей штучний інтелект уже навчився маніпулювати відеозображеннями, перетворюючи день на ніч, зиму на літо або сонячний день на дощовий.
Сьогодні Nvidia інвестує великі гроші в дослідження можливостей штучного інтелекту. Команда дослідників корпорації розробила систему, здатну створювати зображення облич на основі аналізу тисяч фотографій відомих людей, і знаходити схожі риси, пояснюють Кейд Мец та Кейт Коллінс у статті для The New York Times. Ця система спроможна генерувати надзвичайно реалістичні й чіткі зображення тварин, рослин і багатьох інших предметів, які відрізнити від реальності дуже складно.
Більш того, поки одна нейромережа створює нові обличчя, інша – намагається виявити, чи ці зображення справжні чи підробні: «по суті, одна система працює якнайкраще для того, щоб перехитрити іншу, яка робить усе можливе для того, щоб не дати себе надурити», – пояснюють автори.
І якщо першочерговою метою дослідників було покращення комп’ютерних інтерфейсів та відеоігор, у часи, коли фейкові новини є серйозною проблемою, запровадження таких технологій, ймовірно, надзвичайно ускладнить можливість відрізняти правду від підробок – технології лише поглиблять проблеми з дезінформацією.
Та річ у тім, що такі «таланти» штучного інтелекту доступні не лише дослідникам великих корпорацій. Як повідомляється у виданні The Independent, нещодавно користувач соціальної мережі Reddit використав можливості штучного інтелекту для того, щоб високоякісно замінити обличчя порноакторки на обличчя актриси Ґал Ґадот, яка була головною героїнею фільму «Диво-жінка». Алгоритм дозволив «накласти» обличчя акторки на відео, і відрізнити підробку стало досить складно. І тут виникає певна проблема: «алгоритми не турбуються про згоду, конфіденційність чи законність» таких речей, мовиться в статті.
Як повідомляє газета The Daily Mail, такий випадок уже не перший. Видання звертає увагу на те, що «аматорське відео має тривожні наслідки, показуючи, як вільно доступні ресурси можуть бути використані для створення підроблених фільмів упродовж декількох днів чи навіть годин».
«Голосовий фотошоп», що може розв’язати війну
«Найбільшою втратою, спричиненою штучним інтелектом, стане повне знищення довіри до будь-чого, що ви бачите або чуєте», – пояснює в статті для Wired Вільям Веслер. Він звертає особливу увагу на проблематику відтворення штучним інтелектом не тільки фейкових фото чи відео, але й аудіо.
Проект Adobe Voco наразі розробляє програму, яку вже встигли назвати «голосовим фотошопом»: вона замінює «сигнали для пікселів, щоб створити те, що природно звучить. Компанія робить ставку на те, що в разі, якщо є достатня кількість запису мовлення людини, для зміни запису її голосу потрібно буде зробити трохи більше, ніж «вирізати й вставити», – пояснює Веслер.
Не дивлячись на очікувані прибутки від технології, вона може мати вкрай негативні наслідки і навіть призвести до війни, наголошує автор. Заміну голосу можуть почати широко використовувати для того, щоб обдурити чи збити людей з пантелику: «Просто уявіть собі наслідки підробленого голосу світового лідера, який робить войовничі заяви, підкріплені фальсифікованими відео. Чи зможуть у 2018 році громадяни, або військові генерали, визначити, що це фальшивка?» – запитує Веслер.
Професор Хані Фарід, експерт з виявлення фейкових фотографій та відеороликів, особливо «стурбований тим, як швидко поширюється вірусний контент, і наскільки повільним є процес перевірки. Фарід уявляє найближче майбутнє, в якому переконливий фальшивий відеоролик, де президент США Дональд Трамп наказує повне ядерне знищення Північної Кореї, стає вірусним і викликає паніку, подібно до перевидання фільму «Війна світів» в епоху штучного інтелекту», – йдеться у виданні Wired.
Штучний інтелект знає, як змусити вас плакати
Більш того, штучний інтелект зможе не просто маніпулювати аудіо та відео зображеннями, але й знатиме, як найкраще викликати у людей сильні емоції. Як повідомляє консалтингова компанія McKinsey & Company, дослідники вирішили дати глибокій нейронній мережі передивитися тисячі коротких стрічок, щоб та виявила, які саме моменти в фільмах є особливо емоційними. Потім вони випробували рішення штучного інтелекту на справжніх людях, які підтвердили результат машини.
Це свідчить про те, що незабаром компанії за допомогою штучного інтелекту вироблятимуть контент, який маніпулюватиме людськими емоціями краще, ніж міг би вигадати будь-який режисер. Та серед дослідників уже є певні побоювання, що таку ж саму методологію почнуть використовувати медіакорпорації і держави для власних цілей.
Експерти погоджуються, що, певно, ніщо не може зупинити хвилі контенту, створеного штучним інтелектом, який використовуватимуть також і в політичних цілях. На думку Сандри Упсон у статті для Wired, з розвитком штучний інтелект «все більше імітуватиме людські дії. Врешті-решт, у нього немає іншого вибору, окрім як стати зовсім людським: схильним до добра і зла однаковою мірою».