Вирусные, сгенерированные искусственным интеллектом изображения ареста Дональда Трампа, которые вы можете видеть в социальных сетях, определенно являются подделкой. Но некоторые из этих фотореалистичных творений довольно убедительны. Другие больше похожи на кадры из видеоигры или ясного сна. Запись в Твиттере Элиота Хиггинса, основателя Bellingcat, в которой показано, как Трампа облепляют синтетические полицейские, как он бегает по улицам и выбирает себе тюремный комбинезон, была просмотрена более 3 миллионов раз на платформе социальных сетей.
Что, по мнению Хиггинса, зрители могут сделать, чтобы отличить поддельные, искусственные изображения, подобные тем, что приведены в его посте, от реальных фотографий, которые могут появиться в связи с возможным арестом бывшего президента?
«Создав множество изображений для этой темы, можно заметить, что она часто фокусируется на первом описываемом объекте — в данном случае, на различных членах семьи Трампа, а все, что вокруг него, часто имеет больше недостатков», — сказал Хиггинс по электронной почте. Посмотрите за пределы фокусной точки изображения. Не кажется ли остальное на снимке второстепенным?
Несмотря на то, что новейшие версии инструментов ИИ-изображения, такие как Midjourney (5-я версия которого была использована для вышеупомянутой темы) и Stable Diffusion, значительно прогрессируют, ошибки в мелких деталях остаются распространенным признаком поддельных изображений. По мере роста популярности искусства ИИ, многие художники отмечают, что алгоритмам все еще трудно воспроизвести человеческое тело в последовательной, естественной манере.
Связанные истории
Рис Роджерс
Лео Ким
Том Симонит
Если посмотреть на изображения Трампа с помощью искусственного интеллекта из темы Twitter, то во многих сообщениях лицо выглядит достаточно убедительно, как и руки, но пропорции его тела выглядят искаженными или расплавленными. Даже если сейчас это очевидно, возможно, алгоритм сможет избегать необычно выглядящих частей тела при большем обучении и доработке.
Нужна еще одна подсказка? Ищите странные надписи на стенах, одежде или других видимых предметах. Хиггинс указывает на беспорядочный текст как на способ отличить поддельные изображения от настоящих фотографий. Например, на поддельных изображениях офицеров, арестовывающих Трампа, полицейские носят значки, шляпы и другие документы, на которых, на первый взгляд, есть надписи. При ближайшем рассмотрении слова оказываются бессмысленными.
Еще один способ определить, что изображение создано искусственным интеллектом, — это заметить чрезмерную мимику. «Я также заметил, что если вы просите передать выражение лица, Midjourney, как правило, передает его в преувеличенном виде, причем складки кожи от таких вещей, как улыбка, очень ярко выражены», — говорит Хиггинс. Выражение боли на лице Мелании Трамп больше похоже на воссоздание картины Эдварда Мунка «Крик» или кадры из какого-нибудь невышедшего фильма ужасов A24, чем на снимок, сделанный человеком-фотографом».
Имейте в виду, что мировые лидеры, знаменитости, влиятельные люди в социальных сетях и все, чьи фотографии в большом количестве циркулируют в Интернете, могут выглядеть более убедительно на фотографиях с глубокой подделкой, чем сгенерированные ИИ изображения людей с менее заметным присутствием в Интернете. «Очевидно, что чем известнее человек, тем больше изображений пришлось изучить ИИ», — сказал Хиггинс. «Поэтому изображения очень известных людей получаются очень хорошо, в то время как изображения менее известных людей обычно немного странные». Чтобы быть более уверенным в способности алгоритма воссоздать ваше лицо, возможно, стоит дважды подумать, прежде чем публиковать фотосессию после веселого вечера с друзьями. (Хотя вполне вероятно, что генераторы ИИ уже собрали данные о вашем изображении в Интернете).
В преддверии следующих президентских выборов в США какова политика Twitter в отношении изображений, сгенерированных искусственным интеллектом? Текущая политика платформы социальных сетей гласит, в частности, следующее: «Вы не можете делиться синтетическими, манипулированными или внеконтекстными медиа, которые могут обмануть или запутать людей и привести к причинению вреда («вводящие в заблуждение медиа»)». Twitter делает несколько исключений для мемов, комментариев и сообщений, созданных не с целью ввести зрителей в заблуждение.
Всего несколько лет назад было почти непостижимо, что обычный человек вскоре сможет изготавливать фотореалистичные глубокие подделки мировых лидеров у себя дома. Поскольку изображения ИИ становится все труднее отличить от настоящих, платформам социальных сетей, возможно, придется пересмотреть свой подход к синтетическому контенту и попытаться найти способы провести пользователей через сложный и зачастую тревожный мир генеративного ИИ.
Источник: https://www.wired.com/story/how-to-tell-fake-ai-images-donald-trump-arrest/