2

Помните дипфейк с Томом Крузом? Вот все способы отличить его от настоящего

Олег


В мировой сети с каждым днем набирает популярность технология Deepfake. Чаще всего в качестве результатов её работы в интернете размещаются фотографии или видеоролики, в которых лица людей очень реалистично заменены на другие. Самый известный пример — пресловутое видео с Томом Крузом. Deepfake работает по методу глубокого обучения — использующиеся в нём нейросети получили название генеративно-состязательных (GAN — не путать с нитридом галлия в зарядных устройствах GaN). Проще говоря, нейросеть бесконечно «пытается обмануть сама себя», оценивает свои попытки и обучается на них. Для простоты понимания «дипфейками» сейчас называют любой «имитирующий» контент, который создан искусственным интеллектом, однако результат работы GAN может быть очень разным. Например, на фото или видео можно добавить или изменить только мимику, заменить лицо целиком, адаптировать его под лицо другого человека. Кроме того, модель SlyleGAN умеет генерировать лица людей, которые никогда не существовали — по сути, это выходит за рамки обычного копирования. На фото ниже настоящим является только лицо посередине. 



Ранние изображения, которые создавала сеть GAN, были очень низкого качества, благодаря чему их легко можно было отличить от реальной фотографии. Однако в следующем поколении технологии — ProGAN — разрешение достигло 1024х1024 пикселя, и сгенерированные картинки подобного качества разоблачить стало значительно сложнее. Потребность в специальных технологиях для распознания подделок стала очевидной. Ведь криминальные структуры уже взяли на вооружение новую технологию. 

Как разоблачить подделку
Многое зависит от качества её «изготовления» — помните китайские «айфоны» из начала 2010-х с антенной и тремя сим-картами? Так вот, сегодня подделки iPhone отличить гораздо сложнее как раз благодаря тому, что качество их изготовления серьезно выросло. Ранние копии можно было распознать издалека, а современные иной раз потребуется сравнить с оригиналом «лоб в лоб».

Точно так же дело обстоит с дипфейк-контентом. Например, многие «GAN-лица» имеют цифровые артефакты — «квадратики» пикселизации, которые можно увидеть при сильном увеличении картинки. Особенно явным это станет рядом с реальной фотографией человека в таком же масштабе. 

Что касается несуществующих лиц, сгенерированных ИИ — их нередко можно отличить по разному цвету глаз. В природе такое явление (гетерохромия) встречается нечасто, поэтому отличающиеся цвета левого и правого глаза на фото должны Вас насторожить. Кроме того, внутри зрачка темная область (лимб) иногда бывает смещена относительно его центра — это легко заметить, сравнив кольцо радужки обоих глаз. 



А вот с наложением «маски» — одного лица на другое — всё немного сложнее. Здесь стоит обратить внимание на контуры носа (артефакты затемнения), а также места «стыка» кожи и волос — например, на брови, усы или отдельные пряди прически. 



Наконец, чтобы отличить Deepfake — лицо, полностью подмененное на другое — потребуется присмотреться к глазам и зубам на фотографии. Последний успешный алгоритм распознания подделок основывается на анализе отражения света в глазах — у дипфейк-лиц он зачастую неестественен, а порой и вовсе отсутствует. С зубами у ИИ вообще сложные отношения — часто они не смоделированы вовсе и выглядят как белая полоса. 



Стоит сказать, что уровень качества дипфейк-подделок растет пропорционально их популярности. На развитие технологии выделяются огромные суммы денег. Недоработки и просчеты оперативно устраняются. Например, многое из того, что описано выше, уже исправляется, и «разглядеть» такие признаки теперь может только компьютер. Ранее дипфейки распознавались соответствующими системами в 100% случаев, но сегодня, во втором поколении GAN, этот показатель снизился до 70-85%, что в немалой степени тревожит ученых. Кстати, эффективность выявления фейка по отраженному в роговицах свету пока что составляет 94%. Не исключено, что скоро и эта цифра уменьшится. 



Правительства различных стран мира пытаются бороться с дипфейками своими способами — в основном, запретительными. Соответствующие законы уже работают в США, Китае и некоторых странах Европы. Что касается России, должностные лица считают, что уже имеющиеся правовые нормы пока успешно справляются с этой областью — например, ст.158 УК о мошенничестве и ст.152 ГК о защите чести и достоинства.

Существует мнение, что любой созданный человеком замок имеет созданный им же ключ. Как бы там ни было, очевидно, что технологии распознавания дипфейков явно не поспевают за разработками по их созданию. 

9
iGuides в Дзене —  dzen.ru/iguides
iGuides в Telegram — t.me/iguides
iGuides в VK —  vk.com/iguides
iGuides в Ok.ru — ok.ru/iguides

Рекомендации

Рекомендации

Будь в курсе последних новостей из мира гаджетов и технологий

Мы в соцсетях

Комментарии

+286
а нельзя что ли сказать нейросети чтоб не делала разные глаза да и все?
а то палево какое-то))
28 марта 2021 в 20:31
#

Читайте также