Дипфейки пошли в народ

Дипфейки пошли в народ
Поделись с друзьями

В Пенсильвании арестована женщина, которая с помощью сфабрикованных видео пыталась дискредитировать конкуренток своей дочери по чирлидерской команде. Как защититься, когда дипфейки придут и в ваш дом?

Дипфейки пошли в народ

История о преступлении и наказании Рафаэлы Споун, которую рассказывает Philadelphia Inquirer, одновременно бытовая и футуристичная. Жительница городка Чалфонт, штат Пенсильвания, была арестована в середине прошлой недели по двум статьям о misdemeanor, то есть судебно наказуемом проступке, но суть предъявленных ей обвинений можно назвать экстраординарной.

По данным следствия, 50-летняя Споун очень хотела помочь дочери продвинуться по карьерной лестнице в рамках гастролирующей чирлидерской команды Victory Vipers, то есть «Победные змеи» или «Гадюки победы» (что само по себе любопытно). Для этого американка решила освоить новые технологии, а именно научиться создавать дипфейки.

Основной целью наступательных информационных операций домохозяйки стали тренеры коллектива — с анонимных номеров им стали приходить сфабрикованные видеозаписи, на которых несовершеннолетние конкурентки Споун-младшей курили и выпивали, зачастую в неглиже. Доставалось и юным чирлидершам — как сообщили в окружной прокуратуре, нескольким подросткам женщина предлагала покинуть команду или совершить самоубийство. Теперь 50-летняя шантажистка ожидает суда.

С учетом того, насколько просто сегодня сделать свой собственный дипфейк, такой атаке может подвергнуться каждый. Как отличить поддельное видео, рассказывает основатель и директор по развитию компании «Промобот» Олег Кивокурцев.

Олег Кивокурцев основатель и директор по развитию компании «Промобот» «Не существует ни одного на сегодняшний день дипфейка, который с точностью повторяет движения человека. И, если смотреть внимательно, можно заметить определенные неточности, когда глаза смотрят в одну сторону, при этом голова двигается в другую. Второй способ распознавания дипфейка — это разрешение. В широком доступе бывают только дипфейки, которые сохраняются с разрешением 480p. Если видео в таком низком разрешении, то это, скорее всего, дипфейк. Возможность сохранять видео в высоком разрешении есть только у профессиональных студий. На обывательском уровне, то есть если разрешение 480p, это означает, что, скорее всего, это дипфейк. Также нужно смотреть внимательно на видео, окружающую среду у дипфейка, а именно при наложении посторонних лиц может изменяться фон, может дверной косяк изменить свою геометрию, то есть стать волнистым, отражение может измениться. Такие три простых способа, которые позволяют отличить дипфейк от настоящего видео».

Однако прогресс не стоит на месте — к сожалению, это касается и дипфейков. В середине февраля пугающе реалистичные образы Тома Круза, созданные в рамках коллаборации специалиста по компьютерной графике и двойника кинозвезды, стали появляться в TikTok. За месяц аккаунт @deeptomcruise собрал более полумиллиона подписчиков и даже успел породить конспирологические теории — мол, на самом деле это настоящий Том Круз — настолько реалистичные получились дипфейки.

И это еще не предел, комментирует в эфире Deutsche Welle профессор Швейцарской высшей технической школы Цюриха Турадж Ибрахими.

«Детекторы дипфейков несовершенны, но способны выявлять большинство таких видео. Важно, чтобы подобное ПО разрабатывалось таким образом, чтобы оно могло совершенствоваться вместе с технологией дипфейков. Если взглянуть на видео полугодовой давности, почти везде можно было очень просто распознать подвох. Лица искажены, сразу было все понятно. Сегодня же такой контент уже на грани того, чтобы быть очень правдоподобным. Все сложнее установить, поддельное ли это видео. Пройдет от трех до девяти месяцев, и 99% людей не смогут отличить поддельное видео от настоящего».

В интернете можно найти сервисы не только по созданию дипфейков, но и по их выявлению. Один из них, Deepware турецкой компании Zemana, доступен любому пользователю в бета-режиме бесплатно. Правда, работает искусственный интеллект пока средненько. Например, по результатам анализа онлайн-конференции Владимира Путина с президентом Татарстана алгоритм с 90-процентной уверенностью заявил, что Рустам Минниханов — это дипфейк.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Яндекс.Метрика