Насколько опасны дипфейки?

02

Насколько опасны дипфейки?

Современные технологии развиваются с огромной скоростью и открывают новые возможности во всех сферах жизни. Однако достижения современного мира активно осваиваются и мошенниками, которые приспосабливают их для злого умысла. Один из самых опасных инструментов в руках злоумышленников — дипфейк. Это метод синтеза изображения, основанный на искусственном интеллектом. В большинстве случаев его используют для наложения существующих изображений или видео на исходные, создавая новый визуальный контент. Нейросеть «натаскивают» на реальных фотографиях и видеороликах определённого объекта или человека, поэтому результат легко принять за настоящий снимок или ролик, особенно, если не знать о существовании такой технологии.
Для чего используют дипфейки

Основное применения технология дипфейков, как и её предшественники, нашла в сфере кино. С её помощью можно омолодить или состарить актёра без всякого грима, заменить умерших звёзд и упростить работу с каскадерами и дублёрами.

В 2019 году благотворительная организация сняла ролик с Дэвидом Бекхэмом. По сценарию футболист рассказывал о малярии на 9 языках, большинством из которых он не владел. За липсинк (попадание движениями губ в произносимые слова) отвечали команда дубляжа и дипфейк.

В искусстве и живописи технология тоже нашла своё место. Цифровые версии личностей художников, музыкантов, писателей и других творческих личностей пользуются огромной популярностью и позволяют создавать уникальные выставки и концерты, особенно если привлечь к этому другие нейросети, способные вести диалог с аудиторией.

Обратная сторона прогресса
Лёгкость, с которой лицо известного человека можно поместить в несвойственные и нехарактерные условия, позволяет создавать не только развлекательные или полезные видеоролики и изображения, но и компромат.

Достаточно добавить к «изменённому» ролику голос звезды, (нейросети это тоже умеют), и вы получите готовый рекламный ролик от известного актёра или политика с доверием массовой аудитории. Этим активно пользуются мошенники в своих интересах.

Выдать себя за другого человека тоже стало гораздо проще. Технологии позволяют делать это даже в режиме реального времени во время видеозвонка. Со статичными изображениями нейросети справляются ещё лучше.
Как отличить отличить настоящий ролик от дипфейка?
Чем тщательнее и длительнее проводится проверка, тем проще отличить оригинальную запись от созданной нейросетью. Некачественные фейки легко обнаружить, обратив внимание на мелочи: неестественные движения губ, разницу в тон коже или неестественные движения головы.

Качественную подделку выявить гораздо сложнее, однако по данным «Ведомостей», со ссылкой генерального директора «Центра биометрических технологий», Владислава Поволоцкого и генерального директора VisionLabs Дмитрия Маркова, весной 2023 была представлена технология, позволяющая определять перенос мимики и выражения лица человека на видео или изображения, а внедрить её планируют уже в 2024 году.

Дипфейки — это новая технология, которая имеет как положительные, так и отрицательные стороны. Помогая создавать уникальный и интересный контент, она также представляет угрозу для личной безопасности, репутации и доверия людей.

Вполне возможно, что появление подобных нейросетей начнёт новую «гонку вооружений» между злоумышленниками и специалистами по кибербезопасности, которые будут придумывать новые пути как обхода систем безопасности, так и их защиты. Это ещё одна причина быть критичным к информации в интернете и за его пределами.