Технология Deepfake рискует стать угрозой будущего в мире интернета — Новости

С помощью технологии Deepfake мошенники могут заменять лица и использовать это в преступлениях, считает руководитель Агентства кибербезопасности Евгений Лифшиц. Для iReactor он рассказал об опасностях подобных программ и способах от них защититься.

Приложение Avatarify, созданное российскими разработчиками, появилось чуть больше недели назад, но уже успело прославиться и стать популярным. Дело в том, что это фильтр, который позволяет во время видеоконференций в Zoom или Skype примерить на себя лицо знаменитости, например, Стива Джобса или Илона Маска. При детальном рассмотрении подделку легко выявить: нейросеть еще не настолько умна, чтобы создавать идеальную копию лица онлайн, но при плохом качестве связи и в первые минуты определить подлинность картинки достаточно сложно.

В мире технологий Avatarify – далеко не первая программа, заменяющая лица. Ранее уже было зафиксировано несколько скандалов, связанных с подобными технологиями. Например, известные люди становились героями скандальных видео. Однако позднее оказывалось, что это шутка — правда, достаточно опасная и дорогостоящая для репутации публичного лица.

 

Действительно ли Deepfake так опасен? 

 

Руководитель Агентства кибербезопасности Евгений Лифшиц в беседе с корреспондентом iReactor высказался о новом фильтре Avatarify и подобных приложениях. По словам специалиста, это серьезная проблема будущего.

Уже был не один скандал, когда в видео меняли людей. Какие-то люди становились участниками всевозможных порноэкшенов. Поэтому это проблема будущего, она будет развиваться. Буквально вчера со своими коллегами обсуждал интересный кейс. Нейронные сети меняют уже голос, можно подставить голос знаменитости, и это происходит онлайн. И эта технология, получается, двойного назначения: с одной стороны, можно известными голосами озвучивать книги или колонку от «Яндекса», а с другой – огромная область для мошенников. Особенно в совокупности с подменой лица. И можно практически потоково подменять лицо, тем более эти технологии мы видели на выставках 3-4 года назад, – рассказал Лифшиц.

Однако он уверен, что решение проблемы есть, и это – цифровая подпись. Именно с помощью электронной верификации личности можно будет в будущем избежать скандалов, дезинформации и афер. Но эта технология появится лишь тогда, когда в ней будет настоящая потребность.

Информационная безопасность построена не методом предубеждения угроз, а постфактум. То есть находится какая-то брешь в системе, и от корпорации зависит, насколько быстро она может его устранить. И здесь ровно также: все зависит от того, как будут появляться проблемы с этим. Тем быстрее будут эволюционировать решения по защите, – уверен эксперт.

Источник: pixabay.com

Мнение относительно электронной подписи разделяет и депутат Государственной думы РФ Василий Власов. По его словам, в большинстве операций не достаточно лишь лица, и необходимо подтвердить свою личность как раз-таки электронной подписью.

Сейчас, чтобы сделать важные документы, их получить, нужна электронная подпись. Просто так по идентификации лица получить не получится. И в этом плане, я думаю, у мошенников не выйдет пытаться на этом заработать и обмануть, – уверен депутат.

В целом же, как считает Власов, подобные технологии еще не настолько развиты, чтобы стать серьезной опасностью или проблемой, и всегда можно определить, настоящий человек в видеозаписи или все-таки нет.

Технологии современные, которые есть в интернете, не так развиты. И даже не эксперт может определить, настоящий ли это политик. Поэтому если это используется как розыгрыш, люди что-то записывают, снимают — в этом ничего такого страшного. Но мне кажется, что сегодня нет такого уровня детализации, чтобы казалось, что это настоящая звезда, – считает собеседник iReactor.

Технология Deepfake – это методика синтеза изображения, основанная на искусственном интеллекте. Она используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. Deepfake можно использовать для замены определенных элементов изображения на желаемые образы: например, для создания порнографических видео с известными людьми.

Читайте iReactor в Яндексе

Автор: Андрей Чапыгин

freepik.com

#безопасность
#нейросеть

Источник: inforeactor.ru

Добавить комментарий