С помощью технологии Deepfake мошенники могут заменять лица и использовать это в преступлениях, считает руководитель Агентства кибербезопасности Евгений Лифшиц. Для iReactor он рассказал об опасностях подобных программ и способах от них защититься.
Приложение Avatarify, созданное российскими разработчиками, появилось чуть больше недели назад, но уже успело прославиться и стать популярным. Дело в том, что это фильтр, который позволяет во время видеоконференций в Zoom или Skype примерить на себя лицо знаменитости, например, Стива Джобса или Илона Маска. При детальном рассмотрении подделку легко выявить: нейросеть еще не настолько умна, чтобы создавать идеальную копию лица онлайн, но при плохом качестве связи и в первые минуты определить подлинность картинки достаточно сложно.
В мире технологий Avatarify – далеко не первая программа, заменяющая лица. Ранее уже было зафиксировано несколько скандалов, связанных с подобными технологиями. Например, известные люди становились героями скандальных видео. Однако позднее оказывалось, что это шутка — правда, достаточно опасная и дорогостоящая для репутации публичного лица.
Действительно ли Deepfake так опасен?
Руководитель Агентства кибербезопасности Евгений Лифшиц в беседе с корреспондентом iReactor высказался о новом фильтре Avatarify и подобных приложениях. По словам специалиста, это серьезная проблема будущего.
Уже был не один скандал, когда в видео меняли людей. Какие-то люди становились участниками всевозможных порноэкшенов. Поэтому это проблема будущего, она будет развиваться. Буквально вчера со своими коллегами обсуждал интересный кейс. Нейронные сети меняют уже голос, можно подставить голос знаменитости, и это происходит онлайн. И эта технология, получается, двойного назначения: с одной стороны, можно известными голосами озвучивать книги или колонку от «Яндекса», а с другой – огромная область для мошенников. Особенно в совокупности с подменой лица. И можно практически потоково подменять лицо, тем более эти технологии мы видели на выставках 3-4 года назад, – рассказал Лифшиц.
Однако он уверен, что решение проблемы есть, и это – цифровая подпись. Именно с помощью электронной верификации личности можно будет в будущем избежать скандалов, дезинформации и афер. Но эта технология появится лишь тогда, когда в ней будет настоящая потребность.
Информационная безопасность построена не методом предубеждения угроз, а постфактум. То есть находится какая-то брешь в системе, и от корпорации зависит, насколько быстро она может его устранить. И здесь ровно также: все зависит от того, как будут появляться проблемы с этим. Тем быстрее будут эволюционировать решения по защите, – уверен эксперт.
Источник: pixabay.com
Мнение относительно электронной подписи разделяет и депутат Государственной думы РФ Василий Власов. По его словам, в большинстве операций не достаточно лишь лица, и необходимо подтвердить свою личность как раз-таки электронной подписью.
Сейчас, чтобы сделать важные документы, их получить, нужна электронная подпись. Просто так по идентификации лица получить не получится. И в этом плане, я думаю, у мошенников не выйдет пытаться на этом заработать и обмануть, – уверен депутат.
В целом же, как считает Власов, подобные технологии еще не настолько развиты, чтобы стать серьезной опасностью или проблемой, и всегда можно определить, настоящий человек в видеозаписи или все-таки нет.
Технологии современные, которые есть в интернете, не так развиты. И даже не эксперт может определить, настоящий ли это политик. Поэтому если это используется как розыгрыш, люди что-то записывают, снимают — в этом ничего такого страшного. Но мне кажется, что сегодня нет такого уровня детализации, чтобы казалось, что это настоящая звезда, – считает собеседник iReactor.
Технология Deepfake – это методика синтеза изображения, основанная на искусственном интеллекте. Она используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. Deepfake можно использовать для замены определенных элементов изображения на желаемые образы: например, для создания порнографических видео с известными людьми.
Автор: Андрей Чапыгин
freepik.com
#безопасность
#нейросеть
Источник: