Эксперт рассказал о многократном росте числа кибератак с использованием ИИ в ближайшие годы
По словам Дмитрия Маркова, исполнительного директора MTS AI, количество кибератак с использованием технологий дипфейков в ближайшие три года может вырасти до десятков миллионов. Это связано с тем, что технологии искусственного интеллекта становятся более доступными, и в скором времени каждый сможет создать фальшивый голос или заменить лицо на фото и видео. Марков отметил, что если сегодня таких атак несколько десятков тысяч, то в будущем ситуация изменится.
Он также добавил, что число атак с дипфейками может быть ещё больше, чем сообщают официальные источники. Мошенники часто используют эти технологии для кражи денег, и пострадавшие сообщают о мошенничестве в случае, если надеются вернуть средства. При этом развитие технологий создания дипфейков опережает методы их обнаружения. Например, чтобы создать аудиодипфейк, злоумышленникам достаточно 10-15 секунд записи голоса человека.
Что касается видеодипфейков, то злоумышленники часто заменяют лица людей, например, используют лицо девушки для манипуляций с мужчинами в приложениях для знакомств. Кроме того, применяется технология синхронизации губ, чтобы создать иллюзию настоящей речи. Однако, несмотря на опасность, эксперты предлагают решение проблемы, используя детекторы дипфейков. Уже сегодня нейросети могут распознать подделку за несколько секунд с точностью до 98%.