Каждая третья мошенническая атака в 2025 году будет совершаться с применением технологий на основе искусственного интеллекта. Подобное может выйти в миллионы инцидентов в месяц, пишет «Газета.Ru».
По словам IT-эксперта Татьяны Дешкиной, злоумышленники могут массово подделывать изображения, видео и голоса любых людей с целью кражи денег или манипуляции общественным мнением.
«Новые сервисы на основе генеративного искусственного интеллекта позволяют создавать дипфейки в режиме реального времени, что значительно усложняет процесс определения такого фейка», — сказала она.
Кроме того, мошенники будут активнее использовать ИИ для поиска потенциально уязвимых жертв в социальных сетях. Дешкина также отметила, что при помощи новых технологий злоумышленники могут общаться с десятками тысяч возможных жертв одновременно.
Ранее эксперт по информационной безопасности Алексей Лукацкий в эфире радио Sputnik напомнил о новом вирусе SparkCat для смартфонов, который крадет информацию с фотографий. Лукацкий подчеркнул, что разработчики вредоносного программного обеспечения, как и борцы с ними, стали активно использовать возможности ИИ.
Между тем россиянам также напомнили о необходимости проверять на достоверность сообщения об утечках персональных данных. Мошенники могут присылать ложные письма с информацией о взломе страниц пользователей, пишут региональные издания. В случае, если утечка действительно произошла, рекомендуется поменять пароли на всех аккаунтах, активировать двухфакторную аутентификацию и проверить банковские счета на наличие подозрительных операций.