Эксперт Лупиков: Голосовые дипфейки в разговоре выдаёт речь без пауз
Эксперт Лупиков: Голосовые дипфейки в разговоре выдаёт речь без пауз
Обложка © Freepik.com
С развитием технологий мошенники получили мощные инструменты — от правдоподобных сообщений и рассылок до генерации голосов и лиц. Основатель стартапа-разработчика ИИ-решений для бизнеса MAIA Олег Лупиков рассказал Life.ru про популярные схемы цифрового мошенничества, которыми пользуются современные хакеры, а также о том, как им противостоять.
Дипфейки: синтез голоса
В последнее время мошенники вооружились голосовыми сообщениями, которые создаёт искусственный интеллект. С их помощью они вымогают деньги от лица владельца аккаунта в соцсетях и мессенджерах. Подобный вариант позволяет эффективно выманивать суммы у знакомых и коллег.
К примеру, в 2020 году одна из японских компаний потеряла $35 млн — аферисты использовали голос руководителя и провернули с его помощью незамысловатую мошенническую схему.
Платформа – антифейк для нейросетей может появиться в РФ по поручению Мишустина
Вариаций мошенничества с голосовыми дипфейками множество. И во всех случаях, как отмечает Лупиков, отличить голос от настоящего практически невозможно. К примеру, одна из схем может выглядеть так: аферисты звонят родственникам, записывают семпл их голоса, после чего загружают звуковую дорожку на специальные платформы, через которые ИИ синтезирует целую речь. После этого человеку приходит голосовое сообщение в мессенджере с просьбой помочь и перевести деньги по указанному номеру. Диалог в переписке строится благодаря запущенным алгоритмам, поэтому распознать подвох бывает достаточно сложно.
Как распознать: обратите внимание на паузы, вздохи и интонацию говорящего. У робота речь поставленная и чёткая, без пауз. Жертвы чаще всего не замечают этих нюансов из-за паники. Чтобы избежать ловушки, перезвоните человеку, который просит о помощи, лучше это сделать в мессенджере, советует эксперт.
Дипфейки: видеозвонок с начальником
ИИ может не только генерировать голосовые сообщения, но и создавать настоящие видеоконференции. Данный формат не такой распространённый и требует более тщательной подготовки со стороны мошенников.
Эксперт спрогнозировал, что из-за ИИ в нашу жизнь вернётся главный кошмар интроверта
Подобный инцидент произошёл недавно в Гонконге. Финансовый работник получил письмо от руководителя с просьбой провести секретный перевод. Сомнения работника развеялись, когда его подключили к видеозвонку, на котором присутствовали все знакомые ему лица. В общей сложности обманутый финансист перевёл около 25,6 миллиона долларов. Когда махинации всплыли, сотрудник понял, что все люди, которых он видел на экране, были фейком.
Как распознать: фейковое видео может выдать плохое качество изображения. Можно проанализировать взгляд, мимику и речь — насколько она живая и нероботизированная. Если возникли подозрения, перезвоните. С семьёй и друзьями можно договориться о кодовом слове, которое во время разговора докажет, что вы — это вы.
Лжесотрудники по E-mail
Мошенники частенько представляются работниками и директорами фирм в письмах по E-mail. Ещё одна уловка — рассылки об оставленных завещаниях, победах в конкурсах и крупных выигрышах в лотерею. Схема в этом случае получается незамысловатая: мошенники используют подставные доменные имена, электронные адреса, которые напоминают оригинальные. Также цифровые мошенники мониторят аккаунты в соцсетях, чтобы собрать как можно больше подробной информации. И только после этого идут в атаку, вооружившись передовыми инструментами ИИ, подчёркивает Лупиков.
Тебя выбрал ChatGPT: Главные подробности скандальной истории, как парню нашёл любовь робот
К примеру, в 2017 году мошенник из Литвы с помощью подобной фишинговой атаки обманул компании Google и Facebook* на сумму более $100 млн. Хакер писал письма от лица сотрудников азиатских фирм-партнёров. Работники корпораций получали письма из тайваньских компаний с поддельными счетами-фактурами и контрактами. В течение двух лет Google и Facebook* отправляли деньги на банковские счета мошенника.
Как распознать: большое количество файлов и ссылок, которые прикладывают к официальным письмам, увеличивает вероятность того, что сообщение фишинговое. Призывы как можно быстрее перейти по ссылке, напечатанные без пробела слова и грамматические ошибки — это инструменты, чтобы проскочить через спам-фильтры, они сразу же намекают на фишинг.
Футуролог рассказал, как с помощью ИИ будут лечить рак и СПИД
Может ли ИИ навредить человеку
По умолчанию каждая нейросеть запрограммирована на добро, подчёркивает эксперт, но есть кейсы, когда преступники с помощью уловок обходят «настройки». Кроме того, хакеры часто пользуются джейлбрейком — вредоносным кодом, который позволяет получить повышенные пользовательские привилегии, а затем внушает боту, что он больше не является собой, теперь он — новая нейросеть, а значит, может игнорировать правила, установленные разработчиком. Тем не менее авторы крупнейших нейросетей постоянно совершенствуют методы противодействия джейлбрейку.
Эксперт Kaspersky назвал способ развязать язык ИИ и заставить нейросети говорить на запретные темы
По словам эксперта, сегодня, когда ИИ и модели глубокого обучения стали незаменимой вещью в повседневной жизни человека, злоумышленники чувствуют себя как никогда комфортно. Поэтому обмануть людей стало проще простого: например, в России за 2023 год практически на 30% выросло число ИТ-преступлений. Кроме того, ИИ постоянно развивается и учится, поэтому сегодняшние методы защиты от цифрового мошенничества могут потерять актуальность.
Но в любом случае лучше не переходить по подозрительным ссылкам и желательно установить двухфакторную аутентификацию в мессенджерах.
Будьте настороже!: Нейросеть написала послание человечеству на 2024 год
Кстати, «нейросеть» стало словом 2023 года по версии портала «Грамота.ру». Помимо «нейросети» в голосовании также участвовали GPT, «база», «возвращенцы», «промпт»/»промт» и «имба». Они набрали до 58% голосов, в то время как слово года лидировало с 75%. Филологи считают, что «нейросеть» неспроста выбрана словом 2023 года, термин логично вошёл в моду благодаря широкому распространению новых технологий.
* Соцсеть запрещена в РФ; принадлежит корпорации Meta, признанной в России экстремистской.
Александра Вишнякова Комментариев: 0Для комментирования авторизуйтесь! Авторизоваться