Используют голос родственников, просят денег: популярные способы обмана с помощью нейросетей . Как защититься от мошенников?

Используют голос родственников, просят денег: популярные способы обмана с помощью нейросетей . Как защититься от мошенников?

В последнее время нейросети прочно входят не только в экономику, но и другие сферы человеческой жизни. Искусственный интеллект быстро совершенствуется, и этим пользуются мошенники для выманивания у людей денег и личной информации. Какие схемы они применяют, и как не стать их жертвой, рассказала Юлия Орлова — эксперт по искусственному интеллекту, владелец экосистемы продуктов с ИИ T-BOX, основатель онлайн-академии «Войти в ИИ».

Используют голос родственников, просят денег: популярные способы обмана с помощью нейросетей . Как защититься от мошенников?
Подделка голоса

Это наиболее распространенный способ обмана. Злоумышленники синтезируют голос жертвы с помощью ИИ, используя реальные образцы звучания. Получить их можно из соцсетей, видеороликов или предложив человеку прислать аудиозапись для участия в конкурсе или кастинге на телевидение за вознаграждение. Современные технологии позволяют загружать звуковые фрагменты в нейросеть из любых источников и генерировать похожий голос.

Полученные данные используются для звонков родственникам, друзьям или коллегам жертвы с просьбами выслать деньги для уплаты долга, возмещения ущерба при ДТП и других целей. Вариации схемы мошенничества бывают разные. Чаще всего пострадавшими от действий злоумышленников становятся пожилые люди, мало знакомые с современными технологиями. Но и молодежь тоже нередко попадается на подобные уловки.

Просьбами перевести деньги мошенники не ограничиваются. В некоторых случаях они звонят от лица представителей разных организаций и предлагают пожертвовать средства в благотворительный фонд, установить на телефон какое-либо приложение или программу. Впоследствии они используются для сбора персональных данных, перевода денег с банковского счета жертвы.

Сервисов, способных подделывать голоса, сегодня очень много. Сгенерированные сообщения настолько похожи на оригинал, что даже близкие люди не могут распознать, кто им звонит: родственник или робот. Постепенно такие нейросети будут становиться все более совершенными и доступными, из-за чего количество фактов мошенничества может кратно вырасти.

Генерирование изображения

Если голосовой фейк легко проверить, набрав родственника по его телефону, то звонок, подкрепленный видеотрансляцией, убеждает в правдивости происходящего на 100%. В то же время даже изображение человека легко сгенерировать и использовать для имитации беседы в режиме реального времени.

Уже сегодня в Корее созданные с помощью ИИ образы полностью заменили настоящих ведущих на государственных ТВ каналах. Экономически это очень выгодно: такие «сотрудники» обходятся всего в 460 долларов в месяц.

Еще одна сенсация, связанная с возможностями ИИ, — для нового фильма братьев Андреасян «Манюня: Приключения в Москве» будет сгенерирован образ Юрия Никулина, который станет одним из героев киноленты.

Мошенникам не составляет труда синтезировать изображение вашего родственника или друга. Одна из нейросетей уже сегодня позволяет не только трансформировать собственный голос на основе заданной информации в режиме реального времени, но и подключаться к онлайн-программам, например, Скайп или Google Meet, из-за чего очень сложно идентифицировать обманщиков.

Читайте также:  Новогодние каникулы – лучшее время для формирования новых привычек и навыков. Чем заняться в выходные? Отдых в новогодние каникулы

Нашумевший случай с управляющим банком в Гонконге — яркое подтверждение того, насколько опасным инструментом может быть нейросеть в руках мошенников. Этому человеку позвонил один из постоянных клиентов по видеосвязи и заявил, что компания намерена совершить транзакцию на 35 млн долларов. В подтверждение по электронной почте были присланы документы с печатями и подписями.

Как выяснилось впоследствии, и видеозвонок, и бумаги были фейковыми и не имели никакого отношения к реальному клиенту.

Подделывание документов, текстовых сообщений

Современные нейросети научились не только фальсифицировать официальные бумаги, но даже составлять личные письма, сообщения, копируя стиль конкретного человека на основе анализа информации в соцсетях.

Сгенерированные документы, тексты используются для выманивания денег, шантажа. Будучи в состоянии стресса, люди не всегда могут отличить подделку от правдивой информации.

Используют голос родственников, просят денег: популярные способы обмана с помощью нейросетей . Как защититься от мошенников?
Как защититься от мошенников?

Сделать это в состоянии повышенной тревожности сложно. Но, если проявить больше внимания и «включить» логику, можно без труда распознать злоумышленника:

  • Если звонят по телефону от имени близкого человека, прерывайте беседу. Свяжитесь с вашим родственником или другом по номеру, который записан у вас, и расспросите лично, что случилось.
  • Прислушивайтесь к речи говорящего. Роботы порой выдают себя фоновыми шумами, помехами, неестественностью фраз, словами или звукопроизношениями, нехарактерными для вашего близкого человека.
  • Чтобы проверить, кто вам звонит, придумайте кодовое слово или расспросите о фактах из личной жизни, которые знаете только вы и ваш родственник. Если последовало молчание или попытка перевести разговор на другую тему, прекращайте беседу.
  • Разговаривая по видеосвязи, внимательно отслеживайте нюансы жестов, мимики, взгляда человека. Нейросети часто выдают себя неестественными эмоциями, несовпадением движений губ и звучания.
  • При получении сообщений от близких людей с просьбой помочь финансово не спешите переводить деньги. Обязательно перезвоните лично и узнайте, что случилось.

Мошеннические схемы совершенствуются с каждым днем. Если вас просят о финансовых транзакциях, предоставлении личной информации, это повод насторожиться и перепроверить, действительно ли вопрос исходит от ваших близких, друзей и коллег. Помните: жертвой злоумышленников можете стать и вы, поэтому лучше заранее «вооружиться» вниманием, осознанностью и спокойствием.

Источник

Понравилась статья, оставьте комментарий!

Ваш адрес email не будет опубликован. Обязательные поля помечены *