В Электрогорске задержали мужчину, который при помощи голоса умудрился обогатиться более чем на четверть миллиона рублей.
Голос в трубке заставил московского врача перевести мошенникам 3 млн рублей
Мошенники научились использовать современные технологии DeepFake для имитации голоса, сообщили в Роскачестве. Голоса других людей злоумышленники имитируют при помощи специальных программ — этой уловкой они вынуждают потерпевших сообщать различные сведения или совершать денежные переводы. В Атырау полицейские задержали мошенника, который с легкостью подделывал свой голос, сообщает Подделывать голоса мошенники могли задолго до появления нейросети. С помощью специальных программ мошенники воспроизводят голоса родных потенциальной жертвы.
Мошенник подделал голос друга и выманил 50 000 ₽
Главная» Общество» Волгоградцев предупредили о мошенниках, которые подделывают голоса. Телефонные мошенники в России все чаще подделывают голоса родственников и знакомых своих жертв. Благодаря бурно развивающемуся искусственному интеллекту (ИИ) мошенники теперь способны воспроизвести голос знакомого человека, а в некоторых случаях даже его лицо.
Мошенник подделал голос друга и выманил 50 000 ₽
IT-эксперты рассказали, как мошенники подделывают голоса россиян. Те, кто разбирается в технологиях мошенничества, без труда подделают не только голос, но и другие личные данные. В Электрогорске задержали мужчину, который при помощи голоса умудрился обогатиться более чем на четверть миллиона рублей. и аудиодипфейки.
Могут ли мошенники подделать голос и украсть деньги со счета?
У нас есть небольшая просьба. Эту историю удалось рассказать благодаря поддержке читателей. Даже самое небольшое ежемесячное пожертвование помогает работать редакции и создавать важные материалы для людей. Сейчас ваша помощь нужна как никогда.
Александра послушно следовала советам и 20 июля отправилась в банк. Там она оформила кредит и обналичила деньги. Звонивший просил внести сумму на счёт и перевести через приложение «Мир Пэй». Но телефон женщины не позволял скачать и установить это программное обеспечение. Тогда мошенник убедил Александру купить другой смартфон и осуществить операцию через него. Женщина так и поступила. Затем по просьбе голоса в трубке она ещё дважды повторила действия с кредитом и переводом денег в двух других банках. Александра снова посетила в банк и обнулила свои счета. После этого звонки в мессенджер прекратились.
Telegram 0 Мошенники научились использовать современные технологии DeepFake для имитации голоса, сообщили в Роскачестве. При этом аферистам достаточно получить небольшой фрагмент речи человека, чтобы воссоздать не только тембр, но и интонации и манеру разговора. Все это затем используется для самых разнообразных схем обмана.
Полиция отмечает, что это первый случай, когда жертву обманули при помощи группового дипфейка, а не в ходе общения один на один. Целью мошенников стал сотрудник финансового отдела филиала, который получил, по всей видимости, фишинговое сообщение. В середине января ему поступило требование якобы от финансового директора компании в Великобритании, заявившего, что необходимо провести секретную транзакцию. Сотрудник испытывал сомнения до того момента, пока его не пригласили на групповой созвон. Там он увидел и якобы финансового директора компании, и других сотрудников. После этого он сделал запрос в штаб-квартиру компании и понял, что был обманут.
Эксперт предупредил, что мошенники могут подделывать голоса родственников жертв
Эксперт предупредил, что мошенники могут подделывать голоса родственников жертв | Мошенники стали активно использовать технологию синтеза голоса для шантажа жертв и угрожают «сливом» поддельных аудиозаписей в СМИ и правоохранительные. |
Мошенник обманывал людей, подделывая голоса близких по телефону | Мошенники используют записи телефонных звонков, в том числе разговоров с роботами, для подделки голоса в мошеннических целях. |
Мошенники научились подделывать голоса. Как не попасться на уловку
Хотя это — стопроцентный фейк. От массового применения нового типа интернет-попрошайничества пока оберегают сами технологии. На создание копии голоса нейросети сейчас нужно много времени. Ну и также стоит понимать, что конечный результат тоже не всегда идеален, приходится что-то обрабатывать", — рассказал Симонян. Подделку голоса можно отличить как раз по чрезмерной обработке. Если в записи сильно шумит ветер, громко едут машины, лают собаки — стоит насторожиться. Но главное: голос нейросети все равно звучит немного механически. Понять это можно, только если вслушаться. Вот только мошенники часто берут жертв на испуг — имитируют ситуации, когда деньги нужны срочно. Запись голоса они могут получить даже у самого осторожного человека, просто позвонив по телефону с каким-нибудь опросом.
Женщина согласилась, и вскоре ей снова позвонили. На этот раз очередной незнакомец утверждал, что является сотрудником службы безопасности Центробанка РФ. Он убедил Александру рассказать о своих счетах и суммах, которые на них хранятся. Потом женщине объяснили, что деньги необходимо переместить на новый «безопасный счёт». Кроме того, врача убедили взять кредит для погашения якобы оформленных на неё заявок в нескольких банках. Александра послушно следовала советам и 20 июля отправилась в банк. Там она оформила кредит и обналичила деньги. Звонивший просил внести сумму на счёт и перевести через приложение «Мир Пэй». Но телефон женщины не позволял скачать и установить это программное обеспечение.
С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет. Однако ведущие российские банки не используют систему управления счетом с помощью голоса. Например, в СберБанке в качестве биометрического идентификатора для проведения платежных операций используется не голос, а лицо человека. Банки сохраняют ваш голос в биометрической базе только для того, чтобы автоматически распознавать его при звонках в техническую службу поддержки банка. К тому же существует опасение, что мошенники запишут ваш голос и передадут в Единую биометрическую систему или биометрические системы банков. Однако, несмотря на возможность утечки биометрии из банковского хранилища, использовать ее для несанкционированной идентификации невозможно. Причина состоит в самом процессе идентификации. Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков. При этом восстановить по таким данным фото или голос человека практически невозможно. Помните, что банки заинтересованы в конфиденциальности данных своих клиентов, ведь несанкционированные операции могут нанести удар по их репутации и привести к финансовым потерям. Мошенники подделывают голоса, притворяясь вашими родственниками или знакомыми Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного человека. Например, позвонивший вам в мессенджер ребенок, родственник или знакомый просит срочно перевести небольшую сумму денег. Причина может быть какая угодно — ребенку срочно нужно сделать подарок другу или учительнице, пожилому родственнику не хватает небольшой суммы на покупку лекарств в аптеке.
Иногда мошенники получают доступ к аккаунту пользователя в мессенджере, применяя различные методы, такие как фишинг и социальная инженерия. Получив доступ к переписке, злоумышленники извлекают голосовые сообщения и загружают их в специальную систему, функционирующую на базе ИИ. Эта система затем анализирует голосовые образцы и учится имитировать особенности речи человека. Могут ли мошенники позвонить в банк и украсть деньги? С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет. Однако ведущие российские банки не используют систему управления счетом с помощью голоса. Например, в СберБанке в качестве биометрического идентификатора для проведения платежных операций используется не голос, а лицо человека. Банки сохраняют ваш голос в биометрической базе только для того, чтобы автоматически распознавать его при звонках в техническую службу поддержки банка. К тому же существует опасение, что мошенники запишут ваш голос и передадут в Единую биометрическую систему или биометрические системы банков. Однако, несмотря на возможность утечки биометрии из банковского хранилища, использовать ее для несанкционированной идентификации невозможно. Причина состоит в самом процессе идентификации. Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков. При этом восстановить по таким данным фото или голос человека практически невозможно.
Мошенник обманывал людей, подделывая голоса близких по телефону
Московские новости | Как сообщили специалисты Центра цифровой экспертизы Роскачества, мошенники научились имитировать голос человека с помощью нейросети. |
Роскачество: мошенники научились подделывать голоса, чтобы красть деньги - | Мошенники научились подделывать голоса родных потенциальной жертвы. Кроме того, они создают адресные схемы, которые составлены по цифровому портрету человека, сообщили «РИА Новости» в Центробанке. |
Эксперт предупредил, что мошенники могут подделывать голоса родственников жертв | Мошенники научились подделывать голоса начальников для выманивания денег. |
Мошенники подделали голос гендиректора фитнес-клуба в Москве и украли выручку | «Таймырский телеграф» – Мошенники продолжают совершенствоваться: теперь они стали использовать специальную программу, с помощью которой подделывают голоса. |
Голос в трубке заставил московского врача перевести мошенникам 3 млн рублей | Подделывать голоса мошенники могли задолго до появления нейросети. |
Мошенники имитируют голос родственников с помощью искусственного интеллекта
Затем связываются с одним из них и представляются какой-нибудь службой, задача — завязать разговор и получить на руки образцы голоса. Дальше дело за малым, обработать записи нейросетью, чтобы генерировать любые фразы нужным голосом. Таких разводов будет все больше, поэтому советуем вам хорошо подумать, прежде чем отправлять деньги человеку, который просит их по телефону. Даже если он звонит со знакомого вам номера, и вы узнали голос.
Лучше перестраховаться, положить трубку и набрать номер самому. Или спросить у звонящего какой-нибудь факт, который точно знает знакомый, но не может знать мошенник.
Он отметил, что многих беспокоит — не являются ли такие странные звонки способом сделать слепок голоса, чтобы в дальнейшем использовать его для доступа к банковским счетам и другой важной информации. Тем более технологии развиваются стремительно. Искусственный интеллект сымитировал голос владельца счета, и системы открыли доступ к денежным средствам», — рассказал собеседник «Ленты.
Однако для полноценного снятия слепка голоса нужен объемный датасет — то есть набор данных. Простых записанных фраз для полноценной хакерской атаки будет явно недостаточно, так как голосовое подтверждение — это только один из факторов аутентификации Шамиль МагомедовIT-эксперт Биометрия в банках Опасаться биометрии по голосу, которую предлагают банки, также не стоит, убежден Магомедов.
Вот так аукнулось развитие искусственного интеллекта. Поэтому нужно знать схемы, чтобы на них не попадаться. Об этом «Газете.
Ru» рассказал директор направления кибербезопасности EdgeЦентр Артем Избаенков.
Многие уже выработали иммунитет к подобным звонкам и понимают, как действовать в такой ситуации. Но это не останавливает аферистов, и теперь некоторые из них предварительно изучают жертву, перед тем как совершить звонок. Изучают соцсети, анализируют круг друзей и родственников, выясняют финансовое положение, чтобы понять, на какую сумму можно развести «клиента» и дадут ли ему кредит. Дальше под конкретного человека составляют индивидуальный сценарий развода.
Популярность набирают виды финансового мошенничества через мессенджеры — когда жертве отправляют аудиосообщения с просьбой отправить деньги. Причем такие сообщения могут приходить даже с реальных аккаунтов, если преступникам удается их взломать. Подводим итог Телефонные аферисты держат руку на пульсе новых технологий и активно переходят к использованию программ клонирования голоса. Поэтому, если вам поступает звонок от якобы близкого человека, который признается, что попал в беду и ему срочно нужны деньги, проявляйте бдительность! Используйте проверочные вопросы и контрольные слова, следите за интонацией и манерой речи.
Не стесняйтесь положить трубку и перезвонить человеку на личный номер. С большой вероятностью вам ответит ни о чем не подозревающий близкий человек, который находится в полной безопасности.
Информационная безопасность операционных технологий
ЦБ: мошенники научились имитировать гoлоса родных потенциальной жертвы - Российская газета | Мошенник подделал голос друга и выманил 50 000 ₽. |
Эксперт по кибербезопасности Ефимов предупредил о возможности создать фейковую аудиозапись | Эксперт Кузьменко: мошенники начали использовать нейросети и дипфейки для обмана россиян. |
Россиян начали обманывать при помощи искусственного интеллекта - 04.07.2023, ПРАЙМ | Теперь мошенники с помощью нейросетей могут подделывать голоса прямо во время разговора. |
Полицейские показали, как мошенники подделывают свой голос
Звонивший под разными предлогами уговаривает отправить деньги на чужую карту или перевести их по чужому номеру телефона. Мошенник легко оправдается, почему перевод нужно осуществить другому человеку — можно сказать, что это счет продавца, друга, который находится рядом или что телефон разрядился. Нередко злоумышленники звонят в ночное время, чтобы застать жертву врасплох. Обычно речь идет о небольшой сумме, поэтому вопросов у жертвы не возникает и, как следствие, деньги попадают в руки мошенников. Эксперты Центра цифровой экспертизы Роскачества подготовили 10 правил цифровой безопасности, которые помогут вам не попасться на новую мошенническую схему: не отвечайте на звонки с подозрительных номеров, чтобы не дать возможности украсть ваш голос. Можно воспользоваться услугой защиты от спама и мошенников от операторов мобильной связи; помните, подделку голоса можно отличить по чрезмерной обработке. Если в записи сильно шумит ветер, громко едут машины, лают собаки — стоит насторожиться. Но главное: голос нейросети звучит немного механически и безэмоционально; спросите у звонящего какой-то факт, который должен быть известен только вам и ему. Сергей Кузьменко, руководитель Центра цифровой экспертизы Роскачества, отметил: «Схемы мошенничества остаются неизменными, однако использование современных технологий во многом развязывает руки злоумышленникам, что позволяет им старые успешные схемы подавать под новым углом. В наше время каждый, у кого есть смартфон и любая сумма денег на счету, становится потенциальной жертвой аферистов. Важно провести беседу с близкими и установить некую кодовую фразу, чтобы быть уверенным, что входящие звонки не являются мошенническими.
Основное правило — не паниковать и не торопиться.
Первые отчеты о применении технологии ИИ в схемах обмана по телефону западные эксперты начали получать с 2022 года. Справочно: Правильнее будет говорить не про искусственный интеллект, а именно про нейросеть с машинным обучением на основе искусственного интеллекта. Технологические прорывы в сфере ИИ еще впереди. Чтобы машина получила полноправное звание искусственного интеллекта, она должна пройти самостоятельно, как минимум, тест Тьюринга. Благодаря имеющимся уже технологиям хакерам достаточно всего лишь 20-секундного фрагмента с разговором, взятым из социальной сети, для создания клона голоса любого человека. Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота.
Схема обмана та же, но инструменты более прогрессивные. ИИ звонит и просит перевести деньги. Преступники заставляют жертв думать, что они разговаривают с родственником, которому вдруг понадобились деньги, например, на возмещение ущерба в результате ДТП.
Жертву предупреждают, что скоро ей позвонят из полиции, — и обманутый человек диктует данные банковской карты. Также развивается технология deepfake: преступники подделывают голос близких людей жертв. Кибермошенники нередко представляются известными сервисами доставки: они отправляют поддельные ссылки якобы для отслеживания статуса заказов.
Это полностью не избавит от проблем, но снизит возможный риск. Не отправляйте свои личные данные, фотографии и видео другим людям без необходимости. Будьте осторожны при звонках с незнакомых номеров, не спешите первым отвечать, используя «Да», «Согласен», «Подтверждаю». Ставьте надежные пароли и подключите двухфакторную аутентификацию везде, где это возможно.
Не используйте биометрию как единственный метод аутентификации. Вам позвонили из Банки. Сотрудники контактного центра Банки. Если сомневаетесь, что с вами говорит сотрудник Банки. Чтобы проверить, с кем вы говорили, зайдите на Банки. Мы его проверим и в ответном письме напишем, был ли звонивший нашим сотрудником или же это мошенник. В последнем случае номер звонившего лучше заблокировать. Если к вам обратились от имени Банки.