Поддержать команду Зеркала
Беларусы на войне
  1. «Масштаб уступает только преследованиям за протесты 2020 года». Что известно об одном из крупнейших по размаху репрессий дел
  2. В нескольких районах Беларуси отменили уроки в школах из-за мороза. А что с садиками
  3. «Возможно, сотрудничает со спецслужбами». Чемпион Польши по боксу внезапно уехал в Беларусь (он родом из Лиды), бросив даже свои награды
  4. Синоптики обещают сильные морозы. При какой температуре могут отменить занятия в школах?
  5. Джеффри Эпштейн получал визы в Беларусь и, скорее всего, посещал страну. Он якобы даже собирался купить квартиру в Минске
  6. «Весь отряд показывал на меня пальцем». История беларуса, которого первым осудили по новому, подписанному Лукашенко закону
  7. Блогер Паук дозвонился в Минобороны. Там отказались с ним говорить, но забыли повесить трубку — вот что было дальше
  8. «Слили Зинку, да еще и должной пытались сделать». Чем занимается сегодня последняя беларусская участница «Евровидения»
  9. Власти озвучили, где хотят построить специализированный пункт захоронения и переработки радиоактивных отходов с Беларусской АЭС
  10. Россия наращивает военную мощь у границы с Финляндией. Ранее Путин угрожал ей, используя формулировки как и перед вторжением в Украину
  11. Январь в Минске был холоднее, чем в Магадане, а чего ждать в феврале? Прогноз
  12. Лукашенко подписал изменения в закон о дактилоскопии. Кто будет обязан ее проходить
  13. Похоже, время супердешевого доллара заканчивается: когда ждать разворот? Прогноз курсов валют
  14. В Беларуси ввели новый налог. Чиновник объяснил, кто будет его платить и о каких суммах речь
  15. Завещал беларуске 50 миллионов, а ее отец летал с ним на вертолете за месяц до ареста — что еще стало известно из файлов Эпштейна
  16. Виктор Бабарико назвал главную причину поражения в 2020 году
  17. «Судья глаз не поднимает, а приговор уже готов». Беларуска решила съездить домой спустя семь лет эмиграции — но такого не ожидала
Чытаць па-беларуску


Если вам пишет знакомый с просьбой перевести небольшую сумму — легко заподозрить, что это мошенники взломали его аккаунт. Такая схема обмана известна уже много лет. Сейчас ее сильно усовершенствовали: злоумышленники с помощью искусственного интеллекта могут подделать голос и даже видео с вашим близким. «Зеркало» рассказывает, что важно знать, чтобы не попасть в эту ловушку.

Изображение носит иллюстративный характер. Фото: Lana Codes / unsplash.com
Изображение носит иллюстративный характер. Фото: Lana Codes / unsplash.com

В феврале 2024 года мошенники взломали аккаунт оршанца в Telegram, получили доступ к перепискам и сгенерировали поддельное аудио с его голосом. Всем контактам мужчины разослали просьбу помочь и добавили поддельное голосовое сообщение. Звучало достоверно — несколько человек поверили и перевели деньги.

В августе похожую просьбу получила с аккаунта знакомой сотрудница госиздания «Минская правда». У нее попросили 15 тысяч — она ничего не стала переводить.

Скриншот: mlyn.by
Скриншот: mlyn.by

В феврале 2024 года пользователь из России рассказал о мошенниках, которые внимательно изучили его переписку с другом. Они использовали характерное для его приятеля приветствие «Бро, салют», верно назвали марку машины и год окончания вуза. А после прислали фото банковской карты с его фамилией и просьбой перечислить 50 тысяч российских рублей (540 долларов).

Также есть сообщения и о подделке «кружков» с видео в Telegram — их тоже генерируют при помощи нейросетей.

И, возможно, самый коварный вариант этого обмана: голос могут подделать во время звонка в реальном времени.

«Мошенники звонят потенциальной жертве, говорят голосом родственника и рассказывают вымышленную историю — как правило, связанную с какой-то бедой или катастрофой, выход из которой, конечно, есть, но нужно перечислить определенную сумму денег на определенный счет», — описывал эту схему «СберБанк» Беларусь.

Если звонят с аккаунта близкого человека и говорят его голосом — в это сложно не поверить.

Как такое возможно?

Эта технология называется «дипфейк». Современные AI-модели могут создавать очень убедительные имитации голоса.

Мошенники находят аудио-сообщения в диалогах или чатах, загружают их в качестве образца — и могут «сказать» любую фразу голосом этого человека. Достаточно иметь всего несколько минут образца.

Точно так же и с видео: если есть образец — можно сгенерировать имитацию. Получится видео, где человек «говорит» те слова, которые нужны мошенникам.

Дипфейк-видео с актером Морганом Фрименом

Как себя защитить?

— Такие атаки направлены на психику и естественные реакции человека — приходит сообщение — быстро отреагировать на что-то важное. А заподозрить, что сообщение или голос фальшивые, трудно, если они и правда похожи на настоящие. И это нормально! — объясняет эксперт по цифровой безопасности из инициативы CyberBeaver.

Вот несколько советов специалиста на случай, если вы столкнетесь с такой атакой:

  • если вам приходит запрос, на который нужно быстро отреагировать, напишите человеку в другом мессенджере и уточните, действительно ли он/она/они вам его прислали. Если атакован был только один аккаунт человека, то другой вариант связи поможет понять, настоящее ли было сообщение;
  • проверяйте и уточняйте данные, которые вам присылают, через другой канал связи. Возможно, номер карты, ссылка на оплату и другие реквизиты окажутся не связанными с человеком.

Еще один вариант проверки собеседника — спросить что-то, что знаете только вы двое. Только учитывайте, что ответ не должен фигурировать в ваших предыдущих переписках.

Как распознать подделку?

Пока нейросети работают неидеально — и иногда можно заметить странности. Более надежные варианты проверки указаны выше. Но к тому, что вам прислали, тоже есть смысл присмотреться повнимательнее.

В случае с аудиосообщением имитация может быть очень убедительной. Технически возможно быстро генерировать новые сообщения с фальшивым голосом. То есть если вы попросите записать еще одно голосовое — мошенник в теории сможет это сделать. Однако если слушать внимательно, в сгенерированных аудио можно заметить небольшие неестественности в интонации или произношении.

Заранее подготовленное видеосообщение тоже может быть очень убедительным. Для проверки можно попросить выполнить специфические действия: например, покрутить головой, чтобы ее было видно с разных ракурсов.

Подделка голоса во время голосового вызова в Telegram тоже возможна. При этом могут быть какие-то задержки или артефакты в звуке, но это бывает сложно заметить.

Подделать голос и внешность во время видеозвонка технически можно, но пока сложно. Такая атака потребует от мошенника много времени на подготовку. Для проверки попросите во время видеозвонка показать не только лицо, но и окружающую обстановку с разных ракурсов.

И еще несколько универсальных советов

Если вы не хотите, чтобы ваш Telegram взломали:

  • настройте в Telegram двухфакторную аутентификацию («Настройки» — «Конфиденциальность» — «Облачный пароль»). Она добавит дополнительный пароль для входа в аккаунт;
  • не переходите по подозрительным ссылкам;
  • не вводите на сторонних сайтах учетные и персональные данные.

Что делать, если Telegram уже взломали?

Если аккаунт взломали, но у вас остался доступ:

1. Проверьте и закройте незнакомые сессии (С телефона: Настройки > Устройства. С компьютера: Настройки > Конфиденциальность > Безопасность > Показать все сеансы).

2. Включите облачный пароль (двухфакторную аутентификацию) или поменяйте его. С телефона: Настройки > Конфиденциальность > Облачный пароль. С компьютера: Настройки > Конфиденциальность > Безопасность > Облачный пароль.

Если аккаунт взломали, доступ остался, но сеанс мошенника завершить не получается — есть смысл удалить аккаунт. В будущем вы сможете создать новый на этот же номер.

Если ваш аккаунт взломали и вы потеряли к нему доступ — стоит обратиться в техподдержку и описать проблему.