Служба поддержки +7(499)3715127
Время работы Пн-Пт: 09.00 - 19.00
Электронная Почта info@brokertribunal.com

Блог о инвестициях и заработке на бирже

Deepfake – темное искусство мошенников в интернете

  • Главная
  • Блог
  • Deepfake – темное искусство мошенников в интернете

18 января 2021 года стал «знаменательным» для России. В этот день русскоязычные мошенники впервые воспользовались для аферы технологией deep fake. Они создали достаточно длинный видеоролик на 28 минут, где основатель Flocktory и Dbrain, Дмитрий Мацкевич, раскрывает секреты уникальной системы заработка с применением искусственного интеллекта. Однако он то этого и не делал, просто обманщики при помощи программы создали его образ на компьютере. Раньше бы наложили новый звук на ворованное видео, а теперь есть иные возможности.

Обманули в интернете ? Сообщите нам!

Оставьте заявку и мы Вам перезвоним

Что представляет собой deep fake?

Дипфейк – уникальная технология на основе искусственного интеллекта, созданная для максимально реалистичного создания видео и аудиозаписей любого человека. Для этого применяются генеративно-состязательные сети, которые можно условно назвать алгоритмом. Он способен создавать новые вариации из имеющихся исходников.

К примеру, данная технология способна быстро проанализировать несколько тысяч аудиозаписей, чтобы потом создать стопроцентную имитацию голоса человека. При этом учитывается не только тембр и громкость, но и речевые обороты, используемые в качестве шаблонов.

Разумеется, распространение данной технологии вызывает беспокойство. Оно касается возможности создания и пересылки множества поддельных записей политиков, миллиардеров и иных публичных людей. Так, придется увидеть, как известный политик активно пропагандирует антироссийские настроения или старается начать революцию, хотя сам он об этом даже не задумывался.

Технология в реальной жизни

Технология в реальной жизни

Уже сейчас широко распространилось видео с Дмитрием Мацкевичем. Вроде бы, он рассказывает о том, как можно быстро и просто зарабатывать огромные суммы, пользуясь безграничными возможностями искусственного интеллекта. Целых полчаса он расхваливает готовую систему, указывая на действующие модели Dbrain. После чего в самом конце предлагается записаться на полезный мастер-класс, чтобы узнать, как вложить деньги с доходом в 360% годовых.

Вот тут проявляются мошенники. Ссылка на мастер-класс переводит на сайт dbrainweb.com, который был зарегистрирован всего месяц назад. Напомним, что истинный проект Dbrain находится по адресу dbrain.io. Причем на «левой» странице написано, что теперь Мацкевич управляет фантастической блокчейн-платформой, ориентированной на огромные заработки посредством искусственного интеллекта.

При переходе на фейковый сайт пользователь должен оставить электронную почту и номер телефона. Причем их, действительно, регистрируют, но у брокера Barclay Stone. Так что аферисты наверняка просто получают некоторую сумму за каждого нового пользователя.

Страшный пример мошенничества из прошлого

Система дипфейк уже страшным образом проявляла себя в прошлом. Это произошло в августе 2019 года, когда неизвестный кибер-преступник воспользовался данной технологией, чтобы осуществить аферу с крупной компанией аж на 220 000 евро.

Начало схемы было положено в марте 2019 года. Тогда специалист создал имитацию голоса руководителя корпорации. Впоследствии этого он взял его для того, чтобы генеральный директор энергетической компании ошибся во время телефонного разговора. Он был уверен, что общается с прямым начальником из Германии.

Разговор заключался в том, что преступник потребовал в срочном порядке отправить 200 000 фунтов стерлингов определенному поставщику из Венгрии. Да, он тут же убедил, что вся сумма будет возмещена компании, а значит, основной капитал не изменится. Программа настолько точно создала имитацию, что в ней удалось увидеть все обороты речи и даже сложный немецкий акцент, поэтому афера прошла на «5+».

Как только перевод дошел до указанного счета, обманщики захотели повторить схему. Они снова позвонили владельцу компании, но на этот раз у него уже появились определенные сомнения, поэтому мужчина жестко отказал. Однако отправленные деньги из Венгрии мгновенно были переведены в Мексику, а там их разбили сразу на несколько неизвестных счетов.

Что будет в будущем?

Что будет в будущем?

Технология deep fake наверняка превратится в серьезную проблему. Она станет полностью доступной для всех мошенников, кому для ее использования не потребуются навыки программирования. Поддельный контент появляется в сети постоянно, но опытный взгляд все-таки распознает оплошности и ошибки. Какие же коррективы вносит искусственный интеллект? При помощи новой технологии можно создавать уникальные подделки, которые никому не удастся распознать. Прямо сейчас в сети уже можно найти несколько сайтов, где после загрузки исходного видеоролика пользователь получает готовый дипфейк. Именно это и нужно профессиональным преступникам, чтобы убедительнее обманывать жертв.

Подделки с применением deeppfake также могут действовать иным образом. Наверняка все знают, что такое дезинформация среди шпионов. Из-за чего можно представить себе, к чему приведет массовое создание фейковых роликов, где определенный человек говорит определенные слова. Таким образом можно даже поднять революцию в небольшой стране, приложив минимум усилий и находясь в недосягаемости от правоохранительных органов. К чему это приведет? Массовые волнения? А что даст обучаемость искусственного интеллекта и новая технология?

Преступники не упустят технологию, подходящую для достижения их целей. Если не опытному хакеру удалось создать запись с голосом гендиректора материнской компании и украсть сотни миллионов, почему другим не попробовать? Стоит ожидать чего-то подобного, ведь аферисты точно не останутся в стороне, им захочется опробовать собственные силы и поднять мастерство на новый уровень. Хотя аналитики некоторых компаний, например, McAfee, утверждают, что это все делается для манипулирования рынком акций.

Искусственный интеллект с разных точек зрения

Кто-то скажет, что технология Deep fake опасна для человечества. Она способна полностью передать звуковой или зрительный образ. Да, мошенники обязательно захотят воспользоваться подобной программой, чтобы свободно убеждать толпы людей в своей честности. Конечно, в истории еще придется столкнуться с подобными примерами, но есть и оборотная сторона медали.

Обманули в интернете ? Сообщите нам!

Оставьте заявку и мы Вам перезвоним

Искусственный интеллект в ближайшем будущем превратится в незаменимого помощника для человека. К примеру, голос матери всегда успокоит малыша, а преподаватели будут обеспечивать свободное удаленное обучение без собственного присутствия. Существует масса возможностей, и они в разы полезнее, чем опасность появления новых аферистов. Преступники в любом случае найдут иное решение, так что дело совсем не в новой технологии.

Вас обманули мошенники?

Узнай как вернуть деньги


Хотите выгодно инвестировать?

Выгодные инвестиции могут сберечь и приумножить деньги и стать своеобразной страховкой на случай экономических потрясений.

Подробнее

Рекомендуем прочитать