Включите звук в видеоролике! Для этого щёлкните на значке динамика под плеером и установите нужную громкость.
Мошенники все чаще используют дипфейки, чтобы выманить деньги у россиян. Причем ведутся на подделки нейросетей не только пенсионеры. Ежедневно на нас обрушивается столько видео и звука из всех наших гаджетов, что мы просто не в состоянии приглядываться и прислушиваться ко всему.
Основное оружие аферистов — сгенерированные нейросетью голосовые сообщения. Реже — фейковые видео. В мире нет идеальных программ для распознавания дипфейков — полагаться приходится только на собственные мозги.
Интервью "Контекста" с жертвами обмана, с теми, чьи голоса и лица украли мошенники, а также со специалистами по нейросетям, которые объяснили, как создаются дипфейки и какие дела с ними проворачивают.
С развитием технологий искусственного интеллекта (ИИ) и машинного обучения, мошенники получают в своё распоряжение новые, всё более совершенные инструменты для реализации своих преступных замыслов. Одним из таких мощных инструментов стали дипфейки — поддельные видео и аудио, которые с высокой точностью могут имитировать внешний вид и голос реальных людей.
Хотя технология дипфейков открывает массу возможностей для развлечений, искусства и креатива, её тёмная сторона становится всё более очевидной. Мошенники используют дипфейки для финансовых махинаций, социальной инженерии, шантажа и многих других видов преступлений. В этой статье мы подробно рассмотрим, как злоумышленники применяют дипфейки для мошенничества, какие угрозы они представляют, а также обсудим, как можно защититься от таких атак.
Дипфейк — это технология, основанная на алгоритмах глубокого обучения, которая позволяет создавать поддельные видео и аудиозаписи. Она может использоваться для имитации лиц, голосов и даже поведения людей, делая поддельные медиа настолько реалистичными, что их сложно отличить от оригинала без специального анализа.
Видеодипфейки — это поддельные видео, где лицо или действия одного человека заменяются на лицо или действия другого. Это достигается за счет использования генеративно-состязательных сетей (GAN), которые обучаются на больших объемах данных, чтобы создать правдоподобное поддельное видео.
Аудиодипфейки — это поддельные аудиозаписи, созданные с использованием технологий синтеза речи. Они позволяют имитировать голос конкретного человека, включая его интонации, тембр и даже эмоциональные оттенки. Алгоритмы синтеза речи, такие как WaveNet или Tacotron, используют образцы голоса для создания фальшивых записей, которые звучат почти неотличимо от реальных.
Технология дипфейков использует алгоритмы глубокого обучения, чтобы с высокой точностью воссоздать или имитировать голос и внешний вид человека. Процесс создания дипфейка включает несколько шагов:
Одной из самых распространённых схем использования видеодипфейков является мошенничество в корпоративной среде. Мошенники создают поддельные видео, в которых руководители компаний "просят" сотрудников перевести деньги на счета злоумышленников. Эти видео выглядят настолько правдоподобно, что жертвы не подозревают об обмане.
Видеодипфейки могут использоваться для создания поддельных компрометирующих материалов, которые затем используются для шантажа. Мошенники создают поддельные видео с участием жертвы в нежелательных ситуациях и угрожают их распространением, если жертва не выполнит требования.
С помощью видеодипфейков можно подделывать видео с участием политиков, создавая ложные заявления или фальшивые ситуации, чтобы повлиять на общественное мнение или дестабилизировать политическую обстановку. Это может вызвать общественные волнения и нанести серьёзный ущерб репутации политических фигур.
Мошенники могут использовать видеодипфейки для проведения атак социальной инженерии. Например, поддельные видео-звонки от руководителей компании могут быть использованы для получения конфиденциальной информации или заставить сотрудников выполнить какие-то действия.
Одной из самых известных схем с использованием аудиодипфейков является поддельный телефонный звонок от руководителя компании. Мошенники могут создать запись голоса генерального директора и, используя её, убедить сотрудников перевести деньги на подставные счета. Один из таких случаев произошёл в 2019 году, когда преступники обманули компанию на 243 000 долларов с помощью поддельного звонка от имени генерального директора.
Аудиодипфейки могут быть использованы для создания поддельных аудиозаписей компрометирующего содержания. Мошенники могут угрожать жертве распространением таких записей, если она не выполнит их требования. Поскольку голос в записи звучит правдоподобно, жертве трудно доказать, что это подделка.
Аудиодипфейки также активно используются в атаках социальной инженерии. Например, поддельный голос представителя службы технической поддержки или банка может заставить жертву предоставить доступ к банковским счетам или конфиденциальной информации.
Мошенники могут сымитировать голос сотрудников служб технической поддержки или финансовых организаций и звонить клиентам, прося их выполнить срочные действия, такие как передача личных данных или перевод денег.
Хотя современные дипфейки могут быть крайне правдоподобными, существуют определенные признаки, которые могут помочь распознать подделку:
Дипфейки — это одна из наиболее опасных технологий современности, которая активно используется мошенниками для достижения своих целей. Независимо от того, используются ли поддельные видео или аудио, они представляют серьёзную угрозу как для частных лиц, так и для бизнеса. Защита от таких атак требует не только использования современных технологий, но и постоянного повышения осведомлённости и бдительности.
Используйте советы из видеоролика и статьи, чтобы избежать мошенничества, осуществляемого с помощью самых современных технологий!