Всплеск дипфейков, как опасность для общества
Слово «deep» в слове «deepfake» происходит от «deep learning» — «глубокое обучение» области искусственного интеллекта (ИИ).
На практике дипфейк означает любое использование ИИ для создания фейкового медиаконтента. Технологические достижения, которые задумывались, как помощь людям, становятся растущей угрозой, как для частных лиц, так и для общества в целом. Эта технология всё ещё находится в зачаточном состоянии. Но растущие мощности высокопроизводительных серверов, соединённых в целые электронные нейросети центров обработки данных, открывают невообразимые возможности в изготовлении подделок медиаконтента, которые становится всё сложнее обнаружить.
Клонировать чей-то голос легко, если у вас есть запись, которую можно использовать в качестве основы. То же самое касается и неподвижных изображений. Видео с дипфейком стали более продвинутыми, поэтому уже сейчас можно встретить весьма правдоподобными. Уже изобретены технологии, которые создают фальшивые видео на основе всего одного неподвижного изображения. Вы решаете, что должен сказать человек, а его губы и лицо двигаются естественным образом. Всё больше приложений предлагают технологию замены лиц. Она становится ещё более продвинутой, когда, просто создав текст описания известного человека, можно использовать искусственный интеллект для создания как его голоса, так и живых изображений. В Южной Корее серьёзной проблемой является то, что студенты публикуют порнографические видео с лицами своих однокурсников. В шести из десяти случаев кибербуллинг затрагивает несовершеннолетних. Поп-звёзды и актёры по всему миру подвергались тому же.
Но развитие искусственного интеллекта привело не только к появлению ошеломляющих инноваций в области подделок в медиа, но также к тревожной волне цифрового мошенничества. Специалисты в области безопасности утверждают, что в 2025 году количество случаев мошенничества с использованием дипфейков выросло на целых 500% по сравнению с прошлым годом, что представляет серьёзную угрозу как для частных лиц, так и для финансовых учреждений. Синтетически созданный медиа-контент стал популярным инструментом мошенников, подпитывая кражу личных данных, финансовое мошенничество и дезинформацию. Без принятия дополнительных мер регулирования и профилактики этот рост, вероятно, продолжится.
В мошеннических схемах часто используются образы знаменитостей, зачастую для того, чтобы заставить жертв поверить в мошеннические инвестиционные возможности, бесплатные раздачи или политические сообщения. Наиболее частыми поддельными образами, для демонстрации целевой аудитории, являются политики и музыканты, на долю которых пришлось более 60% случаев. Примечательно, что президент Дональд Трамп — самая популярная фигура, дипфейки о которой генерируют в более чем 12% зарегистрированных случаев мошеннических действий. Поддельные видео с Трампом и даже пародии на его сотрудников широко распространяются с начала избирательного цикла 2024 года. На втором месте актёр Уилл Смит - на долю голливудской звезды приходится более 5% случаев дипфейков, что делает его самой частой мишенью для атак. Хотя Илон Маск занимает пятое место, имея почти четыре процента случаев, связанных с его образом, но зато мошеннические дипфейки с участием Маска обходятся особенно дорого: мошенничество с использованием его образа и голоса приводит к многомиллиардным убыткам.
В условиях стремительного развития технологий искусственного интеллекта регулирующим органам, компаниям и частным лицам будет всё сложнее справляться с всё более убедительными подделками, которые могут подорвать общественное доверие, исказить политику и истощить мировую экономику. Страховые компании тоже отмечают рост числа мошеннических претензий. Это особенно тревожно, учитывая, что фейковые новости распространяются в десять раз быстрее правды. А в большой политике всё становится ещё более запутанно. Когда доверие ослаблено, легко создать неопределённость. Трамп утверждал, что новостные статьи с изображениями людей на собрании Харрис были созданы искусственным интеллектом, несмотря на неопровержимые доказательства обратного. У нас также есть так называемый «дивиденд лжеца»: людям легче утверждать, что реальные события — фейк, если им не нравится то, что они изображают. Один из известных примеров — заявление Трампа о том, что Камала Харрис преувеличила количество людей на своём мероприятии.
Финансовый сектор, сильно зависящий от доверия и проверки личности, особенно уязвим. Мошенники, использующие эти технологии, могут имитировать голоса клиентов, фальсифицировать распоряжения правительства или манипулировать «доказательствами» в мошеннических схемах. Финансовые учреждения должны действовать на опережение, вынуждены внедрять инструменты обнаружения, усиливать процедуры идентификации и проверки, а также информировать клиентов о рисках. В будущем это может стать не просто вариантом, а важнейшей мерой в борьбе с дипфейками и мошенничеством по всему миру.
Уже зафиксирован случай гонконгского финансиста, которого обманом заставили перевести 25 миллионов долларов после видеоконференции с человеком, которого он принял за финансового директора. Мужчина не был уверен, но убедился, когда узнал нескольких коллег, присутствовавших на той же встрече, и согласился с предложением финансового директора осуществить ускоренный денежный перевод. Проблема заключалась в том, что все, с кем он «встречался» во время видеоконференции, были поддельными. Мошенники клонировали, как образы, так и голоса коллег этого человека. Это была сложная операция, но совершать сложные мошеннические действия становится всё проще благодаря всё более мощным цифровым инструментам. Можно заставить кого угодно сказать что угодно и когда угодно.
Эксперты отмечают, что даже самые убедительные дипфейки часто содержат едва заметные изъяны. Визуальные искажения — обычное явление, особенно по краям лиц или в таких деталях, как зубы, волосы и ногти. Неравномерное освещение и странные отражения также могут выдать изображения, созданные с помощью ИИ. Подозрительно безупречные истории или видео, которые кажутся слишком хорошими, чтобы быть правдой, — ещё один распространённый признак, особенно когда они связаны с инвестиционными возможностями или обещаниями гарантированной прибыли. Тут скептицизм — ключ к успеху. Если вы, как конечный клиент банка, заметили подобные тревожные сигналы, самый безопасный подход — не вмешиваться дальше, а сообщить о контенте на платформу, где вы его увидели, или даже в местный центр по борьбе с мошенничеством и киберпреступностью. Вы всё равно сможете избежать обмана, если будете поддерживать критическое мышление, знание медиа и сетевой этикет.
Даже если дипфейки когда-нибудь станут идеальными, у них всё равно будут свои недостатки: то, что кто-то выдаёт себя за кого-то, кого вы знаете, не означает, что мошенник досконально знает о ваших отношениях. Существует одно «золотое правило» - тот, кто хочет вас обмануть, обычно должен сам инициировать контакт, поэтому, если у вас есть какие-либо сомнения, прекратите разговор и свяжитесь с этим человеком по привычным вам каналам связи. Кроме того, подделать реальность невозможно, поэтому вам стоит рассмотреть возможность проведения деликатных бесед лично.