Мошенники выкачали 25 миллионов долларов из инжиниринговой компании Arup с помощью ИИ-подделки «финансового директора»

Мошенники выкачали 25 миллионов долларов из инжиниринговой компании Arup с помощью ИИ-подделки «финансового директора»

Киберпреступники использовали созданное искусственным интеллектом видео, чтобы выдать себя за финансового директора и других сотрудников компании AEC, что позволило одному из сотрудников перевести 25 миллионов долларов на счета в банках Гонконга.

Концепции кибератак и интернет-преступности, взлома и вредоносного ПО.
Теча Тунгатежа через Getty Images

Краткое описание погружения:

  • По данным Financial Times, британская инжиниринговая группа Arup потеряла около 25 миллионов долларов после того, как мошенники использовали «глубокие фейки», созданные с помощью искусственного интеллекта, чтобы выдать себя за финансового директора группы и потребовать перевода средств от сотрудника на банковские счета в Гонконге.
  • По данным полиции Гонконга, сотрудник получил сообщение, якобы от финансового директора Arup, базирующегося в Великобритании, относительно «конфиденциальной транзакции», сообщает Financial Times. После видеоконференции с фальшивым финансовым директором и другими сотрудниками, созданными с помощью искусственного интеллекта, сотрудник провел ряд транзакций на пять разных счетов в гонконгских банках, прежде чем обнаружил мошенничество.
  • Хотя финансовые директора, возможно, не держат такие инциденты в центре внимания в настоящее время, это изменится, поскольку они становятся более частыми. Как хранители финансовых ключей бизнеса — и, следовательно, как потенциальные цели для выдачи себя за других предприимчивыми мошенниками — обеспечение осведомленности является критически важным первым шагом, сказал Мэтью Миллер, директор по кибербезопасности в фирме «большой четверки» KPMG US, CFO Dive. Сотрудники должны знать об угрозах, таких как потенциальная выдача себя за других руководителей, и о том, как такое мошенничество может повлиять на критически важные бизнес-процессы, сказал он.

Обзор погружения:

Инцидент с Arup произошел на фоне растущей обеспокоенности по поводу так называемых deepfakes — изображений, аудио или видео, ложно созданных или иным образом обработанных с помощью ИИ — как среди руководителей бизнеса, так и среди регулирующих органов. Новость о мошенничестве впервые появилась в феврале, когда полиция Гонконга обнаружила, что крупная компания стала целью deepfakes обмана без упоминания Arup по имени. Люди, знакомые с этим вопросом, сообщили Financial Times в этом месяце, что целью была Arup , согласно отчету в четверг.

Arup уведомил полицию Гонконга в январе о том, что произошел случай мошенничества, и подтвердил Financial Times, что использовались ложные голоса и изображения, но отказался предоставить дополнительные подробности о мошенничестве, поскольку расследование инцидента все еще продолжается. Arup не сразу ответил на запросы о комментариях от CFO Dive.

Общая сумма транзакций, отправленных сотрудником, который обнаружил мошенничество после обращения в головной офис компании, мошенникам, составила 200 миллионов гонконгских долларов, или около 25 миллионов долларов США.

По словам Миллера, дипфейки с поддержкой искусственного интеллекта потенциально могут использоваться в ряде вредоносных случаев, например, для того, чтобы позволить мошенникам обойти требования аутентификации, чтобы получить доступ к счетам законных клиентов, или выдавать себя за сотрудников предприятия, имеющих право авторизовать денежные переводы.

Хотя такие виды мошенничества не являются новыми, появление генеративного ИИ и других инструментов, подпитывающих их, позволяет мошенникам масштабировать такие мошенничества в огромных масштабах; по сути, «это меняет экономику мошенничества», — сказал он. «И как только мошенники начинают зарабатывать деньги, они подпитывают свои мошеннические компоненты этим финансированием, чтобы иметь возможность зарабатывать еще больше денег, так что это меня беспокоит, причем довольно серьезно».

Финансовым директорам важно повысить осведомленность и начать более пристально изучать имеющиеся у них средства контроля мошенничества. Финансовым руководителям следует пересмотреть «некоторые из ваших бизнес-процессов, где вы можете быть подвержены атакам типа deepfake в социальных сетях», и убедиться, что «у вас есть надлежащие средства контроля и мониторинга, чтобы, как можно надеяться, предотвратить эти риски», — сказал Миллер.

Инцидент с Arup — далеко не первый случай, когда дипфейки использовались для выдачи себя за человека с критически важным доступом или влиянием; например, на прошлой неделе Комиссия по ценным бумагам и фьючерсам Гонконга предупредила, что дипфейковые изображения главы Tesla Илона Маска использовались криптовалютной фирмой Quantum AI.

SFC «подозревает, что Quantum AI использует созданные с помощью ИИ фейковые видео и фотографии г-на Илона Маска на своем веб-сайте и в социальных сетях, чтобы ввести общественность в заблуждение, что г-н Маск является разработчиком базовой технологии Quantum AI», — говорится в недавнем пресс-релизе.

Миллер также сказал, что существует много опасений относительно потенциальных социально-экономических последствий этого типа технологий. Законодатели во многих странах уже призвали к ограничению использования ИИ, поскольку растут опасения относительно того, как его можно будет использовать во зло во время выборов.

В своем обращении к нации в марте президент Джозеф Байден подчеркнул угрозу фальшивок, манипулируемых ИИ, призвав Конгресс заняться потенциальной «опасностью», которую представляет новая технология, сообщал ранее CFO Dive. Позже на той неделе законодатели Европейского союза приняли «Закон ЕС об ИИ», законодательство, которое устанавливает требования к использованию ИИ и подробно описывает потенциально суровые наказания за несоблюдение.

Sourse: www.constructiondive.com

Comments

No comments yet. Why don’t you start the discussion?

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *