Киберпреступление имитацией голоса

В марте 2019 года мошенники обманом заставили подчинённого британской компании перевести им 243 тысячи долларов (более 15 миллионов рублей), используя сымитированный с помощью искусственного интеллекта голос его руководителя. Об этом сообщил The Wall Street Journal со ссылкой на страховую компанию Euler Hermes Group, которая возместила убытки пострадавшим и отказалась указывать названия компаний.

Генеральный директор британской энергетической фирмы думал, что разговаривал по телефону со своим начальником, исполнительным директором немецкой головной компании. Босс попросил его срочно, в течение часа, перевести 243 тысячи долларов венгерскому поставщику.

Директор британской фирмы узнал лёгкий немецкий акцент и тембр начальника голоса, поэтому выполнил просьбу. Но мошенники позвонили ещё дважды. После перевода денег хакеры сказали, что немецкая компания отправила британской сумму на возмещение убытков. В третий раз они запросили второй платёж. Однако обещанный перевод ещё не пришёл, а звонок поступил с австрийского номера. Тогда британец заподозрил неладное и не стал платить ещё раз.

Деньги ушли на счёт венгерского банка, затем были переведены в Мексику и дальше разошлись по разным местам. Детективам не удалось обнаружить ни одного подозреваемого. Неизвестно, использовали ли преступники роботов, чтобы сгенерированный голос мог самостоятельно реагировать на вопросы жертвы.

Полиция и эксперты по кибербезопасности ещё в 2018 году предсказывали, что преступники начнут использовать ИИ для автоматизации кибератак. Рюдигер Кирш (Rüdiger Kirsch), эксперт по мошенничеству в Euler Hermes, отметил, что никогда не сталкивался с мошенниками, которые использовали бы ИИ.

Инцидент стал первым подобным зарегистрированным преступлением в Европе, отметил Филипп Аманн (Philipp Amann), глава безопасности в Европейском центре киберпреступности. Он подчеркнул, что хакеры, скорее всего, начнут чаще использовать технологию, если она позволяет успешно совершать преступления.

Кирш полагает, что мошенники использовали коммерческую программу для генерации голоса. С помощью подобного сервиса он записал собственный голос и отметил, что имитация звучала как настоящая. Существует несколько компаний, продающих программы, позволяющие быстро имитировать голос, отметил Бобби Филар (Bobby Filar), директор компании Endgame, занимающейся анализом данных: «Вам не нужна докторская степень по математике, чтобы её использовать».

Хакеры также могли склеить отрывки аудиозаписей для имитации голоса, но на это потребовались бы часы аудиозаписей. Мошенники могли получить доступ к публичным выступлениям директора немецкой компании. Филар считает, что все попадают в такие ситуации, когда случайно выдают информацию, которую потом мошенники могут использовать против них.

Технологии машинного обучения, с помощью которых можно имитировать голоса, позволяют намного проще совершать киберперступления, считает глава исследовательского центра ИИ и роботов в институте ООН по вопросам преступности и правосудия Иракли Беридзе (Irakli Beridze). Он изучает способы, позволяющие распознавать фейковые видео. Беридзе считает, что DeepFake-ролики станут ещё более удобным инструментом для хакеров: «Представьте видео-звонок с голосом и выражением лица вашего начальника. У вас не возникло бы никаких сомнений».

Источник

Будущее уже на пороге blank.gif