Преступный искусственный интеллект

Преступный искусственный интеллект

В последние годы нейросети обучаются все новым и новым возможностям и активно внедряются в производстве, медицине, научных исследованиях, дизайне. Однако этим научились пользоваться и мошенники, к примеру, обманывая своих жертв с помощью синтезированных голосовых сообщений от якобы начальства или родственников.

Директор Ассоциации развития финансовой грамотности (АРФГ) Вениамин Каганов и начальник отдела информационной безопасности «СерчИнформ» Алексей Дрозд рассказали, какие преступные схемы с использованием нейросетей мошенники уже освоили, и как можно их распознать.

Эксперты приняли участие в первом дне основной программы форума «Кибербезопасность в финансах», который прошел 14 февраля в Екатеринбурге, и в тот же день провели пресс-конференцию в Доме журналистов, в ходе которой рассказали и о событиях форума, и о проблеме использования мошенниками возможностей нейросетей.

Выступая на форуме «Кибербезопасность в финансах», глава ЦБ РФ Эльвира Набиуллина отметила, что в 2023 году мошенники сумели украсть у россиян почти 16 млрд руб., используя преступные схемы с использованием нейросетей. В 2022 году этот показатель составлял около 14 млрд руб.

«Мое общее впечатление от проходящего сейчас форума — позитивно-задумчивое», — сказал В. Каганов. Опасения ему внушает то, что пока борьба правоохранителей и преступников в сфере высоких технологий идет не в пользу первых. Силовики реагируют на инновации быстро, но и мошенники внедряют новые разработки оперативно.

По его словам, в ходе форума представитель «Сбербанка» заявил, что специалисты финансового учреждения в 2023 году сумели предотвратить покушения на мошенничество на общую сумму 250 млрд руб. Из них попыток заставить жертву взять кредит было совершено в денежном выражении на сумму около 100 млрд руб.

В настоящее время «Сбербанк» внедряет процедуру периода «охлаждения» сроком на 24 часа при попытке человека взять кредит. Этого времени, по словам В. Каганова, обычно хватает, чтобы человек еще раз обдумал свое решение и смог бы осознать, что он стал жертвой мошенников. К инициативе «Сбербанка» присоединился и ВТБ.

А. Дрозд согласился с коллегой, отметив, что мошенникам необходимо лишить свою жертву возможности рационально все обдумать, поэтому они утверждают, что времени нет и принимать решение нужно прямо сейчас. Обычно человек в таких случаях действует на эмоциях, в состоянии стресса.

Поэтому, как отмечают эксперты, первым признаком того, что человек стал жертвой мошенника, является требование крайне оперативно принять какое-то решение, касающееся денег.

По словам А. Дрозда, в преступных схемах используют две методики, связанные с нейросетями: «клонирование» (ИИ создает изображение или аудио якобы от имени реального человека) и «синтез» (ИИ создает полностью виртуальное событие или личность). К примеру, один мошенник сделал с помощью нейросети картинку, изображающую город после урагана. Этим изображением он проиллюстрировал пост о благотворительном сборе средств для жертв урагана и присвоил все присланные деньги. Это пример «синтеза».

В качестве примера «клонирования» эксперт привел следующий эпизод. Злоумышленники сумели подделать с помощью нейросети голос одного известного рэпера. Создали от его имени музыкальные записи и продавали их в интернете под видом студийных черновиков, которые у него украли хакеры.

В России была реализована следующая преступная схема. С помощью нейросетей преступники создали видеозапись, на которой был изображен клон одного известного эксперта в сфере криптовалют. Фейк рекламировал некую площадку по торговле криптовалютами. Многие участники рынка поверили авторитетному мнению и оказались жертвами мошенников, укравших их деньги.

Однако чаще всего злоумышленники стараются минимизировать свои усилия. По этой причине более популярными сейчас являются попытки украсть у жертвы деньги с помощью голосовых сообщений в мессенджерах якобы от родственников жертвы или начальства. К примеру, бухгалтер получает в мессенджере голосовое сообщение, в котором голос «директора» приказывает ему перевести деньги на некий счет. Или родители получают голосовое сообщение от «сына», в котором говорится, что тот попал в аварию, разбил телефон, звонит с телефона полицейского, и ему нужны деньги, чтобы откупиться от жертвы ДТП.

Так, нейросеть Descript позволяет создать почти неотличимую копию чьего-либо голоса по тембру. С помощью нейросети DeepNude мошенники создавали фейковые изображения обнаженных людей, беря за основу фотографии их одетых. Затем преступники шантажировали жертв, угрожая опубликовать эти фото.

В беседе с корреспондентом УрБК пресс-секретарь АРФГ Валентина Зиверт рассказала, что преступления с использованием ИИ пока еще не стали массовым явлением, но это уже нарастающая угроза безопасности граждан. Возможно, в 2024 году преступники еще сильнее активизируются в этом направлении. К примеру, отметила В. Зиверт, в России уже был зафиксирован один эпизод, когда преступники использовали нейросети против финансовой организации.

Изображение создано с помощью нейросети Midjourney

Ekaburger

Все последние новости Екатеринбурга и Свердловской области сегодня: события, сводки происшествий, криминал, культура и образование, а также новости спорта и молодёжной политики. Читайте самые свежие и актуальные новости на ekburgnews.ru.

Читайте также:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

© 2023. Новости Екатеринбурга - хроника городских событий. Общество, политика, происшествия, культура, спорт, образование - рубрики раздела Новости. Интервью с известными жителями города. Комментарии и мнения. Сообщения пресс-служб, органов власти и организаций столицы Урала.