Не пользой единой: Как искусственный интеллект помогает мошенникам

Не пользой единой: Как искусственный интеллект помогает мошенникам
0
226
7мин.

Искусственный интеллект меняет буквально все сферы, и кибербезопасность – не исключение. В 2024 году глобальный рынок защитных технологий на основе ИИ превысил $30 миллиардов, а к 2030 году, по прогнозам, он достигнет $135 миллиардов.

К привычным методам злоумышленников, таким как социальная инженерия, добавляются масштабные кампании дезинформации и синтетические медиа. В отчете по безопасности Мюнхена и на Всемирном экономическом форуме это определили как один из основных рисков ближайших лет. Особенно остро проблема встала в 2024 году, когда на выборах приняли участие около 4 миллиардов человек по всему миру.

Злоумышленники быстро осваивают новые технологии, развивая методы атак. Прогресс крупных языковых моделей способствует эволюции угроз, что делает мошеннические схемы еще более хитрыми.

При этом барьер доступа к киберпреступности становится ниже. Для атак требуется все меньше специфических знаний, а современные алгоритмы настолько усложняют распознавание синтетического и реального контента, что даже специализированные системы могут запутаться.

Мы проанализировали ключевые возможности и риски ИИ в сфере цифровой безопасности и подготовили рекомендации для защиты от актуальных угроз.

Преимущества искусственного интеллекта для кибербезопасности

Современные компании все активнее включают искусственный интеллект в привычные инструменты цифровой защиты, такие как антивирусы, системы для предотвращения утечки данных, обнаружения мошенничества, управления доступом и обнаружения вторжений. Благодаря способности ИИ обрабатывать огромные объемы информации появляются новые возможности для защиты

  • более точное обнаружение реальных атак по сравнению с людьми,
  • уменьшение количества ложных срабатываний и определение приоритетных ответных мер с учетом их реальных рисков;
  • маркировка фишинговых электронных писем и сообщений;
  • моделирование атак с использованием социальной инженерии, что позволяет службам безопасности выявлять возможные уязвимости;
  • быстрый анализ больших объемов данных, связанных с инцидентами, что позволяет оперативно реагировать на угрозы.

 

Особенно полезным искусственный интеллект является для тестирования на проникновение в систему – это детальное исследование защищенности программного обеспечения и сетей. Разрабатывая специализированные инструменты для работы с собственной инфраструктурой, организации могут выявлять слабые места еще до того, как их найдут хакеры.

Внедрение технологий ИИ в системы безопасности не только усиливает защиту данных, но и оптимизирует расходы на ИТ благодаря предотвращению потенциальных атак.

Как хакеры злоупотребляют искусственным интеллектом

Киберпреступники всегда найдут, как использовать новые технологии в своих целях. Давайте рассмотрим основные способы, которыми они применяют искусственный интеллект для нарушения закона.

Схемы социальной инженерии

Такие схемы базируются на манипулировании психологией людей, чтобы выведать конфиденциальную информацию или побудить жертву к действиям, нарушающим безопасность. К самым распространенным методам относятся фишинг, вишинг и подмена деловой переписки.

Благодаря искусственному интеллекту хакеры могут автоматизировать создание лично настроенных мошеннических сообщений. Это позволяет им расширять масштабы атак, затрачивая меньше времени и усилий, но достигая большей эффективности.

Взлом паролей

Искусственный интеллект совершенствует алгоритмы подбора паролей, что делает процесс более быстрым и точным. Это стимулирует злоумышленников сосредотачиваться на этом направлении для улучшения результатов атак.

Исследование Security Hero в 2023 году показало, как генеративный ИИ может помогать во взломе паролей, используя базу из 15 миллионов учетных данных.

В результате 51% паролей удалось взломать менее чем за минуту. За час удалось подобрать 65% комбинаций, за сутки – 71%, а за месяц – 81%.

Эксперимент также показал определенные закономерности. Комбинации, состоявшие только из цифр, взламывались за секунды, тогда как добавление букв и переменных регистров значительно замедляло процесс.

Дипфейки и киберугрозы

Этот метод обмана базируется на возможности ИИ изменять аудио- и видеоконтент, создавая очень реалистичную имитацию. Дипфейки могут быстро распространяться в соцсетях, вызывая панику и дезориентацию пользователей.

Такие технологии часто комбинируются с другими видами мошенничества. Яркий пример – схема, разоблаченная в октябре 2024 года, когда преступники использовали фальшивые видеозвонки с образами привлекательных женщин, чтобы обмануть мужчин. Предлагая “инвестиции” в криптовалюту, мошенники украли более $46 млн.

Еще один случай произошел в гонконгском отделении крупной компании. Злоумышленники, используя дипфейк-технологию, имитировали образ финансового директора во время видеоконференции. В результате сотрудник перевел им $25 млн.

“Отравление” данных

Злоумышленники нашли новый способ атак – они пытаются “отравить” или скомпрометировать данные, используемые для обучения моделей искусственного интеллекта. Их цель – намеренно исказить информацию, что приводит к принятию ИИ неправильных решений.

В 2024 году специалисты Техасского университета обнаружили такой метод атаки, направленный на системы Microsoft Copilot. Злоумышленники добавляют специально подготовленный контент к документам, которые система может индексировать, заставляя ее выдавать дезинформацию, при этом ссылаясь на фальшиво “надежные” источники. Особая опасность заключается в том, что даже после удаления вредоносных данных искаженная информация может оставаться в системе.

Выявление подобных атак занимает немало времени, и к моменту их раскрытия ущерб может быть уже значительным.

Противодействие угрозам искусственного интеллекта: основы защиты

С развитием технологий вопрос цифровой безопасности приобретает все большую актуальность. В разных странах активно формируют правовые основы, чтобы максимально использовать преимущества ИИ, уменьшая при этом риски. Впрочем, полного и комплексного законодательства в этой сфере пока почти нет.

В то же время, чтобы адаптироваться к современным угрозам, кардинально менять принципы кибербезопасности не обязательно. Главный акцент сегодня заключается в усилении уже имеющихся мер безопасности в важных аспектах.

Противостоять социальной инженерии помогает контроль над личной информацией, внимательность в онлайн-общении и проверка подозрительных ссылок. Для паролей рекомендуем использовать уникальные и сложные комбинации, а также включить двухфакторную аутентификацию.

Чтобы защититься от дипфейков, лучше проверять полноценно важную информацию через другие каналы, особенно в финансовых вопросах. Работая с системами ИИ, стоит использовать только проверенные источники данных и официальные датасеты, чтобы уменьшить риск “отравления” данных.

Соблюдение базовых правил цифровой безопасности – это основа работы онлайн. Но с развитием ИИ защита становится еще важнее: новые угрозы появляются быстро, поэтому превентивные меры и мгновенная реакция выходят на первый план.

Поделитесь своим мнением!

TOP