В «Лаборатории Касперского» рассказали, как хакеры используют искусственный интеллект
Популярные модели искусственного интеллекта (ИИ) вроде ChatGPT, Gemini и Sonnet активно используются хакерами.
Чат-боты помогают киберпреступникам в трех группах задач: мошеннические кампании, операционная деятельность и улучшение программного кода. Об этом «Газете.Ru» рассказал руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов.
«ИИ активно используется злоумышленниками в разных сценариях. Кроме генерации фишинга и спама, атакующие применяют ИИ для упрощения своей операционной работы, написания скриптов (типовых фрагментов программного кода, — “Газета.Ru”), отладки (проверки на наличие ошибок, — “Газета.Ru”) программного кода — это подтверждают отчеты по безопасности OpenAI, Google и Anthropic», — сказал Тушканов.
При этом, по словам эксперта, такое применение ИИ злоумышленниками не создает принципиально новых угроз. Однако ИИ в руках злоумышленников потенциально может повышать эффективность кибератак, а также снижать порог входа в киберпреступность за счет снижения требуемых для этого технических компетенций от человека.
«Вместе с тем ИИ активно применяется и в сфере кибербезопасности, и в целом в разработке: в частности, благодаря таким технологиям растет продуктивность и скорость реализации нового функционала. Мы в “Лаборатории Касперского” используем, например, внутренний ИИ-сервис для повышения продуктивности разработчиков и разных сценариев, связанных с кибербезопасностью — от реверс-инжиниринга (анализа кода программных продуктов, — “Газета.Ru”) до обработки данных о киберугрозах», — добавил эксперт.