ИИ в кибербезопасности: решение проблем или опасная азартная игра?

Риски искусственный интеллект безопасность

В Лас-Вегасе 3-7 августа проходила конференция по кибербезопасности Black Hat. На ней выявилась одна четкая тенденция — крупные компании готовы доверить защиту против хакерских атак искусственному интеллекту. Для этого есть две причины:

  • квалифицированных кадров для работы над защитой от вредоностого ПО не хватает;
  • количество кибератак ежегодно увеличивается, а модели по которым они проводятся усложняются.

Искусственный интеллект способен существенно разгрузить работников и помочь выявить потенциальные угрозы. Но зависимость от AI может стать дополнительным источником опасности.

Конференция Black Hat 2018
Конференция Black Hat 2018

Риск №1: Ложное чувство безопасности

Кажущаяся устойчивость ИИ к вредоносному ПО заставляет ослабить контроль за системами безопасности. Машинное обучение показывает отличные результаты во многих областях, и предприниматели ищут возможности применить его для обеспечения безопасности своего бизнеса. Они досконально не изучают возможные риски от передачи обязанностей программе, полностью полагаясь на поставщиков ИИ. Злоумышленники, как внедрясь в ряды сотрудников компании-разрабочика, так и удаленно, смогут «заражать» такое ПО.

Риск №2: Датасеты, размеченные с ошибками

Для обучении ИИ необходим набор данных, который требует предварительной разметки (supervised learning). Из желания как можно скорее вывести продукт на рынок и сэкономить, компании начнут обучать свои ИИ на наборах, из которых не были до конца удалены аномальные данные. На выходе это приведет к непредсказуемым ошибкам в работе. Например, гражданская техника будет по ошибке размечена как военная, а в ходе конфликта ИИ примет решения об уничножении этого «военного объекта».

Риск №3: Уязвимости мастер-алгоритма

Если для управления системой безопасности используется один мастер-алгоритм, то при наличии уязвимости не будет инструментов, которые смогут указать на это. Если же использовать два или больше алгоритмов от независимых разработчиков, то они начнут конфликтовать между собой. К тому же при использовании крайне сложных моделей сложно понять по каким принципам они определяют одни ПО как вредоносные, а другие как «чистые».

Вывод

Использовать ИИ стоит с осторожностью, тщательно изучая принципы работы алгоритмов, применяя несколько программ, которые смогут указать на несовершенства. Риски необходимо  минимизировать до ввода в работу ИИ и отслеживать их всегда по ходу работы.

Слайд с конференции Black Hat 2018
Слайд с конференции Black Hat 2018

По материалу MIT Technology Review.

Подписаться
Уведомить о
guest

0 Comments
Межтекстовые Отзывы
Посмотреть все комментарии

gogpt