Достижения ИИ для нейтрализации самоиндуцированных киберугроз: Отчет NCSC

Согласно отчету, опубликованному Национальным центром кибербезопасности (NCSC) Великобритании, достижения в области искусственного интеллекта (ИИ) окажут значительное влияние на постоянно растущий ландшафт киберугроз. В отчете подчеркивается, что в ближайшие два года ИИ может как усилить, так и нейтрализовать киберугрозы, особенно в контексте атак с использованием выкупного ПО.

Роль искусственного интеллекта в кибербезопасности

В отчете NCSC подчеркивается потенциал ИИ в укреплении защиты кибербезопасности за счет обнаружения и улучшения конструкции. Хотя ИИ может расширить возможности субъектов угроз, особенно в таких областях, как социальная инженерия, его также можно использовать для смягчения последствий киберугроз. В отчете предлагается продолжить исследования, чтобы понять, как достижения ИИ могут эффективно противостоять рискам, связанным с развивающимися киберугрозами.

ИИ и социальная инженерия

Социальная инженерия — тактика, часто используемая в фишинговых атаках, — названа одной из важнейших областей, где ИИ может значительно расширить возможности угроз. Генеративный ИИ, например, может создавать убедительные взаимодействия и документы, которые обманывают людей, без типичных ошибок перевода и грамматических ошибок, связанных с попытками фишинга. Ожидается, что по мере развития моделей ИИ эти возможности будут расширяться, что сделает фишинговые атаки более сложными для обнаружения.

Проблемы киберустойчивости

В отчете NCSC признаются проблемы, возникающие при использовании таких моделей ИИ, как генеративный ИИ и большие языковые модели, когда речь идет о проверке легитимности электронных писем и запросов на сброс пароля. С помощью этих моделей сетевым менеджерам становится все труднее быстро выявлять и устранять уязвимости, поскольку угрожающие субъекты быстрее используют бреши в системе безопасности.

Влияние искусственного интеллекта на субъектов угроз

В отчете подчеркивается, что наибольшую выгоду от развития ИИ, скорее всего, получат продвинутые государственные субъекты, имеющие более широкий доступ к сложным кибероперациям, управляемым ИИ. Ожидается, что другие государственные субъекты и коммерческие компании в ближайшие 18 месяцев также получат умеренный прирост возможностей. Тем не менее, по прогнозам, доступность кибернетических инструментов с поддержкой ИИ будет расти, поскольку способные группы монетизируют эти инструменты, делая улучшенные возможности доступными для более широкого круга субъектов угроз.

Управление потенциальными рисками ИИ

Хотя в отчете признается важность опыта, ресурсов, времени и денег для использования передового ИИ в кибер-операциях, в нем предполагается, что эти факторы могут стать менее важными по мере распространения моделей ИИ. Важно найти баланс между использованием потенциала ИИ и управлением связанными с ним рисками. NCSC подчеркивает необходимость того, чтобы правительство и сообщество кибербезопасности активно занимались вопросами влияния ИИ на ландшафт киберугроз.

Инвестиции в кибербезопасность

Чтобы противостоять киберугрозам, создаваемым искусственным интеллектом, правительство Великобритании инвестирует 2,6 миллиарда фунтов стерлингов в 2022 году в рамках стратегии кибербезопасности для повышения устойчивости страны. Эти инвестиции направлены на усиление мер кибербезопасности и разработку стратегий по смягчению возникающих угроз. Уделяя первостепенное внимание потенциалу ИИ и одновременно эффективно управляя его рисками, правительство стремится обеспечить безопасность и устойчивость цифрового ландшафта.

Заключение

По мере того как ИИ продолжает развиваться, он создает как возможности, так и проблемы в области кибербезопасности. Хотя ИИ может расширить возможности субъектов угроз, он также способен нейтрализовать киберугрозы, возникающие сами по себе. В отчете NCSC подчеркивается важность понимания и использования потенциала ИИ, а также проактивного управления связанными с ним рисками. Инвестируя в кибербезопасность и развивая сотрудничество в рамках сообщества кибербезопасности, организации и правительства могут лучше подготовиться к тому, чтобы ориентироваться в меняющемся ландшафте киберугроз в эпоху ИИ.