Отчет Menlo Security: риски кибербезопасности растут с внедрением ИИ

 

Новое исследование Menlo Security показывает, как взрывной рост генеративного ИИ создает новые проблемы кибербезопасности для предприятий. Поскольку такие инструменты, как ChatGPT, прочно укореняются в повседневных рабочих процессах, предприятиям необходимо срочно пересмотреть свои стратегии безопасности.

«Сотрудники интегрируют ИИ в свою повседневную работу. Средства контроля не могут просто заблокировать его, но мы также не можем позволить ему выйти из-под контроля», — сказал Эндрю Хардинг, вице-президент по маркетингу продуктов в Menlo Security, в эксклюзивном интервью VentureBeat. «Наблюдается постоянный рост числа посещений сайтов с генеративным ИИ и продвинутых пользователей на предприятии, но проблемы для команд по безопасности и ИТ сохраняются. Нам нужны инструменты, которые применяют средства контроля к инструментам ИИ и помогают руководителям служб информационной безопасности управлять этим риском, одновременно поддерживая рост производительности и аналитику, которую может генерировать GenAI».

Всплеск использования и злоупотребления ИИ

Новый отчет Menlo Security рисует тревожную картину. Посещения сайтов генеративного ИИ на предприятиях взлетели более чем на 100% всего за последние 6 месяцев. Количество частых пользователей генеративного ИИ также подскочило на 64% за тот же период. Но эта повсеместная интеграция в ежедневные рабочие процессы открыла новые опасные уязвимости.

Хотя многие организации, что похвально, вводят больше политик безопасности вокруг использования генеративного ИИ, большинство из них используют неэффективный подход «доменный за доменом», по словам исследователей. Как Хардинг сказал VentureBeat, «Организации усиливают меры безопасности, но есть одна загвоздка. Большинство применяют эти политики только на основе домена, что больше не работает».

Эта разрозненная тактика просто не может идти в ногу с постоянно появляющимися новыми платформами генеративного ИИ. Отчет показал, что попытки загрузки файлов на сайты генеративного ИИ выросли на тревожные 80% за 6 месяцев — прямой результат добавления функциональности. И риски выходят далеко за рамки потенциальной потери данных при загрузке.

Исследователи предупреждают, что генеративный ИИ может серьезно усилить фишинговые атаки. Как отметил Хардинг, «фишинг с использованием ИИ — это просто более умный фишинг. Предприятиям нужна защита от фишинга в режиме реального времени, которая не позволит «фишу» OpenAI стать проблемой в первую очередь».

От новизны к необходимости

Так как же мы до этого дошли? Генеративный ИИ, казалось бы, взорвался в одночасье, когда ChatGPT-мания охватила весь мир. Однако технология развивалась постепенно, в течение многих лет исследований.

OpenAI запустила свою первую генеративную систему ИИ под названием GPT-1 (Generative Pre-trained Transformer) еще в июне 2018 года. Эта и другие ранние системы были ограничены, но продемонстрировали потенциал. В апреле 2022 года Google Brain построила на этом PaLM — модель ИИ, которая может похвастаться 540 миллиардами параметров.

Когда OpenAI представила DALL-E для генерации изображений в начале 2021 года, генеративный ИИ захватил широкую общественную интригу. Но именно дебют OpenAI ChatGPT в ноябре 2022 года по-настоящему разжег ажиотаж.

Почти сразу пользователи начали интегрировать ChatGPT и подобные инструменты в свои ежедневные рабочие процессы. Люди небрежно обращались к боту за любыми вопросами: от создания идеального электронного письма до отладки кода. Казалось, что ИИ может делать почти все.

Но для бизнеса эта стремительная интеграция привела к серьезным рискам, которые часто упускают из виду в шумихе. Генеративные системы ИИ по своей сути настолько же безопасны, этичны и точны, насколько безопасны данные, используемые для их обучения. Они могут невольно разоблачать предубеждения, делиться дезинформацией и передавать конфиденциальные данные.

Эти модели извлекают данные для обучения из обширных областей публичного интернета. Без строгого мониторинга контроль над тем, какой контент поглощается, ограничен. Поэтому, если конфиденциальная информация публикуется в сети, модели могут легко впитать эти данные — и позже разгласить их.

Исследователи также предупреждают, что генеративный ИИ может серьезно усилить фишинговые мошенничества. Как Хардинг сказал VentureBeat, «фишинг с использованием ИИ — это просто более умный фишинг. Предприятиям нужна защита от фишинга в реальном времени, которая не позволит «фишу» OpenAI стать проблемой в первую очередь».

Балансирующий акт

Так что же можно сделать, чтобы сбалансировать безопасность и инновации? Эксперты выступают за многоуровневый подход. Как рекомендует Хардинг, это включает «лимиты копирования и вставки, политики безопасности, мониторинг сеансов и групповой контроль на платформах генеративного ИИ».

Прошлое подтверждает пролог. Организации должны извлекать уроки из предыдущих технологических переломных моментов. Широко используемые технологии, такие как облако, мобильные устройства и веб, по сути, внесли новые риски. Компании постепенно адаптировали стратегии безопасности, чтобы соответствовать меняющимся технологическим парадигмам с течением времени.

Тот же взвешенный, проактивный подход требуется для генеративного ИИ. Окно для действий быстро закрывается. Как предупредил Хардинг, «Наблюдается постоянный рост посещений сайтов генеративного ИИ и числа продвинутых пользователей на предприятии, но проблемы для служб безопасности и ИТ сохраняются».

Стратегии безопасности должны развиваться — и быстро — чтобы соответствовать беспрецедентному принятию генеративного ИИ в организациях. Для предприятий крайне важно найти баланс между безопасностью и инновациями. В противном случае генеративный ИИ рискует выйти из-под контроля.