Google, Microsoft и OpenAI обещают свои усилия в области ИИ перед Мюнхенской конференцией по безопасности

Подпишитесь на наши ежедневные и еженедельные рассылки, чтобы получать последние обновления и эксклюзивный контент о ведущих в отрасли материалах об ИИ. Узнать больше


В так называемой «дилемме защитника» кибербезопасности хорошие парни всегда бегут, бегут, бегут и все время остаются начеку, в то время как злоумышленникам, с другой стороны, нужна лишь одна небольшая возможность, чтобы прорваться и нанести реальный ущерб.

Однако Google утверждает, что защитникам следует использовать передовые инструменты искусственного интеллекта, чтобы разорвать этот изнурительный цикл.

В поддержку этого решения технологический гигант сегодня выпустил новую «Инициативу по киберзащите на основе ИИ» и принял на себя ряд обязательств, связанных с ИИ, в преддверии Мюнхенской конференции по безопасности (MSC), которая начинается завтра (16 февраля).

Объявление было сделано на следующий день после того, как Microsoft и OpenAI опубликовали исследование о состязательном использовании ChatGPT и дали собственные обещания поддерживать «безопасное и ответственное» использование ИИ.

Поскольку лидеры правительств со всего мира собираются вместе для обсуждения политики международной безопасности в MSC, становится ясно, что эти крупные специалисты в области искусственного интеллекта стремятся продемонстрировать свою проактивность в вопросах кибербезопасности.

«Революция ИИ уже началась», — заявила Google в своем блоге сегодня. «Мы… взволнованы потенциалом ИИ для решения проблем безопасности поколений, приближая нас к безопасному, надежному и надежному цифровому миру, которого мы заслуживаем».

Google инвестирует в инфраструктуру, готовую к использованию искусственного интеллекта, новые инструменты и исследования

В Мюнхене соберутся более 450 высокопоставленных лиц, принимающих решения, а также лидеров мысли и бизнеса, чтобы обсудить такие темы, как технологии, трансатлантическая безопасность и глобальный порядок.

«Технологии все больше проникают во все аспекты того, как государства, общества и отдельные лица преследуют свои интересы», — заявляет MSC на своем веб-сайте, добавляя, что конференция направлена ​​на развитие дебатов по вопросам регулирования, управления и использования технологий «для содействия всеобщей безопасности и глобальному сотрудничеству».

ИИ, несомненно, находится в центре внимания многих мировых лидеров и регулирующих органов, поскольку они стремятся не только понять эту технологию, но и опередить ее использование злоумышленниками.

По мере развития событий Google берет на себя обязательства инвестировать в «инфраструктуру, готовую к использованию ИИ», выпустить новые инструменты для защитников и начать новые исследования и обучение по безопасности с использованием ИИ.

Сегодня компания объявляет о создании новой группы «ИИ для кибербезопасности» из 17 стартапов из США, Великобритании и Европейского союза в рамках программы «ИИ для кибербезопасности» Академии роста стартапов Google.

«Это поможет укрепить трансатлантическую экосистему кибербезопасности с помощью стратегий интернационализации, инструментов ИИ и навыков их использования», — говорят в компании.

Google также:

  • Расширить свою программу семинаров по кибербезопасности Google.org стоимостью 15 миллионов долларов, чтобы охватить всю Европу и помочь в подготовке специалистов по кибербезопасности в малообеспеченных сообществах.
  • Magika с открытым исходным кодом — новый инструмент на базе искусственного интеллекта, призванный помочь защитникам в идентификации типа файла, что необходимо для обнаружения вредоносного ПО. Google утверждает, что платформа превосходит обычные методы идентификации файлов, обеспечивая повышение точности на 30% и до 95% более высокую точность для такого контента, как VBA, JavaScript и Powershell, который часто трудно идентифицировать.
  • Предоставить 2 миллиона долларов в виде исследовательских грантов для поддержки исследовательских инициатив на основе ИИ в Чикагском университете, Университете Карнеги-Меллона и Стэнфордском университете, среди прочих. Цель состоит в том, чтобы улучшить проверку кода, улучшить понимание роли ИИ в киберпреступлении и защите и разработать более устойчивые к угрозам большие языковые модели (LLM).

Кроме того, Google ссылается на свою платформу Secure AI Framework, запущенную в июне прошлого года, которая помогает организациям по всему миру совместно разрабатывать лучшие практики по защите ИИ.

«Мы считаем, что технологии безопасности ИИ, как и другие технологии, должны быть безопасными по умолчанию и изначально», — пишет компания.

В конечном итоге Google подчеркивает, что миру нужны целевые инвестиции, партнерство между промышленностью и правительством и «эффективные подходы к регулированию», чтобы помочь максимизировать ценность ИИ, одновременно ограничивая его использование злоумышленниками.

«Выборы в области управления ИИ, принимаемые сегодня, могут непреднамеренно изменить ландшафт киберпространства», — пишет компания. «Нашим обществам нужен сбалансированный подход к регулированию использования и внедрения ИИ, чтобы избежать будущего, в котором злоумышленники могут внедрять инновации, а защитники — нет».

Microsoft и OpenAI борются с вредоносным использованием ИИ

Между тем в своем совместном заявлении на этой неделе Microsoft и OpenAI отметили, что злоумышленники все чаще рассматривают ИИ как «еще один инструмент повышения производительности».

В частности, OpenAI заявила, что удалила аккаунты, связанные с пятью аффилированными с государством субъектами угроз из Китая, Ирана, Северной Кореи и России. Эти группы использовали ChatGPT для:

  • Отладка кода и генерация скриптов
  • Создавайте контент, который с большой вероятностью будет использоваться в фишинговых кампаниях.
  • Перевод технических статей
  • Получить общедоступную информацию об уязвимостях и многочисленных разведывательных агентствах
  • Изучите распространенные способы, с помощью которых вредоносное ПО может избежать обнаружения
  • Проведение исследований с открытым исходным кодом в области протоколов спутниковой связи и технологий радиолокационной визуализации.

Однако компания поспешила указать, что «наши результаты показывают, что наши модели предлагают лишь ограниченные, дополнительные возможности для выполнения вредоносных задач кибербезопасности».

Обе компании обязались обеспечить «безопасное и ответственное использование» технологий, включая ChatGPT.

Для Microsoft эти принципы включают в себя:

  • Выявление и противодействие злонамеренным действиям злоумышленников, таким как отключение учетных записей или прекращение предоставления услуг.
  • Уведомление других поставщиков услуг ИИ и обмен соответствующими данными.
  • Сотрудничество с другими заинтересованными сторонами по вопросам использования ИИ субъектами угроз.
  • Информирование общественности об обнаруженном использовании ИИ в своих системах и мерах, принятых против них.

Аналогичным образом OpenAI обязуется:

  • Мониторинг и пресечение деятельности злонамеренных государственных субъектов. Это включает определение того, как злонамеренные субъекты взаимодействуют со своей платформой, и оценку более широких намерений.
  • Работайте и сотрудничайте с «экосистемой ИИ»
  • Обеспечить публичную прозрачность в отношении характера и масштабов использования искусственного интеллекта злонамеренными государственными субъектами, а также мер, принимаемых против них.

Как преступные, так и спонсируемые государством субъекты усиливают атаки

Группа по анализу угроз Google в опубликованном сегодня подробном отчете заявила, что отслеживает тысячи злоумышленников и семейств вредоносных программ и обнаружила, что:

  • Злоумышленники продолжают профессионализировать операции и программы
  • Наступательные кибервозможности теперь являются главным геополитическим приоритетом
  • Тактика группировок, создающих угрозы, теперь регулярно обходит стандартные средства контроля
  • Беспрецедентные события, такие как российское вторжение в Украину, знаменуют собой первый случай, когда кибероперации сыграли заметную роль в войне.

Исследователи также «с высокой степенью уверенности» оценивают, что «большая четверка» Китай, Россия, Северная Корея и Иран продолжат представлять значительные риски в разных регионах и секторах. Например, Китай вкладывает значительные средства в наступательный и оборонительный ИИ и занимается кражей персональных данных и IP, чтобы конкурировать с США.

Google отмечает, что злоумышленники в частности используют ИИ для социальной инженерии и информационных операций, разрабатывая все более сложные фишинговые, SMS- и другие инструменты-приманки, фейковые новости и дипфейки.

«Поскольку технология ИИ развивается, мы считаем, что она может значительно усилить вредоносные операции», — пишут исследователи. «Правительство и промышленность должны масштабироваться, чтобы противостоять этим угрозам с помощью мощных программ по анализу угроз и прочного сотрудничества».

Переворачивая «дилемму защитников»

С другой стороны, ИИ помогает защитникам обнаруживать и устранять уязвимости, реагировать на инциденты и анализировать вредоносное ПО, отмечает Google.

Например, ИИ может быстро обобщать разведданные об угрозах и отчеты, обобщать расследования случаев и объяснять подозрительное поведение скриптов. Аналогичным образом, он может классифицировать категории вредоносных программ и расставлять приоритеты угроз, выявлять уязвимости безопасности в коде, запускать симуляции путей атак, отслеживать эффективность управления и оценивать риск раннего отказа.

Кроме того, Google утверждает, что ИИ может помочь нетехническим пользователям генерировать запросы на естественном языке, разрабатывать стратегии оркестровки, автоматизации и реагирования на угрозы безопасности, а также создавать правила и политики управления идентификацией и доступом (IAM).

Например, группы обнаружения и реагирования Google используют искусственный интеллект для создания сводок по инцидентам, что в конечном итоге экономит более 50% времени и обеспечивает более качественные результаты анализа инцидентов.

Компания также улучшила показатели обнаружения спама примерно на 40% с помощью новой многоязычной нейро-модели обработки текста RETVec. А ее Gemini LLM исправляет 15% ошибок, обнаруженных инструментами-дезинфекторами, и обеспечивает увеличение покрытия кода до 30% в более чем 120 проектах, что приводит к обнаружению новых уязвимостей.

В конечном итоге исследователи Google утверждают: «Мы считаем, что ИИ предоставляет наилучшую возможность разрешить дилемму защитника и склонить чашу весов киберпространства в сторону, предоставив защитникам решающее преимущество над нападающими».