Искусственный интеллект (ИИ), особенно генеративный ИИ, открывает огромные возможности для развития науки и технологий. Однако вместе с этим возрастает и риск злоупотребления ИИ для злонамеренных целей. Как обезопасить ИИ от кражи, подделки, манипуляции и других атак?
8 июня 2023 года Google представил Secure AI Framework (SAIF) - концептуальный фреймворк для защиты ИИ-технологий.
SAIF основан на опыте Google в разработке кибербезопасных моделей, таких как совместный фреймворк Supply-chain Levels for Software Artifacts (SLSA) и BeyondCorp - архитектура нулевого доверия, используемая многими организациями1. SAIF включает в себя шесть основных принципов:
- Расширить сильные основы безопасности на экосистему ИИ, включая использование защиты инфраструктуры по умолчанию (например, методы предотвращения SQL-инъекций).
- Расширить обнаружение и реагирование, чтобы включить ИИ в угрозовую модель организации: мониторинг входных и выходных данных генеративных ИИ-систем для обнаружения аномалий и использование разведки по угрозам для прогнозирования атак.
- Автоматизировать защиту, чтобы не отставать от существующих и новых угроз.
- Гармонизировать контроль на уровне платформы, чтобы обеспечить согласованную безопасность во всей организации.
- Адаптировать контроль, чтобы корректировать меры по снижению рисков и создавать более быстрые циклы обратной связи для развертывания ИИ, включая техники, такие как обучение с подкреплением на основе инцидентов и отзывов пользователей, обновление наборов данных для обучения, настройка моделей для стратегического реагирования на атаки и красные команды.
- Контекстуализировать риски ИИ-систем в окружающих бизнес-процессах путем проведения комплексных оценок рисков, связанных с тем, как организации будут использовать ИИ.
«Мы скоро опубликуем несколько инструментов с открытым исходным кодом, чтобы помочь внедрить элементы SAIF для безопасности ИИ», - заявили Royal Hansen, вице-президент Google по инженерии для конфиденциальности, безопасности и защиты.
В компании также пообещали расширить программы Google для поиска ошибок, чтобы поощрять и стимулировать исследования в области безопасности и надежности ИИ.
SAIF - это первый шаг к тому, чтобы сделать ИИ более безопасным и ответственным. Google призывает всех заинтересованных присоединиться к этой инициативе и внести свой вклад в развитие общих стандартов безопасности для ИИ.