Программа подготовки на позицию AI Red Teamer, созданная в сотрудничестве с Google, обучает специалистов по кибербезопасности оценивать, эксплуатировать и защищать системы на базе искусственного интеллекта. Курс охватывает внедрение промптов (prompt injection), атаки на конфиденциальность моделей, использование ИИ в злонамеренных целях (adversarial AI), риски цепочки поставок и угрозы на этапе развертывания, сочетая теорию с практическими упражнениями. Курс разработан в соответствии с фреймворком для создания безопасного ИИ (Secure AI Framework/SAIF) от Google, что обеспечивает его релевантность для реальных задач, связанных с безопасностью ИИ. Вы приобретете следующие навыки: манипулирование поведением моделей, разработка стратегий red teaming, заточенных под ИИ, и проведение наступательного тестирования безопасности в отношении приложений, основанных на ИИ.
Ключевые темы курса:
Основы ИИ
Варианты использования ИИ в информационной безопасности
Введение в red teaming ИИ
Атаки с внедрением промптов
Атаки на вывод LLM
Атаки на данные ИИ
Атаки на прикладные и системные компоненты развертываний ИИ
Атаки на модели ИИ с уклонением - основы
Атаки на модели ИИ с уклонением - First-Order атаки
Атаки на модели ИИ с уклонением - атаки на разреженность данных
Атаки на конфиденциальность ИИ
Защита ИИ
Тип перевода: перевод с английского языка на русский.