Скачать [Udemy] Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей (Start Tech Academy)

Зарегистрируйтесь, чтобы посмотреть скрытый контент
Робот
Робот
Робот форума
Сообщения
398 417
Реакции
1 525
Монеты
21 179
Оплачено
0
Ссылка на картинку
Pentesting GenAI LLM models:
Securing Large Language Models


Освойте безопасность LLM: тестирование на проникновение, Red Teaming и MITRE ATT&CK для защищенных больших языковых моделей.

Чему вы научитесь:
  • Понимать уникальные уязвимости больших языковых моделей (LLM) в реальных приложениях.
  • Изучите основные концепции тестирования на проникновение и их применение в системах генеративного ИИ.
  • Освоите процесс Red Teaming для LLM, используя практические приемы и моделирование реальных атак.
  • Проанализируете, почему традиционные тесты не обеспечивают достаточной безопасности GenAI, и изучите более эффективные методы оценки.
  • Изучите основные уязвимости, такие как немедленная инъекция, галлюцинации, предвзятые реакции и многое другое.
  • Используете фреймворк MITRE ATT&CK для разработки тактики противодействия, направленной против LLM.
  • Выявите и устраните угрозы, характерные для конкретных моделей, такие как чрезмерное агентство, кража моделей и небезопасная обработка
  • Проведение и предоставление отчетов по результатам эксплуатации приложений на основе LLM
Учебная программа курса:

9 разделов • 53 лекций • Общая продолжительность 3 ч 21 мин

1.Введение
2.Введение в LLM Security & Penetration Testing
3.Обзор уязвимостей LLM
4.Основы тестирования на проникновение и Red Teaming
5.Red Teaming для LLM
6.Стратегии отчетности и смягчения последствий
7.Структура MITRE ATT&CK для студентов LLM
8.Уязвимости приложений LLM
9.Заключение

Описание:

Red Teaming & Penetration Testing for LLMs — это тщательно структурированный курс, предназначенный для специалистов по безопасности, разработчиков ИИ и этичных хакеров, стремящихся защитить генеративные приложения ИИ. От основополагающих концепций безопасности LLM до продвинутых методов red teaming, этот курс снабжает вас как знаниями, так и практическими навыками для защиты систем LLM.

На протяжении всего курса вы будете заниматься практическими кейсами и моделированием атак, включая демонстрации по быстрому внедрению, раскрытию конфиденциальных данных, обработке галлюцинаций, отказу в обслуживании модели и небезопасному поведению плагина. Вы также научитесь использовать инструменты, процессы и фреймворки, такие как MITRE ATT&CK, для оценки рисков приложений ИИ структурированным образом.

К концу этого курса вы сможете выявлять и использовать уязвимости в программах LLM, а также разрабатывать стратегии смягчения последствий и отчетности, соответствующие отраслевым стандартам.

Язык курса - Английский с русской аудиодорожкой.
Показать больше
 
Зарегистрируйтесь , чтобы посмотреть скрытый контент.
Поиск по тегу:
Теги
pentesting genai llm models securing large language models start tech academy udemy защита больших языковых моделей тестирование на проникновение моделей genai llm
Похожие складчины
Показать больше похожих складчин

Зарегистрируйте учетную запись

У вас появится больше возможностей!

Создать учетную запись

Пройдите быструю регистрацию

Войти

Уже зарегистрированы? Войдите.

Сверху