• Форумы
  • Складчины
  • Бизнес
  • Нейросети

Скачать [Udemy] Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей (Start Tech Academy)

Поиск складчины
  • Курс создан: Дата начала 18 Июн 2025
В избранное
Зарегистрируйтесь, чтобы посмотреть скрытый контент
Робот
Робот форума
Сообщения
427 038
Реакции
1 997
Монеты
21 179
Оплачено
0
  • 18 Июн 2025
  • #1
Ссылка на картинку
Pentesting GenAI LLM models:
Securing Large Language Models


Освойте безопасность LLM: тестирование на проникновение, Red Teaming и MITRE ATT&CK для защищенных больших языковых моделей.

Чему вы научитесь:
  • Понимать уникальные уязвимости больших языковых моделей (LLM) в реальных приложениях.
  • Изучите основные концепции тестирования на проникновение и их применение в системах генеративного ИИ.
  • Освоите процесс Red Teaming для LLM, используя практические приемы и моделирование реальных атак.
  • Проанализируете, почему традиционные тесты не обеспечивают достаточной безопасности GenAI, и изучите более эффективные методы оценки.
  • Изучите основные уязвимости, такие как немедленная инъекция, галлюцинации, предвзятые реакции и многое другое.
  • Используете фреймворк MITRE ATT&CK для разработки тактики противодействия, направленной против LLM.
  • Выявите и устраните угрозы, характерные для конкретных моделей, такие как чрезмерное агентство, кража моделей и небезопасная обработка
  • Проведение и предоставление отчетов по результатам эксплуатации приложений на основе LLM
Учебная программа курса:

9 разделов • 53 лекций • Общая продолжительность 3 ч 21 мин

1.Введение
2.Введение в LLM Security & Penetration Testing
3.Обзор уязвимостей LLM
4.Основы тестирования на проникновение и Red Teaming
5.Red Teaming для LLM
6.Стратегии отчетности и смягчения последствий
7.Структура MITRE ATT&CK для студентов LLM
8.Уязвимости приложений LLM
9.Заключение

Описание:

Red Teaming & Penetration Testing for LLMs — это тщательно структурированный курс, предназначенный для специалистов по безопасности, разработчиков ИИ и этичных хакеров, стремящихся защитить генеративные приложения ИИ. От основополагающих концепций безопасности LLM до продвинутых методов red teaming, этот курс снабжает вас как знаниями, так и практическими навыками для защиты систем LLM.

На протяжении всего курса вы будете заниматься практическими кейсами и моделированием атак, включая демонстрации по быстрому внедрению, раскрытию конфиденциальных данных, обработке галлюцинаций, отказу в обслуживании модели и небезопасному поведению плагина. Вы также научитесь использовать инструменты, процессы и фреймворки, такие как MITRE ATT&CK, для оценки рисков приложений ИИ структурированным образом.

К концу этого курса вы сможете выявлять и использовать уязвимости в программах LLM, а также разрабатывать стратегии смягчения последствий и отчетности, соответствующие отраслевым стандартам.

Язык курса - Английский с русской аудиодорожкой.
Читать дальше...
Показать больше
 
Зарегистрируйтесь , чтобы посмотреть скрытый контент.
Поиск по тегу:
Теги
pentesting genai llm models securing large language models start tech academy udemy защита больших языковых моделей тестирование на проникновение моделей genai llm
Похожие складчины
Скачать [Udemy] Квантование для моделей GenAI (Start Tech Academy)
  • Теги
    genai start tech academy udemy квантование оптимизации моделей
  • От: Робот
  • 1 Мар 2025
Ответы
0
Просмотры
80
1 Мар 2025
Робот
Скачать [Udemy] LLM Engineering: Освоение искусственного интеллекта, Больших Языковых Моделей и агентов (Ed Donner, Эд Доннер, Ligency Team)
  • Теги
    ed donner large language models & agents ligency team llm engineering master ai
  • От: Робот
  • 29 Мар 2025
Ответы
0
Просмотры
60
29 Мар 2025
Робот
Скачать [Udemy] Защита систем GenAI с помощью лучших практик (Taimur Ijlal, Таймур Иджал)
  • Теги
    securing genai systems taimur ijlal udemy with best practice frameworks защита систем genai
  • От: Робот
  • 10 Фев 2025
Ответы
0
Просмотры
86
10 Фев 2025
Робот
Скачать Large Language Models. Тариф Основы + LLM (Илья Димов, Артур Панюков, Дмитрий Калашников)
  • Теги
    phyton артур панюков дмитрий калашников илья димов
  • От: Робот
  • 17 Фев 2025
Ответы
0
Просмотры
72
17 Фев 2025
Робот
Скачать [Udemy] DevSecOps на AWS: защита от LLM-скрейперов и бот-трафика (Sergii Demianchuk)
  • Теги
    devsecops на aws sergii demianchuk udemy защита от llm-скрейперов и бот-трафика
  • От: Робот
  • 4 Янв 2026
Ответы
0
Просмотры
20
4 Янв 2026
Робот
Показать больше похожих складчин

Зарегистрируйте учетную запись

У вас появится больше возможностей!

Создать учетную запись

Пройдите быструю регистрацию

Регистрация

Войти

Уже зарегистрированы? Войдите.

Вход
  • Форумы
  • Складчины
  • Бизнес
  • Нейросети
  • Novus
  • Russian (RU)
  • Обратная связь
  • Условия и правила
  • Политика конфиденциальности
  • Справка
Меню
Вход

Регистрация

  • Форумы
  • Что нового?