Турбина
Администратор
Складчина: LLM Security PRO: Prompt Injection, утечки, tool-abuse [Stepik] [Алексей Малышкин]
Практический курс по LLM Security. Запустите локальный RAG/агента на реальном LLM (OpenAI API) и укрепите прод: защита от prompt/indirect injection, утечек и tool-abuse, строгий JSON-вывод (Schema/Pydantic), redaction и лимиты стоимости/циклов. Плюс профессиональные блоки: OWASP LLM Top-10, threat modeling, red-team suite и security-gates в CI/CD.
О курсе
LLM Security PRO — практический курс о том, как защищать RAG-сервисы и AI-агентов в продакшне. Мы не ограничимся “правильными промптами”: вы построите инженерные контуры, которые удерживают систему в рамках безопасности даже тогда, когда модель внушаема, ошибается или сталкивается с “вредными” документами и запросами.
Курс построен вокруг локального учебного приложения (RAG + tools + API + UI), которое вы запускаете у себя на компьютере и подключаете к реальному LLM через OpenAI API. Сначала вы увидите типовые провалы (injection, утечки, опасные tool-действия, cost-DoS), затем внедрите контроли: policy-layer, защита RAG-контекста, allowlist/scopes/approvals для инструментов, строгая валидация вывода, redaction и лимиты стоимости. Финал — red-team test suite и security-gates, чтобы регрессы не уезжали в прод.
Формат: код и шаблоны на GitHub, сервисы поднимать не нужно. API-ключ хранится только локально. В учебных заданиях используются синтетические данные (без ПДн/секретов).
Для кого курс: Python-разработчики, ML/DE инженеры, тимлиды/архитекторы и специалисты AppSec/DevSecOps, которые внедряют LLM в продукт и хотят делать это безопасно и предсказуемо.
Спойлер: Программа курса
Старт
Введение в курс
Демо: как агент может ошибиться
Модель угроз для LLM-приложений
Активы и поверхности атаки
Приоритизация: что чинить первым
Политики и “контракт безопасности”
Direct Prompt Injection
Почему промпт не является защитой
Фикс №1: разделение инструкций и данных
Фикс №2: policy layer вне LLM
Indirect Injection через RAG (самый жир)
Почему документы опасны
Фиксы для RAG-контекста
Grounding, цитирование и provenance как защита
Heavy-Hitters и Top-K на потоках
Heap+hash и резервуарная выборка
Tools security (excessive agency)
Почему tools опаснее текста
Allowlist и валидация параметров инструментов
Scopes и approvals
Insecure Output Handling
Почему нельзя доверять JSON/SQL/URL от модели
Строгий структурированный вывод
Санитайзеры и запрет "склейки строк"
Leakage: секреты, ПДн, корпоративные данные
Что такое утечка в LLM-системах
Redaction и политика логов
Минимизация данных и "privacy by design"
Cost-DoS, циклы, надёжность как security
Как "кладут" LLM-приложения по бюджету
Лимиты и stop conditions
Rate limit, quotas, circuit breaker
Security testing, релизные гейты и РФ-чеклист
Red-team suite: как тестировать безопасность LLM-приложения
Security gate в CI/CD
РФ-модуль "по минимуму": что помнить, чтобы не встрять
Финальный проект
Защищаем LLM-агента
В курс входят
28 уроков
88 тестов
24 интерактивные задачи
Автор курса: Алексей Малышкин
СКАЧАТЬ СКЛАДЧИНЫ
Практический курс по LLM Security. Запустите локальный RAG/агента на реальном LLM (OpenAI API) и укрепите прод: защита от prompt/indirect injection, утечек и tool-abuse, строгий JSON-вывод (Schema/Pydantic), redaction и лимиты стоимости/циклов. Плюс профессиональные блоки: OWASP LLM Top-10, threat modeling, red-team suite и security-gates в CI/CD.
О курсе
LLM Security PRO — практический курс о том, как защищать RAG-сервисы и AI-агентов в продакшне. Мы не ограничимся “правильными промптами”: вы построите инженерные контуры, которые удерживают систему в рамках безопасности даже тогда, когда модель внушаема, ошибается или сталкивается с “вредными” документами и запросами.
Курс построен вокруг локального учебного приложения (RAG + tools + API + UI), которое вы запускаете у себя на компьютере и подключаете к реальному LLM через OpenAI API. Сначала вы увидите типовые провалы (injection, утечки, опасные tool-действия, cost-DoS), затем внедрите контроли: policy-layer, защита RAG-контекста, allowlist/scopes/approvals для инструментов, строгая валидация вывода, redaction и лимиты стоимости. Финал — red-team test suite и security-gates, чтобы регрессы не уезжали в прод.
Формат: код и шаблоны на GitHub, сервисы поднимать не нужно. API-ключ хранится только локально. В учебных заданиях используются синтетические данные (без ПДн/секретов).
Для кого курс: Python-разработчики, ML/DE инженеры, тимлиды/архитекторы и специалисты AppSec/DevSecOps, которые внедряют LLM в продукт и хотят делать это безопасно и предсказуемо.
Спойлер: Программа курса
Старт
Введение в курс
Демо: как агент может ошибиться
Модель угроз для LLM-приложений
Активы и поверхности атаки
Приоритизация: что чинить первым
Политики и “контракт безопасности”
Direct Prompt Injection
Почему промпт не является защитой
Фикс №1: разделение инструкций и данных
Фикс №2: policy layer вне LLM
Indirect Injection через RAG (самый жир)
Почему документы опасны
Фиксы для RAG-контекста
Grounding, цитирование и provenance как защита
Heavy-Hitters и Top-K на потоках
Heap+hash и резервуарная выборка
Tools security (excessive agency)
Почему tools опаснее текста
Allowlist и валидация параметров инструментов
Scopes и approvals
Insecure Output Handling
Почему нельзя доверять JSON/SQL/URL от модели
Строгий структурированный вывод
Санитайзеры и запрет "склейки строк"
Leakage: секреты, ПДн, корпоративные данные
Что такое утечка в LLM-системах
Redaction и политика логов
Минимизация данных и "privacy by design"
Cost-DoS, циклы, надёжность как security
Как "кладут" LLM-приложения по бюджету
Лимиты и stop conditions
Rate limit, quotas, circuit breaker
Security testing, релизные гейты и РФ-чеклист
Red-team suite: как тестировать безопасность LLM-приложения
Security gate в CI/CD
РФ-модуль "по минимуму": что помнить, чтобы не встрять
Финальный проект
Защищаем LLM-агента
В курс входят
28 уроков
88 тестов
24 интерактивные задачи
Автор курса: Алексей Малышкин
СКАЧАТЬ СКЛАДЧИНЫ
Для просмотра скрытого содержимого вы должны зарегистрироваться
Возможно, Вас ещё заинтересует:
- [Вязание] Схема вязания игрушки ангел Ловентин [dailydoll.shop]
- Дизайн мобильных приложений [Spreent Academy] [Артур Абдуллин]
- Схема вязания игрушки волк Банди [dailydoll.shop]
- Схема вязания игрушки лис Фрэнки [dailydoll.shop]
- Обучение расчету и проектированию фундаментов за 3 месяца [Артем Крылов, Григорий Белугин]
- Трафик и нейросети 2026 [Тариф Вип] [Владимир Сургай]