Скачать [Udemy] Стратегии кибербезопасности систем ИИ: от GenAI до агентного ИИ [Derek Fisher]

Информация
Цена: 80 РУБ
Организатор: Kail Kail
Ссылки для скачивания
Kail
Kail
Организатор
Организатор
Регистрация
09.04.2020
Сообщения
423 544
Реакции
42 073
Монеты
1 191
Оплачено
0
Баллы
0
  • #SkladchinaVip
  • #1
[Udemy] Стратегии кибербезопасности систем ИИ: от GenAI до агентного ИИ [Derek Fisher]
Ссылка на картинку
Чему вы научитесь:
  • Объясните фундаментальный семантический сдвиг в сфере безопасности ИИ и почему традиционные инструменты и подходы к обеспечению безопасности имеют существенные недостатки при применении к системам ИИ.
  • Распознавать и классифицировать типы архитектур GenAI и оценивать относительный уровень риска для их безопасности.
  • Примените структуру управления рисками в области ИИ от NIST для структурирования мероприятий по управлению рисками в сфере ИИ.
  • Сравните и сопоставьте основные фреймворки обеспечения безопасности ИИ, а также определите, когда следует применять каждый из них.
  • Выявление новых уязвимостей, характерных для систем искусственного интеллекта, включая внедрение вредоносного кода, отравление моделей, утечку данных посредством рассуждений и эксплуатацию уязвимостей агентов.
  • Оцените системы искусственного интеллекта на соответствие нормативным требованиям, включая классификацию рисков в соответствии с Законом ЕС об искусственном интеллекте и федеральные/штатные требования США.
  • Включите специфические аспекты безопасности ИИ в существующие программы кибербезопасности.
Обеспечение безопасности ИИ в эпоху автономных систем: полная стратегия защиты от искусственного интеллекта, генерируемого генераторами и агентами.
Готовы ли вы защититься от угроз нового поколения, связанных с искусственным интеллектом? Поверхность атаки коренным образом изменилась, и традиционных мер безопасности уже недостаточно.
В эпоху, когда системы искусственного интеллекта автономно принимают решения, генерируют контент и взаимодействуют с критически важной инфраструктурой, возникла новая парадигма уязвимостей. Добро пожаловать в «семантический сдвиг» , где злоумышленники больше не используют синтаксис кода, а манипулируют самим смыслом и намерениями.

Почему этот курс необходим для вашей карьеры
Для специалистов по безопасности: Традиционная безопасность приложений фокусировалась на SQL-инъекциях и переполнении буфера. Современные угрозы? Атаки с использованием «быстрой инъекции», которые перехватывают логические действия ИИ, отравление данных, которое искажает поведение моделей, и каскадные сбои в многоагентных системах. Этот курс устраняет разрыв между классической безопасностью приложений и новой картиной угроз в области ИИ.
Для инженеров в области ИИ/машинного обучения: Создание передовых систем ИИ бессмысленно, если их можно скомпрометировать с помощью семантических манипуляций. Научитесь проектировать безопасные по своей сути приложения ИИ, способные противостоять реальным враждебным тактикам, описанным в MITRE ATLAS™.
Для руководителей отделов соответствия и управления рисками: Разберитесь в сложной сети нормативных актов в области ИИ — от уровней риска, установленных Законом ЕС об ИИ, до Указа Президента США № 14110 и планов управления изменениями, разработанных FDA. Преобразуйте нормативные требования в действенные меры безопасности.
Чем отличается этот курс?
Интегрированные передовые отраслевые решения:
  • OWASP Top 10 для приложений LLM (2025) – Освойте новейшие уязвимости, от внедрения запросов до атак на цепочки поставок.
  • OWASP Top 10 для агентного ИИ (ASI) – Узнайте об уникальных рисках в автономных системах: перехват целей агента, неправильное использование инструментов, злоупотребление идентификацией.
  • NIST AI RMF – Внедрение функций GOVERN, MAP, MEASURE, MANAGE для управления рисками в области ИИ в масштабах предприятия.
  • MITRE ATLAS™ – Изучите реальные тактики и методы атак на системы машинного обучения, используемые противниками.
Практическое знакомство с циклом бесконечности LLMSecOps: выйдите за рамки теории с помощью полной 9-этапной структуры безопасного жизненного цикла, охватывающей все этапы от первоначального определения масштаба до непрерывного мониторинга — специально разработанной для систем искусственного интеллекта.
Оценивайте риски как никогда раньше: изучите новаторскую систему оценки AIVSS , которая сочетает традиционные метрики CVSS с оценкой рисков Agentic AI (AARS), предоставляя вам стандартизированный способ информирования заинтересованных сторон о рисках, связанных с ИИ, и расчета рентабельности инвестиций в безопасность.
Освоение технологий повышения конфиденциальности (PET): Внедрение передовых методов защиты с использованием дифференциальной конфиденциальности, федеративного обучения, гомоморфного шифрования и доверенных сред выполнения — обеспечение безопасности конфиденциальных обучающих данных без ущерба для производительности модели.
Применение в реальных условиях: пример использования системы PHAIMIS.
Завершите обучение углубленным изучением критически важной системы учета запасов в аптеке. Примените стандарты NIST, MITRE и OWASP к реальной ситуации, где сбои в системе безопасности ИИ имеют прямые последствия для безопасности пациентов.

По завершении обучения вы сможете:
  • Выявление и устранение 10 наиболее распространенных ошибок OWASP для приложений LLM и агентного ИИ.
  • Внедрить комплексную систему тестирования на проникновение в области ИИ на всех уровнях: модель, реализация, система и среда выполнения.
  • Разберитесь в глобальных нормативных актах в области ИИ (Закон ЕС об ИИ, Указ США № 14110, отраслевые требования).
  • Создайте структуру управления ИИ с использованием рамок назначения директоров по ИИ и допустимого уровня риска.
  • Внедрите методы LLMSecOps для обеспечения безопасности жизненных циклов разработки ИИ.
  • Оцените риски, связанные с ИИ, используя AIVSS, и сообщите руководству о рентабельности инвестиций.
  • Разрабатывайте защищенные многоагентные системы, устойчивые к каскадным сбоям.
  • Защита мультимодальных систем (VLM, дипфейки) от кросс-модальных атак
  • Поддерживайте документацию, готовую к аудиту, используя AIBOM, SBOM и типовые карточки.
Итог:
Традиционные методы кибербезопасности готовили вас к защите кода. Этот курс готовит вас к защите интеллекта, автономности и смысла — новой поверхности атаки в эпоху искусственного интеллекта.
Семантический сдвиг уже произошёл. Вы готовы?
Запишитесь прямо сейчас и станьте экспертом по безопасности с использованием ИИ, в котором так нуждается ваша организация.
Для кого этот курс:
  • Специалисты по безопасности приложений расширяют свою деятельность в область безопасности искусственного интеллекта.
  • Разработчики программного обеспечения, работающие с системами искусственного интеллекта или интегрирующие их в свою деятельность.
  • Инженеры и архитекторы по безопасности, ответственные за внедрение ИИ.
  • Специалисты по ИТ-рискам и соблюдению нормативных требований, курирующие инициативы в области искусственного интеллекта.
  • Менеджеры по продуктам и технические руководители, внедряющие решения на основе искусственного интеллекта.
Требования:
  • Понимание основных концепций кибербезопасности
  • Знание концепций безопасности приложений и жизненного цикла разработки программного обеспечения.
  • Ознакомление с концепциями искусственного интеллекта и понимание принципов работы систем ИИ.
Материалы курса:
4 разделf • 30 лекций • Общая продолжительность 5 ч 28 мин
  • Часть 1. Введение в безопасность ИИ
  • Часть 2: Риски в сфере искусственного интеллекта
  • Часть 3: Управление и соблюдение нормативных требований
  • Часть 4: Безопасная разработка и эксплуатация
Показать больше
 
Зарегистрируйтесь , чтобы посмотреть скрытый контент.
Поиск по тегу:
Теги
derek fisher owasp top 10 udemy кибербезопасность стратегии

Войдите или зарегистрируйтесь

Вы должны быть авторизованны для просмотра материала

Создать аккаунт

Создать учетную запись займет не больше минуты!

Войти

Уже зарегистрированы? Просто войдите.