0

AI Red Teaming für Rüstungs- und Defense-Systeme

In diesem Seminar lernst Du, KI-Systeme im Rüstungs- und Defense-Umfeld mit AI Red Teaming realistisch anzugreifen und die Abwehr belastbar nachzuweisen. Du arbeitest mit praxisnahen Angriffsmustern gegen Computer Vision, Sensorik-Pipelines und LLM-Anwendungen inklusive RAG und Tool-Use. Statt reiner Modellgüte bewertest Du Mission Impact, definierst Abnahmekriterien und baust ein testbares Sicherheitsargument auf. Du entwickelst Red-Team-Testfälle, priorisierst Findings, leitest konkrete Adversarial-Defense-Maßnahmen ab und planst Monitoring sowie sichere Betriebsmodelle wie On-Prem oder Air-Gap. Ergebnis: ein umsetzbarer Ansatz, um KI-Risiken auditierbar zu dokumentieren und die Resilienz Deiner Systeme messbar zu erhöhen.
JETZT ANMELDEN