Bestellung
Wenn Sie an diesem Seminar teilnehmen wollen, füllen Sie folgendes Formular aus.Die mit * gekennzeichneten Felder müssen ausgefüllt werden.
Bösartige KI wie WormGPT und FraudGPT senkt die Hürden für Phishing, Betrug und zielgerichtete Angriffe drastisch. In diesem Expert-Seminar lernst du, wie KI-gestützte Angriffsketten funktionieren, welche Spuren sie in E-Mail, Identitätsdiensten, Endpunkten und GenAI-Anwendungen hinterlassen und wie du daraus belastbare Detection- und Response-Playbooks baust. Du arbeitest an realistischen Szenarien rund um Prompt-Injection, RAG-Missbrauch, Deepfake-gestützte Social-Engineering-Methoden und Model-Abuse. Außerdem entwickelst du konkrete Hardening-Maßnahmen für Chatbots, Agenten und Tool-Integrationen, inklusive Secrets-Schutz, Least-Privilege und Governance. Ergebnis: ein praxistauglicher Werkzeugkasten, um GenAI-Risiken messbar zu reduzieren und Vorfälle schneller zu erkennen und sauber zu untersuchen.
- Bedrohungsbild: bösartige KI in der Praxis
- WormGPT, FraudGPT und ähnliche Modelle: Fähigkeiten und Grenzen
- Angriffsketten mit GenAI: von Recon bis Exfiltration
- Warum klassische Security-Kontrollen oft zu spät greifen
- Prompt-Injection, Data Poisoning, Model Abuse
- Prompt-Injection in Chatbots, RAG und Agenten
- Indirekte Prompt-Injection über Dateien, Links, Tickets
- Poisoning von Trainingsdaten und Wissensbasen
- Abuse von Tools, Plugins und Actions
- KI-gestütztes Phishing und Social Engineering
- Business Email Compromise mit LLM-Textqualität
- Deepfake Voice: Angriffsabläufe und Erkennungsmerkmale
- Pretexting, Smishing, MFA-Fatigue, Helpdesk-Bypass
- Detection Engineering für GenAI-Angriffe
- Log-Quellen: E-Mail, IdP, EDR, Proxy, DLP, Chatbot-Telemetrie
- Signale und Heuristiken: Schreibmuster, TTPs, Anomalien
- Playbooks für SOC: Triage, Evidence, Eskalation
- Hardening von LLM- und RAG-Systemen
- Input/Output-Filter, Content Policies, Guardrails
- Secrets-Schutz: Token, API-Keys, Prompt-Leaks verhindern
- RAG-Sicherheit: Quellenbewertung, Chunking, Zitierpflicht
- Least Privilege für Agenten und Tool-Aufrufe
- Incident Response und Forensik bei KI-Missbrauch
- Beweissicherung: Prompts, Kontexte, Tool-Calls, Artefakte
- Root Cause: Lücke im Workflow statt nur im Modell
- Post-Incident Maßnahmen: Controls, Training, Monitoring
- Governance, Risiko und Compliance
- Risikobewertung für GenAI-Use-Cases (Threat Modeling)
- Policy-Design: erlaubte Daten, erlaubte Tools, Freigaben
- Lieferkette: Anbieterprüfung, Datenflüsse, Verträge