0

Bestellung

Wenn Sie an diesem Seminar teilnehmen wollen, füllen Sie folgendes Formular aus.
Die mit * gekennzeichneten Felder müssen ausgefüllt werden.
Bösartige KI wie WormGPT und FraudGPT senkt die Hürden für Phishing, Betrug und zielgerichtete Angriffe drastisch. In diesem Expert-Seminar lernst du, wie KI-gestützte Angriffsketten funktionieren, welche Spuren sie in E-Mail, Identitätsdiensten, Endpunkten und GenAI-Anwendungen hinterlassen und wie du daraus belastbare Detection- und Response-Playbooks baust. Du arbeitest an realistischen Szenarien rund um Prompt-Injection, RAG-Missbrauch, Deepfake-gestützte Social-Engineering-Methoden und Model-Abuse. Außerdem entwickelst du konkrete Hardening-Maßnahmen für Chatbots, Agenten und Tool-Integrationen, inklusive Secrets-Schutz, Least-Privilege und Governance. Ergebnis: ein praxistauglicher Werkzeugkasten, um GenAI-Risiken messbar zu reduzieren und Vorfälle schneller zu erkennen und sauber zu untersuchen.
  • Bedrohungsbild: bösartige KI in der Praxis
    • WormGPT, FraudGPT und ähnliche Modelle: Fähigkeiten und Grenzen
    • Angriffsketten mit GenAI: von Recon bis Exfiltration
    • Warum klassische Security-Kontrollen oft zu spät greifen
  • Prompt-Injection, Data Poisoning, Model Abuse
    • Prompt-Injection in Chatbots, RAG und Agenten
    • Indirekte Prompt-Injection über Dateien, Links, Tickets
    • Poisoning von Trainingsdaten und Wissensbasen
    • Abuse von Tools, Plugins und Actions
  • KI-gestütztes Phishing und Social Engineering
    • Business Email Compromise mit LLM-Textqualität
    • Deepfake Voice: Angriffsabläufe und Erkennungsmerkmale
    • Pretexting, Smishing, MFA-Fatigue, Helpdesk-Bypass
  • Detection Engineering für GenAI-Angriffe
    • Log-Quellen: E-Mail, IdP, EDR, Proxy, DLP, Chatbot-Telemetrie
    • Signale und Heuristiken: Schreibmuster, TTPs, Anomalien
    • Playbooks für SOC: Triage, Evidence, Eskalation
  • Hardening von LLM- und RAG-Systemen
    • Input/Output-Filter, Content Policies, Guardrails
    • Secrets-Schutz: Token, API-Keys, Prompt-Leaks verhindern
    • RAG-Sicherheit: Quellenbewertung, Chunking, Zitierpflicht
    • Least Privilege für Agenten und Tool-Aufrufe
  • Incident Response und Forensik bei KI-Missbrauch
    • Beweissicherung: Prompts, Kontexte, Tool-Calls, Artefakte
    • Root Cause: Lücke im Workflow statt nur im Modell
    • Post-Incident Maßnahmen: Controls, Training, Monitoring
  • Governance, Risiko und Compliance
    • Risikobewertung für GenAI-Use-Cases (Threat Modeling)
    • Policy-Design: erlaubte Daten, erlaubte Tools, Freigaben
    • Lieferkette: Anbieterprüfung, Datenflüsse, Verträge

Seminar KI Securitykurs: Schutz vor bösartigen LLMs, WormGPT und Co.
Version
Geben Sie hier bitte an, mit welcher Version Sie arbeiten!
(nur bei An­wender-Semi­naren)
Ort München
Termin 16.11.2026 - 17.11.2026
Preis
1.415,00 € exkl. MwSt.
(1.683,85 € inkl. MwSt.)

Ansprechpartner Bestellung

Firma oder Privat*
Bestellnummer
Abteilung
Anrede*
Titel
Vorname*
Name*
Straße*
PLZ*
Ort*
Telefon*
E-Mail-Adresse*
Abweichende Rechnungsadresse

Teilnehmer*innen

Anrede* Vorname* Name* E-Mail-Adresse*
Zum Schutz gegen Spam kann das Formular erst nach 15 Sekunden abgesendet werden.
Bitte warten Sie, bis der Absende-Button aktiv wird!