Bestellung
Wenn Sie an diesem Seminar teilnehmen wollen, füllen Sie folgendes Formular aus.Die mit * gekennzeichneten Felder müssen ausgefüllt werden.
In diesem Seminar lernst Du, wie Du mit Python und TensorFlow moderne Machine-Learning- und Deep-Learning-Modelle praxisnah umsetzt. Du verstehst das Prinzip und die Arbeitsweise künstlicher neuronaler Netzwerke, bekommst einen klaren Überblick über maschinelles Lernen und Deep Learning und baust Dir Schritt für Schritt das nötige Fundament für datengetriebene Projekte auf.
Du arbeitest mit numpy (Matrizen, Vektoren, Broadcasting), bereitest Daten mit pandas auf und erhältst einen kompakten Überblick zur Visualisierung mit matplotlib und seaborn. Anschließend steigst Du in TensorFlow ein, lernst die Komponenten und Philosophie kennen und setzt mit Keras als High-Level-API eigene Modelle um, inklusive Aktivierungsfunktionen, Optimierern und Loss-Funktionen.
Du trainierst und evaluierst neuronale Netze, visualisierst den Trainingsfortschritt mit TensorBoard und nutzt Regularisierungsmethoden wie Dropout und Early Stopping. Je nach Zielgruppe behandelst Du außerdem Transfer Learning sowie die Grundlagen von CNNs und optional RNNs und LSTMs. Zum Abschluss geht es um Modell-Export und Deployment mit TensorFlow SavedModel, Performance-Optimierung und GPU-Nutzung sowie einen Ausblick auf TensorFlow Lite, TensorFlow.js und AutoML. Im Hands-On-Teil trainierst und testest Du eigene Modelle, damit Du das Gelernte direkt in Deinen Projekten anwenden kannst.
- Prinzip und Arbeitsweise eines künstlichen neuronalen Netzwerks
- Überblick über maschinelles Lernen und Deep Learning
- Python für große Datenmengen (Big Data Basics)
- Einstieg in Python numpy: Matrizen, Vektoren, Broadcasting
- Datenanalyse und -vorbereitung mit pandas
- Visualisierung von Daten mit matplotlib und seaborn (Überblick)
- Einführung in TensorFlow: Aufbau, Komponenten und Philosophie
- TensorFlow 2.x – Keras als High-Level-API
- Aufbau und Training einfacher neuronaler Netzwerke mit Keras
- Verwendung von Aktivierungsfunktionen, Optimierern und Loss-Funktionen
- Evaluierung und Visualisierung der Trainingsfortschritte mit TensorBoard
- Regularisierungsmethoden (Dropout, Early Stopping, etc.)
- Einsatz von vortrainierten Modellen (Transfer Learning)
- Anwendung von Convolutional Neural Networks (CNNs) – Grundlagen und Beispiele
- Einführung in Recurrent Neural Networks (RNNs) und LSTMs (optional, je nach Zielgruppe)
- Modell-Export und -Deployment mit TensorFlow SavedModel
- Tipps zur Performance-Optimierung und GPU-Nutzung
- Ausblick: TensorFlow Lite, TensorFlow.js und AutoML
- Hands-On: Eigene Modelle trainieren und testen