AI Engineer | Live Online

AI Engineering Weiterbildung: Corporate LLMs & Enterprise AI

Werde mit uns zum zertifizierten AI Engineer. Erweitere deine Kompetenzen in Large Language Models (LLMs), Transformer Know-how, Embedding Anwendungen, produktive Pipelines und Modellanpassung. Lerne Live Online oder vor Ort mit erstklassigen, erfahrenen Trainern und erhalte ein anerkanntes Abschlusszertifikat.

Community
Werde Teil unserer Community von 10K Absolventen
AI Engineering Weiterbildung: Corporate LLMs & Enterprise AI

Start

25.03.2026
28.05.2026

Format

Live Online
in Präsenz

Dauer

Vollzeit: 2 & 3 Tage

Umfang

Vollzeit: 7 h / Tage

Lernniveau

Anfänger & Fortgeschrittene

Sprachen

Deutsch

Zertifikat

Anerkanntes Zertifikat

Investiere in dich und deine Zukunft. Entwickle dich weiter. Starte durch.

Bilde dich weiter und lerne relevante Large Language Models & Enterprise AI Skills!

Erwerbe in kurzer Zeit nachhaltiges Wissen und aktuelle Large Language Models & Enterprise AI-Kompetenzen in Sprachmodellierung, Transformer-Architekturen, Embedding Verfahren, LLM Workflows und Modellanpassung. Lerne von einem Branchenexperten zusammen mit anderen Professionals genau die Skills, die du für deine tägliche Arbeit brauchst. Mach’ den nächsten Karriereschritt und baue solides, praktisches Wissen in Large Language Models (LLMs), Transformer Know-how, Embedding Anwendungen, produktive Pipelines und Modellanpassung auf.

Tools, Techniken & Methoden
Python Python Colab Colab BERT BERT Hugging Face Transformers Hugging Face Transformers Hugging Face Datasets Hugging Face Datasets Tokenizers Tokenizers Sentence Transformers Sentence Transformers FAISS FAISS GPT GPT Text Classification Text Classification Text Generation Text Generation Semantic Search Semantic Search Clustering Clustering Fine-Tuning Fine-Tuning
Inhalte, Kompetenzen & Lernerfolge

  • Funktionsweise moderner LLMs (Large Language Models)
  • Tokenisierung und Embeddings anwenden
  • Transformer-Architekturen verstehen
  • LLMs für Klassifikation einsetzen
  • Textdaten strukturieren und clustern
  • Semantische Suchsysteme entwickeln
  • Modelle gezielt feinabstimmen

Relevante, praktische Skills

Du wendest aktuelles Wissen und fundierte Theorie in einem interaktiven, kollaborativen Lern-Setting praktisch an und hast richtig Spaß am Lernen.

Erstklassige, erfahrene Trainer

Unsere Trainer sind empathische, didaktisch geschulte Branchenexperten mit langer internationaler Erfahrung und Spaß am Lehren.

Zugang zu umfangreichen Ressourcen

Mit deiner Seminarteilnahme erhältst du hochwertige Schulungsunterlagen, eine umfangreiche Präsentation, zahlreiche Templates, Best Practices und viele wertvolle Tipps.

Anerkanntes Zertifikat

Nach erfolgreicher Seminarteilnahme erhältst du ein attraktives Abschlusszertifikat, das staatliche Reputation genießt, deinen Lebenslauf aufwertet und Türen öffnet.

Vernetzung in exklusiver Community

Mit der XDi-Community erhältst du Zugang zu einer exklusiven Plattform, um dich mit anderen Professionals und unseren Alumni und Trainern zu vernetzen und auszutauschen.

Tausende zufriedene Teilnehmer

Wir sind Pionier im Bereich von Weiterbildungen der Digitalen Transformation im gesamten deutschsprachigen Raum und haben bereits tausenden Professionals neue Skills vermitteln können.

Diese Unternehmen bilden ihre Mitarbeiter mit uns weiter und stellen unsere Studenten ein

Seminare für eine aussichtsreiche berufliche Zukunft

Für wen ist dieses Large Language Models & Enterprise AI-Seminar geeignet?

Unser Large Language Models & Enterprise AI-Seminar richtet sich an Professionals, die sich in Large Language Models (LLMs), Transformer Know-how, Embedding Anwendungen, produktive Pipelines und Modellanpassung weiterbilden wollen.

Angestellte Fachkräfte

Spezialisten in ihrem Gebiet, die dringend benötigte Skills erwerben, ihre Karriere voranbringen oder schlicht ihren Horizont erweitern wollen.

Freiberufler und Selbstständige

Selbstständige Experten, die kontinuierlich ihr Wissen erweitern und neue Techniken erlernen wollen, um im Markt wettbewerbsfähig und erfolgreich zu bleiben.

Führungskräfte und Entscheider

Abteilungs-/Teamleiter und Geschäftsführer, die ihre Potentiale nutzen und sich und ihr Team weiterentwickeln wollen, um gemeinsam Erfolge zu erzielen.

Deine Vorteile bei der Teilnahme an einem XDi-Seminar

Du lernst von erfahrenen Spezialisten der Branche und erwirbst wertvolles Know-how sowie Fähigkeiten, die du direkt in der Praxis einsetzen kannst.

Du schließt Wissenslücken und erwirbst neue Fähigkeiten, die du direkt im Berufsleben anwenden kannst.

Du förderst deine berufliche Entwicklung, übernimmst neue Aufgaben und bist ein wichtiger Akteur in deinem Unternehmen.

Du nutzt deine Fähigkeiten, entwickelst dich weiter und erzielst messbare Erfolge für dich, dein Team oder deine Kunden.

Du bewegst dich auf dem aktuellen Stand der Technik und erwirbst Fähigkeiten, die dir helfen, wettbewerbsfähig zu bleiben.

CURRICULUM

Was du lernen wirst!

Hands-on education in the skills of the future

In diesem Large Language Models & Enterprise AI-Kurs erwirbst du auf Basis eines von Branchenexperten erstellten Curriculums  die wichtigsten Large Language Models & Enterprise AI-Kompetenzen. Die Large Language Models & Enterprise AI-Weiterbildung beinhaltet Industrie validierte, interaktive Inhalte auf Hochschulniveau und viel Praxis in realen Projekten.

1

Einführung & Arbeitsumgebung

2

Tokenisierung & Embeddings verstehen

3

Die Transformer-Architektur im Detail

4

Klassifikation mit vortrainierten Sprachmodellen

5

Text-Clustering & Themenmodellierung mit Embeddings

6

Semantische Suche mit Embeddings

7

Textgenerierung mit Transformer-Modellen

8

Erstellung und Optimierung von Embedding-Modellen (Advanced / Deep Dive)

9

Fine-Tuning von BERT für Klassifikationsaufgaben (Advanced / Deep Dive)

10

Fine-Tuning & Anpassung generativer Modelle (Advanced / Deep Dive)

Google Colab & Python-Refresher

Du schaffst eine gemeinsame technische Basis für den gesamten Kurs – praxisnah und sofort anwendbar:

  • Einrichtung der Entwicklungsumgebung
  • Auffrischung relevanter Python-Grundlagen
  • Einstieg in das Hugging-Face-Ökosystem

Kursüberblick & KI-Tool-Landschaft

Einordnung des Kurses:

  • Ziele
  • Anwendungsfälle
  • Relevanz von LLMs im Unternehmenskontext
  • Überblick über zentrale Tools
  • Frameworks und Workflows

Arbeiten mit Google Colab & Hardware-Beschleunigung

  • Einrichtung und Nutzung von Google Colab als cloudbasierte Entwicklungsumgebung
  • Effiziente Verwendung von GPU und TPU für Machine-Learning- und LLM-Anwendungen

Python-Grundlagen für NLP & Machine Learning

  • Auffrischung zentraler Python-Konzepte für Datenverarbeitung und Textanalyse
  • praktische Arbeit mit Bibliotheken für NLP- und ML-Workflows

Das Hugging-Face-Ökosystem verstehen

  • Einführung in Transformers, Datasets und Tokenizer von Hugging Face
  • Nutzung vortrainierter Modelle für unternehmensnahe Anwendungsfälle

Erste LLM-Anwendung in der Praxis

  • Laden, Ausführen und Testen eines Sprachmodells mit wenigen Codezeilen
  • Verständnis für Modell-Inputs, Outputs und typische Fehlerquellen

Einleitung

Du lernst, wie Sprache in Zahlen übersetzt wird – und wie Embeddings als Herzstück moderner NLP-Anwendungen genutzt werden.

Tokenisierung als Grundlage moderner Sprachmodelle

  • Funktionsweise von Tokenizern als Brücke zwischen Text und Modell
  • Vergleich von Wort-, Subword-, Zeichen- und Byte-Tokenisierung
  • Bewertung von Tokenizer-Eigenschaften für reale Unternehmensdaten

Arbeiten mit Tokenizern und vortrainierten LLMs

  • Praktischer Einsatz von Tokenizern in Hugging Face
  • Download und Ausführung vortrainierter Sprachmodelle
  • Verständnis für Token-IDs, Vokabular und Modellinputs

Token- und kontextuelle Embeddings verstehen

  • Token-Embeddings als internes Wissensfundament von LLMs
  • kontextualisierte Wortrepräsentationen durch Sprachmodelle
  • Interpretation von Embeddings für Analyse und Debugging

Text-Embeddings für Sätze und Dokumente

  • Erzeugung leistungsfähiger Satz- und Dokumenten-Embeddings
  • Einsatz von Embeddings für Suche, Clustering und Ähnlichkeitsanalysen
  • Abgrenzung LLM-basierter Embeddings zu klassischen Verfahren

Embeddings in realen Anwendungen und Empfehlungssystemen

  • Nutzung vortrainierter Word Embeddings in der Praxis
  • Grundlagen von Word2Vec und kontrastivem Training
  • Einsatz von Embeddings für Recommendation-Systeme (z. B. Musikempfehlungen)

Einleitung

Du verstehst Aufbau, Funktionsweise und Trainingslogik moderner Transformer-Modelle – fundiert, visuell und praxisnah.

Überblick und Funktionsweise von Transformer-Modellen

  • Architekturprinzipien moderner Transformer-Modelle verständlich erklärt
  • Zusammenspiel von Eingaben, Ausgaben und Modellrepräsentationen
  • Einordnung von Transformern als technisches Rückgrat heutiger LLMs

Forward Pass, Wahrscheinlichkeiten und Textgenerierung

  • Ablauf des Forward Pass von Token-Eingabe bis Modelloutput
  • Sampling- und Decoding-Strategien zur kontrollierten Textgenerierung
  • Einfluss von Wahrscheinlichkeitsverteilungen auf Qualität und Stil

Kontextverarbeitung, Parallelisierung und Performance

  • Parallele Tokenverarbeitung und Kontextfenster im Detail
  • Beschleunigung der Generierung durch Key-Value-Caching
  • Performance-Optimierung für produktive LLM-Anwendungen

Der Transformer-Block im Detail

  • Aufbau und Funktion zentraler Komponenten im Transformer-Block
  • Rolle von Attention, Feedforward-Netzen und Normalisierung
  • Verständnis für Modellverhalten, Stabilität und Skalierung

Moderne Erweiterungen und effiziente Transformer-Architekturen

  • Positional Embeddings (RoPE) und alternative Positionskodierungen
  • Effizientere Attention-Varianten für große Kontextlängen
  • Überblick über aktuelle architektonische Weiterentwicklungen

Einleitung

Du setzt vortrainierte LLMs effizient für reale Klassifikationsaufgaben ein – von Sentimentanalyse bis Themenzuordnung.

Einstieg in Textklassifikation und typische Use Cases

  • Klassifikation als Schlüsselanwendung für Textanalyse im Unternehmen
  • Praxisnahe Beispiele wie Sentimentanalyse und Themenzuordnung
  • Übertragbarkeit auf Kundenfeedback, Tickets und Dokumente

Klassifikation mit Repräsentationsmodellen

  • Einsatz vortrainierter Encoder-Modelle für robuste Klassifikation
  • Modell- und Architekturwahl passend zum Anwendungsfall
  • Effiziente Umsetzung mit Hugging-Face-Tools

Überwachte Klassifikation mit task-spezifischen Modellen

  • Nutzung spezialisierter Modelle für maximale Genauigkeit
  • Training und Feinabstimmung mit gelabelten Daten
  • Bewertung von Modellleistung und Klassifikationsergebnissen

Klassifikation mit Embeddings und wenig oder keinen Labels

  • Embedding-basierte Klassifikation als flexible Alternative
  • Strategien für Szenarien ohne gelabelte Trainingsdaten
  • Schneller Einstieg in produktive Klassifikationslösungen

Generative Modelle für moderne Klassifikationsansätze

  • Textklassifikation mit generativen Modellen (Text-to-Text)
  • Einsatz von ChatGPT-ähnlichen Modellen für Zero- und Few-Shot-Setups
  • Abwägung von Kosten, Kontrolle und Qualität im Unternehmenseinsatz

Einleitung

Du strukturierst große Textmengen automatisiert und gewinnst neue inhaltliche Einblicke durch moderne Clustering- und Topic-Modeling-Ansätze.

Einstieg in Text-Clustering und Anwendungsbeispiele

  • Text-Clustering als Werkzeug zur Strukturierung großer Textmengen
  • Praxisnahe Use Cases wie Dokumentenanalyse und Wissensextraktion
  • Übertragbarkeit auf Unternehmensdaten (Reports, Tickets, Feedback)

Clustering-Pipeline mit Embeddings

  • End-to-End-Workflow von Textdaten zu semantischen Clustern
  • Erzeugung aussagekräftiger Dokument-Embeddings
  • Skalierbarer Ansatz für große Textsammlungen

Dimensionsreduktion und Clusterbildung

  • Reduktion hochdimensionaler Embeddings für bessere Strukturierung
  • Einsatz gängiger Clustering-Verfahren auf Embedding-Basis
  • Verständnis für Clusterqualität und Stabilität

Analyse, Interpretation und Themenmodellierung

  • Interpretation und Validierung der entstandenen Cluster
  • Übergang von Clustering zu automatisierter Themenmodellierung
  • Mehrwert durch transparente und erklärbare Ergebnisse

Moderne Topic-Modeling-Frameworks mit BERTopic

  • Einsatz von BERTopic als modulares Topic-Modeling-Framework
  • Erweiterung durch generative Textbausteine („Lego Blocks“)
  • Flexible Anpassung an unternehmensspezifische Anforderungen

Einleitung

Du entwickelst leistungsfähige semantische Suchsysteme, die weit über klassische Keyword-Suche hinausgehen.

Grundlagen der semantischen Suche

  • Abkehr von Keyword-Suche hin zu semantischem Retrieval
  • Einsatz von Sprachmodellen für inhaltliches Textverständnis
  • Typische Business-Use-Cases wie Wissenssuche und Dokumentenabfrage

Dense Retrieval, Reranking und Qualitätsmessung

  • Embedding-basiertes Dense Retrieval für präzise Suchergebnisse
  • Reranking-Strategien zur Verbesserung der Ergebnisqualität
  • Einsatz geeigneter Metriken zur objektiven Retrieval-Bewertung

Retrieval-Augmented Generation (RAG) verstehen

  • Kombination aus Suche und Textgenerierung für faktenbasierte Antworten
  • Übergang von reiner Suche zu kontextgestützter Generierung
  • Mehrwert von RAG für zuverlässige Unternehmensanwendungen

RAG in der Praxis – APIs und lokale Modelle

  • Umsetzung von RAG mit Cloud-APIs und lokalen LLMs
  • Vergleich von Kontrollgrad, Kosten und Datenschutz
  • Praxisbeispiele für „Grounded Generation“

Advanced RAG und Evaluation

  • Erweiterte RAG-Techniken für komplexe Anwendungsfälle
  • Bewertung von Antwortqualität und Halluzinationsrisiken
  • Best Practices für robuste, produktive RAG-Systeme

Einleitung

Du erzeugst kontrolliert Texte mit generativen Modellen und lernst Prompt-Engineering sowie Decoding-Strategien kennen.

Einstieg in Textgenerierung mit Transformer-Modellen

  • Überblick über generative Transformer-Modelle und ihre Einsatzmöglichkeiten
  • Auswahl geeigneter Modelle für unterschiedliche Business-Anforderungen
  • Laden und Inbetriebnahme von Textgenerierungsmodellen mit Hugging Face

Steuerung und Kontrolle der Textausgabe

  • Einfluss von Decoding- und Sampling-Strategien auf Qualität und Stil
  • Kontrolle von Länge, Kreativität und Konsistenz der Ausgaben
  • Reduktion unerwünschter oder unpräziser Modellantworten

Prompt Engineering – von Grundlagen bis Advanced

  • Struktur und Bausteine wirksamer Prompts
  • Instruction-Based und kontextabhängiges Prompting
  • Entwicklung komplexer Prompts für reproduzierbare Ergebnisse

In-Context Learning und reasoning-orientierte Prompts

  • Nutzung von Beispielen zur Leistungssteigerung ohne Modelltraining
  • Chain-of-Thought- und Chain-Prompting-Strategien
  • Verbesserung von Antwortqualität durch strukturierte Denkpfade

Qualitätssicherung und verlässliche Generierung

  • Self-Consistency und Tree-of-Thought zur Ergebnisabsicherung
  • Output-Verifikation und regelbasierte Einschränkungen
  • Best Practices für robuste, produktive Textgenerierung

Einleitung

Advanced-Modul für Teilnehmer, die tiefer einsteigen möchten: Du trainierst und optimierst eigene Embedding-Modelle und passt diese gezielt an domänenspezifische Anforderungen deines Unternehmens an.

Embedding-Modelle und kontrastives Lernen

  • Rolle spezialisierter Embedding-Modelle für semantische Anwendungen
  • Kontrastives Lernen als Schlüsseltechnik für hochwertige Repräsentationen
  • Abgrenzung zu allgemeinen LLM-Embeddings

SBERT und der Aufbau eigener Embedding-Modelle

  • Einsatz von SBERT für effiziente Satz- und Dokumenten-Embeddings
  • Erstellung eigener Embedding-Modelle auf Basis vortrainierter Transformer
  • Verständnis der Architektur- und Designentscheidungen

Training, Loss-Funktionen und Evaluation

  • Generierung kontrastiver Trainingsbeispiele
  • Auswahl geeigneter Loss-Funktionen für Embedding-Qualität
  • Tiefgehende Evaluation zur Sicherstellung semantischer Leistungsfähigkeit

Fine-Tuning-Strategien für unternehmensspezifische Daten

  • Überwachtes Fine-Tuning mit domänenspezifischen Labels
  • Augmented-SBERT-Ansätze für begrenzte Datenmengen
  • Optimierung bestehender Modelle für reale Use Cases

Unüberwachtes Lernen und Domänenanpassung

  • Unüberwachtes Embedding-Training ohne manuelle Labels
  • Einsatz von TSDAE für domänenspezifische Anpassungen
  • Skalierbare Strategien für neue Fachbereiche und Datenquellen

Einleitung

Advanced-Modul für praxisorientierte Anwender: Du passt vortrainierte BERT-Modelle gezielt an eigene Daten und spezifische Klassifikationsanforderungen an und lernst Best Practices für produktive Szenarien kennen.

Überwachtes Fine-Tuning mit BERT

  • Einsatz vortrainierter BERT-Modelle für präzise Textklassifikation
  • Anpassung an unternehmensspezifische Klassifikationsaufgaben
  • Verständnis für Trainingsabläufe und Modellsteuerung

Effiziente Trainingsstrategien und Layer-Kontrolle

  • Freezing und gezieltes Entfrieren von Modellschichten
  • Reduktion von Trainingskosten bei stabiler Modellleistung
  • Optimale Balance zwischen Performance und Ressourcenverbrauch

Few-Shot-Klassifikation mit SetFit

  • Hochwertige Klassifikation mit sehr wenigen Trainingsbeispielen
  • Einsatz von SetFit für schnelle und robuste Modellanpassung
  • Ideal für Anwendungsfälle mit begrenzten Label-Daten

Continued Pretraining und Domänenanpassung

  • Weitertraining mit Masked Language Modeling auf eigenen Texten
  • Verbesserung des Sprachverständnisses für Fach- und Branchentexte
  • Nachhaltige Steigerung der Modellqualität vor dem Fine-Tuning

Named-Entity Recognition (NER) in der Praxis

  • Extraktion von Entitäten wie Namen, Orte oder Fachbegriffe
  • Datenaufbereitung und Fine-Tuning für NER-Aufgaben
  • Einsatz von NER für Automatisierung und Wissensextraktion

Einleitung

Advanced-Modul für Teilnehmer mit vertieftem Interesse an generativer KI: Du lernst, generative Sprachmodelle gezielt für unternehmensspezifische Anwendungsfälle zu trainieren und qualitativ zu bewerten.

Grundlagen des LLM-Trainings & Anpassungsstrategien

  • Überblick über die drei zentralen Trainingsphasen moderner Sprachmodelle:
    • Pretraining
    • Fine-Tuning
    • Alignment
  • Einordnung von Supervised Fine-Tuning (SFT) als Basis für unternehmensspezifische Anpassungen
  • Entscheidungsgrundlage: Wann Full Fine-Tuning sinnvoll ist – und wann nicht

Effizientes Fine-Tuning mit PEFT, LoRA & QLoRA

  • Parameter-Efficient Fine-Tuning (PEFT): Große Modelle mit minimalem Ressourcenverbrauch anpassen
  • Instruction Tuning mit LoRA & QLoRA – leistungsstarkes Fine-Tuning auch auf Standard-Hardware
  • praxisnahe Konfiguration: Quantisierung, LoRA-Parameter und Trainings-Setups

Daten, Training & Modellintegration

  • Strukturierung und Templating von Instruction- und Alignment-Daten für stabile Ergebnisse,
  • End-to-End-Training: von der Trainingskonfiguration bis zum finalen Modell
  • Merge & Deployment: Fine-Tuning-Gewichte effizient zusammenführen und produktiv nutzen

Evaluation & Qualitätssicherung generativer Modelle

  • Automatisierte Bewertung mit Wortmetriken, Benchmarks und Leaderboards
  • Systematische Modellvergleiche für fundierte Architektur- und Modellentscheidungen
  • Human Evaluation: Qualität, Sicherheit und Business-Tauglichkeit realistisch einschätzen

Alignment & Preference Tuning (RLHF & DPO)

  • Grundlagen von Alignment, RLHF und modernen Alternativen wie Direct Preference Optimization (DPO)
  • Training und Einsatz von Reward Models zur automatisierten Präferenzbewertung
  • Preference Tuning ohne explizites Reward Model – schneller Weg zu besserem Modellverhalten

Einführung & Arbeitsumgebung

Google Colab & Python-Refresher

Du schaffst eine gemeinsame technische Basis für den gesamten Kurs – praxisnah und sofort anwendbar:

  • Einrichtung der Entwicklungsumgebung
  • Auffrischung relevanter Python-Grundlagen
  • Einstieg in das Hugging-Face-Ökosystem
Kursüberblick & KI-Tool-Landschaft

Einordnung des Kurses:

  • Ziele
  • Anwendungsfälle
  • Relevanz von LLMs im Unternehmenskontext
  • Überblick über zentrale Tools
  • Frameworks und Workflows
Arbeiten mit Google Colab & Hardware-Beschleunigung
  • Einrichtung und Nutzung von Google Colab als cloudbasierte Entwicklungsumgebung
  • Effiziente Verwendung von GPU und TPU für Machine-Learning- und LLM-Anwendungen
Python-Grundlagen für NLP & Machine Learning
  • Auffrischung zentraler Python-Konzepte für Datenverarbeitung und Textanalyse
  • praktische Arbeit mit Bibliotheken für NLP- und ML-Workflows
Das Hugging-Face-Ökosystem verstehen
  • Einführung in Transformers, Datasets und Tokenizer von Hugging Face
  • Nutzung vortrainierter Modelle für unternehmensnahe Anwendungsfälle
Erste LLM-Anwendung in der Praxis
  • Laden, Ausführen und Testen eines Sprachmodells mit wenigen Codezeilen
  • Verständnis für Modell-Inputs, Outputs und typische Fehlerquellen

Tokenisierung & Embeddings verstehen

Einleitung

Du lernst, wie Sprache in Zahlen übersetzt wird – und wie Embeddings als Herzstück moderner NLP-Anwendungen genutzt werden.

Tokenisierung als Grundlage moderner Sprachmodelle
  • Funktionsweise von Tokenizern als Brücke zwischen Text und Modell
  • Vergleich von Wort-, Subword-, Zeichen- und Byte-Tokenisierung
  • Bewertung von Tokenizer-Eigenschaften für reale Unternehmensdaten
Arbeiten mit Tokenizern und vortrainierten LLMs
  • Praktischer Einsatz von Tokenizern in Hugging Face
  • Download und Ausführung vortrainierter Sprachmodelle
  • Verständnis für Token-IDs, Vokabular und Modellinputs
Token- und kontextuelle Embeddings verstehen
  • Token-Embeddings als internes Wissensfundament von LLMs
  • kontextualisierte Wortrepräsentationen durch Sprachmodelle
  • Interpretation von Embeddings für Analyse und Debugging
Text-Embeddings für Sätze und Dokumente
  • Erzeugung leistungsfähiger Satz- und Dokumenten-Embeddings
  • Einsatz von Embeddings für Suche, Clustering und Ähnlichkeitsanalysen
  • Abgrenzung LLM-basierter Embeddings zu klassischen Verfahren
Embeddings in realen Anwendungen und Empfehlungssystemen
  • Nutzung vortrainierter Word Embeddings in der Praxis
  • Grundlagen von Word2Vec und kontrastivem Training
  • Einsatz von Embeddings für Recommendation-Systeme (z. B. Musikempfehlungen)

Die Transformer-Architektur im Detail

Einleitung

Du verstehst Aufbau, Funktionsweise und Trainingslogik moderner Transformer-Modelle – fundiert, visuell und praxisnah.

Überblick und Funktionsweise von Transformer-Modellen
  • Architekturprinzipien moderner Transformer-Modelle verständlich erklärt
  • Zusammenspiel von Eingaben, Ausgaben und Modellrepräsentationen
  • Einordnung von Transformern als technisches Rückgrat heutiger LLMs
Forward Pass, Wahrscheinlichkeiten und Textgenerierung
  • Ablauf des Forward Pass von Token-Eingabe bis Modelloutput
  • Sampling- und Decoding-Strategien zur kontrollierten Textgenerierung
  • Einfluss von Wahrscheinlichkeitsverteilungen auf Qualität und Stil
Kontextverarbeitung, Parallelisierung und Performance
  • Parallele Tokenverarbeitung und Kontextfenster im Detail
  • Beschleunigung der Generierung durch Key-Value-Caching
  • Performance-Optimierung für produktive LLM-Anwendungen
Der Transformer-Block im Detail
  • Aufbau und Funktion zentraler Komponenten im Transformer-Block
  • Rolle von Attention, Feedforward-Netzen und Normalisierung
  • Verständnis für Modellverhalten, Stabilität und Skalierung
Moderne Erweiterungen und effiziente Transformer-Architekturen
  • Positional Embeddings (RoPE) und alternative Positionskodierungen
  • Effizientere Attention-Varianten für große Kontextlängen
  • Überblick über aktuelle architektonische Weiterentwicklungen

Klassifikation mit vortrainierten Sprachmodellen

Einleitung

Du setzt vortrainierte LLMs effizient für reale Klassifikationsaufgaben ein – von Sentimentanalyse bis Themenzuordnung.

Einstieg in Textklassifikation und typische Use Cases
  • Klassifikation als Schlüsselanwendung für Textanalyse im Unternehmen
  • Praxisnahe Beispiele wie Sentimentanalyse und Themenzuordnung
  • Übertragbarkeit auf Kundenfeedback, Tickets und Dokumente
Klassifikation mit Repräsentationsmodellen
  • Einsatz vortrainierter Encoder-Modelle für robuste Klassifikation
  • Modell- und Architekturwahl passend zum Anwendungsfall
  • Effiziente Umsetzung mit Hugging-Face-Tools
Überwachte Klassifikation mit task-spezifischen Modellen
  • Nutzung spezialisierter Modelle für maximale Genauigkeit
  • Training und Feinabstimmung mit gelabelten Daten
  • Bewertung von Modellleistung und Klassifikationsergebnissen
Klassifikation mit Embeddings und wenig oder keinen Labels
  • Embedding-basierte Klassifikation als flexible Alternative
  • Strategien für Szenarien ohne gelabelte Trainingsdaten
  • Schneller Einstieg in produktive Klassifikationslösungen
Generative Modelle für moderne Klassifikationsansätze
  • Textklassifikation mit generativen Modellen (Text-to-Text)
  • Einsatz von ChatGPT-ähnlichen Modellen für Zero- und Few-Shot-Setups
  • Abwägung von Kosten, Kontrolle und Qualität im Unternehmenseinsatz

Text-Clustering & Themenmodellierung mit Embeddings

Einleitung

Du strukturierst große Textmengen automatisiert und gewinnst neue inhaltliche Einblicke durch moderne Clustering- und Topic-Modeling-Ansätze.

Einstieg in Text-Clustering und Anwendungsbeispiele
  • Text-Clustering als Werkzeug zur Strukturierung großer Textmengen
  • Praxisnahe Use Cases wie Dokumentenanalyse und Wissensextraktion
  • Übertragbarkeit auf Unternehmensdaten (Reports, Tickets, Feedback)
Clustering-Pipeline mit Embeddings
  • End-to-End-Workflow von Textdaten zu semantischen Clustern
  • Erzeugung aussagekräftiger Dokument-Embeddings
  • Skalierbarer Ansatz für große Textsammlungen
Dimensionsreduktion und Clusterbildung
  • Reduktion hochdimensionaler Embeddings für bessere Strukturierung
  • Einsatz gängiger Clustering-Verfahren auf Embedding-Basis
  • Verständnis für Clusterqualität und Stabilität
Analyse, Interpretation und Themenmodellierung
  • Interpretation und Validierung der entstandenen Cluster
  • Übergang von Clustering zu automatisierter Themenmodellierung
  • Mehrwert durch transparente und erklärbare Ergebnisse
Moderne Topic-Modeling-Frameworks mit BERTopic
  • Einsatz von BERTopic als modulares Topic-Modeling-Framework
  • Erweiterung durch generative Textbausteine („Lego Blocks“)
  • Flexible Anpassung an unternehmensspezifische Anforderungen

Semantische Suche mit Embeddings

Einleitung

Du entwickelst leistungsfähige semantische Suchsysteme, die weit über klassische Keyword-Suche hinausgehen.

Grundlagen der semantischen Suche
  • Abkehr von Keyword-Suche hin zu semantischem Retrieval
  • Einsatz von Sprachmodellen für inhaltliches Textverständnis
  • Typische Business-Use-Cases wie Wissenssuche und Dokumentenabfrage
Dense Retrieval, Reranking und Qualitätsmessung
  • Embedding-basiertes Dense Retrieval für präzise Suchergebnisse
  • Reranking-Strategien zur Verbesserung der Ergebnisqualität
  • Einsatz geeigneter Metriken zur objektiven Retrieval-Bewertung
Retrieval-Augmented Generation (RAG) verstehen
  • Kombination aus Suche und Textgenerierung für faktenbasierte Antworten
  • Übergang von reiner Suche zu kontextgestützter Generierung
  • Mehrwert von RAG für zuverlässige Unternehmensanwendungen
RAG in der Praxis – APIs und lokale Modelle
  • Umsetzung von RAG mit Cloud-APIs und lokalen LLMs
  • Vergleich von Kontrollgrad, Kosten und Datenschutz
  • Praxisbeispiele für „Grounded Generation“
Advanced RAG und Evaluation
  • Erweiterte RAG-Techniken für komplexe Anwendungsfälle
  • Bewertung von Antwortqualität und Halluzinationsrisiken
  • Best Practices für robuste, produktive RAG-Systeme

Textgenerierung mit Transformer-Modellen

Einleitung

Du erzeugst kontrolliert Texte mit generativen Modellen und lernst Prompt-Engineering sowie Decoding-Strategien kennen.

Einstieg in Textgenerierung mit Transformer-Modellen
  • Überblick über generative Transformer-Modelle und ihre Einsatzmöglichkeiten
  • Auswahl geeigneter Modelle für unterschiedliche Business-Anforderungen
  • Laden und Inbetriebnahme von Textgenerierungsmodellen mit Hugging Face
Steuerung und Kontrolle der Textausgabe
  • Einfluss von Decoding- und Sampling-Strategien auf Qualität und Stil
  • Kontrolle von Länge, Kreativität und Konsistenz der Ausgaben
  • Reduktion unerwünschter oder unpräziser Modellantworten
Prompt Engineering – von Grundlagen bis Advanced
  • Struktur und Bausteine wirksamer Prompts
  • Instruction-Based und kontextabhängiges Prompting
  • Entwicklung komplexer Prompts für reproduzierbare Ergebnisse
In-Context Learning und reasoning-orientierte Prompts
  • Nutzung von Beispielen zur Leistungssteigerung ohne Modelltraining
  • Chain-of-Thought- und Chain-Prompting-Strategien
  • Verbesserung von Antwortqualität durch strukturierte Denkpfade
Qualitätssicherung und verlässliche Generierung
  • Self-Consistency und Tree-of-Thought zur Ergebnisabsicherung
  • Output-Verifikation und regelbasierte Einschränkungen
  • Best Practices für robuste, produktive Textgenerierung

Erstellung und Optimierung von Embedding-Modellen (Advanced / Deep Dive)

Einleitung

Advanced-Modul für Teilnehmer, die tiefer einsteigen möchten: Du trainierst und optimierst eigene Embedding-Modelle und passt diese gezielt an domänenspezifische Anforderungen deines Unternehmens an.

Embedding-Modelle und kontrastives Lernen
  • Rolle spezialisierter Embedding-Modelle für semantische Anwendungen
  • Kontrastives Lernen als Schlüsseltechnik für hochwertige Repräsentationen
  • Abgrenzung zu allgemeinen LLM-Embeddings
SBERT und der Aufbau eigener Embedding-Modelle
  • Einsatz von SBERT für effiziente Satz- und Dokumenten-Embeddings
  • Erstellung eigener Embedding-Modelle auf Basis vortrainierter Transformer
  • Verständnis der Architektur- und Designentscheidungen
Training, Loss-Funktionen und Evaluation
  • Generierung kontrastiver Trainingsbeispiele
  • Auswahl geeigneter Loss-Funktionen für Embedding-Qualität
  • Tiefgehende Evaluation zur Sicherstellung semantischer Leistungsfähigkeit
Fine-Tuning-Strategien für unternehmensspezifische Daten
  • Überwachtes Fine-Tuning mit domänenspezifischen Labels
  • Augmented-SBERT-Ansätze für begrenzte Datenmengen
  • Optimierung bestehender Modelle für reale Use Cases
Unüberwachtes Lernen und Domänenanpassung
  • Unüberwachtes Embedding-Training ohne manuelle Labels
  • Einsatz von TSDAE für domänenspezifische Anpassungen
  • Skalierbare Strategien für neue Fachbereiche und Datenquellen

Fine-Tuning von BERT für Klassifikationsaufgaben (Advanced / Deep Dive)

Einleitung

Advanced-Modul für praxisorientierte Anwender: Du passt vortrainierte BERT-Modelle gezielt an eigene Daten und spezifische Klassifikationsanforderungen an und lernst Best Practices für produktive Szenarien kennen.

Überwachtes Fine-Tuning mit BERT
  • Einsatz vortrainierter BERT-Modelle für präzise Textklassifikation
  • Anpassung an unternehmensspezifische Klassifikationsaufgaben
  • Verständnis für Trainingsabläufe und Modellsteuerung
Effiziente Trainingsstrategien und Layer-Kontrolle
  • Freezing und gezieltes Entfrieren von Modellschichten
  • Reduktion von Trainingskosten bei stabiler Modellleistung
  • Optimale Balance zwischen Performance und Ressourcenverbrauch
Few-Shot-Klassifikation mit SetFit
  • Hochwertige Klassifikation mit sehr wenigen Trainingsbeispielen
  • Einsatz von SetFit für schnelle und robuste Modellanpassung
  • Ideal für Anwendungsfälle mit begrenzten Label-Daten
Continued Pretraining und Domänenanpassung
  • Weitertraining mit Masked Language Modeling auf eigenen Texten
  • Verbesserung des Sprachverständnisses für Fach- und Branchentexte
  • Nachhaltige Steigerung der Modellqualität vor dem Fine-Tuning
Named-Entity Recognition (NER) in der Praxis
  • Extraktion von Entitäten wie Namen, Orte oder Fachbegriffe
  • Datenaufbereitung und Fine-Tuning für NER-Aufgaben
  • Einsatz von NER für Automatisierung und Wissensextraktion

Fine-Tuning & Anpassung generativer Modelle (Advanced / Deep Dive)

Einleitung

Advanced-Modul für Teilnehmer mit vertieftem Interesse an generativer KI: Du lernst, generative Sprachmodelle gezielt für unternehmensspezifische Anwendungsfälle zu trainieren und qualitativ zu bewerten.

Grundlagen des LLM-Trainings & Anpassungsstrategien
  • Überblick über die drei zentralen Trainingsphasen moderner Sprachmodelle:
    • Pretraining
    • Fine-Tuning
    • Alignment
  • Einordnung von Supervised Fine-Tuning (SFT) als Basis für unternehmensspezifische Anpassungen
  • Entscheidungsgrundlage: Wann Full Fine-Tuning sinnvoll ist – und wann nicht
Effizientes Fine-Tuning mit PEFT, LoRA & QLoRA
  • Parameter-Efficient Fine-Tuning (PEFT): Große Modelle mit minimalem Ressourcenverbrauch anpassen
  • Instruction Tuning mit LoRA & QLoRA – leistungsstarkes Fine-Tuning auch auf Standard-Hardware
  • praxisnahe Konfiguration: Quantisierung, LoRA-Parameter und Trainings-Setups
Daten, Training & Modellintegration
  • Strukturierung und Templating von Instruction- und Alignment-Daten für stabile Ergebnisse,
  • End-to-End-Training: von der Trainingskonfiguration bis zum finalen Modell
  • Merge & Deployment: Fine-Tuning-Gewichte effizient zusammenführen und produktiv nutzen
Evaluation & Qualitätssicherung generativer Modelle
  • Automatisierte Bewertung mit Wortmetriken, Benchmarks und Leaderboards
  • Systematische Modellvergleiche für fundierte Architektur- und Modellentscheidungen
  • Human Evaluation: Qualität, Sicherheit und Business-Tauglichkeit realistisch einschätzen
Alignment & Preference Tuning (RLHF & DPO)
  • Grundlagen von Alignment, RLHF und modernen Alternativen wie Direct Preference Optimization (DPO)
  • Training und Einsatz von Reward Models zur automatisierten Präferenzbewertung
  • Preference Tuning ohne explizites Reward Model – schneller Weg zu besserem Modellverhalten
5_Sterne_Bewertung

5,0/5,0

Sehr empfehlenswert

5_Sterne_Bewertung

4,9/5,0

Höchste Qualität

5_Sterne_Bewertung

5,0/5,0

Kundenzufriedenheit

Ohne Umsatzsteuer! Netto- gleich Bruttopreise

Starttermine und Details

Je früher du buchst, desto günstiger wird es. Profitiere von unseren Frühbuchertarifen. Mehrere Mitarbeiter zu einem Termin? Dann erhaltet ihr bis zu 15% Rabatt für jeden Mitarbeiter.

online

25.-27.03.2026 3 Tage | 27 h Unterricht
Vollzeit 7h/Tag · Live-Training Mi-Fr | 09:00-17:00
1 +
1.790,00
 
Details
Storno
Bis 14 Tage vor Seminarbeginn kostenlos
Uhrzeit
Mi-Fr   09:00-17:00
1 Stunde Mittagspause
Teilnehmer
Minimal 3
Maximal 12
Enhaltene Leistungen
  • Digitale Seminarmappe mit Arbeitsunterlagen
  • Online Whiteboard & Zoom Videokonferenz
  • Unbegrenzter Community-Zugang

online

28.-29.05.2026 2 Tage | 14 h Unterricht
Vollzeit 7h/Tag · Live-Training Do-Fr | 09:00-17:00
1 +
1.290,00 1.190,00 Spare 100,00 bis 04.03.2026
 
Details
Storno
Bis 14 Tage vor Seminarbeginn kostenlos
Uhrzeit
Do-Fr   09:00-17:00
1 Stunde Mittagspause
Teilnehmer
Minimal 3
Maximal 12
Enhaltene Leistungen
  • Digitale Seminarmappe mit Arbeitsunterlagen
  • Online Whiteboard & Zoom Videokonferenz
  • Unbegrenzter Community-Zugang

online

27.-29.07.2026 3 Tage | 21 h Unterricht
Vollzeit 7h/Tag · Live-Training Mo-Mi | 09:00-17:00
1 +
1.790,00 1.690,00 Spare 100,00 bis 03.05.2026
 
Details
Storno
Bis 14 Tage vor Seminarbeginn kostenlos
Uhrzeit
Mo-Mi   09:00-17:00
1 Stunde Mittagspause
Teilnehmer
Minimal 3
Maximal 12
Enhaltene Leistungen
  • Digitale Seminarmappe mit Arbeitsunterlagen
  • Online Whiteboard & Zoom Videokonferenz
  • Unbegrenzter Community-Zugang

Schnell praktische
Fähigkeiten aneignen

Seminare für Mitarbeiter, die sich in kurzer Zeit benötigte Skills aneignen sollen.

Sapio_Icon_Circle_Check-Mark_Approved

Relevante Zukunftsthemen

Sapio_Icon_Circle_Check-Mark_Approved

Hands-On Praxis

Sapio_Icon_Circle_Check-Mark_Approved

Spannend und interaktiv

Sapio_Icon_Circle_Check-Mark_Approved

Moderne Lernmethoden

Sapio_Icon_Circle_Check-Mark_Approved

Diverse Förderungen

Was unsere Large Language Models & Enterprise AI-Seminare im Vergleich zu anderen Anbietern so besonders macht

Bei Seminaren sollte der Schwerpunkt auf dem Erreichen klar definierter Lernziele liegen, gepaart mit einer positiven Lernerfahrung. Häufig bleiben beide Ziele unerreicht.

Die wirklich wertvollen Skills werden vermittelt

Oft wird in Seminaren veraltetes, irrelevantes Wissen gelehrt. Bei XDi ist der Fokus auf hochwertigen Inhalten und topaktuellen Themen und Techniken.

Die Seminare bereiten den Teilnehmern echte Freude

Oft sind Seminare trocken, dozentenzentriert und steif. Bei XDi sind die Seminare interaktiv, spannend und praxisnah. Und das spürt man.

Es gibt viel Praxis und persönlichen Austausch

Unsere Seminare bieten viel Raum für die praktische Anwendung des Gelernten sowie den Austausch und das Networking mit anderen Professionals.

Hands-On
Praxis

Fundierte
Theorie

Relevante
Skills

Aktuelle
Lerninhalte

Erfahrene
Trainer

Umfangreiche
Dokumentation

Diverse
Förderungen

Anerkanntes
Zertifikat

Wir haben vielen, begeisterten Menschen geholfen, sich weiterzuentwickeln

Tausende von Lernbegeisterten haben bereits erfolgreich eine Weiterbildung bei uns abgeschlossen. Überzeuge dich selbst.

"Ich habe den Data Analyst Kurs sehr genossen, insbesondere die Möglichkeit, theoretisches Wissen auf reale Szenarien anzuwenden. Der Kurs war gut strukturiert und bot eine solide Grundlage in der Datenanalyse mit vielen praktischen Beispielen zur Verstärkung des Lernens. Ich habe wertvolle Einblicke und Fähigkeiten gewonnen, die ich in zukünftigen Rollen nutzen möchte."
Duygu Dogan
"Ich habe die Weiterbildung Certified Data Analyst als sehr bereichernd erlebt. Die Inhalte waren praxisnah und gut strukturiert, was mir geholfen hat, mein Wissen in der Datenanalyse deutlich zu erweitern. Besonders gut gefallen haben mir die praktischen Übungen und das Capstone-Projekt, bei denen ich das Gelernte direkt anwenden konnte. Ich kann den Kurs allen empfehlen, die sich im Bereich Datenanalyse weiterentwickeln möchten!"
Seyed Mohammad Hossein
"Ich habe viele sehr gute Inhalte gelernt und bin jetzt Data Scientistin! Die Weiterbildung „Certified Data Scientist“ kombiniert analytische Tiefe mit lösungsorientiertem Denken und eröffnet mir die Möglichkeit, aus Daten bedeutungsvolle Erkenntnisse zu gewinnen. Vielen Dank an das gesamte XDi-Team!"
Yvonne Haba
"Ich habe den Certified Data Scientist-Kurs bei XDI abgeschlossen. Am meisten hat mir die Flexibilität gefallen, meine Zeit und mein Lerntempo individuell zu planen, ohne an einen festen Stundenplan wie in anderen Schulen gebunden zu sein. Gleichzeitig konnte ich dank der ständigen Verfügbarkeit eines Mentors jederzeit qualifizierte Beratung und Unterstützung erhalten. Für alle, die noch zögern – ich kann XDI wärmstens empfehlen!"
Ostap Tykhevych
"Der Certified Data Analyst Kurs hat mir einen umfangreichen Einblick in die Aufgaben eines Data Analysts gegeben. Ich konnte anhand vieler praktischer Beispiele meine Fähigkeiten üben und mich bei Fragen und Problemen jederzeit an meinen Mentor wenden. Das Abschlussprojekt hat mir Spaß gemacht, und ich konnte meine Fähigkeiten noch einmal unter Beweis stellen."
Louisa Fiedler
"Ich fand die 10 praxisnahen Anwendungsfälle im Kurs "Certified Data Analyst" besonders interessant, da man durch sie mit verschiedenen Herausforderungen konfrontiert wurde, die den gesamten Exploratory Data Analysis Prozess umfassen – ein entscheidender Schritt für die bestmögliche Nutzung von Daten. Dabei war es notwendig, Lösungen zu finden und Entscheidungen zu treffen, die sich direkt auf das Endergebnis der Analyse auswirkten. Zudem habe ich wertvolle Erfahrungen gesammelt und mein kritisches Denken in Bezug auf die Nutzung verschiedener Tools und Visualisierungen in der Datenanalyse verbessert. Durch den Kurs konnte ich auch meine Zeitmanagement-Fähigkeiten weiterentwickeln, da ich ihn in Vollzeit mit einer festen Deadline absolviert habe – eine echte Herausforderung! Außerdem möchte ich hervorheben, dass die Sessions mit meinem Mentor äußerst produktiv waren – er war stets hilfsbereit und engagiert. Meine bisherigen Kenntnisse, kombiniert mit den während dieses Kurses erworbenen Fähigkeiten, geben mir eine neue Perspektive, und ich bin bereit, sie in meinem nächsten Job anzuwenden!"
Dieter Lentini
Kompetent. Erfahren. Empathisch

Unsere Trainer

Unsere Trainer sind Branchenexperten mit viel Erfahrung in unterschiedlichen Unternehmen, Branchen und Ländern. Du erhältst genau die Unterstützung, die du brauchst, um das zu lernen, was du willst. Du profitierst von Persönlichkeiten mit fundiertem Fachwissen und didaktischen Fähigkeiten.

info icon >10 Jahre Erfahrung info icon Branchenexperten info icon Ausgeprägtes Fachwissen info icon Pädagogische Eignung info icon Echte Persönlichkeiten

Thomas lehrt an der Wirtschaftswissenschaftlichen Fakultät der KU Eichstätt-Ingolstadt und hat an dieser Universität eine Professur für Finanzierung und Banken inne. Neben Forschung und Lehre ist Thomas erfolgreich in der Beratung und beruflichen Weiterbildung tätig. Er hat über 20 Jahre Erfahrung als Data Scientist, sowohl aus Forschung als auch aus dem Projekt-Geschäft. Heute implementiert er sämtliche Projekte in der Forschung und für externe Auftraggeber in Python und den entsprechenden Pythonbibliotheken. Als Mentor und Trainer steht Thomas für einen lebendigen, interaktiven Unterricht, der von Abwechslung zwischen Inhaltsvermittlung und eigenständiger Arbeit geprägt ist. Thomas ist überzeugt, dass jeder lernen kann, Programmiersprachen wie Python zur Lösung praktischer Problemstellungen einzusetzen.

Prof. Dr. Thomas Mählmann

Data Scientist und Python Coach

Prof. Dr. Thomas Mählmann

Data Scientist und Python Coach

Zertifikat_Vector

Lass dich zertifizieren

Sichere dir ein Abschlusszertifikat von XDi. Es bringt was.

Nach erfolgreichem Abschluss unserer Weiterbildung erhältst du das begehrte XDi-Zertifikat. Es steht für Qualität, Kompetenz und Können. Es ist Türöffner und Karrierebeschleuniger zugleich, weltweit anerkannt und genießt mittlerweile internationale Reputation.

Zertifikat_Vector

Lass dich zertifizieren

Sichere dir ein Abschlusszertifikat von XDi. Es bringt was.

Nach erfolgreichem Abschluss unserer Weiterbildung erhältst du das begehrte XDi-Zertifikat. Es steht für Qualität, Kompetenz und Können. Es ist Türöffner und Karrierebeschleuniger zugleich, weltweit anerkannt und genießt mittlerweile internationale Reputation.

Mehr XDi-Weiterbildungen, die dich interessieren könnten

Entdecke weitere, interessante Weiterbildungen

Business, Data & KI

AI 360° - Certified AI Expert

Generative KI verstehen, Prompting lernen, kreativen Content mit KI erstellen & KI-Compliance gemäß EU AI Acts umsetzen

Business, Data & KI

Certified AI Officer - Beauftragter für KI-Compliance EU AI Act

KI-Zertifizierung nach Art. 4 EU AI ACT – EU AI Act Schulung für KI Compliance & KI Governance

 

Business, Data & KI

Certified AI Automation Specialist

AI Automation Training für KI-Automatisierung, AI Agents, Prompt Engineering und Automatisierungstools wie Make, N8N & Zapier

Business, Data & KI

Certified AI Professional - KI-Weiterbildung

Kurs: KI & effektives Prompting – Grundlagen der generativen KI mit ChatGPT, Copilot & Co.

Nehmen Sie Kontakt mit uns auf

Senden Sie uns eine Nachricht. Wir melden uns innerhalb von 24 Stunden bei Ihnen.

Ihr Anliegen

Wählen Sie eine Anrede*
  • Frau
  • Herr
  • Frau Dr.
  • Herr Dr.
  • Frau Prof.
  • Herr Prof.
Wie sind Sie auf uns aufmerksam geworden? Wo haben Sie von uns gehört?
  • mein Now / KURSNET
  • Arbeitsagentur
  • Jobcenter
  • Private Bildungsberater
  • Messe/Veranstaltung
  • Google
  • Kursfinder
  • LinkedIn
  • Facebook
  • Instagram
  • Künstliche Intelligenz
  • Bing
  • X
  • YouTube
  • Newsletter
  • Persönliche Empfehlung
  • HR-Manager/Personalabteilung
  • Sonstiges
*Pflichtfelder

Ihr direkter Kontakt zu uns

Wir freuen uns auf Ihre Kontaktaufnahme und melden uns zeitnah bei Ihnen.
  • Sie wollen sich weiterbilden und durchstarten?
  • Sie möchten mehr über uns erfahren?
  • Sie haben Fragen und wollen sich beraten lassen?

Noch Fragen?

Wir sind immer für Sie da. Sie können uns Montag bis Freitag von 08:00 bis 17:00 Uhr erreichen.
Valentina Caronia

Valentina Caronia

Kundenbetreuerin & Community Managerin