Sprache wählen: 
DE
EN

Natural Language Processing und generative Modelle mit Python und Transformern

Weiterbildung

Beschreibung

GPT und viele andere Large-Language-Modelle haben das große Potenzial moderner Sprachverarbeitung aufgezeigt. In diesem Kurs entschlüsselst du die Technologien, die dahinter stehen: Natural Language Processing (NLP) und Transformer-Architekturen bilden die Grundlage für intelligente Chatbots, maschinelle Übersetzungen und viele weitere Anwendungen in der Künstlichen Intelligenz. In diesem praxisorientierten 3-tägigen Seminar lernst du Schritt für Schritt, wie du selbst leistungsfähige NLP-Modelle mit Python und TensorFlow entwickelst. Du klassifizierst, analysierst und verarbeitest Textdaten, trainierst neue Datenmodelle und setzt moderne Transformer-Architekturen ein, um mit Künstlicher Intelligenz neue Texte zu generieren. Du lernst dabei, wie du eigene Modelle erstellst oder vortrainierte Modelle (auf der Plattform Hugging Face) einsetzt und optimierst. Dabei erfährst du nicht nur alles Wichtige über die Technologien und Konzepte. Durch zahlreiche Übungen und Beispiele sammelst du auch selbst praktische Erfahrung im Aufbau, Training und Finetuning von Large Language Models und in der Entwicklung eigener Chatbots.

Inhalte

1. Python-Techniken für das Text Processing

Python-Basics für die Textverarbeitung
Text- und PDF-Dateien verarbeiten
Die wichtigsten Regular Expressions

2. Einführung in Natural Language Processing (NLP)

Konzepte des Natural Language Processings
Einsatz der Bibliothek SpaCy zur Textanalyse
Tokenization, Stemming und Lemmatization
Part-of-speech und Named Entity Recognition
Zerlegung von Texten mit Sentence Segmentation

3. Textklassifikation und Textanalyse

Einführung in scikit-learn
Evaluierung von Klassifikationsmodellen mit Präzision, Recall und F1-Score
Semantisches Verständnis und Sentiment Analysis
Vektorbasierte Textrepräsentationen mit Word Vectors
Sentiment Analysis mit der Bibliothek NLTK

4. Topic Modelling und Long Short-Term Memory

Einführung in das Topic Modelling
Klassifizierung mit Latent Dirichlet Allocation (LDA)
Strukturen erkennen mit Non-negative Matrix Factorization (NMF)
Long Short-Term Memory, GRU und Text Generation
Implementierung eines LSTM zur Texterstellung mit Keras

5. Transformer und Attention

Das Konzept der Selbstaufmerksamkeit
Multihead Attention und Bedeutung in NLP-Modellen
Encoder und Decoder für maschinelle Übersetzung und Sprachverständnis
Architekturkonzepte gängiger Transformer-Modelle: GPT-2/3/4, BERT
Erstellen einer Transformer-Struktur mit Python und Keras
Training und Evaluation eines Seq2Seq-Transformers

6. Transfer Learning und Finetuning mit Hugging Face

Einführung in Hugging Face und Vorstellung vortrainierter Modelle
Auswahl geeigneter Modelle und Tokenizer
Transfer Learning und Finetuning vortrainierter Modelle
Automatische Konfiguration und Anpassung von Modellen

7. Praxisprojekt: Trainieren eines eigenen Chatbots

Weiterbildungslevel

Level 1
Level 2
Level 3
Level 4
Bei unseren Weiterbildungsangeboten unterscheiden wir unterschiedliche Levels

Level 1: Grundkenntnisse
Level 2: Anwenderkenntnisse
Level 3: Expertenkenntnisse
Level 4: Kenntnisse für Führungskräfte

ZU DEN ANBIETERN

Links zu den Weiterbildungsangeboten

https://www.haufe-akademie.de/skill-it/products/36446


Wenn die angebotene Weiterbildung nicht ihren Bedarf abdeckt, nehmen Sie bitte über diesen Link Kontakt mit uns auf. Wir werden Ihnen weiterhelfen.
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram