GPT und viele andere Large-Language-Modelle haben das große Potenzial moderner Sprachverarbeitung aufgezeigt. In diesem Kurs entschlüsselst du die Technologien, die dahinter stehen: Natural Language Processing (NLP) und Transformer-Architekturen bilden die Grundlage für intelligente Chatbots, maschinelle Übersetzungen und viele weitere Anwendungen in der Künstlichen Intelligenz. In diesem praxisorientierten 3-tägigen Seminar lernst du Schritt für Schritt, wie du selbst leistungsfähige NLP-Modelle mit Python und TensorFlow entwickelst. Du klassifizierst, analysierst und verarbeitest Textdaten, trainierst neue Datenmodelle und setzt moderne Transformer-Architekturen ein, um mit Künstlicher Intelligenz neue Texte zu generieren. Du lernst dabei, wie du eigene Modelle erstellst oder vortrainierte Modelle (auf der Plattform Hugging Face) einsetzt und optimierst. Dabei erfährst du nicht nur alles Wichtige über die Technologien und Konzepte. Durch zahlreiche Übungen und Beispiele sammelst du auch selbst praktische Erfahrung im Aufbau, Training und Finetuning von Large Language Models und in der Entwicklung eigener Chatbots.
Inhalte
1. Python-Techniken für das Text Processing
Python-Basics für die Textverarbeitung
Text- und PDF-Dateien verarbeiten
Die wichtigsten Regular Expressions
2. Einführung in Natural Language Processing (NLP)
Konzepte des Natural Language Processings
Einsatz der Bibliothek SpaCy zur Textanalyse
Tokenization, Stemming und Lemmatization
Part-of-speech und Named Entity Recognition
Zerlegung von Texten mit Sentence Segmentation
3. Textklassifikation und Textanalyse
Einführung in scikit-learn
Evaluierung von Klassifikationsmodellen mit Präzision, Recall und F1-Score
Semantisches Verständnis und Sentiment Analysis
Vektorbasierte Textrepräsentationen mit Word Vectors
Sentiment Analysis mit der Bibliothek NLTK
4. Topic Modelling und Long Short-Term Memory
Einführung in das Topic Modelling
Klassifizierung mit Latent Dirichlet Allocation (LDA)
Strukturen erkennen mit Non-negative Matrix Factorization (NMF)
Long Short-Term Memory, GRU und Text Generation
Implementierung eines LSTM zur Texterstellung mit Keras
5. Transformer und Attention
Das Konzept der Selbstaufmerksamkeit
Multihead Attention und Bedeutung in NLP-Modellen
Encoder und Decoder für maschinelle Übersetzung und Sprachverständnis
Architekturkonzepte gängiger Transformer-Modelle: GPT-2/3/4, BERT
Erstellen einer Transformer-Struktur mit Python und Keras
Training und Evaluation eines Seq2Seq-Transformers
6. Transfer Learning und Finetuning mit Hugging Face
Einführung in Hugging Face und Vorstellung vortrainierter Modelle
Auswahl geeigneter Modelle und Tokenizer
Transfer Learning und Finetuning vortrainierter Modelle
Automatische Konfiguration und Anpassung von Modellen
7. Praxisprojekt: Trainieren eines eigenen Chatbots
https://www.haufe-akademie.de/skill-it/products/36446