Generative Pre-trained Transformer (Informatik)
Generative Pre-trained Transformer (GPT), Modell der künstlichen Intelligenz (KI), das mithilfe von maschinellem Lernen menschenähnliche Texte generieren kann.
Das GPT basiert auf der Transformer-Architektur, einem neuronalen Netzwerk, das für die Verarbeitung sequenzieller Daten wie Sprache optimiert ist. GPT-Modelle lernen durch vorangehendes Training (Pre-Training) auf großen Textkorpora und können durch Feinabstimmung (Fine-Tuning) an spezifische Aufgaben angepasst werden.
Informationen zum Artikel
Quellenangabe