Generative Pre-trained Transformer (Informatik)

Generative Pre-trained Transformer (GPT), Modell der künstlichen Intelligenz (KI), das mithilfe von maschinellem Lernen menschenähnliche Texte generieren kann.

Das GPT basiert auf der Transformer-Architektur, einem neuronalen Netzwerk, das für die Verarbeitung sequenzieller Daten wie Sprache optimiert ist. GPT-Modelle lernen durch vorangehendes Training (Pre-Training) auf großen Textkorpora und können durch Feinabstimmung (Fine-Tuning) an spezifische Aufgaben angepasst werden.

Quellenangabe

Kostenlos testen
  • redaktionell geprüfte und verlässliche Inhalte

  • altersgerecht aufbereitet im Schullexikon

  • monatlich kündbar

oder
Sie sind Lehrkraft? Starten Sie Ihren kostenlosen Test hier.