GPT (Generative Pre-trained Transformer)
/ai & machine learning/•Pokročilý
Předpoklady: Základy NLP a Neural Networks; znalost Transformer architektury je výhodou.
Definice: GPT je rodina velkých jazykových modelů vyvinutých společností OpenAI založených na Transformer architektuře. GPT modely jsou předtrénované na obrovských množstvích textových dat a dokáží generovat lidsky podobný text, odpovídat na otázky a plnit různé NLP úlohy.
Tagy:gptchatgptllmtransformeropenainlptext-generationlanguage-model