GPT
GPT (Generative Pretrained Transformer) : est un modèle de langage fondé sur l'architecture des transformers, conçu pour comprendre et générer du texte de manière autonome. En utilisant des milliards de données pour apprendre les structures du langage, il est capable de répondre à des questions, rédiger des articles, générer du code, et bien plus encore. Il repose sur un processus d'entraînement préalable (pretraining) qui permet de produire des résultats pertinents et contextuellement adaptés. En 2018, OpenAI a créé le premier modèle GPT, marquant le début de la série des modèles GPT.