GPT-3 è un modello di apprendimento automatico pre-addestrato sviluppato da OpenAI. È una rete neurale profonda che è stata addestrata su un enorme corpus di testo per prevedere la parola successiva in una frase. GPT-3 è stato sviluppato per sostituire i modelli di linguaggio precedenti, come GPT-2, che erano limitati nella loro capacità di comprendere il contesto. GPT-3 è un modello di apprendimento automatico che può essere utilizzato per compiti di elaborazione del linguaggio naturale, come la traduzione, la comprensione del testo, la generazione di testo e la classificazione del testo. GPT-3 è stato addestrato su un corpus di testo di oltre 45 miliardi di parole, il che lo rende uno dei modelli di apprendimento automatico più grandi e più accurati mai sviluppati.
I suoi successori, GPT-3.5 e GPT-4, sono diventati i primi LLM (Large Language Model) che sono stati usati da grandi masse di utenti.