S2.Ep3 - LLM, pensare o prevedere?

Scopriamo come i Large Language Model (LLM) prevedono le parole successive in una frase basandosi su vasti dataset, utilizzando "embeddings" per mappare le relazioni tra le parole in uno spazio multidimensionale. Parliamo poi dell'architettura Retrieval-Augmented Generation (RAG) e altre tecniche per aggiornare i LLM con informazioni recenti. Ma anche GPT-4, Claude 3 e Gemini 1.5... Ascolta ora la puntata con Lorenzo Beliusse, Stefano Zaffaroni e Marco Acchini. 
S2.Ep3 - LLM, pensare o prevedere?
Broadcast by