Glossario AI
Tutti i termini che devi conoscere, spiegati semplice
83 termini
A
Agente AI
(AI Agent)Concetti baseUn sistema AI che prende decisioni e compie azioni in autonomia per raggiungere un obiettivo.
A differenza di un chatbot (tu chiedi, lui risponde), un agente riceve un obiettivo e decide da solo quali passi fare: cerca informazioni, usa strumenti, verifica risultati, itera. Claude Code e Operator di OpenAI sono esempi. Potenti ma ancora limitati su task vaghi o complessi.
AGI
(Artificial General Intelligence)Concetti baseUn'ipotetica AI capace di svolgere qualsiasi compito cognitivo al livello di un essere umano o superiore.
A differenza dell'AI attuale (specializzata in compiti specifici), l'AGI saprebbe fare tutto: ragionare, imparare, creare, risolvere problemi nuovi. Non esiste ancora e nessuno sa quando — o se — arriverà.
AI generativa
(Generative AI)Concetti baseAI che crea contenuti nuovi — testo, immagini, audio, video, codice — invece di limitarsi ad analizzare o classificare.
ChatGPT genera testo, Midjourney genera immagini, Suno genera musica. Il termine 'generativa' la distingue dall'AI 'analitica' (che classifica, predice, ottimizza). Dal 2022 è diventata la faccia più visibile dell'intelligenza artificiale.
AI Safety
(AI Safety)EticaIl campo di ricerca dedicato a rendere i sistemi AI sicuri, controllabili e allineati con i valori umani.
Include: prevenire output dannosi (guardrail), assicurarsi che l'AI faccia ciò che intendiamo (alignment), gestire i rischi di sistemi sempre più potenti. Anthropic (creatori di Claude) è nata specificamente per la ricerca sulla safety. È uno dei temi più importanti e dibattuti nel mondo AI.
Algoritmo
(Algorithm)Concetti baseUna sequenza di istruzioni precise per risolvere un problema o completare un compito.
Una ricetta di cucina è un algoritmo: passi ordinati che portano a un risultato. Nell'AI, gli algoritmi definiscono come il modello impara dai dati e genera output. Non tutti gli algoritmi sono AI — ma tutta l'AI è basata su algoritmi.
Alignment
(Alignment)EticaIl problema di assicurarsi che un sistema AI agisca in accordo con le intenzioni e i valori umani.
Non basta che l'AI sia potente — deve fare ciò che vogliamo nel modo in cui lo vogliamo. Un AI 'disallineata' potrebbe raggiungere l'obiettivo in modi indesiderati (come un genio della lampada che interpreta i desideri in modo letterale e catastrofico). RLHF è uno strumento di alignment.
Allucinazione
(Hallucination)Concetti baseQuando un modello AI genera informazioni false presentandole come vere, con totale sicurezza.
Un LLM non distingue tra 'vero' e 'plausibile'. Può inventare citazioni, statistiche, eventi — tutto con un tono convincente. Succede perché il modello genera testo statisticamente probabile, non necessariamente corretto. Verifica sempre i fatti critici.
AlphaFold
(AlphaFold)ToolUn sistema AI di Google DeepMind che ha predetto la struttura 3D di praticamente tutte le proteine conosciute.
La struttura delle proteine era un problema irrisolto da 50 anni della biologia. AlphaFold l'ha risolto in mesi, accelerando enormemente la ricerca su farmaci, malattie e bioingegneria. È uno degli esempi più potenti dell'impatto dell'AI sulla scienza.
API
(Application Programming Interface)TecnicoUn'interfaccia che permette a un software di comunicare con un altro software.
Quando uno sviluppatore usa l'API di OpenAI, il suo programma manda una richiesta ai server di OpenAI e riceve una risposta dal modello. È come ordinare al ristorante: il cameriere (API) porta la tua richiesta alla cucina (il modello) e ti riporta il piatto (la risposta).
Attenzione (meccanismo di)
(Attention)TecnicoIl meccanismo che permette al modello di capire quali parti dell'input sono rilevanti per ogni parte dell'output.
Quando leggi la frase 'Il gatto che era sul tetto è sceso', capisci che 'è sceso' si riferisce a 'il gatto', non a 'il tetto'. Il meccanismo di attenzione fa la stessa cosa: permette al modello di collegare parole lontane in una frase. È l'innovazione chiave dei Transformer.
Augmentation
(Augmentation)Concetti baseL'approccio in cui l'AI potenzia le capacità umane invece di sostituirle.
A differenza della sostituzione (l'AI fa il lavoro al posto tuo), l'augmentation significa che l'AI ti rende più bravo e veloce. Un correttore ortografico non scrive al posto tuo — ti aiuta a scrivere meglio. La maggior parte degli usi attuali dell'AI è augmentation.
Automazione
(Automation)Concetti baseL'uso di tecnologia per eseguire task ripetitivi senza intervento umano.
L'AI ha ampliato enormemente cosa può essere automatizzato: non solo processi meccanici, ma anche task cognitivi come classificare email, generare report, rispondere a domande. Tool come Zapier AI e Make permettono di creare automazioni tra app senza codice.
B
Benchmark
(Benchmark)TecnicoUn test standardizzato per misurare e confrontare le prestazioni dei modelli AI.
Come i test INVALSI misurano le competenze degli studenti, i benchmark misurano le capacità dei modelli: ragionamento, matematica, coding, comprensione del testo. I più noti: MMLU (conoscenza generale), HumanEval (coding), GSM8K (matematica). Utili per confrontare modelli, ma non raccontano tutta la storia.
BERT
(Bidirectional Encoder Representations from Transformers)TecnicoUn modello Transformer di Google progettato per comprendere il testo, non per generarlo.
Se GPT è uno scrittore, BERT è un lettore. È stato fondamentale per migliorare la ricerca Google: capisce cosa intendi quando cerchi qualcosa, anche se scrivi in modo ambiguo. Legge il testo in entrambe le direzioni (bidirezionale), il che gli dà una comprensione più profonda del contesto.
Bias
(Bias)EticaPregiudizio sistematico presente nei dati o nei modelli AI che porta a risultati distorti o discriminatori.
Se un modello è addestrato su dati dove i CEO sono quasi tutti uomini bianchi, assocerà il concetto di 'CEO' a uomini bianchi. Il bias non è intenzionale — è il riflesso dei pregiudizi presenti nei dati di addestramento. Ridurlo richiede dati bilanciati, test rigorosi e consapevolezza.
C
Catena di pensiero
(Chain of Thought (CoT))Concetti baseUna tecnica di prompting che chiede al modello di ragionare passo passo prima di dare la risposta finale.
Aggiungere 'ragiona passo passo' al prompt spinge il modello a mostrare il suo processo logico, riducendo errori. Funziona bene per problemi matematici, logici e decisionali. È come chiedere a uno studente di mostrare i passaggi, non solo il risultato.
Chatbot
(Chatbot)Concetti baseUn programma che simula una conversazione con un essere umano tramite testo o voce.
I chatbot esistono dagli anni '60 (ELIZA), ma quelli moderni basati su LLM come ChatGPT e Claude sono enormemente più capaci. Possono conversare, rispondere a domande, scrivere testo, analizzare documenti e molto altro.
Classificazione
(Classification)TecnicoUn task in cui l'AI assegna un'etichetta a un dato: spam/non-spam, positivo/negativo, gatto/cane.
È uno degli usi più comuni del Machine Learning. Il filtro spam classifica email. L'analisi del sentiment classifica recensioni come positive o negative. Il riconoscimento di immagini classifica cosa c'è in una foto. Il modello impara le categorie dagli esempi etichettati.
Code Interpreter
(Code Interpreter)ToolUna funzionalità che permette al chatbot di scrivere ed eseguire codice Python per analizzare dati, creare grafici e risolvere problemi.
Disponibile in ChatGPT: carichi un file Excel o CSV, e il modello scrive codice per analizzarlo, trovare pattern, creare visualizzazioni. Non devi saper programmare — descrivi quello che vuoi e il modello fa il resto. Potentissimo per analisi dati accessibili a tutti.
Context window
(Context Window)TecnicoLa quantità massima di testo (in token) che un modello può elaborare in una singola conversazione.
Pensa a una scrivania: più è grande, più documenti puoi tenerci sopra. GPT-4 ha 128K token (~un libro), Claude arriva a 200K. Una context window più grande permette conversazioni più lunghe e analisi di documenti più grandi, ma il modello tende a 'perdere' informazioni nel mezzo.
Copilot
(Copilot)ToolUn assistente AI che suggerisce codice in tempo reale mentre programmi, integrato nell'editor.
GitHub Copilot è il più noto: mentre scrivi codice, suggerisce la continuazione (completamento automatico intelligente). Può generare intere funzioni da un commento. Ha cambiato radicalmente il workflow degli sviluppatori. Il termine 'copilot' è usato anche da Microsoft per il suo assistente AI generale.
Copyright e AI
(AI Copyright)EticaL'insieme di questioni legali relative all'uso di opere protette per l'addestramento e alla proprietà dell'output generato.
Due problemi distinti: 1) I modelli sono addestrati su opere protette senza consenso — è legale? Le cause sono in corso. 2) Chi possiede l'output generato dall'AI? In generale, le opere puramente AI-generated non sono protette da copyright. La legislazione è in evoluzione.
D
Data Augmentation
(Data Augmentation)TecnicoTecniche per aumentare artificialmente la quantità di dati di addestramento creando variazioni degli esempi esistenti.
Per le immagini: ruotare, ritagliare, cambiare colori, aggiungere rumore. Per il testo: parafrasare, tradurre e ritradurre, sostituire sinonimi. Più dati (anche artificiali) aiutano il modello a generalizzare meglio. È diverso dai dati sintetici — qui si modificano dati reali, non se ne creano di nuovi.
Dataset
(Dataset)TecnicoUna collezione organizzata di dati usata per addestrare, validare o testare un modello AI.
Il dataset è il 'materiale di studio' dell'AI. Per un modello di linguaggio, è miliardi di testi. Per un classificatore di immagini, è milioni di foto etichettate. La qualità del dataset determina la qualità del modello: dati sporchi producono AI sporche.
Dati sintetici
(Synthetic Data)TecnicoDati generati artificialmente dall'AI, usati per addestrare o migliorare altri modelli.
Quando i dati umani di qualità scarseggiano, si possono generare dati sintetici con modelli AI potenti. Un modello grande genera domande e risposte di qualità che vengono usate per addestrare modelli più piccoli. Il rischio: se non curati, possono amplificare errori e bias.
Deep Learning
(Deep Learning)Concetti baseUn sottoinsieme del Machine Learning che usa reti neurali con molti strati (profonde) per imparare pattern complessi.
Il 'deep' si riferisce ai molti strati della rete neurale. Più strati = capacità di catturare pattern più astratti e complessi. È la tecnologia dietro riconoscimento immagini, traduzione automatica, generazione di testo e praticamente tutta l'AI moderna.
Deepfake
(Deepfake)EticaContenuto multimediale (video, audio, immagine) generato o manipolato dall'AI per sembrare autentico.
La tecnologia può mettere il volto di una persona su un altro corpo, clonare una voce, creare foto false di eventi mai accaduti. La qualità è tale che spesso è impossibile distinguere un deepfake da un contenuto reale senza strumenti specializzati.
Diffusion
(Diffusion)TecnicoLa tecnica usata dai principali generatori di immagini AI, che crea immagini partendo da rumore casuale.
Il modello impara ad aggiungere rumore a un'immagine (andata) e poi a toglierlo (ritorno). Per generare, parte da puro rumore e lo 'pulisce' passo dopo passo, guidato dal prompt testuale. È come uno scultore che fa emergere la forma da un blocco informe di marmo.
Discriminazione algoritmica
(Algorithmic Discrimination)EticaQuando un sistema AI produce risultati sistematicamente ingiusti verso certi gruppi di persone.
Non è intenzionale — emerge dai bias nei dati di addestramento. Un sistema di screening CV che penalizza le donne, un algoritmo di credito che discrimina per etnia, un sistema di giustizia predittiva con bias razziale. Il danno è reale anche se l'intenzione non c'è.
E
Embedding
(Embedding)TecnicoUna rappresentazione numerica (vettore) che cattura il significato di un testo, un'immagine o un altro dato.
L'AI non capisce le parole — capisce i numeri. Un embedding converte 'gatto' in una lista di numeri come [0.2, -0.8, 0.5, ...]. Parole con significato simile hanno embedding vicini nello spazio matematico. È il cuore del RAG e della ricerca semantica.
EU AI Act
(EU AI Act)EticaLa prima regolamentazione completa sull'intelligenza artificiale al mondo, adottata dall'Unione Europea.
Classifica i sistemi AI per livello di rischio e impone obblighi proporzionali. I sistemi ad alto rischio (sanità, giustizia, assunzioni) devono rispettare requisiti stringenti di trasparenza, sicurezza e supervisione umana. Piena applicazione dal 2026. Potrebbe diventare uno standard globale, come il GDPR per la privacy.
F
Few-shot
(Few-shot Learning)Concetti baseUna tecnica di prompting in cui dai al modello alcuni esempi di input-output prima di chiedergli di fare lo stesso con un nuovo input.
Invece di spiegare cosa vuoi a parole, mostri 2-3 esempi: 'input A → output A, input B → output B, ora fai lo stesso con input C'. È spesso più efficace di una descrizione lunga. Il contrario è zero-shot: nessun esempio, solo l'istruzione.
Fine-tuning
(Fine-tuning)TecnicoAddestramento aggiuntivo di un modello pre-addestrato su un dataset specifico per specializzarlo.
Il pre-training è come una laurea generica. Il fine-tuning è come una specializzazione. Prendi un modello che sa già scrivere e lo addestri su dati medici per farlo diventare un esperto di medicina. È più veloce e economico che addestrare da zero.
Foundation Model
(Foundation Model)TecnicoUn modello AI di grandi dimensioni, addestrato su dati vasti e generici, che serve come base per applicazioni specifiche.
GPT-4, Claude, Llama sono foundation model. Sono 'fondamenta' su cui costruire: puoi usarli direttamente o adattarli (fine-tuning) per compiti specifici. L'idea è addestrare un modello generico una volta e poi specializzarlo molte volte per usi diversi.
Freemium
(Freemium)ToolUn modello di business in cui il servizio base è gratuito, ma le funzionalità avanzate richiedono un pagamento.
ChatGPT Free vs Plus, Claude Free vs Pro, Midjourney con prove gratuite vs abbonamento. Il piano gratuito ti permette di provare e capire se il tool ti serve. Quello a pagamento offre modelli migliori, più velocità, più limiti. La maggior parte dei tool AI consumer usa questo modello.
Function calling
(Function Calling / Tool Use)TecnicoLa capacità di un modello AI di decidere autonomamente quando e come usare strumenti esterni.
Il modello non sa che ora è, ma può 'chiamare' una funzione che glielo dice. Non sa il meteo, ma può usare un'API meteo. Lo sviluppatore definisce i tool disponibili, il modello decide quale usare in base alla domanda. È il meccanismo che rende i chatbot davvero utili per task pratici.
G
GDPR
(General Data Protection Regulation)EticaIl regolamento europeo sulla protezione dei dati personali, che si applica anche ai servizi AI.
Ti dà il diritto di sapere quali dati vengono raccolti su di te, di chiederne la cancellazione, e di opporti al loro utilizzo per l'addestramento di modelli AI. Sia OpenAI che Anthropic offrono procedure per esercitare questi diritti, anche se non sempre è semplice.
GPT
(Generative Pre-trained Transformer)TecnicoLa famiglia di modelli di linguaggio di OpenAI, alla base di ChatGPT.
Il nome si legge così: Generative (genera testo), Pre-trained (addestrato su enormi quantità di dati), Transformer (l'architettura del modello). GPT-3, GPT-4, GPT-4o sono versioni successive, ognuna più capace della precedente.
GPU
(Graphics Processing Unit)TecnicoUn processore specializzato, originariamente per la grafica, che si è rivelato perfetto per addestrare modelli AI.
Le GPU fanno migliaia di calcoli semplici in parallelo — esattamente ciò che serve per le reti neurali. NVIDIA è il leader assoluto, e le sue GPU sono così richieste che i tempi di attesa si misurano in mesi. L'addestramento di GPT-4 ha richiesto migliaia di GPU per mesi.
Grounding
(Grounding)TecnicoTecniche per ancorare le risposte dell'AI a fonti verificabili, riducendo le allucinazioni.
Un modello 'grounded' basa le sue risposte su documenti concreti invece di generare dalla memoria. Il RAG è la tecnica di grounding più comune: il modello cerca informazioni in una base di dati prima di rispondere. Perplexity è un esempio di grounding sul web.
Guardrail
(Guardrail)TecnicoMeccanismi di sicurezza che limitano i comportamenti indesiderati di un modello AI.
Come i guard rail sulle strade impediscono alle auto di uscire, i guardrail AI impediscono al modello di generare contenuti dannosi, illegali o inappropriati. Includono filtri, istruzioni nel system prompt, e addestramento specifico (RLHF). Non sono perfetti — possono essere aggirati.
I
Inferenza
(Inference)TecnicoIl processo in cui un modello già addestrato genera output a partire da un input — cioè quando 'usa' quello che ha imparato.
L'addestramento è lo studio, l'inferenza è l'esame. Ogni volta che chatti con ChatGPT, il modello sta facendo inferenza: applica la conoscenza acquisita durante l'addestramento al tuo prompt specifico. Costa molto meno dell'addestramento, ma moltiplicato per milioni di utenti i costi sono enormi.
Instruction tuning
(Instruction Tuning)TecnicoAddestramento aggiuntivo che insegna al modello a seguire istruzioni e rispondere in modo utile.
Dopo il pre-training, un modello sa generare testo ma non sa seguire ordini. L'instruction tuning gli mostra migliaia di esempi di 'istruzione → risposta utile'. È la differenza tra un modello che completa frasi a caso e uno che risponde alle tue domande.
L
Latenza
(Latency)TecnicoIl tempo che passa tra quando invii una richiesta all'AI e quando inizi a ricevere la risposta.
Dipende dalla dimensione del modello, dal carico del server, dalla lunghezza dell'input. I modelli più grandi sono più lenti. I modelli in cloud hanno latenza di rete. I modelli on-device sono più veloci ma meno potenti. Per applicazioni real-time (chatbot vocali, auto autonome), la latenza è critica.
LLM
(Large Language Model)Concetti baseUn modello di Deep Learning con miliardi di parametri, addestrato su enormi quantità di testo per capire e generare linguaggio.
GPT-4, Claude, Gemini, Llama sono tutti LLM. 'Large' perché hanno miliardi di parametri. 'Language Model' perché il loro compito base è prevedere la parola successiva. Da questo compito semplice emergono capacità complesse: traduzione, ragionamento, coding, analisi.
M
Machine Learning
(Machine Learning)Concetti baseIl sottoinsieme dell'AI in cui le macchine imparano dai dati senza essere programmate esplicitamente per ogni compito.
Invece di scrivere regole ('se l'email ha queste parole, è spam'), dai al modello migliaia di esempi e lui impara le regole da solo. Esistono tre approcci principali: supervised (con etichette), unsupervised (senza etichette), reinforcement (per tentativi).
MCP
(Model Context Protocol)TecnicoUno standard aperto per connettere modelli AI a servizi e strumenti esterni in modo unificato.
Prima di MCP, ogni integrazione AI-servizio era custom. MCP crea un protocollo comune — come USB per i dispositivi. Permette a Claude di connettersi a Google Drive, Slack, GitHub ecc. con un'interfaccia standard. Creato da Anthropic, sta diventando uno standard di settore.
Model collapse
(Model Collapse)TecnicoIl degrado di qualità che si verifica quando un modello viene addestrato su dati generati da altri modelli AI.
Come fare la fotocopia di una fotocopia: a ogni generazione si perde qualità. Se i modelli del futuro vengono addestrati su testo scritto dai modelli di oggi, la qualità scende. È un problema crescente man mano che internet si riempie di contenuti AI-generated.
Modello
(Model)Concetti baseL'insieme di parametri matematici che un'AI ha imparato durante l'addestramento, e che usa per generare output.
Pensa al modello come al 'cervello' dell'AI. All'inizio è vuoto (parametri casuali). Dopo l'addestramento su miliardi di dati, i parametri si sono organizzati per catturare pattern del linguaggio, della logica, del mondo. GPT-4 e Claude sono modelli diversi con 'cervelli' diversi.
Multimodale
(Multimodal)Concetti baseUn modello AI capace di elaborare e/o generare più tipi di dati: testo, immagini, audio, video.
GPT-4o è multimodale: puoi dargli testo, immagini e audio, e risponde in tutte queste modalità. Il contrario è 'unimodale': un modello che lavora solo con il testo, o solo con le immagini. La tendenza è verso modelli nativamente multimodali che integrano tutte le modalità.
N
NLP
(Natural Language Processing)TecnicoIl campo dell'AI dedicato all'interazione tra computer e linguaggio umano.
Include tutto ciò che riguarda l'elaborazione del linguaggio: comprensione del testo, generazione, traduzione, analisi del sentimento, riassunti, risposta a domande. Gli LLM moderni sono la più grande conquista del NLP.
O
On-device AI
(On-device AI)TecnicoAI che gira direttamente sul dispositivo dell'utente (smartphone, laptop) senza inviare dati a server esterni.
Il vantaggio è privacy totale (i tuoi dati non escono dal dispositivo), velocità (nessuna latenza di rete) e funzionamento offline. Richiede modelli più piccoli e ottimizzati. Apple Intelligence e Google Gemini Nano sono esempi di on-device AI.
Open source
(Open Source)Concetti baseSoftware (o modello AI) il cui codice sorgente o i cui pesi sono pubblici e liberamente utilizzabili.
Llama (Meta), Mistral, Gemma (Google) sono modelli open source: chiunque può scaricarli, usarli, modificarli. Il contrario è 'closed source' o proprietario: GPT-4 e Claude sono closed — puoi usarli via API ma non puoi vedere come sono fatti dentro.
Overfitting
(Overfitting)TecnicoQuando un modello impara troppo bene i dati di addestramento, memorizzandoli invece di capirne i pattern generali.
Lo studente che impara a memoria le risposte degli esami passati: perfetto sulle domande già viste, disastroso su quelle nuove. Un modello in overfitting funziona benissimo sui dati di training ma male su dati nuovi. Si combatte con più dati, regolarizzazione, e test su dati mai visti.
P
Parametri
(Parameters / Weights)TecnicoI numeri regolabili all'interno di un modello AI che vengono ottimizzati durante l'addestramento.
Un modello è essenzialmente miliardi di numeri. All'inizio sono casuali. Durante l'addestramento vengono aggiustati per produrre output corretti. GPT-3 ha 175 miliardi di parametri, GPT-4 oltre 1.000 miliardi (stimati). Più parametri = più capacità di catturare pattern complessi (in generale).
Peso
(Weight)TecnicoSinonimo di parametro: un numero all'interno del modello che viene ottimizzato durante l'addestramento.
Ogni connessione nella rete neurale ha un peso. Durante l'addestramento, i pesi vengono aggiustati per produrre output corretti. Quando si dice che un modello ha '175 miliardi di parametri', si intende 175 miliardi di pesi. Quando si condivide un modello open source, si condividono i pesi.
Pre-training
(Pre-training)TecnicoLa prima fase dell'addestramento in cui il modello impara da enormi quantità di dati non etichettati.
Il modello legge miliardi di testi e impara a prevedere la parola successiva. Dopo questa fase sa scrivere testo coerente ma non sa seguire istruzioni. È come uno studente che ha letto tutta la biblioteca ma non ha mai fatto un esame. Serve instruction tuning e RLHF per renderlo utile.
Prompt
(Prompt)Concetti baseL'input testuale che dai a un modello AI per ottenere una risposta o un'azione.
Può essere una domanda, un comando, una descrizione, un esempio — qualsiasi testo che scrivi nella chat. La qualità del prompt determina la qualità della risposta. Il 'prompt engineering' è l'arte di scrivere prompt efficaci.
Prompt Engineering
(Prompt Engineering)Concetti baseL'arte e la scienza di scrivere prompt efficaci per ottenere i migliori risultati possibili dall'AI.
Non è solo 'fare domande' — è strutturare l'input in modo che il modello capisca esattamente cosa vuoi. Include tecniche come role prompting, few-shot, chain of thought, output strutturato. È una skill, non un talento: migliora con la pratica.
Q
Quantizzazione
(Quantization)TecnicoUna tecnica per ridurre le dimensioni di un modello, sacrificando leggermente la qualità per guadagnare in velocità e accessibilità.
Come comprimere un'immagine JPEG: perdi un po' di dettaglio ma il file è molto più piccolo. La quantizzazione riduce la precisione dei parametri (es. da 16-bit a 4-bit), rendendo possibile far girare modelli grandi su hardware limitato, come un laptop.
R
RAG
(Retrieval-Augmented Generation)TecnicoUna tecnica che permette all'AI di cercare informazioni in documenti esterni prima di generare una risposta.
Invece di rispondere solo dalla 'memoria', il modello prima cerca informazioni rilevanti in una base di documenti, poi risponde usando quelle informazioni. Riduce le allucinazioni e permette risposte basate su dati aggiornati o proprietari. Perplexity è un RAG sul web.
Reinforcement Learning
(Reinforcement Learning)Concetti baseUn approccio in cui l'AI impara per tentativi, ricevendo premi per le azioni corrette e penalità per quelle sbagliate.
Come un videogiocatore che impara a giocare provando: fa un'azione, riceve punti o perde una vita, e aggiusta la strategia. Usato per robotica, giochi (AlphaGo), e RLHF — il processo con cui i chatbot imparano a dare risposte che piacciono agli umani.
Rete neurale
(Neural Network)TecnicoUn modello matematico ispirato (vagamente) al cervello biologico, composto da nodi interconnessi organizzati in strati.
I dati entrano da un lato, passano attraverso strati di nodi che li trasformano, e l'output esce dall'altro lato. Ogni connessione ha un peso (parametro) che viene ottimizzato durante l'addestramento. Le reti neurali 'profonde' (con molti strati) sono alla base del Deep Learning.
RLHF
(Reinforcement Learning from Human Feedback)TecnicoL'ultima fase dell'addestramento dei chatbot, in cui il modello impara dalle preferenze degli umani.
Degli annotatori umani valutano le risposte del modello: 'questa è meglio di quella'. Il modello impara da questi feedback per generare risposte che gli umani preferiscono. È ciò che rende ChatGPT e Claude utili e sicuri. Come avere un tutor che ti corregge.
Role prompting
(Role Prompting)Concetti baseUna tecnica in cui assegni un ruolo specifico all'AI per influenzarne il tono, la competenza e la prospettiva.
'Sei un avvocato specializzato in diritto del lavoro' produce risposte diverse da 'Sei un giornalista che spiega le leggi al pubblico'. L'AI adatta vocabolario, livello di dettaglio e prospettiva al ruolo assegnato. Non diventa davvero quel professionista, ma ne simula efficacemente lo stile.
S
SaaS
(Software as a Service)ToolSoftware accessibile via internet con un abbonamento, senza installazione locale.
ChatGPT, Claude, Midjourney sono tutti SaaS: paghi un abbonamento mensile e usi il servizio dal browser. Non devi installare niente, non devi gestire server. Il modello di business dominante nell'AI consumer e business.
Scaling Laws
(Scaling Laws)TecnicoLe leggi empiriche che descrivono come le prestazioni dei modelli AI migliorano con più dati, più calcolo e più parametri.
La scoperta chiave: le prestazioni migliorano in modo prevedibile al crescere delle risorse. Raddoppia i parametri → miglioramento X. Raddoppia i dati → miglioramento Y. Queste leggi hanno guidato la corsa verso modelli sempre più grandi — e il dibattito su quando (o se) si raggiungerà un limite.
Speech-to-Text
(Speech-to-Text (STT))TecnicoTecnologia AI che converte audio parlato in testo scritto.
È la tecnologia dietro la dettatura del telefono, i sottotitoli automatici di YouTube, la trascrizione delle riunioni. Whisper di OpenAI è il modello open source di riferimento, accurato in quasi 100 lingue. La qualità è migliorata enormemente negli ultimi anni.
Supervised Learning
(Supervised Learning)Concetti baseApprendimento in cui il modello viene addestrato su dati etichettati — ogni esempio ha la risposta corretta allegata.
Come uno studente con un insegnante che corregge ogni esercizio. Gli dai foto di gatti etichettate 'gatto' e foto di cani etichettate 'cane', e il modello impara a distinguerli. Usato per: classificazione, riconoscimento, previsione.
System prompt
(System Prompt)TecnicoLe istruzioni nascoste che definiscono il comportamento e la personalità di un chatbot AI.
Quando chatti con ChatGPT, il tuo messaggio non è l'unica cosa che il modello vede. Prima c'è un system prompt che dice: 'Sei un assistente utile, rispondi in modo sicuro, ecc.' È ciò che determina la 'personalità' del chatbot. Con le API puoi scrivere il tuo system prompt.
T
Temperatura
(Temperature)TecnicoUn parametro che controlla quanto le risposte del modello sono prevedibili o creative.
Temperatura bassa (0-0.3): risposte precise e ripetibili, ideali per fatti e codice. Temperatura alta (0.8-1.0): risposte creative e varie, ideali per brainstorming e scrittura. Come un musicista: a temperatura bassa suona lo spartito, a temperatura alta improvvisa.
Test di Turing
(Turing Test)Concetti baseUn test proposto da Alan Turing nel 1950: se un umano non riesce a distinguere le risposte di una macchina da quelle di un umano, la macchina è 'intelligente'.
Per decenni è stato il metro di riferimento per l'intelligenza delle macchine. I chatbot moderni lo superano in molte situazioni — ma questo ha mostrato i limiti del test stesso: imitare il linguaggio umano non significa 'pensare'. Il dibattito su cosa significhi vera intelligenza resta aperto.
Text-to-Image
(Text-to-Image)TecnicoTecnologia AI che genera immagini a partire da una descrizione testuale.
Scrivi 'un gatto astronauta su Marte' e l'AI crea l'immagine. Midjourney, DALL-E, Stable Diffusion sono i principali strumenti. La tecnologia dominante è la diffusion: parte da rumore casuale e lo 'pulisce' guidata dal prompt fino a ottenere un'immagine coerente.
Text-to-Speech
(Text-to-Speech (TTS))TecnicoTecnologia AI che converte testo scritto in voce parlata.
Le voci sintetiche moderne sono praticamente indistinguibili da quelle umane. ElevenLabs può clonare una voce da pochi secondi di audio. Usi: audiolibri, doppiaggio, assistenti vocali, accessibilità. Il rovescio: la stessa tecnologia può creare deepfake audio.
Token
(Token)Concetti baseL'unità base con cui un modello di linguaggio elabora il testo — un pezzo di parola, una parola intera, o un simbolo.
'Ciao' è circa 1 token. 'Intelligenza artificiale' è 2-3 token. I modelli non leggono parole — leggono token. Quando un modello ha un limite di '128K token', in italiano sono circa 80-90K parole. Le API fanno pagare per token usati (input + output).
Token limit
(Token Limit)TecnicoIl numero massimo di token che un modello può generare in una singola risposta.
Diverso dalla context window (che è il totale di input + output). Il token limit di output determina quanto lunga può essere la risposta del modello. Se il limite è 4.096 token e la tua domanda richiede una risposta più lunga, il modello si interrompe a metà. Puoi chiedere di continuare.
Transfer Learning
(Transfer Learning)TecnicoLa tecnica di prendere un modello addestrato per un compito e adattarlo a un compito diverso.
Invece di addestrare da zero per ogni task, prendi un modello pre-addestrato e lo specializza. Come un laureato in medicina che si specializza in cardiologia: non deve reimparare la biologia da zero. È il principio dietro i foundation model e il fine-tuning.
Transformer
(Transformer)TecnicoL'architettura di rete neurale alla base di tutti i modelli di linguaggio moderni, inventata da Google nel 2017.
La sua innovazione chiave è il meccanismo di 'attenzione' che permette di collegare parole lontane in un testo. Prima dei Transformer, i modelli leggevano il testo in sequenza (una parola alla volta). I Transformer vedono tutto il testo contemporaneamente. GPT, BERT, Claude — tutti sono Transformer.
U
Unsupervised Learning
(Unsupervised Learning)Concetti baseApprendimento in cui il modello trova pattern nei dati senza etichette o risposte corrette.
Come un esploratore senza mappa: il modello analizza i dati e scopre strutture da solo. Raggruppa clienti simili, identifica anomalie, trova correlazioni nascoste. Usato per: segmentazione, rilevamento anomalie, riduzione dimensionalità.
V
Vector Database
(Vector Database)TecnicoUn database specializzato nel salvare e cercare embedding (vettori numerici) in modo efficiente.
Il cuore tecnico del RAG. I documenti vengono convertiti in embedding e salvati nel vector database. Quando fai una domanda, anche quella diventa un embedding, e il database trova i documenti più 'vicini' (semanticamente simili). Pinecone, Weaviate e Chroma sono i più usati.
Vision (AI)
(Computer Vision)TecnicoLa capacità dell'AI di analizzare e comprendere il contenuto di immagini e video.
Include: riconoscimento oggetti, descrizione di immagini, OCR (lettura testo da foto), analisi di grafici, confronto di immagini. GPT-4o, Claude e Gemini hanno tutti capacità vision: carichi una foto e fai domande su di essa.
Vocabolario
(Vocabulary)TecnicoL'insieme completo di token che un modello conosce e può usare.
GPT-4 ha un vocabolario di circa 100.000 token. Parole comuni occupano 1 token, parole rare o complesse vengono spezzate in più token. L'inglese è più efficiente (meno token per frase) perché il vocabolario è ottimizzato per esso. Lingue con meno dati di addestramento usano più token.
Z
Zero-shot
(Zero-shot Learning)Concetti baseQuando un modello esegue un compito senza aver visto alcun esempio specifico — solo l'istruzione.
Il contrario del few-shot: nessun esempio, solo la domanda o il comando. 'Traduci questa frase in francese' è zero-shot se non dai esempi di traduzione. I modelli moderni sono sorprendentemente bravi in zero-shot grazie all'enorme pre-training.