Glossario AI

Tutti i termini che devi conoscere, spiegati semplice

83 termini

A

Agente AI

(AI Agent)Concetti base

Un sistema AI che prende decisioni e compie azioni in autonomia per raggiungere un obiettivo.

A differenza di un chatbot (tu chiedi, lui risponde), un agente riceve un obiettivo e decide da solo quali passi fare: cerca informazioni, usa strumenti, verifica risultati, itera. Claude Code e Operator di OpenAI sono esempi. Potenti ma ancora limitati su task vaghi o complessi.

AGI

(Artificial General Intelligence)Concetti base

Un'ipotetica AI capace di svolgere qualsiasi compito cognitivo al livello di un essere umano o superiore.

A differenza dell'AI attuale (specializzata in compiti specifici), l'AGI saprebbe fare tutto: ragionare, imparare, creare, risolvere problemi nuovi. Non esiste ancora e nessuno sa quando — o se — arriverà.

AI generativa

(Generative AI)Concetti base

AI che crea contenuti nuovi — testo, immagini, audio, video, codice — invece di limitarsi ad analizzare o classificare.

ChatGPT genera testo, Midjourney genera immagini, Suno genera musica. Il termine 'generativa' la distingue dall'AI 'analitica' (che classifica, predice, ottimizza). Dal 2022 è diventata la faccia più visibile dell'intelligenza artificiale.

Tool:chatgpt, claude, midjourney

AI Safety

(AI Safety)Etica

Il campo di ricerca dedicato a rendere i sistemi AI sicuri, controllabili e allineati con i valori umani.

Include: prevenire output dannosi (guardrail), assicurarsi che l'AI faccia ciò che intendiamo (alignment), gestire i rischi di sistemi sempre più potenti. Anthropic (creatori di Claude) è nata specificamente per la ricerca sulla safety. È uno dei temi più importanti e dibattuti nel mondo AI.

Algoritmo

(Algorithm)Concetti base

Una sequenza di istruzioni precise per risolvere un problema o completare un compito.

Una ricetta di cucina è un algoritmo: passi ordinati che portano a un risultato. Nell'AI, gli algoritmi definiscono come il modello impara dai dati e genera output. Non tutti gli algoritmi sono AI — ma tutta l'AI è basata su algoritmi.

Alignment

(Alignment)Etica

Il problema di assicurarsi che un sistema AI agisca in accordo con le intenzioni e i valori umani.

Non basta che l'AI sia potente — deve fare ciò che vogliamo nel modo in cui lo vogliamo. Un AI 'disallineata' potrebbe raggiungere l'obiettivo in modi indesiderati (come un genio della lampada che interpreta i desideri in modo letterale e catastrofico). RLHF è uno strumento di alignment.

Allucinazione

(Hallucination)Concetti base

Quando un modello AI genera informazioni false presentandole come vere, con totale sicurezza.

Un LLM non distingue tra 'vero' e 'plausibile'. Può inventare citazioni, statistiche, eventi — tutto con un tono convincente. Succede perché il modello genera testo statisticamente probabile, non necessariamente corretto. Verifica sempre i fatti critici.

Tool:perplexity

AlphaFold

(AlphaFold)Tool

Un sistema AI di Google DeepMind che ha predetto la struttura 3D di praticamente tutte le proteine conosciute.

La struttura delle proteine era un problema irrisolto da 50 anni della biologia. AlphaFold l'ha risolto in mesi, accelerando enormemente la ricerca su farmaci, malattie e bioingegneria. È uno degli esempi più potenti dell'impatto dell'AI sulla scienza.

Capitoli:the-future

API

(Application Programming Interface)Tecnico

Un'interfaccia che permette a un software di comunicare con un altro software.

Quando uno sviluppatore usa l'API di OpenAI, il suo programma manda una richiesta ai server di OpenAI e riceve una risposta dal modello. È come ordinare al ristorante: il cameriere (API) porta la tua richiesta alla cucina (il modello) e ti riporta il piatto (la risposta).

Attenzione (meccanismo di)

(Attention)Tecnico

Il meccanismo che permette al modello di capire quali parti dell'input sono rilevanti per ogni parte dell'output.

Quando leggi la frase 'Il gatto che era sul tetto è sceso', capisci che 'è sceso' si riferisce a 'il gatto', non a 'il tetto'. Il meccanismo di attenzione fa la stessa cosa: permette al modello di collegare parole lontane in una frase. È l'innovazione chiave dei Transformer.

Augmentation

(Augmentation)Concetti base

L'approccio in cui l'AI potenzia le capacità umane invece di sostituirle.

A differenza della sostituzione (l'AI fa il lavoro al posto tuo), l'augmentation significa che l'AI ti rende più bravo e veloce. Un correttore ortografico non scrive al posto tuo — ti aiuta a scrivere meglio. La maggior parte degli usi attuali dell'AI è augmentation.

Automazione

(Automation)Concetti base

L'uso di tecnologia per eseguire task ripetitivi senza intervento umano.

L'AI ha ampliato enormemente cosa può essere automatizzato: non solo processi meccanici, ma anche task cognitivi come classificare email, generare report, rispondere a domande. Tool come Zapier AI e Make permettono di creare automazioni tra app senza codice.

Capitoli:ai-at-work

B

Benchmark

(Benchmark)Tecnico

Un test standardizzato per misurare e confrontare le prestazioni dei modelli AI.

Come i test INVALSI misurano le competenze degli studenti, i benchmark misurano le capacità dei modelli: ragionamento, matematica, coding, comprensione del testo. I più noti: MMLU (conoscenza generale), HumanEval (coding), GSM8K (matematica). Utili per confrontare modelli, ma non raccontano tutta la storia.

BERT

(Bidirectional Encoder Representations from Transformers)Tecnico

Un modello Transformer di Google progettato per comprendere il testo, non per generarlo.

Se GPT è uno scrittore, BERT è un lettore. È stato fondamentale per migliorare la ricerca Google: capisce cosa intendi quando cerchi qualcosa, anche se scrivi in modo ambiguo. Legge il testo in entrambe le direzioni (bidirezionale), il che gli dà una comprensione più profonda del contesto.

Capitoli:types-of-ai

Bias

(Bias)Etica

Pregiudizio sistematico presente nei dati o nei modelli AI che porta a risultati distorti o discriminatori.

Se un modello è addestrato su dati dove i CEO sono quasi tutti uomini bianchi, assocerà il concetto di 'CEO' a uomini bianchi. Il bias non è intenzionale — è il riflesso dei pregiudizi presenti nei dati di addestramento. Ridurlo richiede dati bilanciati, test rigorosi e consapevolezza.

C

Catena di pensiero

(Chain of Thought (CoT))Concetti base

Una tecnica di prompting che chiede al modello di ragionare passo passo prima di dare la risposta finale.

Aggiungere 'ragiona passo passo' al prompt spinge il modello a mostrare il suo processo logico, riducendo errori. Funziona bene per problemi matematici, logici e decisionali. È come chiedere a uno studente di mostrare i passaggi, non solo il risultato.

Capitoli:prompting
Tool:chatgpt, claude

Chatbot

(Chatbot)Concetti base

Un programma che simula una conversazione con un essere umano tramite testo o voce.

I chatbot esistono dagli anni '60 (ELIZA), ma quelli moderni basati su LLM come ChatGPT e Claude sono enormemente più capaci. Possono conversare, rispondere a domande, scrivere testo, analizzare documenti e molto altro.

Tool:chatgpt, claude, gemini

Classificazione

(Classification)Tecnico

Un task in cui l'AI assegna un'etichetta a un dato: spam/non-spam, positivo/negativo, gatto/cane.

È uno degli usi più comuni del Machine Learning. Il filtro spam classifica email. L'analisi del sentiment classifica recensioni come positive o negative. Il riconoscimento di immagini classifica cosa c'è in una foto. Il modello impara le categorie dagli esempi etichettati.

Code Interpreter

(Code Interpreter)Tool

Una funzionalità che permette al chatbot di scrivere ed eseguire codice Python per analizzare dati, creare grafici e risolvere problemi.

Disponibile in ChatGPT: carichi un file Excel o CSV, e il modello scrive codice per analizzarlo, trovare pattern, creare visualizzazioni. Non devi saper programmare — descrivi quello che vuoi e il modello fa il resto. Potentissimo per analisi dati accessibili a tutti.

Capitoli:ai-at-work
Tool:chatgpt

Context window

(Context Window)Tecnico

La quantità massima di testo (in token) che un modello può elaborare in una singola conversazione.

Pensa a una scrivania: più è grande, più documenti puoi tenerci sopra. GPT-4 ha 128K token (~un libro), Claude arriva a 200K. Una context window più grande permette conversazioni più lunghe e analisi di documenti più grandi, ma il modello tende a 'perdere' informazioni nel mezzo.

Copilot

(Copilot)Tool

Un assistente AI che suggerisce codice in tempo reale mentre programmi, integrato nell'editor.

GitHub Copilot è il più noto: mentre scrivi codice, suggerisce la continuazione (completamento automatico intelligente). Può generare intere funzioni da un commento. Ha cambiato radicalmente il workflow degli sviluppatori. Il termine 'copilot' è usato anche da Microsoft per il suo assistente AI generale.

D

Data Augmentation

(Data Augmentation)Tecnico

Tecniche per aumentare artificialmente la quantità di dati di addestramento creando variazioni degli esempi esistenti.

Per le immagini: ruotare, ritagliare, cambiare colori, aggiungere rumore. Per il testo: parafrasare, tradurre e ritradurre, sostituire sinonimi. Più dati (anche artificiali) aiutano il modello a generalizzare meglio. È diverso dai dati sintetici — qui si modificano dati reali, non se ne creano di nuovi.

Capitoli:ai-and-data

Dataset

(Dataset)Tecnico

Una collezione organizzata di dati usata per addestrare, validare o testare un modello AI.

Il dataset è il 'materiale di studio' dell'AI. Per un modello di linguaggio, è miliardi di testi. Per un classificatore di immagini, è milioni di foto etichettate. La qualità del dataset determina la qualità del modello: dati sporchi producono AI sporche.

Dati sintetici

(Synthetic Data)Tecnico

Dati generati artificialmente dall'AI, usati per addestrare o migliorare altri modelli.

Quando i dati umani di qualità scarseggiano, si possono generare dati sintetici con modelli AI potenti. Un modello grande genera domande e risposte di qualità che vengono usate per addestrare modelli più piccoli. Il rischio: se non curati, possono amplificare errori e bias.

Capitoli:ai-and-data

Deep Learning

(Deep Learning)Concetti base

Un sottoinsieme del Machine Learning che usa reti neurali con molti strati (profonde) per imparare pattern complessi.

Il 'deep' si riferisce ai molti strati della rete neurale. Più strati = capacità di catturare pattern più astratti e complessi. È la tecnologia dietro riconoscimento immagini, traduzione automatica, generazione di testo e praticamente tutta l'AI moderna.

Deepfake

(Deepfake)Etica

Contenuto multimediale (video, audio, immagine) generato o manipolato dall'AI per sembrare autentico.

La tecnologia può mettere il volto di una persona su un altro corpo, clonare una voce, creare foto false di eventi mai accaduti. La qualità è tale che spesso è impossibile distinguere un deepfake da un contenuto reale senza strumenti specializzati.

Diffusion

(Diffusion)Tecnico

La tecnica usata dai principali generatori di immagini AI, che crea immagini partendo da rumore casuale.

Il modello impara ad aggiungere rumore a un'immagine (andata) e poi a toglierlo (ritorno). Per generare, parte da puro rumore e lo 'pulisce' passo dopo passo, guidato dal prompt testuale. È come uno scultore che fa emergere la forma da un blocco informe di marmo.

Capitoli:multimodal-ai
Tool:midjourney

Discriminazione algoritmica

(Algorithmic Discrimination)Etica

Quando un sistema AI produce risultati sistematicamente ingiusti verso certi gruppi di persone.

Non è intenzionale — emerge dai bias nei dati di addestramento. Un sistema di screening CV che penalizza le donne, un algoritmo di credito che discrimina per etnia, un sistema di giustizia predittiva con bias razziale. Il danno è reale anche se l'intenzione non c'è.

E

Embedding

(Embedding)Tecnico

Una rappresentazione numerica (vettore) che cattura il significato di un testo, un'immagine o un altro dato.

L'AI non capisce le parole — capisce i numeri. Un embedding converte 'gatto' in una lista di numeri come [0.2, -0.8, 0.5, ...]. Parole con significato simile hanno embedding vicini nello spazio matematico. È il cuore del RAG e della ricerca semantica.

EU AI Act

(EU AI Act)Etica

La prima regolamentazione completa sull'intelligenza artificiale al mondo, adottata dall'Unione Europea.

Classifica i sistemi AI per livello di rischio e impone obblighi proporzionali. I sistemi ad alto rischio (sanità, giustizia, assunzioni) devono rispettare requisiti stringenti di trasparenza, sicurezza e supervisione umana. Piena applicazione dal 2026. Potrebbe diventare uno standard globale, come il GDPR per la privacy.

F

Few-shot

(Few-shot Learning)Concetti base

Una tecnica di prompting in cui dai al modello alcuni esempi di input-output prima di chiedergli di fare lo stesso con un nuovo input.

Invece di spiegare cosa vuoi a parole, mostri 2-3 esempi: 'input A → output A, input B → output B, ora fai lo stesso con input C'. È spesso più efficace di una descrizione lunga. Il contrario è zero-shot: nessun esempio, solo l'istruzione.

Capitoli:prompting
Tool:chatgpt, claude

Fine-tuning

(Fine-tuning)Tecnico

Addestramento aggiuntivo di un modello pre-addestrato su un dataset specifico per specializzarlo.

Il pre-training è come una laurea generica. Il fine-tuning è come una specializzazione. Prendi un modello che sa già scrivere e lo addestri su dati medici per farlo diventare un esperto di medicina. È più veloce e economico che addestrare da zero.

Foundation Model

(Foundation Model)Tecnico

Un modello AI di grandi dimensioni, addestrato su dati vasti e generici, che serve come base per applicazioni specifiche.

GPT-4, Claude, Llama sono foundation model. Sono 'fondamenta' su cui costruire: puoi usarli direttamente o adattarli (fine-tuning) per compiti specifici. L'idea è addestrare un modello generico una volta e poi specializzarlo molte volte per usi diversi.

Freemium

(Freemium)Tool

Un modello di business in cui il servizio base è gratuito, ma le funzionalità avanzate richiedono un pagamento.

ChatGPT Free vs Plus, Claude Free vs Pro, Midjourney con prove gratuite vs abbonamento. Il piano gratuito ti permette di provare e capire se il tool ti serve. Quello a pagamento offre modelli migliori, più velocità, più limiti. La maggior parte dei tool AI consumer usa questo modello.

Function calling

(Function Calling / Tool Use)Tecnico

La capacità di un modello AI di decidere autonomamente quando e come usare strumenti esterni.

Il modello non sa che ora è, ma può 'chiamare' una funzione che glielo dice. Non sa il meteo, ma può usare un'API meteo. Lo sviluppatore definisce i tool disponibili, il modello decide quale usare in base alla domanda. È il meccanismo che rende i chatbot davvero utili per task pratici.

G

GDPR

(General Data Protection Regulation)Etica

Il regolamento europeo sulla protezione dei dati personali, che si applica anche ai servizi AI.

Ti dà il diritto di sapere quali dati vengono raccolti su di te, di chiederne la cancellazione, e di opporti al loro utilizzo per l'addestramento di modelli AI. Sia OpenAI che Anthropic offrono procedure per esercitare questi diritti, anche se non sempre è semplice.

GPT

(Generative Pre-trained Transformer)Tecnico

La famiglia di modelli di linguaggio di OpenAI, alla base di ChatGPT.

Il nome si legge così: Generative (genera testo), Pre-trained (addestrato su enormi quantità di dati), Transformer (l'architettura del modello). GPT-3, GPT-4, GPT-4o sono versioni successive, ognuna più capace della precedente.

Tool:chatgpt

GPU

(Graphics Processing Unit)Tecnico

Un processore specializzato, originariamente per la grafica, che si è rivelato perfetto per addestrare modelli AI.

Le GPU fanno migliaia di calcoli semplici in parallelo — esattamente ciò che serve per le reti neurali. NVIDIA è il leader assoluto, e le sue GPU sono così richieste che i tempi di attesa si misurano in mesi. L'addestramento di GPT-4 ha richiesto migliaia di GPU per mesi.

Capitoli:how-ai-learns

Grounding

(Grounding)Tecnico

Tecniche per ancorare le risposte dell'AI a fonti verificabili, riducendo le allucinazioni.

Un modello 'grounded' basa le sue risposte su documenti concreti invece di generare dalla memoria. Il RAG è la tecnica di grounding più comune: il modello cerca informazioni in una base di dati prima di rispondere. Perplexity è un esempio di grounding sul web.

Guardrail

(Guardrail)Tecnico

Meccanismi di sicurezza che limitano i comportamenti indesiderati di un modello AI.

Come i guard rail sulle strade impediscono alle auto di uscire, i guardrail AI impediscono al modello di generare contenuti dannosi, illegali o inappropriati. Includono filtri, istruzioni nel system prompt, e addestramento specifico (RLHF). Non sono perfetti — possono essere aggirati.

I

Inferenza

(Inference)Tecnico

Il processo in cui un modello già addestrato genera output a partire da un input — cioè quando 'usa' quello che ha imparato.

L'addestramento è lo studio, l'inferenza è l'esame. Ogni volta che chatti con ChatGPT, il modello sta facendo inferenza: applica la conoscenza acquisita durante l'addestramento al tuo prompt specifico. Costa molto meno dell'addestramento, ma moltiplicato per milioni di utenti i costi sono enormi.

Instruction tuning

(Instruction Tuning)Tecnico

Addestramento aggiuntivo che insegna al modello a seguire istruzioni e rispondere in modo utile.

Dopo il pre-training, un modello sa generare testo ma non sa seguire ordini. L'instruction tuning gli mostra migliaia di esempi di 'istruzione → risposta utile'. È la differenza tra un modello che completa frasi a caso e uno che risponde alle tue domande.

Capitoli:how-ai-learns

L

Latenza

(Latency)Tecnico

Il tempo che passa tra quando invii una richiesta all'AI e quando inizi a ricevere la risposta.

Dipende dalla dimensione del modello, dal carico del server, dalla lunghezza dell'input. I modelli più grandi sono più lenti. I modelli in cloud hanno latenza di rete. I modelli on-device sono più veloci ma meno potenti. Per applicazioni real-time (chatbot vocali, auto autonome), la latenza è critica.

LLM

(Large Language Model)Concetti base

Un modello di Deep Learning con miliardi di parametri, addestrato su enormi quantità di testo per capire e generare linguaggio.

GPT-4, Claude, Gemini, Llama sono tutti LLM. 'Large' perché hanno miliardi di parametri. 'Language Model' perché il loro compito base è prevedere la parola successiva. Da questo compito semplice emergono capacità complesse: traduzione, ragionamento, coding, analisi.

Tool:chatgpt, claude, gemini

M

Machine Learning

(Machine Learning)Concetti base

Il sottoinsieme dell'AI in cui le macchine imparano dai dati senza essere programmate esplicitamente per ogni compito.

Invece di scrivere regole ('se l'email ha queste parole, è spam'), dai al modello migliaia di esempi e lui impara le regole da solo. Esistono tre approcci principali: supervised (con etichette), unsupervised (senza etichette), reinforcement (per tentativi).

MCP

(Model Context Protocol)Tecnico

Uno standard aperto per connettere modelli AI a servizi e strumenti esterni in modo unificato.

Prima di MCP, ogni integrazione AI-servizio era custom. MCP crea un protocollo comune — come USB per i dispositivi. Permette a Claude di connettersi a Google Drive, Slack, GitHub ecc. con un'interfaccia standard. Creato da Anthropic, sta diventando uno standard di settore.

Doc:claude
Tool:claude

Model collapse

(Model Collapse)Tecnico

Il degrado di qualità che si verifica quando un modello viene addestrato su dati generati da altri modelli AI.

Come fare la fotocopia di una fotocopia: a ogni generazione si perde qualità. Se i modelli del futuro vengono addestrati su testo scritto dai modelli di oggi, la qualità scende. È un problema crescente man mano che internet si riempie di contenuti AI-generated.

Capitoli:ai-and-data

Modello

(Model)Concetti base

L'insieme di parametri matematici che un'AI ha imparato durante l'addestramento, e che usa per generare output.

Pensa al modello come al 'cervello' dell'AI. All'inizio è vuoto (parametri casuali). Dopo l'addestramento su miliardi di dati, i parametri si sono organizzati per catturare pattern del linguaggio, della logica, del mondo. GPT-4 e Claude sono modelli diversi con 'cervelli' diversi.

Multimodale

(Multimodal)Concetti base

Un modello AI capace di elaborare e/o generare più tipi di dati: testo, immagini, audio, video.

GPT-4o è multimodale: puoi dargli testo, immagini e audio, e risponde in tutte queste modalità. Il contrario è 'unimodale': un modello che lavora solo con il testo, o solo con le immagini. La tendenza è verso modelli nativamente multimodali che integrano tutte le modalità.

N

NLP

(Natural Language Processing)Tecnico

Il campo dell'AI dedicato all'interazione tra computer e linguaggio umano.

Include tutto ciò che riguarda l'elaborazione del linguaggio: comprensione del testo, generazione, traduzione, analisi del sentimento, riassunti, risposta a domande. Gli LLM moderni sono la più grande conquista del NLP.

Capitoli:types-of-ai

O

On-device AI

(On-device AI)Tecnico

AI che gira direttamente sul dispositivo dell'utente (smartphone, laptop) senza inviare dati a server esterni.

Il vantaggio è privacy totale (i tuoi dati non escono dal dispositivo), velocità (nessuna latenza di rete) e funzionamento offline. Richiede modelli più piccoli e ottimizzati. Apple Intelligence e Google Gemini Nano sono esempi di on-device AI.

Capitoli:the-future

Open source

(Open Source)Concetti base

Software (o modello AI) il cui codice sorgente o i cui pesi sono pubblici e liberamente utilizzabili.

Llama (Meta), Mistral, Gemma (Google) sono modelli open source: chiunque può scaricarli, usarli, modificarli. Il contrario è 'closed source' o proprietario: GPT-4 e Claude sono closed — puoi usarli via API ma non puoi vedere come sono fatti dentro.

Capitoli:types-of-ai

Overfitting

(Overfitting)Tecnico

Quando un modello impara troppo bene i dati di addestramento, memorizzandoli invece di capirne i pattern generali.

Lo studente che impara a memoria le risposte degli esami passati: perfetto sulle domande già viste, disastroso su quelle nuove. Un modello in overfitting funziona benissimo sui dati di training ma male su dati nuovi. Si combatte con più dati, regolarizzazione, e test su dati mai visti.

Capitoli:how-ai-learns

P

Parametri

(Parameters / Weights)Tecnico

I numeri regolabili all'interno di un modello AI che vengono ottimizzati durante l'addestramento.

Un modello è essenzialmente miliardi di numeri. All'inizio sono casuali. Durante l'addestramento vengono aggiustati per produrre output corretti. GPT-3 ha 175 miliardi di parametri, GPT-4 oltre 1.000 miliardi (stimati). Più parametri = più capacità di catturare pattern complessi (in generale).

Peso

(Weight)Tecnico

Sinonimo di parametro: un numero all'interno del modello che viene ottimizzato durante l'addestramento.

Ogni connessione nella rete neurale ha un peso. Durante l'addestramento, i pesi vengono aggiustati per produrre output corretti. Quando si dice che un modello ha '175 miliardi di parametri', si intende 175 miliardi di pesi. Quando si condivide un modello open source, si condividono i pesi.

Capitoli:how-ai-learns

Pre-training

(Pre-training)Tecnico

La prima fase dell'addestramento in cui il modello impara da enormi quantità di dati non etichettati.

Il modello legge miliardi di testi e impara a prevedere la parola successiva. Dopo questa fase sa scrivere testo coerente ma non sa seguire istruzioni. È come uno studente che ha letto tutta la biblioteca ma non ha mai fatto un esame. Serve instruction tuning e RLHF per renderlo utile.

Capitoli:how-ai-learns

Prompt

(Prompt)Concetti base

L'input testuale che dai a un modello AI per ottenere una risposta o un'azione.

Può essere una domanda, un comando, una descrizione, un esempio — qualsiasi testo che scrivi nella chat. La qualità del prompt determina la qualità della risposta. Il 'prompt engineering' è l'arte di scrivere prompt efficaci.

Capitoli:prompting
Tool:chatgpt, claude, gemini

Prompt Engineering

(Prompt Engineering)Concetti base

L'arte e la scienza di scrivere prompt efficaci per ottenere i migliori risultati possibili dall'AI.

Non è solo 'fare domande' — è strutturare l'input in modo che il modello capisca esattamente cosa vuoi. Include tecniche come role prompting, few-shot, chain of thought, output strutturato. È una skill, non un talento: migliora con la pratica.

Capitoli:prompting
Tool:chatgpt, claude

Q

Quantizzazione

(Quantization)Tecnico

Una tecnica per ridurre le dimensioni di un modello, sacrificando leggermente la qualità per guadagnare in velocità e accessibilità.

Come comprimere un'immagine JPEG: perdi un po' di dettaglio ma il file è molto più piccolo. La quantizzazione riduce la precisione dei parametri (es. da 16-bit a 4-bit), rendendo possibile far girare modelli grandi su hardware limitato, come un laptop.

Capitoli:the-future

R

RAG

(Retrieval-Augmented Generation)Tecnico

Una tecnica che permette all'AI di cercare informazioni in documenti esterni prima di generare una risposta.

Invece di rispondere solo dalla 'memoria', il modello prima cerca informazioni rilevanti in una base di documenti, poi risponde usando quelle informazioni. Riduce le allucinazioni e permette risposte basate su dati aggiornati o proprietari. Perplexity è un RAG sul web.

Tool:perplexity

Reinforcement Learning

(Reinforcement Learning)Concetti base

Un approccio in cui l'AI impara per tentativi, ricevendo premi per le azioni corrette e penalità per quelle sbagliate.

Come un videogiocatore che impara a giocare provando: fa un'azione, riceve punti o perde una vita, e aggiusta la strategia. Usato per robotica, giochi (AlphaGo), e RLHF — il processo con cui i chatbot imparano a dare risposte che piacciono agli umani.

Rete neurale

(Neural Network)Tecnico

Un modello matematico ispirato (vagamente) al cervello biologico, composto da nodi interconnessi organizzati in strati.

I dati entrano da un lato, passano attraverso strati di nodi che li trasformano, e l'output esce dall'altro lato. Ogni connessione ha un peso (parametro) che viene ottimizzato durante l'addestramento. Le reti neurali 'profonde' (con molti strati) sono alla base del Deep Learning.

RLHF

(Reinforcement Learning from Human Feedback)Tecnico

L'ultima fase dell'addestramento dei chatbot, in cui il modello impara dalle preferenze degli umani.

Degli annotatori umani valutano le risposte del modello: 'questa è meglio di quella'. Il modello impara da questi feedback per generare risposte che gli umani preferiscono. È ciò che rende ChatGPT e Claude utili e sicuri. Come avere un tutor che ti corregge.

Capitoli:how-ai-learns

Role prompting

(Role Prompting)Concetti base

Una tecnica in cui assegni un ruolo specifico all'AI per influenzarne il tono, la competenza e la prospettiva.

'Sei un avvocato specializzato in diritto del lavoro' produce risposte diverse da 'Sei un giornalista che spiega le leggi al pubblico'. L'AI adatta vocabolario, livello di dettaglio e prospettiva al ruolo assegnato. Non diventa davvero quel professionista, ma ne simula efficacemente lo stile.

Capitoli:prompting
Tool:chatgpt, claude

S

SaaS

(Software as a Service)Tool

Software accessibile via internet con un abbonamento, senza installazione locale.

ChatGPT, Claude, Midjourney sono tutti SaaS: paghi un abbonamento mensile e usi il servizio dal browser. Non devi installare niente, non devi gestire server. Il modello di business dominante nell'AI consumer e business.

Scaling Laws

(Scaling Laws)Tecnico

Le leggi empiriche che descrivono come le prestazioni dei modelli AI migliorano con più dati, più calcolo e più parametri.

La scoperta chiave: le prestazioni migliorano in modo prevedibile al crescere delle risorse. Raddoppia i parametri → miglioramento X. Raddoppia i dati → miglioramento Y. Queste leggi hanno guidato la corsa verso modelli sempre più grandi — e il dibattito su quando (o se) si raggiungerà un limite.

Speech-to-Text

(Speech-to-Text (STT))Tecnico

Tecnologia AI che converte audio parlato in testo scritto.

È la tecnologia dietro la dettatura del telefono, i sottotitoli automatici di YouTube, la trascrizione delle riunioni. Whisper di OpenAI è il modello open source di riferimento, accurato in quasi 100 lingue. La qualità è migliorata enormemente negli ultimi anni.

Capitoli:multimodal-ai

Supervised Learning

(Supervised Learning)Concetti base

Apprendimento in cui il modello viene addestrato su dati etichettati — ogni esempio ha la risposta corretta allegata.

Come uno studente con un insegnante che corregge ogni esercizio. Gli dai foto di gatti etichettate 'gatto' e foto di cani etichettate 'cane', e il modello impara a distinguerli. Usato per: classificazione, riconoscimento, previsione.

Capitoli:types-of-ai

System prompt

(System Prompt)Tecnico

Le istruzioni nascoste che definiscono il comportamento e la personalità di un chatbot AI.

Quando chatti con ChatGPT, il tuo messaggio non è l'unica cosa che il modello vede. Prima c'è un system prompt che dice: 'Sei un assistente utile, rispondi in modo sicuro, ecc.' È ciò che determina la 'personalità' del chatbot. Con le API puoi scrivere il tuo system prompt.

T

Temperatura

(Temperature)Tecnico

Un parametro che controlla quanto le risposte del modello sono prevedibili o creative.

Temperatura bassa (0-0.3): risposte precise e ripetibili, ideali per fatti e codice. Temperatura alta (0.8-1.0): risposte creative e varie, ideali per brainstorming e scrittura. Come un musicista: a temperatura bassa suona lo spartito, a temperatura alta improvvisa.

Test di Turing

(Turing Test)Concetti base

Un test proposto da Alan Turing nel 1950: se un umano non riesce a distinguere le risposte di una macchina da quelle di un umano, la macchina è 'intelligente'.

Per decenni è stato il metro di riferimento per l'intelligenza delle macchine. I chatbot moderni lo superano in molte situazioni — ma questo ha mostrato i limiti del test stesso: imitare il linguaggio umano non significa 'pensare'. Il dibattito su cosa significhi vera intelligenza resta aperto.

Capitoli:what-is-ai

Text-to-Image

(Text-to-Image)Tecnico

Tecnologia AI che genera immagini a partire da una descrizione testuale.

Scrivi 'un gatto astronauta su Marte' e l'AI crea l'immagine. Midjourney, DALL-E, Stable Diffusion sono i principali strumenti. La tecnologia dominante è la diffusion: parte da rumore casuale e lo 'pulisce' guidata dal prompt fino a ottenere un'immagine coerente.

Capitoli:multimodal-ai
Tool:midjourney

Text-to-Speech

(Text-to-Speech (TTS))Tecnico

Tecnologia AI che converte testo scritto in voce parlata.

Le voci sintetiche moderne sono praticamente indistinguibili da quelle umane. ElevenLabs può clonare una voce da pochi secondi di audio. Usi: audiolibri, doppiaggio, assistenti vocali, accessibilità. Il rovescio: la stessa tecnologia può creare deepfake audio.

Capitoli:multimodal-ai

Token

(Token)Concetti base

L'unità base con cui un modello di linguaggio elabora il testo — un pezzo di parola, una parola intera, o un simbolo.

'Ciao' è circa 1 token. 'Intelligenza artificiale' è 2-3 token. I modelli non leggono parole — leggono token. Quando un modello ha un limite di '128K token', in italiano sono circa 80-90K parole. Le API fanno pagare per token usati (input + output).

Token limit

(Token Limit)Tecnico

Il numero massimo di token che un modello può generare in una singola risposta.

Diverso dalla context window (che è il totale di input + output). Il token limit di output determina quanto lunga può essere la risposta del modello. Se il limite è 4.096 token e la tua domanda richiede una risposta più lunga, il modello si interrompe a metà. Puoi chiedere di continuare.

Transfer Learning

(Transfer Learning)Tecnico

La tecnica di prendere un modello addestrato per un compito e adattarlo a un compito diverso.

Invece di addestrare da zero per ogni task, prendi un modello pre-addestrato e lo specializza. Come un laureato in medicina che si specializza in cardiologia: non deve reimparare la biologia da zero. È il principio dietro i foundation model e il fine-tuning.

Capitoli:how-ai-learns

Transformer

(Transformer)Tecnico

L'architettura di rete neurale alla base di tutti i modelli di linguaggio moderni, inventata da Google nel 2017.

La sua innovazione chiave è il meccanismo di 'attenzione' che permette di collegare parole lontane in un testo. Prima dei Transformer, i modelli leggevano il testo in sequenza (una parola alla volta). I Transformer vedono tutto il testo contemporaneamente. GPT, BERT, Claude — tutti sono Transformer.

Capitoli:types-of-ai

U

Unsupervised Learning

(Unsupervised Learning)Concetti base

Apprendimento in cui il modello trova pattern nei dati senza etichette o risposte corrette.

Come un esploratore senza mappa: il modello analizza i dati e scopre strutture da solo. Raggruppa clienti simili, identifica anomalie, trova correlazioni nascoste. Usato per: segmentazione, rilevamento anomalie, riduzione dimensionalità.

Capitoli:types-of-ai

V

Vector Database

(Vector Database)Tecnico

Un database specializzato nel salvare e cercare embedding (vettori numerici) in modo efficiente.

Il cuore tecnico del RAG. I documenti vengono convertiti in embedding e salvati nel vector database. Quando fai una domanda, anche quella diventa un embedding, e il database trova i documenti più 'vicini' (semanticamente simili). Pinecone, Weaviate e Chroma sono i più usati.

Vision (AI)

(Computer Vision)Tecnico

La capacità dell'AI di analizzare e comprendere il contenuto di immagini e video.

Include: riconoscimento oggetti, descrizione di immagini, OCR (lettura testo da foto), analisi di grafici, confronto di immagini. GPT-4o, Claude e Gemini hanno tutti capacità vision: carichi una foto e fai domande su di essa.

Vocabolario

(Vocabulary)Tecnico

L'insieme completo di token che un modello conosce e può usare.

GPT-4 ha un vocabolario di circa 100.000 token. Parole comuni occupano 1 token, parole rare o complesse vengono spezzate in più token. L'inglese è più efficiente (meno token per frase) perché il vocabolario è ottimizzato per esso. Lingue con meno dati di addestramento usano più token.

Z

Zero-shot

(Zero-shot Learning)Concetti base

Quando un modello esegue un compito senza aver visto alcun esempio specifico — solo l'istruzione.

Il contrario del few-shot: nessun esempio, solo la domanda o il comando. 'Traduci questa frase in francese' è zero-shot se non dai esempi di traduzione. I modelli moderni sono sorprendentemente bravi in zero-shot grazie all'enorme pre-training.

Capitoli:prompting