Quando si parla di intelligenza artificiale generativa nei media generalisti, si parla quasi sempre di magia o di apocalisse. Da un lato il modello "sa tutto", "capisce tutto", "farà il lavoro al posto tuo". Dall'altro, "ci ruberà il lavoro", "non ci si può fidare", "è tutto inventato". Entrambe le posizioni sono sbagliate, e la distanza tra le due racconta quanto poco si stia capendo davvero lo strumento.
Partiamo da cosa è, concretamente.
Un modello linguistico generativo — GPT, Claude, Gemini, Llama e gli altri — è un sistema addestrato su enormi quantità di testo per fare una cosa sola: predire il token successivo in una sequenza, sulla base di pattern statistici appresi. Non c'è comprensione nel senso cognitivo del termine, non c'è coscienza, non c'è ragionamento nel senso in cui lo intendiamo quando parliamo di esseri umani. C'è un modello probabilistico di straordinaria complessità, capace di produrre output coerenti e pertinenti perché ha visto abbastanza esempi da riconoscere le strutture del linguaggio e del pensiero.
La differenza non è sottile: è fondamentale. L'IA generativa è una categoria specifica di sistemi — quelli che producono testo, codice, immagini, audio — diversa dall'IA come campo generale che include anche visione artificiale, sistemi di controllo, robotica, algoritmi predittivi. Usare il termine "intelligenza artificiale" per tutto appiattisce distinzioni che hanno conseguenze pratiche molto diverse.
Il cambio di paradigma è già in atto
Detto questo: il fatto che non sia magia non significa che non stia cambiando profondamente il modo in cui si lavora. Sta già succedendo. Chi scrive codice usa questi strumenti ogni giorno — per generare boilerplate, esplorare librerie, fare debug, documentare. Chi produce contenuti li usa per strutturare, revisionare, accelerare. Chi gestisce infrastrutture li usa per scrivere script, analizzare log, consultarsi su configurazioni complesse.
Non è una moda passeggera. È un cambio di paradigma paragonabile, per impatto strutturale, all'arrivo del web o dello smartphone — strumenti che hanno ridefinito interi settori economici in pochi anni. Fingere che sia una bolla speculativa destinata a sgonfiarsi è miopia, non prudenza.
Un amplificatore — con una distinzione che conta
Il modo più preciso che ho trovato per descrivere cosa fa un modello generativo nella pratica è questo: amplifica quello che c'è già. Conoscenza, metodo, senso critico. Non li genera dal nulla.
Chi ha esperienza in un dominio può usare questi strumenti per andare più veloce, esplorare direzioni diverse, delegare il lavoro ripetitivo, verificare ipotesi. Chi non ha basi non ottiene competenza: ottiene testo plausibile che non è in grado di valutare. E un output plausibile sbagliato è spesso più pericoloso di un output palesemente errato, perché è molto più difficile da riconoscere.
C'è però una distinzione importante da fare, che ridimensiona questa affermazione in senso stretto.
In domini strutturati e verificabili — il codice sopra tutti — una capacità di ragionamento funzionale esiste davvero. Il risultato si misura: compila o non compila, gira o non gira, fa quello che deve fare o no. Li uso ogni giorno per accelerare parti del lavoro — dalla generazione di boilerplate alla prototipazione rapida, dall'analisi di configurazioni alla costruzione di strumenti interni — e i risultati sono concreti. Non è improvvisazione: è il risultato dell'incontro tra la capacità generativa del modello e la competenza di chi lo guida, lo valida, lo corregge lungo il percorso. Il modello propone, io valuto.
Il problema cresce in proporzione all'ambiguità del dominio. Un parere legale, una diagnosi medica, una consulenza strategica aziendale: ambiti dove l'output è plausibile per costruzione, ma la verifica richiede esattamente la competenza che chi non ha basi non possiede. In questi contesti il rischio non è ricevere una risposta ovviamente errata — è ricevere una risposta convincente e sbagliata, e non saperlo.
È un collaboratore capace, veloce, instancabile. Che però non ha responsabilità, non paga le conseguenze degli errori, non ha la minima consapevolezza di cosa significhi sbagliare in quel contesto specifico. La validazione resta umana. Sempre.
L'impatto che non si vede
C'è un altro lato della questione che chi usa questi strumenti professionalmente non può ignorare.
Ogni richiesta a un modello di grandi dimensioni ha un costo energetico reale. I data center che fanno girare questi sistemi consumano quantità significative di energia elettrica e acqua — per il raffreddamento, oltre che per il calcolo. Stime precise sono difficili da trovare e spesso contestate dai produttori stessi, ma l'ordine di grandezza è reale: una singola conversazione complessa con un modello di frontiera consuma molto più di una ricerca tradizionale sul web. I dati precisi su questo non sono comunicati in modo trasparente, e le stime indipendenti variano considerevolmente — ma l'impatto esiste e cresce con l'adozione.
A questo si aggiungono questioni aperte sulla proprietà intellettuale dei dati usati per l'addestramento — testi, codice, immagini prodotti da persone che nella maggior parte dei casi non hanno dato un consenso esplicito — e sulla concentrazione di potere: pochi attori privati controllano i modelli di frontiera e le infrastrutture su cui girano. È una concentrazione senza precedenti nel settore tecnologico, con implicazioni che vanno ben oltre il mercato dei servizi digitali.
Non ho soluzioni definitive a questi problemi. Segnalarli è già una posizione.
L'etica come bussola operativa
La mia posizione, che tengo a precisare come tale: credo che l'etica sia il faro utile in questo momento. Non nel senso di una formula da citare nelle presentazioni aziendali, ma come strumento operativo concreto — una bussola per le scelte quotidiane.
Si può immaginare un percorso — ottimizzazione dei modelli, alimentazione dei data center con energie rinnovabili, compensazione dell'impatto residuo, regolamentazione progressiva dei dati di training — che riporti il bilancio complessivo in un territorio accettabile. Non oggi, e non senza sforzo, ma è una direzione praticabile. Le innovazioni tecnologiche devono essere un'evoluzione dell'essere umano nella sua forma più responsabile: quando smettono di esserlo, il problema non è la tecnologia in sé, ma chi decide come svilupparla e distribuirla.
Le innovazioni hanno sempre avuto un costo, spesso pagato in anticipo da chi non ha scelto di sostenerlo. La differenza questa volta è la velocità e la scala. E la consapevolezza, quando c'è, è già qualcosa.
La responsabilità non si delega
Il cambiamento è in atto, e non è arginabile. In un contesto geopolitico dove chi frena perde terreno competitivo — e dove le potenze che non hanno scrupoli etici non rallenteranno per aspettare un consenso internazionale — proibire o frenare dall'alto è illusorio oltre che probabilmente controproducente.
L'unica via praticabile è la responsabilità di chi questi strumenti li usa ogni giorno: sviluppatori, agenzie, aziende, professionisti. Scegliere quando usarli. Sapere cosa si sta facendo con l'output. Tenere la validazione in casa. Non delegare la competenza insieme al lavoro. Avere contezza dell'impatto — energetico, economico, sociale — di ogni scelta d'uso.
Sono scelte individuali, non regolamenti. Ma in assenza di regolamenti efficaci — e per ora siamo esattamente in quella situazione — sono le uniche scelte che contano davvero.
Gestisci infrastrutture e vuoi capire come integrare questi strumenti in modo consapevole? Parliamone.
Contattami →