Come funziona una AI

Non é magia. È tecnologia

Per i demolitori delle AI, che non hanno una idea precisa su come funzioni

Ma quindi, come funziona davvero un LLM?

Partiamo da qui: un LLM non “pensa”, non capisce cosa dice, non ha intenzioni, obiettivi o modelli del mondo come li intendiamo noi. Ma allora perché sembra intelligente?

Perché è stato addestrato su miliardi di parole e ha imparato a prevedere la parola (o token) più probabile che segue in una sequenza di testo. Lo fa un passo alla volta, senza sapere dove sta andando. L’architettura si chiama autoregressiva: il modello guarda indietro (il testo già generato) per decidere cosa viene dopo.

Non costruisce concetti, non ragiona su significati: impara correlazioni statistiche. Se leggi e analizzi milioni di articoli, libri, tweet e manuali, inizi a “intuire” come scrivere cose che sembrano sensate. È questo che fa un LLM: imita il modo in cui gli umani parlano di un argomento, senza sapere cosa l’argomento sia.

Detto così sembra banale — e lo era — finché i modelli non sono diventati enormi. Quando hai abbastanza parametri e abbastanza dati, iniziano a succedere cose strane: riescono a fare logica, a pianificare, a risolvere problemi, anche senza che nessuno gli abbia spiegato come. È quello che molti chiamano “emergenza”, anche se spesso è solo effetto scala: più roba dentro, comportamenti più raffinati fuori.

Però non è magia: è statistica. Solo che a un certo punto la statistica diventa sorprendentemente potente.


Ma non c’è solo l’LLM nudo e crudo

I modelli moderni — come ChatGPT — non sono solo autoregressori isolati. Sono sistemi complessi che usano l’LLM come cervello linguistico, ma lo collegano a:

memorie (per ricordare conversazioni passate),

strumenti esterni (motori di ricerca, calcolatrici, database, API),

codice eseguibile (per generare ed eseguire comandi),

e meccanismi di feedback umano (es. RLHF, che premia risposte utili, sicure, pertinenti).

Quindi, anche se il modello di base “completa testo”, il sistema complessivo può pianificare, rispondere in modo mirato, verificare risultati, riscrivere e correggere. In certi casi, può anche rifiutarsi di rispondere se capisce (o simula di capire) che non è il caso.


Non ha “intelligenza”, ma ha ottime maschere

Il LLM non ha una mappa simbolica del mondo, ma ha una rappresentazione implicita: sa che “il fuoco brucia” e che “Napoleone è morto” perché queste informazioni ricorrono nei testi. Le codifica in una forma compressa, dentro decine di miliardi di pesi.

Questo non è sapere, ma riflette ciò che ha letto. E spesso basta a dare l’illusione di intelligenza. È un effetto di superficie: sembra intelligente perché parla come se lo fosse.


Quindi attenzione

Quando usi un LLM, non stai parlando con una mente, stai interrogando un sistema probabilistico di completamento linguistico molto avanzato, talvolta arricchito con strumenti esterni.

Funziona bene? Spesso sì. Ma il criterio che guida la generazione è plausibilità linguistica, non verità, non logica, non intenzione.

È un simulatore di linguaggio. E se gli chiedi cose che suonano plausibili ma sono sbagliate, potrebbe risponderti con perfetta sicurezza… una sciocchezza.

Non è un dio, non è un mostro, non è un filosofo, e non è tuo cugino che sa tutto: è una macchina che completa frasi. Ma lo fa così bene, che ci inganna tutti — compresi quelli che dovrebbero saperne di più.

Capirlo non serve per denigrare. Serve per usarlo bene. Perché se deleghi funzioni cognitive a un sistema che cognitivo non è, la responsabilità delle decisioni — spoiler — resta tua.

I bias nelle risposte delle AI


Il problema delle fonti secondarie

Quando cerchiamo informazioni online o utilizziamo strumenti di intelligenza artificiale c’è sempre il rischio che le risposte siano influenzate da bias, cioè pregiudizi o inclinazioni presenti nelle fonti utilizzate per creare le risposte.

Cosa sono i bias da fonti secondarie?

Le fonti secondarie sono articoli, recensioni, riassunti o analisi scritti da qualcuno che interpreta un testo o un argomento originale. Se queste fonti contengono errori, omissioni o pregiudizi, queste stesse caratteristiche possono riflettersi nelle informazioni che fornisco.

Ad esempio:

  • Un recensore potrebbe descrivere un libro in modo critico perché non ne condivide le idee, trasmettendo una visione distorta.
  • Una sintesi potrebbe concentrarsi solo su alcuni aspetti, ignorando dettagli importanti o controversi.

Perché succede?

  1. Interpretazioni soggettive: Gli autori delle fonti secondarie interpretano ciò che leggono in base alla loro esperienza, cultura e opinioni personali.
  2. Informazioni incomplete: Una fonte potrebbe non essere aggiornata o tralasciare aspetti chiave di un argomento.
  3. Accesso limitato ai testi originali: Quando non si può accedere direttamente a un’opera, ci si affida a ciò che altri hanno scritto su di essa, aumentando il rischio di riportare errori.

Quali sono le conseguenze?

Quando il bias è presente, le informazioni che ricevi potrebbero:

  • Essere parziali o sbilanciate.
  • Dare un’idea incompleta o distorta dell’argomento.
  • Riflettere le opinioni di pochi piuttosto che un panorama più ampio e oggettivo.

Come mitigare il problema?

  1. Usare più fonti: Confrontare informazioni provenienti da diverse fonti aiuta a ridurre l’influenza di un singolo punto di vista.
  2. Segnalare incertezze: Quando un argomento è complesso o controverso, è utile indicare che potrebbero esistere interpretazioni diverse.
  3. Criticità del lettore: Chi legge o ascolta dovrebbe mantenere un approccio critico, verificando ulteriormente se qualcosa sembra poco chiaro o troppo sbilanciato.

Conclusione

Il bias da fonti secondarie è un problema che riguarda non solo l’intelligenza artificiale, ma anche il modo in cui tutti noi accediamo alle informazioni. Essere consapevoli di questo limite ci aiuta a prendere decisioni più informate e a guardare alle risposte con una mente aperta, ma anche critica.

Dopotutto, capire come le informazioni vengono create e trasmesse è il primo passo per utilizzarle al meglio.


AI ed il Modello o3: Verso l’AGI

Con o3, le capacità sono vicine al pensiero umane

OpenAI ha recentemente annunciato un nuovo modello di intelligenza artificiale chiamato o3, progettato per migliorare le capacità di ragionamento rispetto ai suoi predecessori.

Questo modello è in grado di affrontare compiti complessi in ambiti come la programmazione avanzata, la matematica e le scienze, superando significativamente le prestazioni dei modelli precedenti.

Una caratteristica distintiva di o3 è la sua capacità di “deliberare” più a lungo su un problema, adottando un approccio passo-passo per giungere a soluzioni più accurate.

Questo metodo, noto come “catena di pensiero” (chain of thought), consente al modello di suddividere problemi complessi in passaggi più semplici, migliorando l’accuratezza delle risposte.

Questo sviluppo rappresenta un passo significativo verso l’intelligenza artificiale generale (AGI), avvicinando le capacità dei modelli AI a quelle del pensiero umano.

Tuttavia, alcuni esperti ritengono che, nonostante i progressi, ci sia ancora strada da fare per raggiungere una vera AGI.

La competizione tra OpenAI e altre aziende tecnologiche, come Google, sta accelerando l’innovazione nel campo dell’intelligenza artificiale, con continui miglioramenti nelle capacità dei modelli AI.

Ad esempio, Google ha recentemente presentato il suo modello avanzato di ragionamento, Gemini 2.0 Flash Thinking, evidenziando l’intensificarsi della competizione nel settore.

Cos’è l’Embodied AI? Agenti Artificiali nel Mondo Reale

Una vera rivoluzione in arrivo

L’Embodied AI (Intelligenza Artificiale “incarnata”) è un ramo dell’intelligenza artificiale che si concentra sulla creazione di agenti artificiali capaci di percepire, interagire e agire nel mondo fisico attraverso un corpo o un’interfaccia fisica. In altre parole, non si tratta solo di “pensare” o elaborare dati, ma di sperimentare e interagire con il mondo reale.

Caratteristiche principali dell’Embodied AI

  1. Interazione fisica: L’Embodied AI è progettata per avere un corpo fisico (come un robot) o per funzionare in un ambiente simulato che imita il mondo reale.
  2. Percezione sensoriale: Usa sensori simili ai nostri sensi (telecamere per la vista, microfoni per l’udito, sensori tattili) per percepire l’ambiente circostante.
  3. Apprendimento esperienziale: Impara attraverso l’esperienza diretta, ad esempio esplorando un ambiente, risolvendo problemi concreti o manipolando oggetti fisici.
  4. Adattamento: Può modificare il suo comportamento in base alle condizioni del mondo reale.

Esempi pratici

  • Robot domestici: Come aspirapolvere intelligenti o assistenti robotici che capiscono il layout della casa e aiutano nelle attività quotidiane.
  • Veicoli autonomi: Automobili che “percepiscono” l’ambiente tramite radar, telecamere e sensori per navigare nel traffico.
  • Robot per assistenza: Compagni per anziani o persone con disabilità che offrono supporto fisico ed emotivo.
  • Simulazioni virtuali: Sistemi per addestrare agenti in ambienti simulati, come videogiochi o realtà virtuale.

Conseguenze e Impatti dell’Embodied AI

Positivi

  1. Miglioramento della qualità della vita: Robot per l’assistenza agli anziani, miglioramento dell’automazione domestica, interventi di precisione in ambienti pericolosi.
  2. Nuove opportunità economiche: Settori come la logistica, la sanità e l’agricoltura possono beneficiare di robot intelligenti.
  3. Apprendimento più naturale: Gli agenti “incarnati” possono imparare come gli esseri umani, migliorando la collaborazione uomo-macchina.
  4. Sicurezza: Robot in ambienti pericolosi (disastri naturali, esplorazione spaziale) riducono i rischi per gli umani.

Critici e Rischi

  1. Etica e privacy: Robot che interagiscono nel mondo reale potrebbero raccogliere dati sensibili, sollevando preoccupazioni etiche e di sorveglianza.
  2. Sostituzione del lavoro umano: Come altre tecnologie avanzate, l’Embodied AI potrebbe rendere obsoleti alcuni lavori, aumentando la disoccupazione in certi settori.
  3. Rischio di malfunzionamenti: Errori nei robot “incarnati” possono causare danni fisici o economici, specialmente in contesti critici come la chirurgia robotica o i veicoli autonomi.
  4. Dominio dell’interazione fisica: L’incapacità di distinguere tra un’intelligenza artificiale e un essere umano potrebbe generare confusione o manipolazione emotiva.

Visione a lungo termine

L’Embodied AI sta portando l’intelligenza artificiale oltre il regno della pura elaborazione di dati. Le macchine che percepiscono e interagiscono con il mondo potrebbero diventare compagni più empatici e strumenti più utili. Tuttavia, dobbiamo affrontare con cautela le sfide legate alla sicurezza, all’etica e all’equità per evitare che il progresso tecnologico lasci dietro di sé problemi irrisolti o nuove disuguaglianze.

I limiti (attuali) delle AI

Attenzione al nonsense coerente

Molti parlano oggi, 2023, di AI. Spesso a vanvera, senza conoscenze di base, e solo perché ci hanno smanettato un po’, e come gli indiani che vendettero l’isola di Manhattan agli olandesi per $24 dollari di paccottiglia, si fanno affascinare da perline e specchietti (per le allodole).

Le AI, quindi, non servono? Le AI non mantengono le promesse di un mondo dove ci potremo finalmente liberare del lavoro (che è poi una punizione biblica: ” Con il sudore del tuo volto mangerai il pane; finché tornerai alla terra”)?

Le AI possono eliminare il lavoro, con tutte le conseguenze positive in termini di allargare il benessere, come hanno fatto la scienza, la tecnica e l’organizzazione negli ultimi 300 anni.

Ma siamo già a quel punto? Non proprio. Perché se parliamo di sistemi esperti, che – a migliaia – sono installati nelle grandi organizzazioni da decenni, sicuramente funzionano e sono molto produttivi, anche se la maggior parte della gente non li vede all’opera, ma ne subisce gli effetti, come quando chiedete un mutuo, un prestito o una carta di credito.

Ma aiutano anche nella determinazione di guasti di apparati complessi, come un aereo o un locomotore, e sono anche a bordo degli aerei per pilotarli, e anche nella vostra automobile.

Quindi, un automa, che sia il robot che salda le lamiere di una BMW o che sia un software che analizza il vostro merito creditizio per darvi un prestito, sono utili e indispensabili, a meno che uno non sia un imprenditore marginale che s’illude di poter continuare un’attività pagando poco o niente degli schiavi umani. Cosa purtroppo non infrequente.

Allora cos’è tutta quest’enfasi, questa frenesia sulle nuove AI?

Effettivamente c’è una novità: le AI generative, cioè applicazioni, che sono state riempite di miliardi di dati – miliardi di dati che oggi sono disponibili, perché quasi tutto lo scibile umano è stato digitalizzato, ma non tutto – e che permettono all’applicazione di fare delle cose molto sofisticate, che meravigliano per la loro capacità di imitare quello che farebbe una persona, che, alla fine della fiera, fa un lavoro meccanico che può essere imitato da una macchina.

Il problema dell”entusiasmo eccessivo è che chi fa le domande o pone dei compiti ad una AI generativa, è una persona limitata, che fa domande banali.

Provate a fargli delle domande, neppure troppo complesse, e non sarà capace di rispondere, neppure come farebbe Google alla stessa domanda, cioè con una lista di cose, che spesso non c’entrano, o vengono fuori nei primi posti perché qualcuno ha pagato.

Ho fatto una domanda banale per qualsiasi essere umano, che dovrebbe rispondere o “non lo so”, o dare la risposta giusta, o se ha dei dubbi, chiedermi un chiarimento.

La domanda posta era. “in quanti metri atterra un greyhound?”


Ho fatto la domanda a Google, che tira fuori la solita lista – poco utile – dove si deve fare un ulteriore ricerca “manuale” per cercare la notizia.

Alla stessa domanda, ChatGPT ammette di non sapere.


Mentre Bing AI fornisce due risposte perché non sa se la mia domanda riguarda un greyhound animale, cioè un levriero o un Grumman C-2 Greyhound, cioè un areo imbarcato sulle portaerei americane e francesi, che era la risposta che mi serviva.


Quindi Bing AI è più brava, ma non molto efficiente! Perché se chiedo “in quanti metri atterra un greyhound?”, qualsiasi persona che sappia cosa sia un greyhound cane o un greyhound aereo, darebbe subito la risposta relativa alla lunghezza della pista necessaria per far atterrare un Grumman C-2.

Qualche Pierino potrebbe dire che magari se avessi chiesto “in quanti metri atterra un Greyhound?” avrei fatto una domanda semanticamente e grammaticalmente corretta. Ma se parlo di “atterrare” è normale che una entità capisca che i levrieri non atterrano mentre gli aerei di solito si, e quando parliamo, non mettiamo le maiuscole.

Non è una demolizione di questi strumenti, ma un avvertimento che quello che si ha di fronte è un idiot savant, e non un savant e basta. E quindi, è meglio prendere le risposte cum grano salis, cioè aggiungendo quello che è ancora umano e solo umano: il discernimento. E quindi non fidarsi completamente delle risposte delle AI generative, come spiega anche il MIT perché questo tipo di AI possono generare un nonsense coerente cioè qualcosa che sembra razionale, ma che non lo è quando la si esamina con discernimento e conoscenza dell’argomento, e che può essere stato indotto da una persona che non conosce l’argomento e quindi induce la macchina a dare belle risposte ma che sono senza senso.