Come funziona una AI

Non é magia. È tecnologia

Per i demolitori delle AI, che non hanno una idea precisa su come funzioni

Ma quindi, come funziona davvero un LLM?

Partiamo da qui: un LLM non “pensa”, non capisce cosa dice, non ha intenzioni, obiettivi o modelli del mondo come li intendiamo noi. Ma allora perché sembra intelligente?

Perché è stato addestrato su miliardi di parole e ha imparato a prevedere la parola (o token) più probabile che segue in una sequenza di testo. Lo fa un passo alla volta, senza sapere dove sta andando. L’architettura si chiama autoregressiva: il modello guarda indietro (il testo già generato) per decidere cosa viene dopo.

Non costruisce concetti, non ragiona su significati: impara correlazioni statistiche. Se leggi e analizzi milioni di articoli, libri, tweet e manuali, inizi a “intuire” come scrivere cose che sembrano sensate. È questo che fa un LLM: imita il modo in cui gli umani parlano di un argomento, senza sapere cosa l’argomento sia.

Detto così sembra banale — e lo era — finché i modelli non sono diventati enormi. Quando hai abbastanza parametri e abbastanza dati, iniziano a succedere cose strane: riescono a fare logica, a pianificare, a risolvere problemi, anche senza che nessuno gli abbia spiegato come. È quello che molti chiamano “emergenza”, anche se spesso è solo effetto scala: più roba dentro, comportamenti più raffinati fuori.

Però non è magia: è statistica. Solo che a un certo punto la statistica diventa sorprendentemente potente.


Ma non c’è solo l’LLM nudo e crudo

I modelli moderni — come ChatGPT — non sono solo autoregressori isolati. Sono sistemi complessi che usano l’LLM come cervello linguistico, ma lo collegano a:

memorie (per ricordare conversazioni passate),

strumenti esterni (motori di ricerca, calcolatrici, database, API),

codice eseguibile (per generare ed eseguire comandi),

e meccanismi di feedback umano (es. RLHF, che premia risposte utili, sicure, pertinenti).

Quindi, anche se il modello di base “completa testo”, il sistema complessivo può pianificare, rispondere in modo mirato, verificare risultati, riscrivere e correggere. In certi casi, può anche rifiutarsi di rispondere se capisce (o simula di capire) che non è il caso.


Non ha “intelligenza”, ma ha ottime maschere

Il LLM non ha una mappa simbolica del mondo, ma ha una rappresentazione implicita: sa che “il fuoco brucia” e che “Napoleone è morto” perché queste informazioni ricorrono nei testi. Le codifica in una forma compressa, dentro decine di miliardi di pesi.

Questo non è sapere, ma riflette ciò che ha letto. E spesso basta a dare l’illusione di intelligenza. È un effetto di superficie: sembra intelligente perché parla come se lo fosse.


Quindi attenzione

Quando usi un LLM, non stai parlando con una mente, stai interrogando un sistema probabilistico di completamento linguistico molto avanzato, talvolta arricchito con strumenti esterni.

Funziona bene? Spesso sì. Ma il criterio che guida la generazione è plausibilità linguistica, non verità, non logica, non intenzione.

È un simulatore di linguaggio. E se gli chiedi cose che suonano plausibili ma sono sbagliate, potrebbe risponderti con perfetta sicurezza… una sciocchezza.

Non è un dio, non è un mostro, non è un filosofo, e non è tuo cugino che sa tutto: è una macchina che completa frasi. Ma lo fa così bene, che ci inganna tutti — compresi quelli che dovrebbero saperne di più.

Capirlo non serve per denigrare. Serve per usarlo bene. Perché se deleghi funzioni cognitive a un sistema che cognitivo non è, la responsabilità delle decisioni — spoiler — resta tua.

Cos’è l’Embodied AI? Agenti Artificiali nel Mondo Reale

Una vera rivoluzione in arrivo

L’Embodied AI (Intelligenza Artificiale “incarnata”) è un ramo dell’intelligenza artificiale che si concentra sulla creazione di agenti artificiali capaci di percepire, interagire e agire nel mondo fisico attraverso un corpo o un’interfaccia fisica. In altre parole, non si tratta solo di “pensare” o elaborare dati, ma di sperimentare e interagire con il mondo reale.

Caratteristiche principali dell’Embodied AI

  1. Interazione fisica: L’Embodied AI è progettata per avere un corpo fisico (come un robot) o per funzionare in un ambiente simulato che imita il mondo reale.
  2. Percezione sensoriale: Usa sensori simili ai nostri sensi (telecamere per la vista, microfoni per l’udito, sensori tattili) per percepire l’ambiente circostante.
  3. Apprendimento esperienziale: Impara attraverso l’esperienza diretta, ad esempio esplorando un ambiente, risolvendo problemi concreti o manipolando oggetti fisici.
  4. Adattamento: Può modificare il suo comportamento in base alle condizioni del mondo reale.

Esempi pratici

  • Robot domestici: Come aspirapolvere intelligenti o assistenti robotici che capiscono il layout della casa e aiutano nelle attività quotidiane.
  • Veicoli autonomi: Automobili che “percepiscono” l’ambiente tramite radar, telecamere e sensori per navigare nel traffico.
  • Robot per assistenza: Compagni per anziani o persone con disabilità che offrono supporto fisico ed emotivo.
  • Simulazioni virtuali: Sistemi per addestrare agenti in ambienti simulati, come videogiochi o realtà virtuale.

Conseguenze e Impatti dell’Embodied AI

Positivi

  1. Miglioramento della qualità della vita: Robot per l’assistenza agli anziani, miglioramento dell’automazione domestica, interventi di precisione in ambienti pericolosi.
  2. Nuove opportunità economiche: Settori come la logistica, la sanità e l’agricoltura possono beneficiare di robot intelligenti.
  3. Apprendimento più naturale: Gli agenti “incarnati” possono imparare come gli esseri umani, migliorando la collaborazione uomo-macchina.
  4. Sicurezza: Robot in ambienti pericolosi (disastri naturali, esplorazione spaziale) riducono i rischi per gli umani.

Critici e Rischi

  1. Etica e privacy: Robot che interagiscono nel mondo reale potrebbero raccogliere dati sensibili, sollevando preoccupazioni etiche e di sorveglianza.
  2. Sostituzione del lavoro umano: Come altre tecnologie avanzate, l’Embodied AI potrebbe rendere obsoleti alcuni lavori, aumentando la disoccupazione in certi settori.
  3. Rischio di malfunzionamenti: Errori nei robot “incarnati” possono causare danni fisici o economici, specialmente in contesti critici come la chirurgia robotica o i veicoli autonomi.
  4. Dominio dell’interazione fisica: L’incapacità di distinguere tra un’intelligenza artificiale e un essere umano potrebbe generare confusione o manipolazione emotiva.

Visione a lungo termine

L’Embodied AI sta portando l’intelligenza artificiale oltre il regno della pura elaborazione di dati. Le macchine che percepiscono e interagiscono con il mondo potrebbero diventare compagni più empatici e strumenti più utili. Tuttavia, dobbiamo affrontare con cautela le sfide legate alla sicurezza, all’etica e all’equità per evitare che il progresso tecnologico lasci dietro di sé problemi irrisolti o nuove disuguaglianze.

I limiti (attuali) delle AI

Attenzione al nonsense coerente

Molti parlano oggi, 2023, di AI. Spesso a vanvera, senza conoscenze di base, e solo perché ci hanno smanettato un po’, e come gli indiani che vendettero l’isola di Manhattan agli olandesi per $24 dollari di paccottiglia, si fanno affascinare da perline e specchietti (per le allodole).

Le AI, quindi, non servono? Le AI non mantengono le promesse di un mondo dove ci potremo finalmente liberare del lavoro (che è poi una punizione biblica: ” Con il sudore del tuo volto mangerai il pane; finché tornerai alla terra”)?

Le AI possono eliminare il lavoro, con tutte le conseguenze positive in termini di allargare il benessere, come hanno fatto la scienza, la tecnica e l’organizzazione negli ultimi 300 anni.

Ma siamo già a quel punto? Non proprio. Perché se parliamo di sistemi esperti, che – a migliaia – sono installati nelle grandi organizzazioni da decenni, sicuramente funzionano e sono molto produttivi, anche se la maggior parte della gente non li vede all’opera, ma ne subisce gli effetti, come quando chiedete un mutuo, un prestito o una carta di credito.

Ma aiutano anche nella determinazione di guasti di apparati complessi, come un aereo o un locomotore, e sono anche a bordo degli aerei per pilotarli, e anche nella vostra automobile.

Quindi, un automa, che sia il robot che salda le lamiere di una BMW o che sia un software che analizza il vostro merito creditizio per darvi un prestito, sono utili e indispensabili, a meno che uno non sia un imprenditore marginale che s’illude di poter continuare un’attività pagando poco o niente degli schiavi umani. Cosa purtroppo non infrequente.

Allora cos’è tutta quest’enfasi, questa frenesia sulle nuove AI?

Effettivamente c’è una novità: le AI generative, cioè applicazioni, che sono state riempite di miliardi di dati – miliardi di dati che oggi sono disponibili, perché quasi tutto lo scibile umano è stato digitalizzato, ma non tutto – e che permettono all’applicazione di fare delle cose molto sofisticate, che meravigliano per la loro capacità di imitare quello che farebbe una persona, che, alla fine della fiera, fa un lavoro meccanico che può essere imitato da una macchina.

Il problema dell”entusiasmo eccessivo è che chi fa le domande o pone dei compiti ad una AI generativa, è una persona limitata, che fa domande banali.

Provate a fargli delle domande, neppure troppo complesse, e non sarà capace di rispondere, neppure come farebbe Google alla stessa domanda, cioè con una lista di cose, che spesso non c’entrano, o vengono fuori nei primi posti perché qualcuno ha pagato.

Ho fatto una domanda banale per qualsiasi essere umano, che dovrebbe rispondere o “non lo so”, o dare la risposta giusta, o se ha dei dubbi, chiedermi un chiarimento.

La domanda posta era. “in quanti metri atterra un greyhound?”


Ho fatto la domanda a Google, che tira fuori la solita lista – poco utile – dove si deve fare un ulteriore ricerca “manuale” per cercare la notizia.

Alla stessa domanda, ChatGPT ammette di non sapere.


Mentre Bing AI fornisce due risposte perché non sa se la mia domanda riguarda un greyhound animale, cioè un levriero o un Grumman C-2 Greyhound, cioè un areo imbarcato sulle portaerei americane e francesi, che era la risposta che mi serviva.


Quindi Bing AI è più brava, ma non molto efficiente! Perché se chiedo “in quanti metri atterra un greyhound?”, qualsiasi persona che sappia cosa sia un greyhound cane o un greyhound aereo, darebbe subito la risposta relativa alla lunghezza della pista necessaria per far atterrare un Grumman C-2.

Qualche Pierino potrebbe dire che magari se avessi chiesto “in quanti metri atterra un Greyhound?” avrei fatto una domanda semanticamente e grammaticalmente corretta. Ma se parlo di “atterrare” è normale che una entità capisca che i levrieri non atterrano mentre gli aerei di solito si, e quando parliamo, non mettiamo le maiuscole.

Non è una demolizione di questi strumenti, ma un avvertimento che quello che si ha di fronte è un idiot savant, e non un savant e basta. E quindi, è meglio prendere le risposte cum grano salis, cioè aggiungendo quello che è ancora umano e solo umano: il discernimento. E quindi non fidarsi completamente delle risposte delle AI generative, come spiega anche il MIT perché questo tipo di AI possono generare un nonsense coerente cioè qualcosa che sembra razionale, ma che non lo è quando la si esamina con discernimento e conoscenza dell’argomento, e che può essere stato indotto da una persona che non conosce l’argomento e quindi induce la macchina a dare belle risposte ma che sono senza senso.