Intelligenza artificiale: le due “anime gemelle” raccontate dal prof. Contucci

"L'AI è l'insieme e la collezione di tante tecnologie diverse con due anime gemelle, nate insieme negli anni 50"
MeteoWeb

Si è tenuta oggi l’ultima conferenza del ciclo QuarantaScienza per l’anno 2023, che ha avuto come tema “L’approccio fisico-matematico all’intelligenza artificiale“. L’incontro è stato tenuto da Pierluigi Contucci, professore ordinario di Fisica Matematica all’Università di Bologna, autore del libro “Rivoluzione intelligenza artificiale. Sfide, rischi opportunità”. Contucci ha spiegato il funzionamento dell’intelligenza artificiale e la sua evoluzione, per poi entrare nel vivo degli studi matematici e fisici sull’AI che lui stesso compie e coordina.

Il mito dell’intelligenza artificiale

L’intervento del prof. Contucci, è iniziato con un parallelismo che riguarda la visione dell’intelligenza artificiale negli anni ’60 e oggi. “Il pubblico percepisce il mito della fantascienza cinematografica” spiega il professore, infatti sono stati girati numerosi film che immaginano il futuro evoluzionistico della scienza, per esempio, “2001: Odissea nello Spazio di Kubrik, è uno dei migliori film di fantascienza perché molte di quelle funzionalità che raccontava sono comparse davvero.

Dialogare con una macchina, farsi capire da una macchina è una cosa che è arrivata con ChatGPT. La sensazione è di essere capiti, fino a qualche anno fa era un sogno lontanissimo. La fantascienza poi è degenerata, gli scenari sono diventati utopici o distopici. La percezione pubblica di questo tema è molto deformata, l’intelligenza artificiale è vera e sta funzionando ed è lontana da utopie o distopie“, conclude.

Due anime gemelle

Cos’è e cosa fa, quindi, l’intelligenza artificiale?

È l’insieme e la collezione di tante tecnologie diverse con due anime gemelle, nate insieme negli anni 50. Queste due anime” sostiene Contucci, “corrispondono ai due modi che abbiamo di concepire il funzionamento del cervello.

Intelligenza artificiale simbolica

Il cervello ragiona, usa razionalità e logica, infatti la prima intelligenza artificiale nasce con questa idea. Il computer di Los Alamos, che aveva aiutato i fisici nella costruzione della bomba atomica, seguiva questo procedimento. Enrico Fermi, cogliendone il potenziale, fece costruire il primo simulatore a Pisa.

Queste macchine simulatrici facevano dei calcoli molto bene. “Si è pensato che se la macchina sapeva fare i calcoli con i numeri poteva anche farli con i simboli,” afferma Pierluigi Contucci. Da qui nasce la prima intelligenza artificiale, detta simbolica, producendo risultati interessanti.

Mettendo insieme le regole del gioco degli scacchi, per esempio, e insegnando qualche trucco da esperto, l’AI è riuscita a battere Garry Kasparov, scacchista professionista.” In che modo? “Il programmatore nell’AI simbolica programma passo passo tutto il compito che la macchina deve eseguire, quindi l’intelligenza della macchina è tutta conosciuta dal programmatore, la macchina ripete in velocità superumana le cose umane, quindi vince per forza bruta“, spiega Contucci.

Machine e deep learning

Il secondo tipo di intelligenza artificiale, invece, imita il cervello in compiti lontani dalla logica: comprensione del linguaggio che non è ridotta ad un puro calcolo simbolico. “Per crearla“, spiega il professore: “Si è partiti dalla nozione di plasticità neuronale. Durante l’apprendimento il cervello si modifica: si modificano legami sinaptici durante il processo di apprendimento e memorizzazione. Questa è la seconda idea per l’AI, entrambe idee degli anni 50. Questa intelligenza artificiale adatta i propri parametri per sintetizzare le informazioni codificate dentro i database e sintetizzarle in un qualcosa di generale.

Tecnologie pre-scientifiche

La matematica in entrambe queste AI ha un ruolo molto grande, nella prima ogni calcolo è matematico. La seconda, invece, funziona attraverso adattamento parametrico di un enorme numero di parametri definiti in modo opportuno.

L’AI del machine learning, in particolare del deep learning è ancora una tecnologia pre-scientifica, è importante perché coinvolge le scienze dure. Cosa vuol dire pre-scientifica? Durante la prima rivoluzione industriale è stato scoperto il motore, tra i primi quelli a vapore, i tecnici erano in grado di rispondere senza esitazione alle domande su come erano costruiti. Tuttavia, se gli si chiedeva perché funzionavano e a quali principi obbedivano non sapevano rispondere, si chiedevano solo perché la macchina costruita a Berlino con 1 quintale di carbone camminava di più di quella di Parigi con la stessa quantità carbone. Non sapevano rispondere. La comprensione del ‘perché funziona in quel modo?’ è arrivata dopo la costruzione del motore, il motore era pre-scientifico e ha trascinato la scienza nella scoperta della termodinamica e lì è arrivata la risposta a quella domanda: differenza di temperatura del gas tra un caso e l’altro“, dice Pierluigi Contucci.

Continua: “Questa metafora è fondamentale perché quando si tratta di intelligenza artificiale, oggi siamo nella stessa situazione: sappiamo costruire le macchine, consumano energia, ma ci manca capire i principi a cui obbediscono le due AI.”

L’AI della logica è quella parte nobile della macchina di leve e ingranaggi in cui l’energia è conservata, invece l’altra è quella parte di motore che è in grado di prendere tante informazioni e sintetizzarle tramite algoritmi. Il numero di parametri inseribili anche se enorme è comunque più piccolo del database, quindi c’è una capacità sovrumana di generare informazioni, supera l’uomo.

Abbiamo una tecnologia che capiamo benissimo (simbolica) e una di cui non conosciamo i principi generali (machine e deep learning).” Conclude Contucci.

“Conosce tante cose ma non ha capito nulla”: i limiti di ChatGPT

Il programma che parla con noi, come ChatGPT è in grado persino di rispondere alle domande. Si può chiedere di tutto perché ha studiato molto, tuttavia: “Conosce tante cose, ma non ha capito nulla, basta interrogarlo in matematica per capirlo. Non sa fare dimostrazioni elementari, accessibili agli studenti. Non era in grado di fare una dimostrazione costruttiva, poi con l’intervento di utenti ‘colti’ l’ha imparata, ma la logica non gli viene naturale“, spiega lo studioso.

Gli studi: distribuzioni di probabilità

Come abbiamo detto, l’intelligenza artificiale cosiddetta machine e deep learning, lavora tramite parametri, ma “che significato hanno i parametri che abbiamo identificato? Distribuzioni di probabilità in cui lei lavora: Macchine di Boltzmann. Cosa fanno i fisici matematici? Cercano i modelli semplici da risolvere facilmente. Un parallelo: Galileo ha studiato il moto naturale semplificando in modo estremo i moti che vedeva, per esempio il moto rettilineo uniforme, ma anche il moto uniformemente accelerato: semplificazione estrema dei moti naturali. Dove finirà il foglio che cade? Difficilissimo da dire. Ha iniziato con la palla pesante in modo che si muovesse piano per misurare con precisione il moto. Quindi i fisici cercano modelli delle distribuzioni della probabilità per trovare soluzioni matematiche esatte e capirne il funzionamento“, afferma Pierluigi Contucci.

Nel modello ipersemplificato gli scienziati si sono chiesti se possono migliorare la performance della macchina. L’architettura di queste macchine viene genericamente scelta uniforme, “magari muovendo alcuni neuroni si migliora il funzionamento della macchina?” Per rispondere hanno usato una di quelle piccole soluzioni esatte. Hanno scoperto che alcuni legami sono più caldi e altri più freddi, cioè alcuni cambiano di più, altri di meno. Se si sposta qualche “neurone” dalle parti calde alle parti fredde e si calcolano le performance tramite parametri standard, si scopre che la robustezza aumenta, ottimizzando il sistema.

Infine, al termine della conferenza, il professor Pierluigi Contucci, ha spiegato che per far progredire un Paese in questo settore, sarebbe opportuno aumentare le ore STEM e, di conseguenza, il numero di studenti che si interessando di queste cose.

Condividi