Un addestramento basato su contenuti affidabili e una pluralità di sistemi di intelligenza artificiale: sono questi, per il Nobel Giorgio Parisi, due requisiti fondamentali per evitare un futuro dominato da veri e propri monopoli del sapere. "L'ideale sarebbe non avere un singolo modello, ma tanti modelli che si confrontano l'uno con l'altro", ha detto Parisi nella sua conferenza su fisica e intelligenza artificiale organizzata dall'Accademia dei Lincei. Una garanzia, ha aggiunto, potrebbe essere un centro di ricerca pubblico europeo, sul modello del Cern che assicurasse la pluralità dei sistemi di IA e del loro addestramento.
Già oggi, ha osservato il fisico, "non siamo in grado di controllare quando un sistema di IA si sbaglia": si tratterebbe di "verificare i singoli passaggi nella catena di ragionamento". Non è nemmeno possibile controllare quali siano le fonti che utilizza. La situazione è molto diversa rispetto a quanto avviene nelle attuali ricerche online. "Se facciamo una ricerca su Google ci troviamo davanti a una quantità di siti diversi, fra i quali possiamo fare delle scelte", per esempio nel caso di una ricerca sui vaccini potremmo riconoscere i siti scientifici da quelli complottisti, "ma quando utilizziamo un sistema di intelligenza artificiale non abbiamo più un controllo sulle fonti. Se poi venisse utilizzato un solo modello si rischierebbe un monopolio", ha detto ancora.
Ripercorrendo la storia dell'IA, fra ricerche sul cervello, fisica e matematica, Parisi ha rilevato che, rispetto ai primi modelli degli anni '80 e '90, le attuali ricerche sulle reti neurali profonde hanno il grande problema di non essere sostenute da una teoria robusta: "la teoria è scarsa". I grandi modelli linguistici (Llm), ha proseguito, "hanno interessato il grande pubblico perché rispondono a delle domande". Ma bisogna considerare che sono stati addestrati con una grande quantità di testi, sono in pratica "un enorme riassunto di quanto c'è sulla rete". Ma non sappiamo con quali testi siano stati addestrati.
Inoltre i Llm "non hanno nessuna rappresentazione spaziale del mondo" e questo, ha osservato, "è il motivo per cui non sono in grado di guidare un auto autonoma". Il loro è in sostanza un mondo fatto di parole.
Per tutti questi motivi, ha osservato il Nobel, quello che serve "è una teoria diversa dell'IA", in grado di considerare che il cervello umano non funziona così: non impara i libri a memoria".
Il futuro è perciò "estremamente difficile da prevedere", ma è certo che sull'intelligenza artificiale "l'Europa non deve essere schiacciata fra Stati Uniti e Cina: è essenziale - ha aggiunto - che in Europa nasca un centro di ricerca pubblico che si occupi dell'addestramento dei sistemi di IA come ChatGpt o DeepSeeK". Il modello, secondo Parisi, dovrebbe essere il Cern, ossia un centro che abbia "contributi da parte degli Stati Ue e non Ue: potrebbe essere fondamentale per garantire la pluralità dei modelli".
Riproduzione riservata © Copyright ANSA