MIT Technology Review

Il grande baratto: cosa perdiamo e cosa guadagniamo se l'IA pensa per noi

Ogni tecnologia trasformativa costringe l'umanità a un compromesso cognitivo profondo

Published in Partnership with
MIT Technology Review
Language

Original language: Italian (Italiano)
You can use Chrome's AI translation feature to automatically translate this article into any other language.

Ogni tecnologia trasformativa costringe l'umanità a un compromesso che al momento non comprendiamo appieno. Barattiamo capacità note in cambio di possibilità ignote, spesso scoprendo solo decenni dopo cosa abbiamo veramente perso e guadagnato.

Oggi, mentre l'intelligenza artificiale rimodella il nostro modo di pensare e decidere, ci troviamo nel mezzo di quello che è forse il più profondo compromesso cognitivo della storia umana.

Proprio mentre scriviamo, oltre venti ricercatori hanno appena lasciato Meta, OpenAI e Google DeepMind per fondare Periodic Labs, rinunciando a decine o centinaia di milioni di dollari. La loro scommessa? Che l'intelligenza artificiale non debba semplicemente 'pensare per noi', ma imparare a fare scienza attraverso esperimenti fisici nel mondo reale, non solo analizzando testi. Come ha detto Liam Fedus, uno dei fondatori: "L'obiettivo principale dell'AI non è automatizzare il lavoro d'ufficio. L'obiettivo principale è accelerare la scienza."

Il Grande Baratto

L'ansia è familiare. I libri avrebbero distrutto la nostra memoria. Le mappe avrebbero distrutto il nostro senso dell'orientamento. Le auto e gli aerei ci avrebbero disconnesso dall'ambiente circostante. Internet ci avrebbe reso superficiali. Ogni previsione si è rivelata parzialmente vera e al tempo stesso irrilevante per l'incedere del progresso.

La Rivoluzione della Stampa

Quando la macchina da stampa di Johannes Gutenberg iniziò a produrre libri in serie nel XV secolo, cambiò radicalmente la cognizione umana. Prima della stampa, la memoria non era solo un deposito: era il meccanismo primario di apprendimento, ragionamento e autorità intellettuale. Gli studiosi erano biblioteche viventi, le loro menti vasti depositi di conoscenza interiorizzata a cui potevano accedere istantaneamente grazie a tecniche sofisticate che abilitavano riferimenti incrociati e potenti ricombinazioni.

I Palazzi della Memoria

Il primo dibattito sulla "memoria artificiale" si ebbe ai tempi dell'antica Roma, quando Cicerone difese una tecnica di archiviazione mentale a base topologica, detta 'I Palazzi della Memoria'. Il fatto di sostituire il 'naturale' assorbimento per ripetizione a favore di una 'tecnica' accelerata sollevò un polverone e venne inizialmente bandito come innaturale, artificiale, superficiale. Per Platone ed Aristotele la memoria era una funzione dell'anima, fondamentale per il pensiero e l'immaginazione.

La rivoluzione della stampa non ha quindi semplicemente fornito spazio di archiviazione esterno. Ha proseguito l'opera di riprogrammazione del nostro modo di pensare: la transizione da una conoscenza interiorizzata e incarnata, a una conoscenza esteriorizzata e referenziata. La memorizzazione profonda ha lasciato il posto alla conoscenza di dove trovare le informazioni. Il cambiamento si è radicalizzato, ed è diventato irreversibile. Non siamo davvero in grado di memorizzare come i nostri antenati.

Google Maps e la Navigazione

Google Maps offre un esempio più recente. Prima del GPS, la navigazione richiedeva una conoscenza approfondita della geografia, dei punti di riferimento e delle relazioni spaziali. I tassisti di Londra hanno trascorso anni a memorizzare "The Knowledge": ogni strada, scorciatoia e percorso della città. Il loro cervello è cambiato fisicamente, sviluppando ippocampi più grandi per accogliere questa competenza spaziale. Gli autisti di ride-sharing di oggi seguono invece un puntino blu su uno schermo. Possono raggiungere qualsiasi destinazione senza comprendere il territorio che attraversano.

In ogni caso, abbiamo barattato la profondità con l'accessibilità. I libri hanno democratizzato la conoscenza, ma hanno diminuito la memoria. Le mappe hanno democratizzato la navigazione, ma hanno atrofizzato la nostra intelligenza spaziale. Gli aerei hanno reso accessibili luoghi lontani, isolandoci dal viaggio stesso.

AI: Il Compromesso Più Profondo di Sempre?

L'intelligenza artificiale rappresenta un tipo di baratto qualitativamente non troppo diverso. Si dice che sia la prima ad aver esternalizzato i nostri processi cognitivi fondamentali. Si dice che non stia cambiando solo il modo in cui accediamo alle informazioni, ma anche il modo in cui le elaboriamo. Vero, ma non è la prima volta nella storia. La memoria è stata ed è tuttora una capacità cognitiva fondamentale, così come la percezione spaziale. Siamo sopravvissuti, anzi, siamo evoluti come sistema, società, collettività. L'esternalizzazione apparentemente funziona.

Un Esempio Concreto

Un'app che in pochi minuti sviluppa e valida un modello di business, in grado di analizzarne il potenziale di mercato, identificarne segmenti di clientela e valutarne quasi istantaneamente il panorama competitivo – un lavoro che tradizionalmente richiedeva mesi di ricerca e analisi. Gli utenti ottengono insight strategici sofisticati senza sviluppare un pensiero strategico sofisticato. Accedono al risultato di ragionamenti esperti, e flussi di lavoro esperti, senza sviluppare l'expertise che li ha generati.

Il Paradosso dell'Expertise

Ecco il paradosso: più l'AI diventa capace, più rischiamo di perdere le capacità che ci hanno reso capaci di costruirla. È un ciclo potenzialmente vizioso: l'AI che sostituisce il pensiero umano potrebbe, nel lungo termine, ridurre la capacità umana di pensare, rendendo l'AI ancora più necessaria e quindi ancora più potente, in un ciclo che si autoalimenta.

Il Ciclo Vizioso

Più l'AI diventa capace, più rischiamo di perdere le capacità che ci hanno reso capaci di costruirla. L'AI che sostituisce il pensiero umano potrebbe, nel lungo termine, ridurre la capacità umana di pensare, rendendo l'AI ancora più necessaria e quindi ancora più potente.

Una Via d'Uscita: L'AI che Accelera la Scienza

L'esperimento di Periodic Labs, con i suoi 300 milioni di dollari di finanziamento iniziale e i suoi robot che condurranno esperimenti su scala massiva, rappresenta un tentativo di sistema ibrido. Non sostituire il pensiero scientifico, ma accelerarlo attraverso iterazione fisica guidata dall'AI. Come dice Oren Etzioni dell'Allen Institute for AI: "Risolverà il cancro in due anni? No. Ma è una scommessa visionaria e valida? Sì."

È un ritorno, in un certo senso, a quando Bell Labs e IBM Research vedevano le scienze fisiche come parte vitale della loro missione. E suggerisce una via d'uscita dal paradosso: l'AI che non si limita a ricombinare conoscenze esistenti estrapolate da testi, ma che genera intuizioni realmente nuove attraverso l'interazione con il mondo fisico.

Nuove Architetture: RLPT e RLMT

Mentre i chatbot attuali si limitano a ricombinare conoscenze esistenti, nuove architetture stanno emergendo dai laboratori di ricerca. Tecniche come il Reinforcement Learning on Pre-Training Data (RLPT) trasformano il corpus testuale in un ambiente interattivo dove il modello non si limita a prevedere il prossimo token, ma esplora traiettorie di ragionamento. La differenza è sostanziale: non più un pappagallo statistico, ma un sistema che impara a ragionare attraverso l'esplorazione.

Approcci come RLMT (Reinforcement Learning for Mathematical Thinking) obbligano i modelli a 'pensare prima di parlare' – ogni risposta deve essere preceduta da una catena di ragionamento valutata da un sistema di ricompense. Con appena 7.000 esempi, questi modelli raggiungono prestazioni superiori a sistemi molto più grandi. È l'ottimizzazione intelligente contro la bulimia di dati.

Soft Tokens Continui e Ragionamento Invisibile

Ancora più radicale è l'uso di soft tokens continui: invece di catene di pensiero espresse in linguaggio naturale che possiamo leggere, il modello ragiona attraverso rappresentazioni matematiche continue, esplorando più soluzioni in parallelo. È come se un avvocato potesse preparare simultaneamente dieci arringhe e sceglierne la migliore. Il paradosso: per la prima volta un LLM pensa in un linguaggio che non possiamo leggere, ma che potrebbe essere più efficace del nostro.

Il Modello Storico: Autocorrezione e Adattamento

Il modello storico rassicurante è che i sistemi umani tendono ad autocorreggersi attraverso l'accumulo di decisioni intelligenti prese da persone che cercano di risolvere i problemi che si trovano ad affrontare, sfruttando tecnologie sempre nuove. Sempre più spesso, si tratterà di persone assistite dall'IA che prenderanno decisioni assistite dall'IA su come gestire le sfide create dall'IA stessa.

Non abbiamo sviluppato una memoria sovrumana in alternativa ai libri: abbiamo accettato il compromesso e siamo arrivati al punto di svilupparla (la Knowledge Base dei modelli linguistici) incorporando (potenzialmente) tutti i libri. Non svilupperemo un ragionamento sovrumano come contrappunto all'intelligenza artificiale. Probabilmente troveremo nuovi modi per preservare le capacità cognitive di cui abbiamo bisogno, abbracciando al contempo la democratizzazione del pensiero offerta dall'intelligenza artificiale.

Conclusioni: Plasmare Attivamente la Nostra Evoluzione Cognitiva

La transizione che stiamo vivendo rispecchia ogni precedente rivoluzione tecnologica: ansia per ciò che stiamo perdendo, seguita da un graduale adattamento, seguito dall'emergere di nuovi problemi che stimolano ulteriori capacità e innovazione. I compromessi specifici cambiano, ma il modello rimane costante.

Il grande compromesso cognitivo del nostro tempo non è qualcosa che ci accade, ma qualcosa che possiamo plasmare attivamente. Questa potrebbe essere la capacità più umana di tutte: la capacità di orientare consapevolmente la nostra evoluzione cognitiva, utilizzando gli stessi strumenti che stanno trasformando il nostro modo di pensare per pensare meglio a come vogliamo pensare.

Approfondisci

Questo articolo è basato sul contenuto pubblicato su MIT Technology Review Italia. Per l'articolo completo con tutte le citazioni e i riferimenti, visita il sito originale.

Nota: Questo articolo è basato sul contenuto pubblicato in collaborazione con MIT Technology Review Italia. Per il testo completo con tutte le citazioni, i riferimenti e i dettagli tecnici, visita il sito di MIT Technology Review Italia.