Nel miscuglio di paura e di curiosità che da sempre accompagnano tutte le trasformazioni sociali, le cosiddette transizioni di fase rappresentano l’immagine plastica del “ci è sfuggito di mano”. Ovvero, quel tempo in cui la provetta del DNA ci cade sul pavimento, e fino a quel momento non ci eravamo mai posti il problema di come affrontare questa evenienza.
Il tema, con evidenti similitudini, si sta (ri)proponendo con i Large Language Models (LLM), considerato soprattutto come le loro performance procedano secondo le leggi di scala. Più le AI vengono ingozzate di dati e parametri, più diventano “intelligenti”.
Tuttavia, a un certo punto, all’aumentare della curva di complessità, non possiamo escludere l’insorgenza di proprietà emergenti che rendono il comportamento del sistema non più prevedibile, almeno basando la nostra valutazione esclusivamente sui pattern da cui si è originato.
Quindi, assistiamo a una sorta di discontinuità operativa fra il “piccolo” e il “grande”, ancorché costituiti dalle stesse unità elementari. In breve, non è possibile dedurre le caratteristiche e il comportamento di un sistema complesso prendendo in considerazione solo le proprietà dei suoi singoli componenti.
Il comportamento dei sistemi complessi
Mezzo secolo fa, il premio Nobel per la fisica Philip W. Anderson (More is Different, 1972), per spiegare l’emergenza nei sistemi complessi, aveva già teorizzato l’impossibilità di utilizzare le leggi fondamentali che governano i loro costituenti individuali. Ne deriva che il risultato osservato è sempre la conseguenza delle interazioni e delle proprietà collettive del sistema nel suo insieme.
Nonostante lo studio delle proprietà collettive trovi il suo terreno ideale nei vari campi della fisica della materia, spingendo la ricerca oltre l’approccio riduzionista, questo stesso impianto teorico ha aperto la strada a nuove prospettive anche in altri ambiti, fra i quali la biologia, l’economia, l’informatica.
Per esempio, un certo numero di automobili può percorrere un tratto autostradale in pochi minuti, ma se i veicoli si presentano contemporaneamente, il tempo necessario per smaltire il flusso aumenta sensibilmente. Allo stesso modo, storicamente nelle piccole popolazioni ogni individuo (singolarmente) ha sempre avuto bisogno di coltivare o cacciare per sopravvivere; al contrario, nelle comunità più grandi (complesse), c’è una produzione di cibo sufficiente perché queste popolazioni si sono specializzate in lavori non agricoli.
Ancora prima, Max Weber (L’etica protestante e lo spirito del capitalismo, 1904) aveva capito come l’apparizione di un nuovo sistema sociale fosse legata all’emergenza di un ordine di relazioni non lineari fra più unità che interagiscono fra loro. Intendendo con il termine “unità” la complessità dei pensieri, delle coscienze e delle azioni individuali che vanno a costituire la nuova formazione sociale.
Semplificando (ops!), la scienza della complessità si occupa del comportamento dei sistemi invece che dei loro singoli componenti. Si viene così a creare “un ambiente” in continua oscillazione fra l’ordine e il caos. E proprio sul confine di quest’ultimo si trova la complessità.
Affermare che i sistemi di intelligenza artificiale siano complessi, equivale a dire un’assoluta banalità. Forse, è proprio in questa evidenza che si cristallizza istantaneamente il punto di caduta del fascino e del terrore.
Ora, fino a quando non vediamo un cigno nero, tutti i cigni sono bianchi. Ma se la “variazione genetica” fosse già in atto e noi non la notiamo perché utilizziamo dei vecchi benchmark, inefficaci (o, quanto meno, inadatti) a misurare la trasformazione in atto nel modello?
Se nel caso del fallimento di Lehman Brothers è stato possibile razionalizzare a posteriori la sua “prevedibilità”, siamo sicuri che siano ancora sufficienti gli attuali strumenti, noti e ripetuti, per comprendere, fra qualche anno, le “anomalie” imprevedibili delle intelligenze artificiali?
L’impatto dell’improbabile, per dirla con le parole di Nassim Nicholas Taleb (Il cigno nero. Come l’improbabile governa la nostra vita, 2007), manda immediatamente a carte quarantotto le nostre conoscenze e previsioni basate su eventi passati o su dati storici, facendoci ignorare così la possibilità del manifestarsi di situazioni estreme e completamente nuove.
Siccome “il tutto è maggiore della somma delle parti”, inevitabilmente anche le AI presentano confini causali e sono influenzate dal contesto, dalla struttura, dalla funzione e dal ruolo.
Per questa ragione, dobbiamo aspettarci degli output imprevedibili o, in una qualche misura, addirittura controintuitivi. È evidente, allora, che la soluzione non può stare dentro la tecnica di pre-addestramento di ChatGPT & Co., ma dovrà trovare la sua motivazione nella filosofia, dove è più facile che la ricerca lasci il passo alla risposta.
Immagine di Steve Johnson