Ne è passata di acqua sotto i ponti da quando i simulacri dell’intelligenza artificiale hanno fatto le loro prime apparizioni nei film di fantascienza. A tutti gli effetti, oggi abbiamo a che fare con una tecnologia intelligente mainstream che ha pervaso qualsiasi ambito della vita quotidiana, dalle auto a guida autonoma ai robot chirurgici, passando, ovviamente, dai vari chatbot che da qualche mese hanno colonizzato la rete.
Come spesso è successo nel corso dei secoli, appena appare qualcosa di tecnologicamente “nuovo” la prima azione istintiva è quella di “fermare la macchina del vapore”, nell’attesa che il tempo possa far accadere qualcosa. Cioè, riusciamo a capire (quasi) subito qual è il problema, ma non abbiamo la benché minima idea di quale potrebbe essere la soluzione.
Dai telai invisi a Ned Ludd agli smartphone in classe (una volta il problema era l’uso della calcolatrice), il blocco è sempre servito solo per dare l’illusione di poter fermare il vento con le mani. Certo, nessuna innovazione può avvenire pregiudicando i diritti delle persone (privacy in testa), ma nel fare questo è necessario uscire dal cortocircuito per cui è sempre preferibile vietare piuttosto che educare.
Fermate il mondo, voglio scendere (ma davvero?)
La recente decisione del Garante per la protezione dei dati personali di precludere in Italia l’uso di ChatGPT, pur convenendo pienamente sull’urgenza di risolvere alcune pericolose criticità del sistema, non ha fatto altro che imboccare, ancora una volta, la strada emotivamente più semplice: bloccare. Anche perché il dibattito in corso ha già trovato il suo immediato punto di caduta sulla distinzione acritica fra il bene e il male in senso lato.
Tutta questa vicenda sarebbe potuta diventare l’occasione per mettere in guardia circa la “leggerezza” con cui facciamo una registrazione online (chi legge le policy alzi la mano!) e sulla necessità di classificare i dati alla stregua di un bene comune.
Invece, cosa si è ottenuto? Mia nonna avrebbe risposto: “Un pugno di mosche”. Questo perché ChatGPT continuerà a essere utilizzato nel Bel Paese grazie agli accessi via VPN (almeno fino a quando non si riterranno clandestine anche queste modalità), che è un po’ far finta di non vedere, come ai tempi del proibizionismo americano, che dentro il sacchetto del pane è celata la bottiglia di whiskey. Ma c’è un altro aspetto che spero sia stato solo sottovalutato e non ignorato del tutto.
Nel mondo connesso – lo sanno anche i sassi – la competizione è diventata globale e la sfida si gioca sempre più sull’immaterialità del sapere. Ora, mettere l’Italia fuori dai giochi, anche per poche settimane, significa indebolire ulteriormente il nostro sistema scolastico (compreso quello della ricerca) e produttivo che, notoriamente, non godono di una salute di ferro. Mentre in tutto il mondo, solo per fare un esempio, si continuerà a sviluppare codice in tempi record con i vari Large Language Models (LLM), noi ci limiteremo a fare la faccia della mucca che vede passare il treno.
Allo stato delle cose, è difficile allora non cogliere un velo di ipocrisia. Se le infrazioni che hanno portato al blocco di ChatGPT sono del tutto plausibili, e anch’io – lo ripeto – ritengo che lo siano, viene da chiedersi se, per coerenza, a casa di Google, Microsoft o Meta non ci sia nulla da eccepire. Siamo sicuri che quelle parti, per dirne una, viga un rigidissimo filtro di verifica dell’età minima per l’accesso?
Oppure, per toccare un tasto noto a tutti, dopo il fallimento del Registro pubblico delle opposizioni, quanto tempo dovrà trascorrere prima che qualcuno si accorga dell’intossicazione da telemarketing, ormai mortale, di cui sono vittime, più o meno consenzienti, le rete telefoniche?
In un contesto dove tutto, o gran parte del tutto, è dominato dalle informazioni, appare quanto meno miope prendersela unicamente con le intelligenze artificiali generative. Anziché disquisire unicamente sul cosa, che indubbiamente è l’aspetto più facile da vedere, sarebbe tempo di “curiosare” anche sul come, ovvero sulla parte sommersa dell’iceberg dell’infosfera: da una parte i big (padroni?) di internet e, dall’altra, ancora una volta, i fondamentali educativi di chi utilizza quelle tecnologie.
Quali regole?
In conclusione, credo sia chiara a tutti la necessità di definire un quadro normativo a tutela dei diritti delle persone. Ma, nello stesso tempo, è di capitale importanza capire su quali presupposti debba essere improntato.
Purtroppo, al momento e salvo ravvedimenti, l’azione del Garante per la protezione dei dati personali sta andando nella direzione sbagliata. Considerare le piattaforme di intelligenza artificiale alla stregua di un prodotto al quale vanno applicati esclusivamente dei criteri di sicurezza (sebbene necessari), quasi fosse un asciugacapelli, significa non aver colto appieno la portata della rivoluzione in atto.
Le AI sono sostanzialmente dei servizi in grado di fare delle cose o, più banalmente, di “assemblare” statisticamente (e rapidamente) delle risposte. La qualità di queste ultime dipende, ovviamente, dalla precisione con cui vengono posti i quesiti (dice qualcosa la professione emergente del prompt designer?).
Ecco perché sarebbe stato molto più costruttivo non gridare “a reti mondiali unificate” all’invasione di mostri disumani (questo è il messaggio che è passato) e impegnarsi molto di più a insegnare come l’intelligenza umana, liberata dal nozionismo scolastico, possa sfruttare quella artificiale per sviluppare ancora di più l’essenza che le è propria: comprendere lo scopo delle domande analogiche che pone e capire perché la risposta digitale è 42.
Foto di Rolf van Root