#Calcolare l’ #infinito atto di sfida agli dei.

Paolo Zellini, la Repubblica, 9 aprile 2017

C’è chi prevede un futuro di calcolatori quantistici, sempre più potenti e veloci, in grado di elaborare una mole illimitata di dati. Sarebbe la risposta alla domanda posta da Cantor nel XIX secolo: “Quanto può essere grande l’infinito?”

Fu la stessa collera divina, narrano le Scritture ( 2 Samuele, 24), a insorgere contro Israele, ordinando al re Davide di fare un censimento. E l’evento riappare puntualmente in 1 Cronache, 21, dove è Satana in persona a ordinare il censimento. Tragiche furono le conseguenze: a Davide fu concesso di scegliere fra tre possibili punizioni ed egli optò per una peste, che fece morire settantamila uomini. Cominciò da allora un lungo processo di espiazione che culminò nell’opera più grandiosa: l’edificazione del tempio per opera di Salomone. Seguirono nuovi conteggi e censimenti, non più dettati, però, dall’ira divina.

Una superstizione che la scienza moderna ci permette di ignorare? Eppure Norbert Wiener, uno dei padri della cibernetica nel Novecento, denunciava “l’insolenza contro gli dèi” che segna di solito le grandi conquiste scientifiche, e paragonava le anime degli uomini che scoprono l’energia atomica e il calcolo su grande scala all’anima di Giobbe che Dio e Satana non smettono di contendersi.

Che ne sarebbe oggi della nostra vita se l’operazione di censire fosse solo il punto d’innesco di un controllo sociale sistematico e invasivo, che si avvale di metodi invisibili ai più, e ben più complessi di una semplice enumerazione? È di poco tempo fa ( The Economist, 4 marzo 2017) la notizia che potenti computer saprebbero riconoscere migliaia di veicoli in circolazione per le strade americane, correlandoli poi, a seconda dei diversi distretti osservati, a determinati gruppi etnici, livelli di stipendio, classi sociali e orientamento politico. Se in un distretto si vedono circolare più auto berline che camioncini scoperti, si prevede che in quella zona il voto prevalente sarà per i democratici.

Non sono solo le telecamere a controllarci, come aveva immaginato George Orwell in 1984. Nel romanzo di Orwell il controllo era affidato a congegni, sensori e telecamere, che erano meri prolungamenti della nostra vista e del nostro udito. Ma oggi quei prolungamenti si sono raffinati: i congegni che ci controllano funzionano con calcoli di dimensioni inaudite e con le tecniche più avanzate della matematica e dell’informatica. Gli algoritmi per il riconoscimento dei veicoli, come di infinite altre immagini, sono basati su processi di apprendimento automatico: una rete neurale è addestrata a riconoscere determinate figure, dando risposte che sono confrontate ogni volta con quelle esatte. Si perfeziona per gradi la rete – questo è l’apprendimento – riducendo progressivamente l’errore, cioè lo scarto tra la sua risposta sbagliata e quella esatta: il problema matematico consiste nel calcolare il minimo di una funzione che quantifica quell’errore. Simili interrogativi sono posti oggi dall’informatica e dalla matematica applicata, e riguardano la dimensione dei calcoli, i “big data” e l’efficienza degli algoritmi. Non mancano gli esempi. Possono i calcoli necessari a prevedere l’arrivo di una tempesta gareggiare con la velocità delle nuvole nel cielo, tanto da sapere in tempo cosa ci accadrà prima del loro arrivo? La questione è oggi affrontabile, ma al suo primo apparire non lasciava molte speranze di soluzione. Altri quesiti, non così dipendenti dal volume dei dati, sono a tutt’oggi irri- solti. Stabilire in quale modo un commesso viaggiatore, tra andata e ritorno, riesca a visitare tutte le città del suo territorio minimizzando il costo del viaggio, è diventato il prototipo di una serie di problemi di semplice formulazione, ma caratterizzati da un’esplosione combinatoria che ne rende la soluzione realmente impossibile. Esistono oggi centinaia di problemi analoghi per cui non si conosce un algoritmo di risoluzione che non abbia un costo almeno esponenziale.

Possiamo confrontare queste questioni con la nostra capacità di prolungare all’infinito l’atto di contare. Georg Cantor, uno dei massimi geni matematici del Diciannovesimo secolo, dimostrò che gli insiemi infiniti sono tanti, articolati in una gerarchia illimitata in cui ogni insieme è più grande di quello che lo precede. Da allora l’atto di contare poté estendersi e riorganizzarsi in una profusione inaudita di numeri e di insiemi. Cantor aveva così cercato di rispondere alla domanda: quanto grande può essere l’infinito?

Nel 1925 David Hilbert dichiarava che «nessuno potrà cacciarci dal paradiso che Cantor ha creato per noi». Ma in quegli anni, dopo l’euforia delle recenti conquiste scientifiche, il clima era già cambiato. Hilbert dovette ammettere, contro i suoi stessi auspici, che l’infinito è un’illusione e che nella realtà non si trova da nessuna parte. Per dare un fondamento sicuro alle teorie di Cantor, i metodi deduttivi basati sull’infinito andavano sostituiti con procedimenti finiti che dessero gli stessi risultati, cioè che rendessero possibili le stesse dimostrazioni e gli stessi metodi per ottenere formule e teoremi. Questo programma, è ben noto, non andò a buon fine, e lasciò aperte diverse questioni, tra cui la seguente: che cosa si intende per “procedimenti finiti”? Una risposta plausibile venne dalle teorie del calcolo ricorsivo: i procedimenti finiti sono, semplicemente, gli algoritmi. Fu così che una scienza degli algoritmi, di cui affiorarono pian piano, dai primi anni del Novecento, tutte le formidabili implicazioni, finì per ereditare alcune delle principali questioni poste dalle teorie matematiche dell’infinito. Divenne allora ineludibile la domanda: quanto grande può essere un insieme finito? E se il finito cresce a dismisura, pur restando finito, come riusciamo a dominarlo con i nostri algoritmi?

Erano soprattutto i problemi applicativi a porre questi interrogativi. Le equazioni della fisica matematica dovevano risolversi in calcoli puramente aritmetici, e dunque in quei procedimenti finiti di carattere ricorsivo che sembravano indubitabili, allo stesso modo di quelle proposizioni dell’aritmetica, come due più tre uguale a cinque, che Descartes, nella Terza meditazione, aveva classificato tra le verità certe. Ma la dimensione dei calcoli cresceva ora a dismisura, tanto da non poterli eseguire nemmeno con il più potente calcolatore.

Qui si creò allora un’importante saldatura tra le applicazioni reali della matematica e la sua vocazione astratta e teoretica, un passaggio decisivo nella storia della scienza del Ventesimo secolo. Le grandi questioni sulla decidibilità e calcolabilità teorica, assieme alle tecniche che erano servite ad affrontarle, cominciarono a riguardare anche il calcolo concreto e la misura dell’efficienza degli algoritmi, senza perdere il loro significato di interrogativi fondamentali su ciò che la matematica è o non è in grado di risolvere.

I sistemi di equazioni lineari con cui si approssimano i modelli per risolvere problemi di fluidodinamica, di filtraggio di segnali, di previsione di sviluppo di fenomeni sociali o economici, erano di dimensioni enormi, e solo grazie ai fondamentali contributi sul calcolo matriciale di Goldstine e Von Neumann, nel 1947, e di Turing, nel 1948, si cominciò a capire come misurare l’errore accumulato in una mole mostruosa di calcoli. La dimensione delle matrici era uno dei nodi da affrontare, e oggi sono anche i miliardi di righe e di colonne delle matrici che intervengono nella valutazione dell’importanza delle pagine web a farci capire l’enormità del calcolo su grande scala. Dunque: quanto grande può essere il finito?

Si comincia a congetturare che il calcolo automatico potrà essere un giorno affrontato da calcolatori quantistici, molto più veloci di quelli attuali. David Deutsch, in un articolo pionieristico del 1985 sugli algoritmi quantistici, afferma che, almeno da un punto di vista logico, non c’è una ragione perché la costruzione di macchine sempre più potenti non possa “procedere ad infinitum”, e perché debba esistere una funzione non calcolabile da alcuna macchina fisica.

Non sembra allora di riudire, in questa sorta di hybris, di tempesta innovativa, l’eco delle grandi speranze che avevano segnato un secolo prima le teorie dell’infinito matematico? Se non guardassimo a tutte le complesse motivazioni che ne hanno promosso lo sviluppo, non riusciremmo a capire la nostra fiducia, a tratti irresponsabile, negli algoritmi. Né riusciremmo a cogliere le ragioni profonde che sembrano consegnarci, inermi e impreparati, a quella fiumana di tecnologie digitali che sarebbero perfino in grado di alterare, se badiamo alle inquietanti analisi di Jaron Lanier, la nostra mente e la nostra identità.

Lascia un commento