"Matematicandoinsieme" di Maria Cristina Sbarbati

7 novembre 2011

Vedi alla voce: errore (parte II)

Filed under: L'Angolo della Matematica,Letture — matematicandoinsieme @ 19:34

In una puntata precedente, abbiamo detto che la matematica è una delle poche esperienze umane dove la nozione di errore possa essere veramente apprezzata senza entrare in eccessive complicazioni filosofiche (anche se come al solito non è che non ce ne siano. Come tutte le cose con una lunga storia, concetti nucleari come Verità, Giustizia, Errore sono sempre difficili da definire). L’errore, visto come deviazione dal ragionamento logicamente corretto, è parte integrante della vita del matematico. In un certo senso è l’unico vincolo alla sua fantasia: tutto quello che puoi dimostrare logicamente e senza errori è vero. I primi a rendere operativa questa pratica furono i greci che, a partire dal quarto secolo A.C., inaugurarono il concetto di dimostrazione matematica che sarebbe poi culminato negli Elementi di Euclide, il modello di ogni successivo libro di matematica. Non che tutto fosse poi così rigoroso. Per esempio, il Primo Teorema degli elementi stabilisce che: “Sopra una retta data possiamo costruire un triangolo equilatero.”

Ilustrazione dal Primo Libro degli elementi di Euclide, tratto dall’edizione di Nicolò Tartaglia, 1565. (Fonte Wikimedia Commons)

La dimostrazione è molto semplice: metti un compasso in a e tracci un cerchio di raggio ab. Ti metti in b e fai la stessa cosa. Prendi uno dei due punti dove si intersecano i due cerchi (e chiamiamolo d, come fece Nicolò Tartaglia) e uniamo sia a che b con un segmento al punto d. Questi due nuovi segmenti uniscono il centro dei cerchi alla loro circonferenza, per cui saranno entrambi uguali al raggio che, ricordiamo, era lungo ab. Per cui otteniamo un triangolo equilatero. Nonostante abbia reso in modo discorsivo la dimostrazione originale di Euclide, sembra che, date le definizioni, i postulati e gli assiomi, la costruzione del triangolo debba discendere in modo necessario. E questo pareva a Euclide. Solo che, ricordando che è solo il primo teorema, sembra si sia dimenticato di dimostrare che i due cerchi hanno veramente un’intersezione (va bene, si vede a occhio, ma, ahimé, non è un argomento). Certo, si può rimediare, non è un vero errore, ma questo non poteva essere in nessun modo il primo teorema, ed questo è per dire che l’idea di “rigore” in una dimostrazione era ancora di là da venire. Certo, Aristotele aveva codificato la logica delle proposizioni e c’era tutta la teoria dei sillogismi, ma non si parlava ancora di un procedimento completamente astratto, dell’idea di poter calcolare “automaticamente” una proposizione partendo da una serie ben precisa di principi primi, e questo anche a causa di una serie di ambiguità del linguaggio ordinario. Tutto va bene se dico: a) Tutti gli uomini sono mortali; b) Socrate è un uomo; da cui segue che c) Socrate è mortale. Ma perché allora non ha va bene: a) Gli apostoli sono dodici; b) Pietro è un apostolo; allora c) Pietro è dodici? Cosa non ha funzionato nel nostro ragionamento? [Risposta: non ha funzionato l’ambiguità dell’attributo numerale, che in realtà sta per “un insieme formato da dodici persone”, che quindi darebbe come risultato: c) Pietro appartiene a un insieme formato da dodici persone, che è un’affermazione vera].

La logica e l’idea stessa di dimostrazione matematica avrebbero fatto passi da gigante nel corso dei secoli, passando per la Scolastica medievale, Bacone, Cartesio, Leibniz. Tuttavia è solo verso la fine dell’800, con Boole e De Morgan, che vengono gettate le basi della moderna logica matematica. Prima di raccontare come queste idee avrebbero influenzato il modo di ragionare dei matematici, c’è da segnalare che, a partire dal ‘500, abbiamo un rinascita in Europa degli studi matematici. Dopo che la scuola italiana aveva importato la nuova scienza araba dell’algebra, nasce una generazione di persone, Cartesio, Pascal, Fermat, Newton, Leibniz, che in pochi decenni muta completamente il panorama matematico. Nascono la geometria analitica ed il calcolo differenziale e integrale, e con loro entrano in campo tantissime idee inizialmente poco rigorose, a partire dalle nozioni stesse di infiniti e infinitesimi. Uno degli esempi più spettacolari di questo modo di pensare è il trattamento della cosiddetta “Serie di Grandi”, dal nome del matematico italiano Guido Grandi che nel 1703 per primo (forse…) cercò di capire quanto valesse la “somma infinita”:

1-1+1-1+1-1+1-1….

Grandi osservò che a seconda di come venivano raggruppati i termini, il risultato cambiava. Se isoliamo infatti il primo 1 e cancelliamo a due a due gli altri otteniamo:

1+(-1+1)+(-1+1)+(-1+1)+(-1+1)+….=1

Se invece partiamo subito cancellandoli a due a due abbiamo:

(1-1)+(1-1)+(1-1)+(1-1)+(1-1)+…=0

Grandi era un prete e cercò di giustificare quanto aveva trovato con argomenti religiosi: “Mettendo in modo diverso le parentesi nell’espressione 1-1+1-1+… io posso, volendo, ottenere 0 o 1. Ma allora l’idea della creazione ex nihilo è perfettamente plausibile.” Chiaramente, e lo dico una volta per tutte, la “Serie di Grandi” non converge, ossia non esiste nessun valore a cui tenda il limite delle somme parziali, che infatti oscillano continuamente tra 0 e 1. E questo, in termini moderni chiuderebbe la faccenda. La cosa strana è che intere generazioni di grandi matematici si sono accaniti per oltre un secolo intorno a questo problema, con argomenti che oggi non riterremmo in nessun modo validi. In realtà, Grandi stesso, Leibniz, Eulero e Fourier, insomma un po’ tutti, pensavano che il valore della somma infinita fosse ½. L’argomento principale di Grandi e di Leibniz (la storia, a colpi di scambi epistolari, è in realtà un po’ più complessa, vedi per esempio il bell’articolo di Giorgio Bagni, un collega tragicamente scomparso due anni fa) era che per ogni x tale che |x|<1, vale l’uguaglianza (al limite):

1-x+x2-x3+x4-x5+….=1/(1+x)

Se in questa uguaglianza facciamo tendere x → 1 otteniamo:

1-1+1-1+1-1+1-1….=1/(1+1)=½

Ovviamente questa NON è una dimostrazione, e può sorprendere, con il senno di poi, che dei grandi matematici potessero dargli credito. Certo, Leibniz aveva di questo limite un’idea probabilistica, al punto di scrivere che, arrestando la somma in un punto qualsiasi si aveva la stessa probabilità di ottenere 0 o 1, da cui si poteva dedurre che il “Valor Medio” della somma era ½. Evidentemente questo tipo di problema richiedeva una maggiore attenzione al problema di cosa fosse una dimostrazione, ma dal punto di vista psicologico questa confusione non aveva nulla di sorprendente. Lo stesso Bagni ha compiuto un esperimento psicologico-didattico interessante, descritto nello stesso articolo citato poco prima, in cui ha chiesto a 88 ragazzi di Liceo di esprimersi sul valore di questa somma infinita. Ebbene, il 29% ha risposto che la somma valeva 0, il 4% che valeva 1, per il 20% poteva valere sia 0 che 1, e ben il 34% non ha risposto. Solo il 5% ha dato la risposta esatta (che era impossibile dare un valore). Come dire che non sempre l’errore salta subito all’occhio.
Insomma, a quell’epoca regnava una notevole confusione sui criteri di verifica di una dimostrazione, e solo nell’800, a partire dalle opere di Cauchy, sarebbe cominciata una fase di sistemazione rigorosa dell’analisi.
In modo abbastanza curioso, fu però proprio Cauchy a commettere uno degli errori più famosi della storia della matematica. Augustin Louis Cauchy era uno dei matematici più famosi del suo tempo e nel 1821 pubblicò una dimostrazione del fatto che se una successione di funzioni continue converge in ogni punto ad una funzione, allora questa funzione limite è continua. Questa dimostrazione era sbagliata in modo irreparabile, perché l’enunciato stesso era falso. Solo alcuni anni più tardi, dopo che altri matematici avevano fornito dei “contro-esempi” (ossia degli esempi in cui si fa vedere che il teorema non vale, il modo migliore di trovare un errore, in definitiva), si capì che la convergenza puntuale doveva essere rimpiazzata dalla cosiddetta “convergenza uniforme”.
Ma allora, è proprio impossibile non commettere errori? In fondo, se anche Cauchy si sbagliava, come è possibile essere sicuri che un teorema pubblicato sia giusto? E non dimentichiamo che nella matematica di oggi alcuni lavori sono di una complessità incredibile. Per esempio, qualche anno fa F. Almgren ha dimostrato un risultato importante di teoria geometrica della misura in un lavoro pubblicato nel 2000 che contava circa 1000 pagine (e che ironicamente si intitola: “Almgren’s big regularity paper”). Come si può essere sicuri che questo lavoro sia giusto? 2- continua

di Roberto Natalini

Annunci

Lascia un commento »

Non c'è ancora nessun commento.

RSS feed for comments on this post. TrackBack URI

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...

Blog su WordPress.com.

%d blogger hanno fatto clic su Mi Piace per questo: