John von Neumann: una biografia 

Prima parte, di Ruggero Bergaglio:

Giovinezza e formazione nei primi del ’900 in Ungheria e Germania


Indice generale della biografia


 

1.7 La fisica quantistica e la crisi del determinismo
 

All’inizio del Novecento si verificò uno straordinario sviluppo di ricerche nel campo della fisica, che condusse a un radicale cambiamento delle convinzioni fondamentali dei fisici e a una profonda crisi della fisica matematica classica. Si parla di solito di tre «rivoluzioni» avvenute nella fisica nei primi decenni del secolo: l’emergere della teoria della relatività ristretta e poi generale, la sostituzione su scala macroscopica della teoria newtoniana con queste ultime e l’emergere delle teorie quantistiche, che proponevano una spiegazione dei fenomeni della fisica atomica. Questi sviluppi segnarono gli inizi della cosiddetta «fisica teorica» e portarono a una svolta negli strumenti di analisi matematica del mondo fisico.


Molti studiosi si cimentarono nell’impresa di conseguire una trattazione matematica adeguata delle nuove teorie fisiche. Nel caso della relatività einsteiniana, era disponibile una branca matematica già sviluppata nell’ambito della geometria differenziale: il calcolo differenziale assoluto. Le maggiori difficoltà si presentarono nella trattazione matematica della meccanica quantistica; questo fu uno dei principali temi di ricerca nell’ambiente di Göttingen.


Il problema teorico che si poneva era di fornire una spiegazione dei dati sperimentali disponibili circa la struttura e la dinamica degli atomi. Nel primo ventennio del secolo si era accumulata una gran massa di dati sperimentali - in parte derivanti dagli studi sulla radiazione - che apparivano in contraddizione con le leggi newtoniane del moto o con le formulazioni matematiche equivalenti, come quella «variazionale» data da William R. Hamilton. Se, ad esempio, l’atomo era formato da un nucleo pesante e da un gruppo di elettroni attorno a esso, secondo il modello di Ernest Rutherford, perché l’elettrone non perdeva energia e non cadeva sul nucleo, come sembravano prevedere le leggi del moto? In altre parole, il modello risultava in disaccordo con la teoria elettrodinamica classica secondo la quale ogni variazione di velocità e direzione del moto di una carica elettrica (l’elettrone) è accompagnata dall’emissione di onde elettromagnetiche. Gli elettroni, dunque, dovrebbero continuamente irradiare energia elettromagnetica con una frequenza pari a quella del loro moto di rivoluzione attorno al nucleo. La conseguente perdita di energia cinetica e potenziale porterebbe l’elettrone ad avvicinarsi sempre di più al nucleo secondo una traiettoria a spirale sino a precipitare sul nucleo stesso.


Fra il 1925 e il 1926, furono presentati quasi contemporaneamente due schemi esplicativi. Uno di essi fu formulato a Göttingen da Werner Heisenberg, Max Born e Pascual Jordan. In modo puramente algebrico, generalizzando le variabili di base che la formulazione hamiltoniana della meccanica classica associa a una particella, la posizione e il momento di un elettrone venivano rappresentati da matrici infinite, ovvero da oggetti matematici aventi la proprietà secondo cui il loro prodotto non è commutativo e per questa via si ottenevano generalizzazioni appropriate delle equazioni di Hamilton.


Lo schema esplicativo fornito da Ernst Schrödinger, invece, rispondeva soprattutto a considerazioni fisiche e si basava sulla constatazione di una «natura» duale delle particelle subatomiche, viste al contempo come onde e corpuscoli: in effetti, i dispositivi sperimentali mettevano in evidenza talora un comportamento ondulatorio, talora un comportamento corpuscolare delle particelle. Niels Bohr, direttore dell’Istituto di fisica di Copenaghen, aveva inquadrato tale fenomeno in un «principio di complementarità», che egli considerava estensibile a tutti i campi della realtà, inclusa la biologia e la psicologia, e che indicava i limiti stessi delle conoscenze. Secondo questo principio, le particelle elementari presentano due aspetti complementari, ognuno dei quali spiega soltanto una parte dei processi subatomici. Una manifestazione di questo aspetto era l’esistenza di variabili complementari, come la posizione e il momento di una particella, che non possono essere determinate contemporaneamente (il cosiddetto «principio di indeterminazione» di Heisenberg). Nella «meccanica ondulatoria» di Schrödinger, a ogni elettrone veniva associata un’equazione differenziale (o «equazione d’onda»), la cui risoluzione, nel caso dell’atomo di idrogeno, permetteva di ottenere le lunghezze d’onda rilevabili sperimentalmente. Schrödinger aveva dimostrato inoltre che, a partire dalla sua equazione, era possibile ottenere la matrice di Heisenberg, indicando così la sostanziale equivalenza delle due descrizioni. Tuttavia, sussisteva una divergenza fondamentale fra il punto di vista di Heisenberg e Bohr (quest’ultimo proponeva un’interpretazione statistica della meccanica quantistica) e quello di Schrödinger, sostenuto da Einstein, che difendeva la necessità di ristabilire una descrizione deterministica della realtà.


Un problema importante era la determinazione di una formulazione matematica adeguata sia alla meccanica ondulatoria, sia alla meccanica matriciale e una teoria astratta, che era stata sviluppata senza connessione con queste problematiche fisiche - la teoria degli spazi funzionali di Hilbert - si mostrò la più adeguata allo scopo.


Nell’ambito della meccanica quantistica, Heisenberg aveva già descritto alcune grandezze del sistema fisico mediante matrici infinite. L’idea chiave dell’applicazione degli spazi di Hilbert fu di rappresentare lo stato di un atomo mediante un vettore di uno spazio di Hilbert - assegnato da un numero infinito di coordinate, ognuna delle quali è un numero complesso - mentre le grandezze fisiche osservabili, come la posizione, il momento o l’energia, erano descritte mediante operatori lineari di tipo particolare (hermitiani o autoaggiunti). Nel caso dell’operatore rappresentativo dell’energia, gli autovalori dell’operatore indicavano i livelli energetici di un elettrone e gli autovettori corrispondenti mostravano i rispettivi stati quantici stazionari del sistema. La constatazione fisica fondamentale in meccanica quantistica, secondo cui una misura perturba il sistema e i risultati delle misure successive di due grandezze osservabili dipendono dal loro ordine temporale, corrisponde, in questa rappresentazione matematica, al fatto che gli operatori non commutano: in tal modo, il principio di indeterminazione di Heisenberg (ovvero la precisione con cui possono essere determinate la posizione e la quantità di moto di una particella sono interdipendenti tra loro: ) veniva associato a una proprietà matematica. Quest’idea fu presentata per la prima volta da Paul A. Dirac e Pascual Jordan nel 1927.


L’assiomatizzazione della meccanica quantistica era un problema centrale per Hilbert e per l’ambiente di Göttingen. Occuparsi di questo tema significava mettersi sulla cresta dell’onda. Von Neumann, all’inizio, collaborò direttamente con Hilbert, pubblicando, nel 1927, un lavoro sui fondamenti della meccanica quantistica, in cui si sosteneva la necessità di separare l’interpretazione fisica dal formalismo matematico, se si voleva conseguire una vera comprensione della teoria. Successivamente, decise di migliorare i risultati ottenuti, utilizzando una formulazione assiomatica del concetto di spazio di Hilbert astratto. In due lavori pubblicati nel 1929 e nel 1930 sulla rivista «Mathematische Annalen», egli presentò la teoria generale degli operatori lineari hermitiani su uno spazio di Hilbert qualsiasi (detta teoria spettrale).


Alla fine degli Anni Venti e agli inizi del decennio successivo, pubblicò molti studi sulla meccanica quantistica, alcuni dei quali in collaborazione con Wigner, e si interessò agli aspetti fisici della teoria, come il concetto di misura, uno dei punti più ostici da affrontare. La meccanica classica era basata sull’idea che, in ogni osservazione sperimentale, l’errore dovuto alle perturbazioni prodotte dallo strumento di misura sull’oggetto osservato possa essere sempre corretto: ammettendo, quindi, di essere in grado di costruire strumenti capaci di garantire una lettura oggettiva e indipendente dall’osservatore. Questo presupposto di base era ormai in discussione: Bohr e Heisenberg avevano messo in evidenza l’impossibilità di conseguire una descrizione oggettiva della realtà fisica. Secondo il loro punto di vista, l’osservatore umano consegue una lettura oggettiva dei segnali dello strumento, ma essa si riferisce alla combinazione dell’oggetto con lo strumento. Pertanto, ogni previsione circa lo stato futuro dell’atomo non può che essere di tipo statistico.


Questa perdita della certezza, analoga a quella verificatasi in matematica, fu affrontata da alcuni fisici fedeli al determinismo, come Einstein, sostenendo l’esistenza di «parametri nascosti» che, una volta determinati, avrebbero eliminato l’incertezza.
Von Neumann, invece, ricorse all’approccio assiomatico per eliminare la fonte delle difficoltà interpretative ed evitare la rottura con la concezione classica della fisica. Da un lato, egli introdusse, come proposizione interna alla teoria, il carattere assolutamente naturale della meccanica quantistica, ovvero l’impossibilità dell’esistenza di teorie equivalenti con «parametri nascosti»; d’altro lato, sviluppò una teoria della misurazione formalizzata in termini puramente matematici.


Per conseguire questo obbiettivo, von Neumann proponeva un’audace rottura con la distinzione tradizionale tra osservatore e strumento di misura: a suo parere, essa era arbitraria, perché ogni osservazione è necessariamente soggettiva. La sua teoria della misura permetteva di ottenere una descrizione dello stato del sistema osservato e dello strumento di misura. La presa di coscienza da parte dell’osservatore del risultato dell’osservazione modifica questo stato e soltanto così si spiega il processo di misura.


La formulazione assiomatica di von Neumann fu considerata, in seguito, come l’esposizione canonica dei principi della meccanica quantistica e il suo prestigio si consolidò quando la sua trattazione matematica si mostrò capace di includere sviluppi come la meccanica quantistica relativistica e, almeno in parte, la teoria quantistica del campo.


By and large it is uniformly true that in mathematics there is a time lapse between a mathematical discovery and the moment it becomes useful; and that this lapse of time can be anything from 30 to 100 years, in some cases even more [… ].
[J. VON NEUMANN, Collected Works Vol. VI. Theory of Games, Astrophysics, Hydrodynamics and Meteorology, Pergamon Press 1961]

L’influenza della formalizzazione di von Neumann sulla pratica della ricerca fu più limitata e i fisici utilizzarono prevalentemente la presentazione di Dirac. In effetti, negli anni successivi, la sintesi fra fisica teorica e matematica, che era sembrata così solida si attenuò, dando progressivamente luogo a una profonda separazione delle due discipline. Lo stesso von Neumann abbandonò questi studi, concentrandosi sullo sviluppo puramente matematico della teoria degli operatori negli spazi di Hilbert.


Con le ricerche del periodo di Göttingen, von Neumann contribuì, come pochi altri, a ridare forza all’idea che la conoscenza scientifica consegue conoscenze oggettive, nella misura in cui fa ricorso all’uso sistematico della matematica, che sola è capace di dare senso all’idea di legge scientifica. Ormai erano trascorsi i tempi della fiducia nell’oggettività assoluta della scienza. La scienza non era più quella di Newton e di Galileo, pervasa dall’idea di poter svelare le leggi universali che reggono il mondo fisico, essa era ormai la scienza dei modelli:


The sciences do not try to explain, they hardly even try to interpret, they mainly make models. By a model is meant a mathematical construct which, with the addition of certain verbal interpretations, describes observed phenomena. The justification of such a mathematical construct is solely and precisely that it is expected to work. (*)
[J. VON NEUMANN, Method in the physical sciences, 1961]

La definizione di scienza di von Neumann è, tuttavia, riduttiva poiché ritiene che gli unici modelli in grado di interpretare la realtà siano quelli matematici. Questa concezione di scienza esclude, pertanto, ambiti come le scienze naturali o la biologia hanno sviluppato alcune teorie che interpretano determinati fatti senza fare ricorso a modelli matematici. La scienza razionalista, ovvero la scienza intesa come processo, in contrapposizione alla scienza tradizionale di stampo positivista ed empirista, prevede un approccio di ricerca ed analisi continua dei fatti basata sulla cosiddetta “innovazione concettuale”. Essa procede “tra incertezza ed insuccessi e si risolve in un sapere ipotetico, contingente e storicamente determinato”.

 


 

Pagina 6 di 26

< precedente | Indice generale della biografia di von Neumann | seguente >

 


 

Commento redazionale. Malgrado il nitore della citazione di von Neumann è indispensabile tener conto di quanto dice Bergaglio, che sottolinea il carattere riduttivo (noi diremmo settario) delle concezioni epistemologiche di von Neumann. Quanto alla possibilità che una scienza intesa come processo debba essere una "scienza razionalista" dipende dalla filosofia della scienza che si sceglie di seguire.