mercoledì 28 settembre 2011

Neutrini : molto rumore per nulla ?

Ovviamente se ne parla come della scoperta del secolo.Forse secondo un esperimento di fisica delle particelle effettuato tra il Cern di Ginevra e i laboratori del Gran Sasso, i neutrini potrebbero essere in grado di superare la velocità della luce. La notizia ha fatto il giro del pianeta e provocato grande eccitazione nel mondo della scienza. Il risultato è talmente incredibile da essere stato accolto dalla comunità scientifica con grande scetticismo, tanto che si è ormai scatenata la caccia all'errore. Ma perché gli scienziati hanno così tanta difficoltà ad accettare questi dati? Innanzi tutto un'evidenza di questo genere potrebbe far cadere uno dei pilastri fondamentali su cui si basa la relatività ristretta : l'insuperabilità della velocità della luce. Ma non c'è solo questo.Secondo quanto ha detto al Guardian Subir Sakar, docente di fisica delle particelle all' università di Oxford, questo risultato scombinerebbe la relazione di causalità: “ L'assunto che la causa non possa arrivare dopo l'effetto è assolutamente fondamentale per la nostra concezione di Universo: se salta siamo veramente nei guai”. In effetti l'idea che nulla può viaggiare più veloce della luce nel vuoto rappresenta la pietra angolare della teoria della relatività speciale di Einstein, che assume tale velocità come una costante. Se i neutrini sono più veloci della luce, allora uno dei presupposti fondamentali della scienza, secondo cui le leggi della fisica sono le stesse per tutti gli osservatori, potrebbe essere invalidato.

Tuttavia queste osservazioni riflettono una visione quanto meno “parziale” di tutta la faccenda.

È' noto da tempo che il principio di indeterminazione di Heisenberg mette in crisi soprattutto il concetto di causa. Nella formulazione piú forte del principio di causalità: “se noi conosciamo il presente esattamente possiamo predire il futuro”, è falsa non la conseguenza, ma la premessa. Noi non possiamo in linea di principio conoscere il presente in ogni elemento di determinazione. Perciò ogni osservazione è una selezione da una quantità di possibilità e una limitazione delle possibilità future. Poiché ora il carattere statistico della teoria quantistica è cosí intimamente associato alla inesattezza di tutte le percezioni, si potrebbe essere condotti alla supposizione che al di là del mondo percepito statisticamente si celi ancora un mondo “reale”, nel quale il principio di causalità è valido. La fisica deve descrivere soltanto la connessione formale delle percezioni. Piuttosto si può caratterizzare molto meglio il vero stato della cosa in questo modo : poiché tutti gli esperimenti sono soggetti alle leggi della meccanica quantistica da ciò segue che attraverso la meccanica quantistica viene stabilita definitivamente la nullità del principio di causalità.

Sincronicità è un termine introdotto da Carl Jung nel 1950 per descrivere la contemporaneità di due eventi connessi in maniera a-causale. Coincidenza di due o più eventi a -temporali, quindi non sincroni, legati da un rapporto di analogo contenuto significativo. Jung distingue la sincronicità dal "sincronismo", eventi che accadono simultaneamente, cioè nello stesso tempo, es: ballerini che fanno lo stesso passo con la stessa cadenza simultanemaente, due orologi che segnano lo stesso orario, metronomo e musica che seguono lo stesso ritmo etc…che sono eventi che accadono senza alcuna connessione di significato, sia causale che casuale, perché sono azioni di pura contemporaneità temporale.La sincronicità invece è basata su altri postulati che, nella vita di tutti i giorni, si traducono come: pensare a una persona e poco dopo ricevere una telefonata che ne porta notizie; nominare un numero e vedere passare una macchina con lo stesso numero impresso sulla carrozzeria; leggere una frase che ci colpisce e poco dopo sentircela ripetere da un'altra persona etc.; che talvolta danno la netta impressione d'essere accadimenti precognitivi legati a una sorta di chiaroveggenza interiore, come se questi segnali fossero disseminati ad arte sul nostro percorso quotidiano per "comunicare qualcosa che riguarda solo noi stessi e il nostro colloquio interiore". Una sorta di risposta esterna, affermativa o negativa, oggettivamente impersonale e simbolicamente rappresentata.
In analogia alla causalità che agisce in direzione della progressione del tempo e mette in connessione due fenomeni che accadono nello stesso spazio in tempi diversi, viene ipotizzata l'esistenza di un principio che mette in connessione due fenomeni che accadono nello stesso tempo ma in spazi diversi. Praticamente viene ipotizzato che al fianco del logico svolgimento di un atto conforme al principio in cui in tempi diversi accadono avvenimenti provocati da una causa, ne esista un altro in cui accadono avvenimenti nello stesso tempo ma in due spazi diversi perché, essendo casuali, non sono direttamente provocati da un effetto, corrispondendo per cui perfettamente al principio di a-temporalità.

In fisica le particelle vengono usualmente trattate come funzione d'onda che si evolve secondo l'equazione di Schrödinger. In particolare il principio di sovrapposizione gioca un ruolo fondamentale nella spiegazione di tutti i fenomeni di interferenza osservati. Tuttavia questo comportamento è in contrasto con la meccanica classica: a livello macroscopico, infatti, non è possibile osservare una sovrapposizione di stati distinti. Un esempio ben noto è fornito dal paradosso del gatto di Schrödinger: un gatto (come qualsiasi essere vivente) non può essere contemporaneamente vivo e morto. Sorge quindi una domanda: esiste una separazione tra regime quantistico e regime classico? L'interpretazione di Copenaghen suggerisce una risposta affermativa: effettuare una misura su un sistema quantistico equivale a renderlo osservabile, quindi "classico". Ad esempio, se in un esperimento della doppia fenditura si osserva la traiettoria di una particella, l'interferenza viene distrutta (principio di complementarità). Il meccanismo responsabile di questo fenomeno prende il nome di collasso della funzione d'onda e venne introdotto da Von Neumann.
Tuttavia, se esiste, un confine tra quantistico e classico non è affatto chiaro dove vada tracciato - né perché esso esista: il collasso della funzione d'onda viene solo postulato. Questi problemi vengono affrontati dalla teoria della decoerenza, la cui idea di base è la seguente: le leggi della meccanica quantistica, a partire dall'equazione di Schrödinger, che si applicano a sistemi isolati - in linea di principio, si applicano anche a quelli macroscopici. Quando un sistema quantistico non è isolato dall'esterno - ad esempio durante una misura - esso diventa entangled con l'ambiente (trattato anch'esso quantisticamente); questo fatto, secondo la teoria, ha conseguenze cruciali sul mantenimento della coerenza.
In particolare, se il sistema viene preparato in una
sovrapposizione coerente di stati, l'entanglement con l'ambiente porta alla perdita di coerenza tra le differenti parti della funzione d'onda che corrispondono agli stati sovrapposti. Dopo un tempo di decoerenza caratteristico, il sistema non è più in una sovrapposizione di stati, bensì in una miscela statistica.
Secondo la teoria, la differenza tra sistemi microscopici e macroscopici sta nel fatto che se i primi si possono isolare bene dall'esterno (cioè la coerenza si mantiene facilmente per un tempo sufficientemente "lungo"), lo stesso non si può dire per i secondi, per i quali invece si deve inevitabilmente tener conto dell'interazione con l'ambiente. Di conseguenza è praticamente impossibile osservare sovrapposizioni di stati macroscopicamente distinti, perché se anche si riuscisse a prepararle (cosa in sé difficile, anche se non vietata dalla teoria) avrebbero una durata troppo breve.

Tornando, allora, ai neutrini, alla causalità e alla velocità della luce il problema sta proprio nell’interpretazione del concetto di tempo.
Uno dei piu’ grandi errori della fisica teorica, infatti, è stato quello di considerare il tempo una grandezza fisica “reale” e non la semplice percezione/misurazione di variazioni di stato della materia da parte dell’uomo. Cio’ ha portato erroneamente a credere che il tempo potesse essere “strapazzato” (contratto o dilatato) come se fosse un pezzo di materia. E si che riescie difficile immaginare di poter contrarre o dilatare una lunghezza e, quindi, una distanza tra punti materiali (che, peraltro, esistono solo nella teoria matematico –geometrica e non nella realtà fisica) senza che questa successione di “non punti” sia a sua volta materia, ma il tempo proprio no…E’ un’astrazione, un concetto mentale, peraltro soggettivo o, per dirla alla Einstein, relativo. L’intera struttura dello spazio-tempo è una semplice astrazione matematica e non una realtà fisica. Cio’ che esiste realmente è solo materia in cui il nesso causa effetto degli eventi è preservato dall’essere tale materia un "continuo" fisico a-temporale. Gli esperimenti “entanglement” svolti negli anni 80 da Alain Aspect accreditano fortemente tale ipotesi.


In tale struttura la velocità non è altro che variazione della funzione di stato della materia in un normale spazio euclideo a sua volta materiale e a temporale.

Ma allora che è successo realmente tra il CERN e il Gran Sasso ? Semplicemente i neutrini potrebbero aver percorso una scorciatoia e, cioe', un segmento circolare che sottende l'arco di curva teorico che avrebbero percorso i fotoni.
Consideriamo la corda di lunghezza pari a 730 Km dell’arco del segmento circolare che distanzia i laboratori del CERN e del Gran Sasso. Con semplici considerazioni trigonometriche, dato approssimativamente R = 6.378 Km il raggio della Terra, l'angolo al centro teta è pari a 0,114 rad.
L'anticipo (presunto) dei neutrini rispetto ai fotoni è di circa delta t = 60 ns = 60 10^-9 sec, che si traduce in una "luce" al fotofinish di delta s = 300.000.000 m/sec x delta t = 18 metri circa. Ammettendo che il neutrino possa al massimo eguagliare la velocità luce, ma non superarla, i 18 metri sarebbero l’accorciamento della corda. L'angolo di deflessione relativistica gravitazionale della luce, in radianti puo' essere assunta pari a
:phi = 4* (G M/c^2)/R = 4 * 6.67e-11*5.97e24/(9.00e16*6.37e6) = 2.78e-9 rad. Per avere la deviazione in metri sul punto di arrivo basta propagare linearmente questa deflessione sulla distanza di 732 km, ottenendo : 2e-9*1e6 = 2e-3 m = 2 millimetri circa. Propagando la deflessione solo su 18 metri si otterrebbe uno scarto dalla geodetica naturale di circa 5 e-5 mm. Si tratterebbe, allora, di verificare l’ipotesi di traiettorie tra due punti in uno spazio tempo curvo piu’ brevi di una geodetica sfruttando l'alta capacità di penetrazione dei neutrini nella materia.Per fare cio’ occorre spararli non ad “alzo zero”, ma con un’inclinazione negativa opportunamente calcolata.
"Sulla carta" l'inclinazione negativa che il fascio di neutrini dovrebbe avere per percorrere la corda rettilinea del segmento circolare dovrebbe essere di circa 3,29 gradi (metà dell'angolo al centro), rispetto al piano tangente alla traiettoria "naturale" curva che percorerrebbe se fosse sparato ad alzo zero. Con tale inclinazione la pendenza di un tunnel "ideale" rispetto al piano orizzontale (piano tangente all'arco di curva nel punto di imbocco) scavato nella Terra sarebbe del 5,7 % circa. Questa traiettoria è proprio la corda che, per chi dovesse "scavarla" effettivamente, sarebbe una sella (avremmo una "discesa" e una "risalita" per risbucare in superficie, in quanto dovremmo fare i conti con la forza di gravita'), ma dal punto di vista puramente geometrico (ed euclideo), la corda sarebbe proprio un segmento di retta, con uno scostamento di un paio di mm dalla geodetica "naturale" ; in ogni caso il neutrino avrebbe fatto qualcosa che non è previsto dalla teoria anche senza superare la velocità della luce. Cio' significa anche che accelerando a lungo si puo' pensare di "scavare" un tunnel che "taglia" la strada percorsa dalla radiazione e.m....In pratica attraversare uno spazio "fisico" tridimensionale euclideo passando "sotto" le traiettorie geodetiche luce impresse dalla gravità che, pertanto, non sarebbero piu' le linee di minima distanza tra punti e, magari, raggiungere le stelle piu' rapidamente di quanto finora si potesse pensare.



Stefano Gusman

Neutrinos: much ado about nothing ?

Obviously it speaks as the discovery of the century. May be that according to a particle physics experiment carried on between CERN in Geneva and the Gran Sasso laboratories, the neutrinos might be able to exceed the speed of light. The news has gone around the world and caused great excitement in science. The result is so incredible that it has been greeted with great skepticism by the scientific community, so that started the hunting error. But why scientists have so much trouble accepting this data?First evidence of this kind could bring down one of the fundamental pillars of special relativity: the speed of light insuperability. But that's not all. According to the opinion of a professor of particle physics at the 'University of Oxford, Subir Sakar, published on Guardian, this result mess the causal relation: "The assumption that the cause can not come after the effect is absolutely fundamental to our conception of Universe: If we lose it we are into real troubles. " In fact the idea that nothing can travel faster than light in vacuum is the cornerstone of Einstein's special theory of relativity, which assumes that velocity as a constant. If neutrinos are faster than light, then one of the fundamental assumptions of science, that the laws of physics are the same for all observers, could be invalidated. However these observations at least reflect a partial vision of the whole question. It has long been known that the Heisenberg uncertainty principle, especially undermines the concept of cause. In the strongest formulation of the principle of causality: "If we know exactly present we can accurately predict the future," not the result is false, but the premise. We can not in principle know the present in every element of determination. Thus each observation is a selection from a number of possibilities and a limitation of future possibilities. Because now the statistical nature of quantum theory is so intimately associated with the inaccuracy of all perceptions, one might be led to the assumption that beyond the statistically perceived world is hidden still a "real" world, in which the principle of causality is valid . Physics should describe only the formal connection of perceptions. Rather, one can characterize the true state of the thing a lot better in this way: since all experiments are subject to the laws of quantum mechanics from this matter follows that, by quantum mechanics is established permanently the invalidity of the principle of causality.
Synchronicity is a term introduced by Carl Jung in 1950 to describe the simultaneity of two events connected in an a-causal way. Coincidence of two or more a temporal events, so not synchronous, linked by a similar ratio of meaningful content. Jung distinguishes synchronicity from the "timing" events that occur simultaneously, that is at the same time : dancers who do simultaneously the same step at the same rate, two clocks that mark the same time, metronome and music that follow the same rhythm, etc. ... which are events that occur without any connection with meaning, both causal and random, because they are actions pure contemporary actions. Instead synchronicity is based on other assumptions that, in everyday life, are translated as: to think of a person and shortly after receive a phone call brings news about; appointing a number and going to see a car with the same numberplate, read a sentence that strikes us and shortly after heard repeated by another person, etc.., which sometimes give distinct impression of being precognitive events related to a kind of inner clairvoyance, as if these signals were scattered artfully on our daily journey to "communicate something about only ourselves and our inner conversation." A kind of external response, positive or negative, objectively impersonal and symbolically represented.In analogy to the causality that acts in the direction of the progression of time and links two phenomena that occur in the same space at different times, it is assumed the existence of a principle that connects two phenomena occurring at the same time but in different spaces . Practically it is assumed that in addition to the next logical development of a measure consistent with the principle in which events occur at different times caused by a cause, there exists another in which events occur at the same time but in two different spaces because, being random, are not directly caused by an effect, that correspond perfectly to the principle of a-temporality.

In physics, the particles are usually treated as a wave function that evolves according to the Schrödinger equation. In particular, the superposition principle plays a fundamental role in the explanation of all the interference phenomena observed. However, this behavior is in contrast to classical mechanics: at a macroscopic level, in fact, it is not possible to observe a superposition of distinct states.
A well known example is provided by the paradox of Schrödinger's cat: a cat (like any living being) can not be both alive and dead. Then a question arises: is there a separation between quantum and classical regime? The Copenhagen interpretation suggests an affirmative answer: make a measurement of a quantum system is equivalent to make it observable, then "classic." For example, if in the double slit experiment we observe the trajectory of a particle, the interference is destroyed (principle of complementarity). The mechanism responsible for this phenomenon is called collapse of the wave function and was introduced by Von Neumann. However, if there is a boundary between the quantum and classical is not clear where the track goes - or why it exists: the collapse of the wave function is only postulated. These problems are addressed by the theory of decoherence, whose basic idea is the following: the laws of quantum mechanics, starting out from the Schrödinger equation, that apply – in principle - to isolated systems – apply even at the macroscopic ones. When a quantum system is not isolated from the outside - such as when a measure - it becomes entangled with the environment (which is also treated quantum); this fact, the theory goes, has crucial consequences on the maintenance of coherence.In particular, if the system is prepared in a coherent superposition of states, the entanglement with the environment leads to loss of coherence between the different parts of the wave function that correspond to the states overlapped. After a characteristic time of decoherence, the system is no longer in a superposition of states, but in a statistical mixture.According to the theory, the difference between microscopic and macroscopic systems is that if the first may insulate from the outside (that is that coherence is easily maintained for a sufficient "long" time), the same can not be said for the second , but for which you must inevitably take into account the interaction with the environment. Consequently it is virtually impossible to observe macroscopically distinct states overlap, because even if you could prepare (thing in itself difficult, if not forbidden by the theory) would have a life too short.
Returning then to neutrinos, causality and speed of light the problem lies in the interpretation of the concept of time.One of the most 'biggest mistakes of theoretical physics, in fact, was to consider the time a physical "real" and not merely the perception/measurement of changes of state of matter by man. This' mistakenly led to believe that the time could be "scrambled" (contract or dilated) as if it were a piece of matter. And if is difficult to imagine being able to contract or dilate a length and, therefore, a distance between material points (which, however, exist only in mathematical or geometric theory of, but not in physical reality), without this succession of "no points" is in turn matter, time such not so ... It is just an abstraction, a mental concept, however subjective or, to put it to Einstein, relative. The entire structure of space-time is a simple mathematical abstraction and not a physical reality. What really exists is only matter where the link cause and effect of events is preserved by its continuous and a temporal nature. Experiments "entanglement" performed by Alain Aspect in the 80’ accredit strongly this hypothesis. In this frame speed is nothing else that variation of matter state function in a normal euclideus material and a temporal space.

So what really happened between CERN and Gran Sasso? Neutrinos could have only traveled a short cut, that is a circular segment behind the arc of the curve by the theoretic photon path.
Let’s consider the chord 730 Km long, behind the arc of the circular segment which separates CERN and Gran Sasso
laboratories. Since approximately R = 6,378 km radius of the Earth, with simple trigonometric considerations the central angle theta in radians is 0.114. The advance (presumed) of neutrinos with respect to the photons is approximately delta t = 60 ns = 60 10 ^ -9 sec, which results in a "light" photo finish of delta s = 300,000,000 m / sec x delta t = 18 meters. Admitting that neutrinos can catch but not exceed light speed, 18 meters would be the shortening of the chord. The angle of relativistic gravitational deflection of light, in radians, can be assumed : phi = 4*(GM/c^2)/R = 4*6.67e-11*5.97e24 /(6.37e6 * 9.00e16) = 2.78e-9 rad. To obtain the deviation in meters on arrival point just propagate this deflection linearly on the distance of 732 km, obtaining: 2e-9 * 1E6 = 2e-3 m = 2 mm approximately. Propagating the deflection along 18 meters only, the scart from natural geodesic would be approximately 5 e-5 mm. It would, then, to test the hypothesis of trajectories between two points in a curved spacetime shorter then a geodesic, exploiting the high penetration of neutrinos in matter. To do this' the banker doesen't shoot them with "get up zero", but with a negative slope properly calculated. "On paper" the negative slope that neutrinos beam must have to walk the chord of circular segment, should be about 3.26 degrees (half the angle at the center), with respect to the plane tangent to the earthly bending. This means that, if we would have an "ideal" tunnel under earthly surface, its pendence would be approximately 5,7 % respect on the plane tangent to eartly bending at the access. If neutrino "pulled right", the trajectory is just the rope that, for those who would "dig" it, would be a saddle (we would have a "down" and a "lift" to emerge on the surface, as we should reckon with gravity), but from purely geometrical (and Euclidean) point of view the path would be just a line segment with a scart of a couple of millemeters from "natural" geodesic ; in every way neutrinos would do something that is not predicted by theory. also without exceeding light speed.This also means that for very long accelerating you can think of digging a tunnel that "cuts" the road traveled by the e.m. radiation. In practice to cross an euclidean "phisical" three-dimensional space under light geodetic trajectories impressed by gravity - that wouldn't be the smallest distance lines between points no more and, perhaps, reach for the stars more rapidly than you could think up to now .



Stefano Gusman

domenica 18 settembre 2011

"Zitto e calcola !"

L'interpretazione di Copenhagen della Meccanica Quantistica si ispira fondamentalmente ai lavori svolti da Niels Bohr e da Werner Karl Heisemberg attorno al 1927 all'epoca della loro collaborazione a Copenaghen. Nel classico esperimento in cui la luce attraversa uno schermo sul quale sia praticata una doppia fenditura si ottengono, su una lastra posta di fronte allo schermo bande alterne di colore chiaro e scuro, che possono essere interpretate come le zone in cui le onde luminose interferiscono costruttivamente oppure distruttivamente. Riducendo l'intensità del fascio di luce, in modo tale da avere un solo fotone alla volta, nonostante i fotoni colpiscano uno a uno lo schermo, nel complesso si riottiene la figura d'interferenza tipica delle onde.
Le questioni poste da questo esperimento sono :
1) La meccanica quantistica stabilisce soltanto in modo probabilistico il punto in cui ogni particella colpirà lo schermo e identifica le zone chiare e le zone scure come quelle per cui la probabilità di essere colpite da una particella è, rispettivamente, alta oppure bassa; non è in grado di prevedere in modo esatto dove un determinato corpuscolo andrà a colpire.
2) Cosa succede alle particelle nel percorso che dalla sorgente le porta allo schermo? Ogni particella è descritta da una funzione d'onda non localizzata: sembrerebbe che essa interagisca con entrambe le fenditure, ma se la si considera come puntiforme non può che attraversarne una sola.
Nella logica classica il principio di non-contraddizione afferma la falsità di ogni proposizione implicante che una certa proposizione A e la sua negazione, cioè la proposizione non-A, siano entrambe vere allo stesso tempo e nello stesso modo. Secondo le parole di Aristotele : "E impossibile che il medesimo attributo nel medesimo tempo appartenga e non appartenga al medesimo oggetto e sotto il medesimo riguardo".
Ebbene, la doppia natura corpuscolare - ondulatoria di particelle elementari quali il fotone (e l’elettrone che si comporta in maniera analoga), suggerita dalle evidenze sperimentali, è in contrasto con il suddetto principio.
Molti fisici hanno sottoscritto l'«interpretazione di ordine zero» della meccanica quantistica, riassunta nel famoso detto: «Zitto e calcola!», solitamente (ma forse incorrettamente) attribuito a Feynman.

L'interpretazione di Copenaghen si pone di fronte a tali questioni nel modo seguente:

1. Le affermazioni probabilistiche della meccanica quantistica sono irriducibili, nel senso che non riflettono la nostra conoscenza limitata di qualche variabile nascosta. Nella fisica classica, si ricorre alla probabilità anche se il processo è deterministico (per esempio il lancio di un dado), in modo da sopperire a una nostra conoscenza incompleta dei dati iniziali Per contro, l'interpretazione di Copenaghen sostiene che in meccanica quantistica i risultati delle misurazioni di variabili coniugate sono fondamentalmente non deterministici, ossia che anche conoscendo tutti i dati iniziali è impossibile prevedere il risultato di un singolo esperimento, poiché l'esperimento stesso influenza il risultato.

2. Sono prive di senso domande come: «Dov'era la particella prima che ne misurassi la posizione?», in quanto la meccanica quantistica studia esclusivamente quantità osservabili, ottenibili mediante processi di misurazione. L'atto della misurazione causa il «collasso della funzione d'onda», nel senso che quest'ultima è costretta dal processo di misurazione ad assumere i valori di uno a caso dei possibili stati permessi
Molti fisici e filosofi hanno mosso obiezioni all'interpretazione di Copenaghen e le celebri frasi di Albert Einstein: «Dio non gioca a dadi con l’Universo» e «credi davvero che la Luna non sia lì se non la guardi ne sono una esemplificazione.
La completezza della meccanica quantistica è stata attaccata dall'esperimento mentale Einstein - Podolsky - Rosen, inteso a mostrare che devono esistere alcune variabili nascoste, se si vogliono evitare effetti a distanza istantanei e non locali.

Negli spettri di assorbimento atomici si osservano sdoppiamenti delle righe spettrali che, in "singoletti", si dispongono simmetricamente rispetto alla riga centrale. Nel modello atomico di Bohr la condizione per cui un elettrone muovendosi attorno al nucleo atomico lungo la sua orbita non emetta energia è che il valore del momento angolare sia un multiplo intero della grandezza h/2π (quantizzazione del momento angolare). In pratica un atomo puo’ passare dallo stato fondamentale a uno stato “eccitato” solo assorbendo una determinata quantità di energia tale da portare un elettrone periferico a percorrere un’orbita esterna piu’ ampia il cui raggio r, detta m la massa dell’elettrone e v la sua velocità tangenziale, sia tale che mvr = nh/2π, con n numero intero. A sua volta, diseccitandosi, l’atomo restituirà la stessa quantita’ di energia precedentemente assorbita e, cioe’ E = nhv. Di qui i caratteristici spettri atomici di assorbimento e/o di emissione a righe. A ciascuna riga corrisponde una determinata frequenza v e, quindi, un certo quanto di energia hv.
I “quanti” potevano essere assorbiti o emessi solo in pacchetti definiti dalla quantità nhv dove, appunto, n doveva essere un numero intero che fu definito numero quantico principale. Grazie all’uso di strumenti ottici ad alto potere risolutivo si noto’ successivamente, che in realtà le suddette righe erano, a loro volta, costituite da righe “discrete” il che suggeri’ che gli elettroni oltre che orbite circolari come quelle previste da Bohr, potessero seguire anche orbite ellittiche in numero pari a e, detto numero quantico secondario. Osservazioni di ulteriori sdoppiamenti delle righe spettrale in “singoletti” che, in numero dispari, si disponevano attorno alla riga centrale, suggerirono che, considerando l'orbita ellittica di un elettrone attorno al nucleo alla stregua di una spira piana percorsa da una carica elettrica, questo effetto poteva essere attribuito alla variazione di inclinazione della spira, come si osservava a seguito dell'interazione con un campo magnetico esterno e, quindi, il terzo numero quantico fu definito numero quantico magnetico. Infine, sempre a causa di altri sdoppiamenti osservati fu introdotto il numero quantico di “spin” che definiva il verso di rotazione di ciascun elettrone attorno proprio asse e, quindi, il relativo momento magnetico angolare (o di spin) +1/2 e -1/2, secondo la “regola del cavatappi”, anch'esso influenzabile da un campo magnetico esterno.

Nelle configurazioni stabili gli spin degli elettroni di uno stesso orbitale devono essere uguali e opposti per il principio di esclusione di Pauli.

Il paradosso di Einstein-Podolsky-Rosen (paradosso EPR) è un esperimento mentale che dimostra come una misura eseguita su una parte di un sistema quantistico possa propagare istantaneamente un effetto sul risultato di un'altra misura, eseguita successivamente su un’altra parte dello stesso sistema, indipendentemente dalla distanza che separa le due parti
Questo effetto, noto come entanglement quantistico e derivante dalla interpretazione di Copenhagen della meccanica quantistica, venne considerato paradossale in quanto, oltre che controintuitivo, ritenuto incompatibile con un postulato della relatività ristretta (che considera la velocità della luce la velocità limite alla quale può viaggiare un qualunque tipo d'informazione) e, più in generale, con il principio di località.
Si deve a David Bohm, nel 1951, una riformulazione del paradosso in termini più facilmente verificabili sperimentalmente
Il paradosso EPR descrive un effetto fisico che, come accennato, ha aspetti paradossali nel senso seguente: se in un sistema quantistico ipotizziamo alcune deboli e generali condizioni come realismo, località e completezza, ritenute ragionevolmente vere per qualunque teoria che descriva la realtà fisica senza contraddire la relatività, giungiamo ad una contraddizione. Tuttavia è da notare che "di per sé" la meccanica quantistica non è intrinsecamente contraddittoria, né risulta in contrasto con la relatività
Benché proposto originariamente per mettere in luce l'incompletezza della meccanica quantistica, ulteriori sviluppi teorici e sperimentali seguiti all'articolo originale (come il teorema di Bell e l'esperimento sulla correlazione quantistica di Aspect) hanno portato una gran parte dei fisici a considerare il paradosso EPR solo un illustre esempio di come la meccanica quantistica contrasti in modo stridente con le esperienze quotidiane del mondo macroscopico (per quanto la questione non sia assolutamente chiusa) .
Considereremo la versione semplificata dell'esperimento ideale di EPR formulata da David Bohm.
Si supponga di avere una sorgente che emette coppie di elettroni, uno dei quali viene inviato alla destinazione A, dove c'è un'osservatrice di nome Alice, e l'altro viene inviato alla destinazione B, dove c'è un osservatore di nome Bob. Secondo la meccanica quantistica, possiamo sistemare la sorgente in modo che ciascuna coppia di elettroni emessi occupi uno stato quantistico detto singoletto di spin. Questo si può descrivere come sovrapposizione quantistica di due stati, indicati con I e II. Nello stato I, l'elettrone A ha spin parallelo all'asse z (+z) e l'elettrone B ha spin antiparallelo all'asse z (-z). Nello stato II, l'elettrone A ha spin -z e l'elettrone B ha spin +z. È quindi impossibile associare ad uno dei due elettroni nel singoletto di spin uno stato di spin definito: gli elettroni sono quindi detti entangled, cioè intrecciati.








Riproposizione dell'esperimento suggerito da Einstein, Podolsky e Rosen, eseguito con elettroni.Una sorgente invia elettroni verso due osservatori, Alice (a sinistra) e Bob (a destra), i quali sono in grado di eseguire misure della proiezione dello spin degli elettroni lungo un asse.

Alice misura lo spin lungo l'asse ottenendo uno dei due possibili risultati: +z o -z. Supponiamo che ottenga +z; secondo la meccanica quantistica la funzione d'onda che descrive lo stato di singoletto dei due elettroni collassa nello stato I (le diverse interpretazioni della meccanica quantistica dicono questo in diversi modi, ma il risultato alla fine è lo stesso) e tale stato quantistico determina le probabilità dei risultati di qualunque altra misura fatta sul sistema. In questo caso, se Bob successivamente misurasse lo spin lungo l'asse z, otterrebbe -z con una probabilità del 100%. Analogamente, se Alice misurasse -z, Bob otterrebbe +z, sempre con una probabilità del 100% . In meccanica quantistica, la proiezione dello spin lungo x e quella lungo z sono quantità osservabili tra loro incompatibili, per cui gli operatori associati non commutano, cioè uno stato quantistico non può possedere valori definiti per entrambe le variabili (principio di indeterminazione). Supponiamo che Alice misuri lo spin lungo z e ottenga +z, in modo che il sistema collassi nello stato I. Ora, invece di misurare lo spin lungo z, Bob misura lo spin lungo x : secondo la meccanica quantistica, c'è il 50% di probabilità che egli ottenga +x e il 50% di probabilità che ottenga -x. Inoltre, è impossibile predire quale sarà il risultato fino a quando Bob non esegue la misura. È bene sottolineare che, benché si sia usato lo spin come esempio, si possono considerare molte altre quantità fisiche (osservabili), tra loro entangled. L'articolo originale di EPR, per esempio, usava l'impulso come quantità osservabile. Gli esperimenti odierni usano spesso la polarizzazione dei fotoni, perché più facile da preparare e quindi misurare.

Supponiamo che Alice decida di misurare lo spin lungo z (lo chiameremo z-spin). Dopo che Alice esegue la misura, lo z-spin dell'elettrone di Bob è noto, quindi è un elemento fisico di realtà. Analogamente, se Alice decidesse di misurare lo spin lungo x, l'x-spin di Bob sarebbe un elemento fisico di realtà dopo la sua misura
Uno stato quantistico non può possedere contemporaneamente un valore definito per lo x-spin e lo z-spin . Se la meccanica quantistica è una teoria fisica completa nel senso dato sopra, l'x-spin e lo z-spin non possono essere elementi fisici di realtà allo stesso tempo. Questo significa che la decisione di Alice di eseguire la misura lungo l'asse x o lungo l'asse z ha un effetto istantaneo sugli elementi fisici di realtà nel luogo in cui si trova Bob ad operare con le sue misure. Tuttavia, questa è una violazione del principio di località o principio di separazione.
Il principio di località afferma che i processi fisici non possono avere effetto immediato su elementi fisici di realtà in un altro luogo separato da quello in cui avvengono. A prima vista questa appare un'assunzione ragionevole (infatti a livello macroscopico lo è), in quanto conseguenza della relatività speciale, la quale afferma che le informazioni non si possono mai trasmettere a una velocità maggiore di quella della luce senza violare la causalità. Generalmente si crede che ogni teoria che violi la causalità sia anche internamente inconsistente, e quindi del tutto insoddisfacente
Tuttavia il principio di località si richiama fortemente all'intuizione fisica di livello macroscopico, e Einstein, Podolsky e Rosen non volevano abbandonarlo. Einstein derise le predizioni della meccanica quantistica come "spaventosa azione a distanza". La conclusione che trassero fu che la meccanica quantistica non è una teoria completa.
Esistono parecchi possibili modi per risolvere il paradosso. Quello ipotizzato da EPR è che la meccanica quantistica, nonostante il successo in una ampia e vasta varietà di scenari sperimentali, sia in realtà una teoria incompleta. In altre parole esisterebbe qualche teoria della natura ancora non scoperta, rispetto alla quale la meccanica quantistica gioca il ruolo di approssimazione statistica. Questa teoria più completa conterrebbe variabili che tengono conto di tutti gli "elementi fisici di realtà" e che danno origine agli effetti che la meccanica quantistica è in grado di predire solo a livello probabilistico. Una teoria con tali caratteristiche prende il nome di teoria delle variabili nascoste.
Per illustrare questa idea si può formulare una teoria delle variabili nascoste molto semplice, che spieghi i risultati dell'esperimento descritto sopra.
Si supponga che gli stati quantistici di spin di singoletto emessi dalla sorgente siano in realtà descrizioni approssimate dei "veri" stati fisici che possiedono valori definiti per lo z-spin e per l' x-spin. In questi stati "veri", l'elettrone che va verso Bob ha sempre valori di spin opposti rispetto all'elettrone che va verso Alice, ma tali valori sono completamente random (casuali). Per esempio, la prima coppia emessa dalla sorgente può essere "(+z, -x) verso Alice e (-z, +x) verso Bob", la coppia successiva "(-z, -x) verso Alice e (+z, +x) verso Bob" e così via. Per ciò, se l'asse della misura di Bob è allineato con quello di Alice, egli otterrà necessariamente l'opposto di qualunque cosa ottenga Alice; altrimenti egli otterrà "+" e "-" con eguale probabilità.
Ipotizzando di restringere le misure solo all'asse z e all'asse x, tale teoria delle variabili nascoste è sperimentalmente indistinguibile dalla teoria della meccanica quantistica.

In realtà c'è ovviamente un numero infinito (numerabile) di assi lungo i quali Alice e Bob possono eseguire le rispettive misure; questo significa che, in teoria, si potrebbe considerare un numero infinito di variabili nascoste indipendenti. Tuttavia, si deve tener presente che questa è una formulazione molto semplicistica di una teoria delle variabili nascoste e una teoria più sofisticata sarebbe in grado di risolvere il problema a livello matematico.
Ci sarebbe un’altra obiezione da fare : una volta emessi e, quindi, svincolati dalla struttura atomica di cui facevano parte, gli elettroni del singoletto sono ancora vincolati ad obbedire al principio di esclusione ?La risposta è affermativa in quanto la funzione d'onda che descrive lo stato quantistico del singoletto è unica ed è stazionaria, cioe' non dipende dal tempo, ma solo dallo spazio e "collassa" istantaneamente in una soluzione nel momento in cui Alice o Bob effettuano la misurazione, indipendentemente dal luogo in cui si trova ciascuno dei due elettroni costituenti il singoletto "entangled" dell'atomo da cui i due elettroni sono stati "strappati". Dopo che Alice effettua la sua misurazione e Bob ricava la misurazione correlata ciascun elettrone diventa indipendente dall'altro con una nuova funzione d'onda associata. Nel 1964, John Bell ha mostrato come le predizioni della meccanica quantistica nell'esperimento pensato da EPR siano in realtà leggermente differenti dalle predizioni di una classe molto vasta di teorie delle variabili nascoste. Grosso modo, la meccanica quantistica predice correlazioni statistiche molto più forti tra i risultati di misure eseguite su differenti assi di quanto non facciano le teorie delle variabili nascoste. Queste differenze, espresse adoperando relazioni di disuguaglianza note come disuguaglianze di Bell, sono dal punto di vista di principio individuabili sperimentalmente.
In seguito alla pubblicazione dell'articolo di Bell, cominciarono ad essere approntati tutta una serie di esperimenti per saggiare le disuguaglianze di Bell (come detto sopra, questi esperimenti in generale trattano con misure di polarizzazione di fotoni). Tutti gli esperimenti condotti finora hanno indicato un comportamento in linea con le predizioni della meccanica quantistica standard.
Attualmente la maggior parte dei fisici ritiene che la meccanica quantistica sia corretta e che il paradosso EPR sia appunto solo un "paradosso" per il fatto che le intuizioni classiche (di livello macroscopico) non corrispondano alla realtà. Si possono trarre da ciò parecchie diverse conclusioni, che dipendono da quale interpretazione della meccanica quantistica si usi. Nella vecchia interpretazione di Copenhagen, prodotta da Niels Bohr, Werner Karl Heisenberg, Pascual Jordan e Max Born, si conclude che il principio di località (o di separazione) non debba valere e che avvenga effettivamente il collasso della funzione d'onda istantaneo. Nell'interpretazione a molti-universi, di Hugh Everett III, la località è mantenuta e gli effetti delle misure sorgono dal suddividersi e ramificarsi delle "storie" o linee d'universo degli osservatori
Forse quello del “zitto e calcola” è l’unico approccio possibile alla comprensione della MQ, se non altro per cercare di verificare la tenuta dei modelli teorici alla mole di dati che ci si aspetta, ad es, dai risultati di esperimenti quali quelli in corso di svolgimento al CERN (LHC). C’è il rischio, pero’, che questa navigazione “a vista” conduca erroneamente a identificare modelli matematici e realtà fisiche aumentando, cosi’, lo “spread” tra forma e sostanza che, a mio parere, costituisce l’anello debole di quella catena logica che dovrebbe guidare il percorso della Conoscenza.

Stefano Gusman

"Shut up and calculate !"

The Copenhagen interpretation of quantum mechanics is fundamentally inspired by the work done by Niels Bohr and Werner Karl Heisenberg around 1927, when they were together in Copenhagen. In the classic experiment in which light passes through a screen on which is carried out a double slit are obtained, on a plate placed in front of the screen, alternating bands of light and dark color, which can be interpreted as areas where light waves interfere constructively or destructively. By reducing the intensity of the beam, so as to have only one photon at a time, in spite of the photons hit the screen one by one, on the whole it regains the interference. pattern is typical of the waves. The questions posed by this experiment are :
1) quantum mechanics provides only a statistical point where each particle hit the screen and identifies lighter and dark areas such as those for which the probability of being hit by a particle, respectively, high or low ; can not to predict exactly where a given particle will hit;
2) what happens to the particles in the path that leads from the source to the screen? Each particle is described by a wave function not localized: it appears that it interacts with both slits, but if it is viewed as a point it can cross one only.

In classical logic the principle of not contradiction asserts the falsity of every proposition which implies that a certain proposition A and its negation, the proposition that not-A are both true at the same time and in the same way. In the words of Aristotle: "It is impossible that the same attribute at the same time belong and not belong to the same subject and under the same respect"
More simply, the proposition "A is also not-A" is false.
Well, the dual nature of particle - wave of elementary particles like the photon (and the electron that has analogous behaviour), suggested by experimental evidence, is contrary to this principle. Many physicists have signed the "zero-order interpretation" of quantum mechanics, summarized in the famous saying: "Shut up and calculate!", usually (but perhaps incorrectly) attributed to Feynman. The Copenhagen interpretation confronts these issues as follows:
a) the probabilistic statements of quantum mechanics are irreducible, meaning they do not reflect our limited knowledge of some hidden variable. In classical physics, the probability is used even if the process is deterministic (for example, the roll of a dice), so as to overcome our incomplete knowledge of the initial data. On the other hand, the Copenhagen interpretation of quantum mechanics argues that the results of measurements of conjugate variables are basically non-deterministic, that is even knowing all the initial data it is impossible to predict the outcome of a single experiment, because the experiment itself affects the result ;
b) they are meaningless questions like "Where was the first particle that I have had neasured its position?", as quantum mechanics studies only observable quantities, obtained by measurement processes. The act of measurement causes the "collapse of the wave function" in the sense that it is constrained by the measurement process to take on the values ​​of one case of possible states allowed.
Many physicists and philosophers have objected to the Copenhagen and the famous words of Albert Einstein: "God does not play dice with the Universe" and "do you really think the moon is not there unless you look?" are examples of this.
The completeness of quantum mechanics has been attacked by the experiment of mind of Einstein-Podolsky-Rosen, intended to show that there must be some hidden variables, if you want to avoid instantaneous effects at a distance and not local.
In the atomic absorption spectra are observed splitting of spectral lines that, "singletons", are arranged symmetrically with respect to the middle line. In Bohr's atomic model the condition for an electron moving around the atomic nucleus along its orbit does not emit energy is that that value of angular momentum is an integer multiple of the size h/2π (quantization of angular momentum). In practice, an atom can move from the ground state to an "excited" state only absorbing a certain amount of energy that it brings along an electron to orbit in outer periphery more wide, with a radius r, called m the electron mass, and v its tangential speed, is such that nh/2π = mvr, where n is integer. In turn, de-energizing, the atom will return the same amount of energy previously absorbed, that is E = nhv. Hence the characteristic atomic spectra of absorption and/or emission lines. Each line corresponds with a certain frequency v and, therefore, a certain quantum of energy hv.
The "quantums" can be absorbed or emitted only in packages defined by the amount nhv where, precisely, n must be an integer which was defined as the principal quantum number.
Through the use of optical instruments with high resolving power is known then, that in fact these lines were, in turn, consist of discrete lines which suggested that the electrons as well as circular orbits such as those provided by Bohr , could also follow elliptical orbits in numbers equal t e so called
secondary quantum number.
Further doubling of the observed spectral lines in "singletons" that, in odd numbers, were arranged around the central line, suggested that considering the elliptical orbit of an electron around the nucleus of a loop like the plane flown by an electrical charge, this effect could be attributed to the difference in the inclination of the loop, as was observed following interaction with an external magnetic field and, therefore, the third quantum number was called magnetic quantum number. Finally, again because of other observed splitting, was introduced the quantum number of "spin" that defined the direction of rotation of each electron around its axis and, hence, its angular magnetic moment (or spin) +1/2 ; - 1/ 2, according to the "rule of the corkscrew," also influenced by an external magnetic field.
In the stable configurations the spins electrons on the same orbital must be equal and opposite to the Pauli exclusion principle. The paradox of Einstein-Podolsky-Rosen (EPR paradox) is a thought experiment that shows how a measurement of a part of a quantum system can propagate an instant effect on the outcome of another measurement, performed later on another part of the same system, regardless of the distance that separates the two sides.
This effect, known as quantum entanglement and resulting from the Copenhagen interpretation of quantum mechanics, was considered a paradox in that, not only counter intuitive but also deemed inconsistent with a postulate of special relativity (which considers that the speed of light limits the speed at which one can travel any type of information) and, more generally, with the principle of locality.
It is due to David Bohm, in 1951, a reformulation of the paradox in terms more easily verifiable experimentally.
The EPR paradox describes a physical effect that, as mentioned, is paradoxical in the following sense: if in a quantum system we assume some weak and general conditions, such as realism, locality and completeness, which are considered reasonably true for any theory that describes physical reality without contradict relativity, we arrive at a contradiction. However, note that quantum mechanics is not inherently contradictory, or in conflict with relativity.
Although originally proposed to highlight the incompleteness of quantum mechanics, additional theoretical and experimental developments followed the original article (like Bell's theorem and quantum correlation experiment of Aspect) led a large part of physicists to consider the EPR paradox only an illustrious example of how quantum mechanics contrasts sharply with the everyday experiences of the macroscopic world (although the issue is not completely closed).
Consider the simplified version of the ideal EPR experiment formulated by David Bohm.

Suppose you have a source that emits pairs of electrons, one of which is sent to destination A, where there is an observer named Alice, and the other is sent to destination B, where there is an observer named Bob. According to quantum mechanics, we can adjust the source so that each pair of emitted electrons occupy a quantum state called a singlet spin. This can be described as a quantum superposition of two states, denoted by I and II. In the I state, the electron has spin parallel to the z-axis (+ z) and electron B has spin antiparallel to the z axis (-z). In the II state, electron A has spin-z and electron B has spin + z. It is therefore impossible to associate one of the two electrons in the spin singlet to defined spin state : the electrons are entangled so called, that is twisted.

Returning the experiment suggested by Einstein, Podolsky and Rosen, performed with electrons. A source sends electrons toward two observers, Alice (left) and Bob (right), which are capable of measuring the projection of the spin of electrons along an axis.

Alice measures the spin along the axis of getting one of two possible results: + z-z. Suppose that obtains + z ; according to quantum mechanics the wave function that describes the singlet state of two electrons collapses in the state I (the different interpretations of quantum mechanics say this in different ways, but at the end result is the same) and the quantum state determines the probability of any other measure of results done on the system. In this case, if Bob subsequently measures the spin along the z axis, would -z with a probability of 100%. Similarly, if Alice would -z, Bob would+ z with a probability of 100%.
In quantum mechanics, the projection of the spin along the x and z are along observable quantities that are incompatible, for which the associated operators do not commute, that is that a quantum state can not have definite values ​​for both variables (uncertainty principle). Suppose Alice measures the spin along z and obtains + z, so that the system collapses in the state I. Now, instead of measuring the spin along z, Bob measures the spin along x: according to quantum mechanics, there is a 50% chance that he gets + x and a 50% probability of obtaining x-. In addition, it is impossible to predict what the outcome will be as long as Bob does not fit.
It should be noted that although the spin is used as an example, we can consider many other physical quantities (observables), entangled with each other. The original paper of EPR, for example, used as the impulse observable quantities. Experiments today often use the polarization of the photons, because more easy to prepare and then measure.
Suppose that Alice decides to measure the spin along z (we will call z-spin). After Alice performs the measurement, the z-spin of the electron is known to Bob, so it's a physical element of reality. Similarly, if Alice decides to measure spin along x, the x-spin of Bob would be a physical element of reality after his measure.
A quantum state can not simultaneously have a definite value for the x-spin and z- spin. If quantum mechanics is a complete physical theory in the sense given above, the x-spin and the z-spin can not be physical elements of reality at the same time. This means that the decision of Alice to a measurement along the x or z-axis has an instant effect on the physical elements of reality in the place where Bob is at work with his measures. However, this is a violation of the principle of locality or the principle of separation.
The principle of locality states that physical processes may have no immediate effect on the physical elements of reality to another location separate from that in which they occur. At first sight this assumption seems reasonable (in fact, at the macro level it is), as a consequence of special relativity, which states that information can never be transmitted at a rate faster than light without violating causality. Generally believed that any theory which violates causality is also internally inconsistent, and therefore completely unsatisfactory.
However, the principle of locality is strongly recalls macroscopic physical intuition, and Einstein, Podolsky and Rosen did not want to leave. Einstein derided the predictions of quantum mechanics as "horrific action at a distance." The conclusion that they drew was that quantum mechanics is not a complete theory.
There are several possible ways to resolve the paradox. The one suggested by EPR is that quantum mechanics, despite the success in a broad variety of experimental scenarios, is actually an incomplete theory. In other words, there is some theory of nature not yet discovered, with respect to which quantum mechanics plays the role of statistical approximation. This more complete theory contains variables that take into account all the "elements of physical reality" and that give rise to the fact that quantum mechanics can predict only probability level. A theory with such characteristics is called the theory of hidden variables.
To illustrate this idea may make a very simple theory of hidden variables that explain the results of the experiment described above.
Suppose that the quantum states of spin singlet emitted from the source are actually approximate descriptions of "real" physical states that have defined values ​​for the z-spin and the 'x-spin. In these
"true" states, the electron going to Bob has always the opposite of the electron spin values ​​goini towards Alice, but these values ​​are completely random. For example, the first pair emitted from the source can be "(+ z,-x) to Alice and (-z + x) to Bob" ; the next pair "(-z,-x) to Alice and (+ z , + x) to Bob, "and so on. For this, if the axis of the measurement of Bob is aligned with that of Alice, he will necessarily get the opposite of whatever Alice, otherwise he will "+" and "-" with equal probability.
Assuming the measures to restrict only the axis z and the x-axis, the theory of hidden variables is experimentally indistinguishable from the theory of quantum mechanics.
In fact there is obviously an infinite number (countable) set of axes along which Alice and Bob can perform the respective measures, which means that, in theory, you might consider an infinite number of independent hidden variables. However, it should be noted that this is a very simplistic formulation of a theory of hidden variables and a more sophisticated theory would be able to solve the problem in mathematics.
There was another objection to do: once emitted, and then released from atomic structure to which they belonged, the electrons in the singlet are still bound to obey the exclusion principle?The answer is yes because the wave function describing the quantum state of the singlet is single and stationary, that is that doesn't depend on time, but only by the space and "collapses" in a solution instantly when Alice or Bob perform the measurement regardless of where you found each of the two electrons making up the singlet "entangled" of the atom from which the two electrons were "torn". After that Alice have done her measure and Bob derived his correlated measure, each electron becomes independent of the other associated with a new wave function.

In 1964, John Bell showed that the predictions of quantum mechanics thought experiment of EPR are actually slightly different from the predictions of a very large class of theories of hidden variables. Roughly speaking, quantum mechanics predicts much stronger statistical correlations between the results of measurements on different axes than do the theories of hidden variables. These differences, expressed employing unequal relations known as Bell inequalities are in terms of principle experimentally detectable.
Following the publication of the artiche, Bell began to be prepared a series of experiments to test the Bell inequalities (as mentioned above, these experiments generally deal with polarization measurements of photons). All experiments conducted so far have shown a behavior in line with the predictions of standard quantum mechanics.
Currently the majority of physicists believes that quantum mechanics is correct and that the EPR paradox is indeed only a "paradox" because classical intuitions (at the macroscopic level) does not correspond to reality. One can draw several conclusions from this lot, depending on which interpretation of quantum mechanics is used. In the old Copenhagen interpretation, produced by Niels Bohr, Werner Karl Heisenberg, Pascual Jordan and Max Born, it is concluded that the principle of locality (or separation) should not apply and that they do so the collapse of the wave function instantaneously. In the “Many-worlds interpretation” of Hugh Everett III, the locality is maintained and the effects of the measures rise from separating and branching of the "stories" or “world lines” of observers. Perhaps "shut up and calculate" is the only possible approach to understand QM, if only to try to check the tightness of theoretical models to the amount of data expecting, for example, from results of experiments such those in progress at CERN (LHC). There is a risk, however ', that this guidance "on sight" leads erroneously to identify mathematical models and physical realities increasing, so', the "spread" between form and substance which, in my opinion, is the weak link the chain of logic that should guide the path of Knowledge.

Stefano Gusman

mercoledì 14 settembre 2011

Modello Standard e Forze Fondamentali : occhio al rinculo !

A partire dagli anni ottanta del XX secolo molti fisici teorici si sono concentrati sulla definizione di una teoria quantistica che conciliasse la meccanica quantistica e la relatività generale e spiegasse in maniera chiara l'esistenza delle quattro famiglie di particelle, dei bosoni intermedi e della gravità.
Nel modello standard ci sono tre tipi di bosoni : i
fotoni, i gluoni e i cosiddetti "bosoni deboli", cioè i bosoni W e Z (anche detti più precisamente "bosoni vettori intermedi W e Z"). Questi tre tipi di bosoni sono i responsabili rispettivamente della forza elettromagnetica, della forza nucleare forte e della forza nucleare debole. I fotoni sono bosoni di Gauge delle interazioni elettromagnetiche (forza elettromagnetica), i gluoni sono i bosoni delle interazioni forti (forza forte), e i bosoni W e Z sono i bosoni delle interazioni deboli (forza debole). In fisica delle particelle i bosoni di Gauge sono particelle elementari che hanno il compito di trasportare le forze fondamentali della natura.
In particolare, le
particelle elementari, le cui interazioni sono descritte dalla teoria di Gauge, esercitano forze su ogni altra particella mediante lo scambio di bosoni di Gauge.
La teoria della relatività generale di Albert Einstein descrive il campo gravitazionale in termini geometrici (cioè usando la nozione di curvatura dello spaziotempo). Tuttavia, essa non ci dice nulla riguardo alle particelle mediatrici della forza gravitazionale, i cosiddetti
gravitoni.
La gravità quantistica è quel campo della fisica teorica che tenta di unificare la teoria dei campi (meccanica quantistica relativistica), che descrive tre delle
forze fondamentali della natura (elettromagnetica, debole e forte), con la teoria della relatività generale, riguardante la quarta interazione fondamentale, ossia la gravità Ad un livello teorico semplice tutti i bosoni di Gauge devono essere privi di massa e le forze che essi descrivono devono essere a lungo raggio. La contraddizione tra questa teoria e l'evidenza sperimentale riguardante il corto raggio delle interazioni deboli richiedono ulteriori approfondimenti teorici ed al momento attuale una giustificazione di tutto ciò arriva dal meccanismo di Higgs. Questo processo conduce a bosoni di Gauge massivi a partire da particelle inizialmente senza massa.
.
Lo scopo ultimo di alcune teorie in questo campo (ad esempio la teoria delle stringhe), è anche quello di ottenere una struttura unica per tutte e quattro le forze fondamentali e quindi di realizzare una teoria del tutto.

Ma una teoria che faccia scaturire le forze fondamentali dallo scambio tra particelle elementari di bosoni massivi, seppur corretta formalmente dal punto di vista matematico, è di per se incoerente dal punto di vista fisico in quanto viola palesemente il principio di conservazione della quantità di moto che anche a scale quantistiche, è una legge fisica sperimentalmente evidente.

Ad esempio, la spettroscopia Mössbauer è una tecnica spettroscopica basata sull'assorbimento ed emissione risonante di raggi gamma nei solidi. Con i raggi gamma, a differenza degli altri fotoni meno energetici, si verifica solitamente un problema: l'atomo che emette il fotone 'rincula' in maniera non trascurabile, assorbendo così una fetta di energia dal fotone stesso il quale, di conseguenza, non ha più la stessa frequenza di prima e non è in grado di effettuare risonanza con un altro atomo analogo. Come prima soluzione a questo problema si era ottenuta la risonanza disponendo la sostanza emettitrice sopra un cilindro ruotante ad alta velocità, così da compensare il suddetto rinculo. Ma successivamente l'assorbimento ed emissione risonante furono osservati per la prima volta da Rudolf Mössbauer nel 1957 su materiali che avevano una struttura cristallina tale da distribuire il rinculo stesso su molti più atomi riducendo così la perdita di energia del fotone gamma: tale fenomeno è stato chiamato appunto effetto Mössbauer.

Quanto sopra a ribadire il concetto che, fino a prova contraria, la legge di conservazione della quantità di moto resta valida ed operante anche tra le particelle elementari del Modello Standard.

Struttura del protone : Forza nucleare forte.
Ogni quark possiede una carica di colore che cambia continuamente trasferendo gluoni ad altri quark. Tale condivisione di gluoni genera un campo attrattivo che si oppone alle forze elettrodinamiche repulsive.



Resta allora da capire come possa essere stabile una struttura del genere, ovvero come possano svilupparsi forze attrattive tra particelle elementari che si scambiano particelle massive (i gluoni in questo caso).

È la massa delle particelle mediatrici, infatti, a determinare il raggio d'azione dell'interazione, rispetto al quale è in rapporto di proporzionalità inversa (vedi teoria di Yukawa ), raggio di azione che, nel caso dell'interazione nucleare forte è estremamente breve. Quindi se la massa a riposo dei gluoni fosse nulla, come nel caso del fotone e del gravitone (che ricordiamo essere le particelle mediatrici rispettivamente della forza elettromagnetica e della gravitazione), il raggio di azione della forza sarebbe infinito.

Il “confinamento” dei quark è, allora, fisicamente possibile solo ipotizzando che questi ultimi siano “delocalizzati” come onde di materia, sostituendo all’interazione tramite mediatori quantistici quella di un campo a sua volta costituito da onde di materia, nei quali i quark sono "immersi" e che agisce anche dall'esterno.

Questo è il motivo per cui l’ideatore della MT, Marius, ritiene che soltanto sostituendo un modello ondulatorio a quello particellare della materia proposto dal Modello Standard. si possano spiegare le forze attrattive (tra cui, ovviamente, anche la forza di gravità) oltre che quelle repulsive.

Stefano Gusman

Standard Model and Fundamental Forces: Look at the recoil !

Since the eighties of the twentieth century, many theorists have focused on defining a quantum theory which would reconcile quantum mechanics and general relativity and explain clearly the existence of four families of particles, intermediate bosons and gravity.
In the Standard Model there are three types of bosons: photons, gluons and so-called "weak bosons", namely the W and Z bosons (also called more precisely "intermediate vector bosons W and Z"). These three types of bosons are responsible, respectively, for the electromagnetic force, the strong nuclear force and the weak nuclear force. Photons are Gauge bosons of electromagnetic interactions (electromagnetic force), the gluons those ones of the strong interaction (strong force), and W and Z are the bosons of weak interactions (weak force). In particle physics, the Gauge bosons are elementary particles that have the task of transporting the fundamental forces of nature. In particular, the elementary particles whose interactions are described by Gauge theories exert forces on each other particle through the exchange of Gauge bosons.The theory of general relativity by Albert Einstein described the gravitational field in geometric terms (using the notion of spacetime curvature). However, it does not tell us anything about the particle mediating the gravitational force, the so-called gravitons.The quantum gravity is that field of theoretical physics that attempts to unify the field theory (relativistic quantum mechanics), which describes three of the fundamental forces of nature (electromagnetic, weak and strong), with the theory of general relativity, on the fourth fundamental interaction that is gravity. At a theoretical level, all the simple Gauge bosons must be massless and the forces that they describe must be a long haul. The contradiction between this theory and experimental evidence, regarding the short range of weak interactions, require further theoretical and at present a justification of this comes from the Higgs mechanism. This process leads to massive Gauge bosons from initially massless particles..The ultimate goal of some theories in this field (such as string theory), is also to get a unique structure for all four fundamental forces and then to build a theory of everything.

But a theory that do arise the fundamental forces between elementary particles by the exchange of massive bosons, although formally correct from the mathematical point of view, is itself inconsistent from the physical point of view because it clearly violates the principle of conservation of momentum that at quantum scales, is a physical law experimentally evident.

For example, the Mössbauer spectroscopy is a spectroscopic technique based on the absorption and emission of resonant gamma rays in solids.With gamma rays, unlike other less energetic photons, there is usually a problem: the atom emitting a photon recoils in a non-negligible way, thus absorbing a slice of energy from the same photon which, consequently, doesen’t have the same frequency as before and is not able to make similar resonance with another atom. As the first solution to this problem was obtained by placing the substance emitting over an high speed rotating cylinder so as to compensate the before mentioned recoil.But then the resonant absorption and emission were observed for the first time by Rudolf Mössbauer in 1957 on materials that had a crystalline structure such as to distribute the same recoil on many more atoms thus reducing loss of the photon energy range: this phenomenon has been precisely known as “Mössbauer effect”.
The above is to reaffirm the notion that, until proven otherwise, the law of conservation of momentum is valid and working among the elementary particles of the Standard Model.

Structure of the proton : Strong nuclear force.


Each quark has a color charge moving constantly changing gluons to other quarks. Such sharing of gluons generates attractive field which opposes the electrodynamic repulsion forces.

It remains then to understand how can be stable this kind of structure, or how can develop attractive forces between elementary particles that are exchanged massive particles (the gluons in this case).

Is the particle mass mediators, in fact, to determine the range of interaction, with which is compared to a ratio of inverse proportionality (see Yukawa theory), range that, in the case of the strong force is extremely short. So if the rest mass of gluons be void, as in the case of the photon and the graviton (mediators, respectively, of electromagnetic force and gravitation), the radius of action of the force would be infinite.

Then, "confinement" of quarks is physically possible only assuming that they are "relocated" as matter waves, according to Loise De Broglie's hypotesis, the interaction with mediators replacing that of a quantum field in turn consists of matter waves in which the quarks are "immersed" acting also from the outside.

This is why the creator of the MT, Marius, believes that only by replacing a model wave-particle of matter to that proposed by the Standard Model could be explained the attractive forces (including, of course, the gravity force) as well as repulsive.

Stefano Gusman

venerdì 9 settembre 2011

Il "compattatore spaziale"

Quanti affascinanti racconti di fantascienza sono ricorsi al concetto fisico di “buco nero” per narrare avventure da svolgersi in tunnels spazio temporali dove violare i limiti imposti ai viaggi spaziali dalla velocità della luce, entrare in altre dimensioni o, addirittura, viaggiare nel tempo. Ma nell’immaginario collettivo il buco nero è soprattutto quel terribile mostro, magari creato artificialmente dall'uomo a causa di imprudenti esperimenti, capace di risucchiare qualsiasi cosa al suo interno come un gigantesco aspirapolvere.

Ma cos’è davvero un buco nero ?

Nella Relatività Generale si definisce buco nero una regione di spazio da cui nulla, nemmeno la luce, può sfuggire. Cio’ puo’ avvenire attorno a un corpo celeste estremamente denso dotato di un'attrazione gravitazionale talmente elevata da non permettere l'allontanamento di alcunché dalla propria superficie. Questa condizione si ottiene quando la velocità di fuga dalla sua superficie è superiore alla velocità della luce. Un corpo celeste con questa proprietà è invisibile e la sua presenza potrebbe essere rilevata solo indirettamente, tramite gli effetti del suo intenso campo gravitazionale.
Ma come nasce un buco nero ?
Nel nucleo di una stella alla fine del proprio ciclo vitale, dopo essersi consumato, tramite fusione nucleare, il 10% dell'idrogeno trasformatosi in elio, si arrestano le reazioni nucleari. La forza gravitazionale che prima era in equilibrio con la pressione generata dalle reazioni di fusione nucleare, prevale e comprime la massa della stella verso il suo centro. Quando la densità diventa sufficientemente elevata può innescarsi la fusione nucleare dell'elio, in seguito alla quale c'è la produzione di litio, azoto e altri elementi (fino all'ossigeno e al silicio). Durante questa fase la stella si espande e si contrae violentemente più volte, espellendo parte della propria massa. Le stelle più piccole si fermano ad un certo punto della catena e si spengono, raffreddandosi e contraendosi lentamente, attraversano lo stadio di nana bianca e nel corso di molti milioni di anni diventano una sorta di gigantesco pianeta. Se invece il nucleo della stella supera una massa critica, detta limite di Chandrasekhar pari a 1,4 volte la massa solare, le reazioni possono arrivare fino alla sintesi del Ferro. La reazione che sintetizza il ferro per la formazione di elementi più pesanti è endotermica, richiede energia invece che emetterne, quindi il nucleo della stella diventa una massa inerte di ferro e non presentando più reazioni nucleari non c'è più nulla in grado di opporsi al collasso gravitazionale. A questo punto la stella subisce una contrazione fortissima che puo' causare una gigantesca esplosione, detta esplosione di supernova di tipo II. Durante l'esplosione quel che resta della stella espelle gran parte della propria massa, che va a disperdersi nell'universo circostante; quello che rimane è un nucleo estremamente denso e massiccio. Se la sua massa è abbastanza piccola da permettere alla pressione di degenerazione http://it.wikipedia.org/wiki/Materia_degenere di contrastare la forza di gravità si arriva ad una situazione di equilibrio e si forma una stella di neutroni. Se la massa supera le tre masse solari (limite di Volkoff-Oppenheimer) non c'è più niente che possa contrastare la forza gravitazionale; inoltre, secondo la Relatività generale, la pressione interna non viene più esercitata verso l'esterno (in modo da contrastare il campo gravitazionale), ma diventa essa stessa una sorgente del campo gravitazionale, rendendo così inevitabile il collasso infinito.

Un vero e proprio “compattatore spaziale”.

A questo punto la densità della stella morente, ormai diventata un buco nero, raggiunge velocemente valori tali da creare un campo gravitazionale talmente intenso da non permettere a nulla di sfuggire alla sua attrazione, neppure alla luce: si ha una curvatura infinita dello spaziotempo, che può far nascere dei cunicoli all'interno di buchi neri in rotazione. Alcuni scienziati hanno così ipotizzato che, almeno in linea teorica, è possibile viaggiare nel passato, visto che i cunicoli collegano due regioni diverse dello spaziotempo. A causa delle loro caratteristiche, i buchi neri non possono essere "visti" direttamente ma la loro presenza può essere ipotizzata a causa degli effetti di attrazione gravitazionale che esercitano nei confronti della materia vicina e della radiazione luminosa in transito nei paraggi o "in caduta" sul buco. In astronomia, un disco di accrescimento è una struttura formata da materiale che cade in una sorgente di campo gravitazionale. La conservazione del momento angolare richiede che, quando un'estesa nube di materiale collassa verso l'interno, ogni piccola rotazione che essa ha all'inizio debba aumentare. La forza centrifuga costringe la nube rotante a collassare in un disco e forze di marea tendono ad allineare la rotazione del disco con la rotazione della sorgente gravitazionale posta al centro. L'attrito tra le particelle del disco genera calore e dissipa il momento orbitale causando la caduta del materiale del disco verso il centro in lente spirali, finché non impatta contro il corpo centrale. I dischi di accrescimento più spettacolari che si trovano in natura sono quelli dei nuclei galatticiattivi: mentre la materia spiraleggia verso un buco nero supermassiccio centrale, il forte gradiente gravitazionale porta allo sviluppo di un forte calore. Il disco di accrescimento di un buco nero è abbastanza caldo da emettere raggi X, quindi temperature di milioni di gradi, poco prima di attraversare l'orizzonte degli eventi. In realtà un buco nero non è del tutto nero: esso emette particelle, in quantità inversamente proporzionale alla sua massa, portando ad una sorta di evaporazione. Questo fenomeno, dimostrato nel 1974 per la prima volta dal fisico Stephen Hawking, è noto come radiazione di Hawking ed è alla base della termodinamica dei buchi neri. La radiazione di Hawking è una radiazione termica che si ritiene sia emessa dai buchi neri a causa degli effetti quantistici. Si può comprendere il processo a livello fisico immaginando la radiazione particella-antiparticella emessa appena oltre l’orizzonte degli eventi. Un orizzonte degli eventi è, nell'accezione più diffusa, un concetto collegato ai buchi neri, una previsione della relatività generale. Secondo questa teoria, lo spazio ed il tempo formano un unico complesso con quattro dimensioni reali (detto spazio tempo). Nel caso di un buco nero di Schwarzschild, l'orizzonte degli eventi si crea nel momento in cui, in un corpo autogravitante, la "materia" (concetto utilizzato qui per identificare insieme la massa e l'energia, che secondo la relatività generale sono la stessa cosa) è così concentrata che la velocità di fuga dovrebbe essere pari o addirittura superiore a quella della luce.Secondo una definizione data da Roger Penrose in un buco nero, l'orizzonte degli eventi è una particolare superficie dello spazio-tempo che separa i posti da cui possono sfuggire segnali da quelli da cui nessun segnale può sfuggire. In un’accezione molto più generale, se per "evento" si intende un fenomeno (particolare stato della realtà fisica osservabile), identificato dalle quattro coordinate spazio-temporali, un "orizzonte degli eventi" può essere definito come una regione dello spazio-tempo oltre la quale cessa di essere possibile osservare il fenomeno. Nel caso dei buchi neri di Schwarzschild, l'orizzonte degli eventi è una superficie sferica che circonda una singolarità posta al centro della sfera; quest'ultima è un punto nel quale la densità assume un valore infinito. La singolarità potrebbe non essere necessaria, secondo alcune teorie (gravità quantistica - gravità quantistica a loop) che postulano lo spazio-tempo come una entità dotata di una realtà fisica, e non solo un mero concetto matematico, suddiviso in elementi discreti del diametro di una lunghezza di Planck. In altri termini, lo spazio-tempo avrebbe, secondo la suddetta teoria, un ruolo fisicamente attivo, non passivo e la sua struttura intima sarebbe costituita da veri e propri "atomi" che formerebbero una densa rete in continua evoluzione. In condizioni normali non si percepirebbe la struttura atomica dello spazio-tempo, il quale apparirebbe un continuo matematico e l'universo sarebbe descritto dalla relatività generale, ma a distanze nell'ordine della lunghezza di Planck le cose cambierebbero radicalmente: gli effetti quantistici e gravitazionali assumerebbero intensità confrontabili. Sarebbe come se lo spazio assumesse una "personalità fisica" propria ed interagisse con l'energia (massa) in modo attivo. Molti risultati sono solo di tipo speculativo o ipotetico, considerato che, al momento nessuno ha mai visto "da vicino" un buco nero (sono spesso avvolti da dischi di accrescimento o densi aloni di materia). C'è, inoltre, da osservare che dall'interno di un buco nero non può uscire alcuna informazione che possa dire alcunché sulla sua struttura intima o, perlomeno, non esiste una teoria di riferimento ben consolidata e suffragata da dati osservativi.

Tornando, allora, alla radiazione di Hawcking questa non proviene direttamente dal buco nero stesso, ma piuttosto è il risultato di particelle virtuali che – nascendo in coppia continuamente nel vuoto cosmico – diventano reali a causa della forza gravitazionale del buco nero. Per essere più precisi, le fluttuazioni quantistiche del vuoto provocano la comparsa di coppie particella-antiparticella in prossimità dell’orizzonte degli eventi dell’oggetto celeste. Una particella della coppia cade nel buco nero, mentre l’altra riesce a sfuggire nell’universo esterno. Per rispettare il principio di conservazione dell’energia complessiva, la particella che è precipitata nel buco nero deve avere energia negativa (rispetto a un osservatore che si trovi lontano dal buco nero). Mediante questo processo il buco nero perde massa e a un osservatore esterno sembrerebbe che il buco stesso abbia appena emesso una particella.

Resta irrisolto il problema matematico della “singolarità” che impedisce di mettere d’accordo Relatività Generale e Meccanica Quantistica.

D’altronde se è possibile teorizzare una singolarità matematica non puo’ esistere una singolarità fisica, nonostante il compattatore spaziale voglia costringere l’infinitamente grande a diventare infinitamente piccolo.

Stefano Gusman.