sabato 17 dicembre 2011

Il "quasi bosone"

Nel grafico seguente sono riportati i risultati delle eleborazioni statistiche sui dati provenienti dalla ricerca del bosone di Higgs svolta ad oggi da Atlas LHC e CMS combinati. Il grafico non è ufficiale (sono stati divulgati nella conferenza CERN del 13/12/11 i due grafici separatamente) ma, comunque, la visione di assieme è ugualmente attendibile per una valutazione qualitativa. In ascisse abbiamo la massa del bosone (che, ricordiamo, teoricamente è un'incognita) e in ordinate la probabilità che il bosone stesso si manifesti. Tale probabilità si ricava, a sua volta, dai diversi modi attesi teoricamente di manifestarsi del bosone (vari "canali di decadimento") nei vari range di massa/energia. Poichè il bosone viene prodotto da scontri tra protoni che determinano altri prodotti/modalità di decadimento (soprattutto fotoni ad alta energia che vengono rilevati mediante carlorimetri) occorre depurare da questi dati non significativi ai fini statistici ("rumore di fondo") i dati complessivi. Le fasce verdi e gialle rappresentano la "deviazione standard" (pari, rispettivamente, a 1 e 2 sigma) ovvero l'indicatore della "dispersione" dei dati attorno al valor medio della distribuzione probabilistica che governa il fenomeno fisico (in questo caso curve di Poisson) e, quindi, l'ampiezza del campione statistico e, in definitiva, la sua attendibilità, tanto maggiore quanto piu' grande e la sigma stessa. La linea orizzontale rappresenta quello che, in teoria, sarebbe con certezza (probabilità 1) "rumore di fondo" (dati compresi al di sotto della linea).












Come si puo osservare i dati presentano degli "eccessi statistici" nel campo di massa che va da 115 a circa 120 Gev, ossia il campo di esistenza di un bosone "leggero" la cui esistenza prevede, per essere compatibile con il modello standard, anche quella delle particelle super simmetriche (SUSY) delle quali non c'è traccia. La conclusione del seminario svoltosi al CERN è stata che i dati suggeriscono la possibile esistenza del bosone di Higgs in quel range di massa/energia, e ne escludono l'esistenza negli altri. La maggiore difficoltà sta proprio nel distinguere precisamente la singola particella dal rumore di fondo. Nei prossimi "run" di LHC che, entro il 2013, raggiungeranno i Tev la situazione dovrebbe chiarirsi ulteriormente.

La MT prevede che i "picchi statistici", come già si puo' cominciare a notare dal grafico, si appiattiranno ulteriormente assumendo andamenti "ondulati" a evidenziare la natura non localizzata delle particelle elementari, come da ipotesi di Louise De Broglie, e la loro appartenenza fisica ai campi di massa/energia (il campo di Higgs in questo caso) di cui rappresentano "stati di eccitazione". In ultima analisi si osserveranno dei “solitoni”.

Stefano Gusman

The "quasi boson"

The following chart shows the results of statistical elaborations on data from research conducted at today for the Higgs boson at LHC by Atlas and CMS, combined. The chart is not official (CERN have been disclosed in the conference of 13/12/11 the two graphs separately) but still, watching together is equally reliable for a qualitative assessment. In abscissa we have the mass of the Higgs (which, remember, it is theoretically unknown) and the ordinate the probability that the Higgs is manifested. This probability is obtained, in turn, by different ways of theoretically expected showing mode of the boson (various "decay channels") in various ranges of mass / energy. Since the Higgs is produced by crashes between protons that determine other products/decay mode (especially high-energy photons that are detected by calorimethers) must be purified from these data not significant for statistical purposes ("background noise") of the overall data. The green and yellow bands are the "standard deviation" (respectively equal to 1 and 2 sigma) or the indicator data scattering around the mean value of the probability distribution that governs the physical phenomenon (in this case Poisson curves ) and, therefore, the amplitude of the statistical sample and, ultimately, its credibility, greater more great the sigma itself. The horizontal line represents what, in theory, would with certainty "background noise" (data below the line).














As you can observe data present "statistical excess" in the field of mass ranging from 115 to about 120 Gev, namely the existence of a “light” Higgs boson whose existence requires, to be compatible with the standard model, even the super symmetric particles (SUSY) of which there isn't track. The conclusion of the workshop held at CERN was that data suggest the possible existence of the Higgs boson in this mass range/energy, and exclude the existence of others. The main difficulty lies in distinguishing precisely the single particle from the background noise. In the next "run" of the LHC, which, by the end of 2012, will reach Tev, should clarify the situation further.

The MT provides for "statistical peaks", as you can begin to see from the graph flatting further, taking "wavy" development, going to show un localized nature of elementary particles, as Louise De Broglie hypothesis , and their membership to the physical mass/energy fields (the Higgs field in this case) of which they are "exciting states".
Ultymately you will observe the "solitons".

Stefano Gusman

martedì 1 novembre 2011

logica "S.E.M.M."

Partiamo dall’inizio che è anche la fine, la conclusione e, allo stesso tempo, il postulato della MT : la costruzione della logica "S.E.M.M.” : Spazio = Energia = Massa = Materia.

Il Big Bang rientra a tutti gli effetti nel modello standard e implica, nel suo sviluppo cosmogonico di espansione, i principi della meccanica quantistica. Le varie fasi di espansione e relativo raffreddamento, percorrono attraverso le rotture di simmetria la formazione iniziale di particelle come neutrini, elettroni e quark, per arrivare infine alla nucleosintesi. Quando Erwin Hubble scoprì che la distanza delle galassie più lontane è proporzionale al loro redshift, tale osservazione fu usata come prova del fatto che le galassie e gli ammassi hanno una velocità apparente di allontanamento rispetto ad un determinato punto di osservazione: tanto più sono lontane, tanto più è elevata la loro velocità apparente. Se la distanza fra gli ammassi di galassie sta aumentando oggi, ciò suggerisce che tutti gli oggetti spaziali fossero più vicini in passato;andando a ritroso nel tempo, densità e temperatura tendono a infinito e si arriva perciò a un istante in cui tali valori sono così elevati che le attuali teorie fisiche non sono più applicabili (ciò avvenne una piccolissima frazione di secondo dopo l'inizio del processo). Infatti, per esempio, alcune grandezze fisiche assumono valore infinito nell'istante iniziale.

La costruzione di acceleratori di particelle ha permesso di verificare il comportamento della materia in condizioni estreme tuttavia questi acceleratori non hanno la possibilità di esaminare a fondo i regimi di energia piu' elevati. Senza alcun dato sperimentale relativo alle condizioni fisiche associate ai primissimi istanti dell'espansione, la teoria del Big Bang non è adeguata per descrivere tale condizione iniziale, tuttavia essa fornisce un'ottima descrizione dell'evoluzione dell'universo da un determinato periodo di tempo in poi.

L'origine dello Spazio e del Tempo.

di Diego Tasselli (astrofisico) – Estratto.

Le recenti conferme astrofisiche, portano la storia dell’Universo ad iniziare circa 15 miliardi di anni fa.

Prima di questo avvenimento la materia non esisteva nella forma con cui noi la conosciamo e con la quale siamo abituati a interagire, ma si presentava sotto forma di energia pura. Non si può però dire nulla sullo stato dell’Universo prima del momento (o istante) iniziale, che gli astronomi e astrofisici chiamano T=0. Si suppone che in quell’istante tutto fosse condensato in un punto di dimensioni nulle e di energia infinita, la "singolarità", dove il concetto di tempo cronologico (come lo concepiamo noi) non aveva significato, perché il tempo stesso doveva nascere! La nostra comprensione dell’Universo infatti, arriva al tempo T=10^-43 secondi dopo il Big Bang, momento nel quale tutte le quattro forze fondamentali della natura, cioè gravità, forza nucleare forte, forza nucleare debole e forza elettromagnetica erano unificate. Questa condizione era resa possibile dall’elevatissima temperatura ivi presente. Alcuni miliardesimi di secondo dopo l’esplosione, le quattro forze si separano e la prima a staccarsi fu la gravità, a cui seguono tutte le altre. Si generano così le condizioni affinché inizino a formarsi le particelle elementari come i quark ed i fotoni, che sono i mattoni della materia ordinaria. In questo istante avviene quello che gli scienziati chiamano "inflazione", un processo fisico, che fa assumere all’Universo la dimensione di un centimetro in un miliardesimo di secondo; ciò equivale a dire a conti fatti, che l'Universo si espande ad una velocità maggiore di quella della luce. La teoria dell'Universo inflazionario, anche se difficile da verificare, è plausibile e viene in aiuto nella spiegazione di alcuni comportamenti e fatti inspiegabili del neonato universo, primo fra tutti il fatto che l'universo attuale (almeno quello che conosciamo noi) è formato da materia che è ciò che rimane del "brodo primordiale", cioè il miscuglio di materia ed antimateria, generatosi dopo l’esplosione. In teoria tali entità erano in quantità uguale e miliardi di volte superiore alla quantità della materia attuale superstite: materia ed antimanteria interagivano annichilendolsi e trasformavano la loro essenza in energia pura. La materia attuale potrebbe dunque essere il risultato di fenomeni prodotti dall'esistenza di "fluttuazioni" create dall'espanzione inflazionaria. Un millesimo di secondo dopo il Big Bang i quark si riuniscono tra loro in tripletti formando così i protoni e i neutroni. In quei momenti, (se fossimo stati presenti), non avremmo potuto vedere assolutamente nulla in quanto i fotoni, che sono i portatori dell’energia luminosa, interagivano con i protoni ed i neutroni che i quark avevano generato.

Dovranno passare circa 300.000 anni perchè la materia diventi stabile e si riunisca secondo schemi chimici elementari andando a formare due gas semplici: l’idrogeno e l’elio. I fotoni a questo punto non interagiscono più e vengono rilasciati con omogeneità in ogni parte dell’Universo sotto forma di radiazione elettromagnetica. Oggi questa radiazione viene chiamata "radiazione fossile" è omnidirezionale e assolutamente omogenea, infatti essa costituisce la prova più convincente a sostegno della teoria del Big Bang.

Da questo momento in poi abbiamo a che fare con una situazione più familiare e meglio rappresentabile.

Lo Spazio ed il Tempo si dilatano, le galassie che si sono sino a quel momento formate, iniziano ad allontanarsi tra di loro, si forma l’universo come noi oggi lo osserviamo.

Partiamo da quest’ultima affermazione : “ lo spazio e il tempo si dilatano”. L’analogia che spesso viene fatta è quella del “palloncino” che si gonfia, immaginando, pero’ che lo faccia in quattro dimensioni (comprendendo il tempo) anziché soltanto in tre. Non si tratta di un’esplosione, anche se si parla di Big Bang, ma, appunto, di un’espansione. Il palloncino si gonfia, ma senza strappi. E’ un “continuum” spazio temporale, come Einstein stesso pensava, nel quale la dimensione spazio e la dimensione tempo non sono nettamente distinguibili, tanto è vero che nel quadrivettore relativistico assieme alle componenti di “tipo spazio” esiste quella di “tipo tempo” : dx = cdt. Ogni “evento” è caratterizzato da tre componenti spaziali e una temporale. Senza spazio niente tempo e viceversa. Lo spazio quindi nasce con il BB e con la materia e successivamente si espande.

Ma in “cosa” si espande se lo spazio nasce con il BB ?Si espande nella materia e con la materia insieme alla quale è nato dal BB, il che significa che lo spazio è materia.

In fisica classica, con materia genericamente si indica qualsiasi cosa che abbia massa e occupi spazio o alternativamente la sostanza di cui gli oggetti fisici sono composti, escludendo l'energia dovuta al contributo dei campi delle forze.

Questa definizione, sufficiente per la fisica macroscopica (meccanica, termodinamica etc), non è più adatta per la moderna fisica atomica e subatomica, per cui lo spazio occupato da un oggetto è prevalentemente vuoto, e l'energia è equivalente alla massa (E=mc^2). Si può invece adottare la definizione che la materia è costituita da una certa classe delle più piccole, fondamentali entità fisicamente rilevabili: queste particelle sono dette fermioni e seguono il principio di esclusione di Pauli che stabilisce che non più di due fermioni possono esistere nello stesso stato quantistico. A causa di questo principio, le particelle che compongono la materia non sono tutte nello stato di energia minima e quindi è possibile creare strutture stabili di assemblati di fermioni.

Particelle della classe complementare, i bosoni, costituiscono invece i campi ; essi possono quindi essere considerati gli agenti che operano gli assemblaggi dei fermioni o le loro modificazioni, interazioni e scambi di energia. Una metafora non del tutto corretta da un punto di vista fisico, ma efficace e intuitiva, vede i fermioni come i mattoncini che costituiscono la materia dell'universo, e i bosoni come le colle o i cementi che li tengono assieme in certi modi per costituire la realtà fisica.

Dunque tutto ciò che occupa spazio e ha massa è conosciuto come materia. In fisica, non c'è un largo consenso per una comune definizione di materia, in parte perché la nozione di "occupare spazio" è mal definita e inconsistente nel quadro della meccanica quantistica. I fisici non definiscono con precisione cosa si deve intendere per materia, preferendo invece utilizzare e rivolgersi a concetti più specifici di massa, energia e particelle.

Secondo questa visione, non sono materia la luce (costituita da fotoni), i gravitoni e i mesoni. Ciò nonostante hanno tutti energia per cui (in accordo con l'equivalenza relativistica massa-energia) hanno anche massa. Dunque Massa = Energia, ma Massa = Materia, dunque Massa = Materia = Energia e, per quello che si è detto a proposito dello spazio : S=E=M=M.

E il tempo ? Il tempo di per se non esiste, come suggeriscono gli esperimenti “entanglement” condotti da Alain Aspect nel 1982 su fotoni polarizzati. Si tratta di una “categoria” del pensiero umano. In assenza di materia, come lo spazio, anche il tempo non esiste. Assieme allo spazio e alla materia è nato con il BB e, quindi, per la logica S.E.M.M. è esso stesso spazio e materia. La dimensione dell’eterno, come sostiene Emanuele Severino riprendendo il pensiero eleatico, è già presente ed è l’unica realtà esistente.

Stefano Gusman.

"S.E.M.M." logic

Let’s start from the beginning that is the end, the conclusion and at the same time, the postulate of MT: the construction of “S.E.M.M.” logic : Space = Energy = Mass = Matter.
The Big Bang falls in all respects in the Standard Model and implies, in its cosmological expansion development, the principles of quantum mechanics. The various stages of its expansion and cooling, traverse through the broken symmetry of the initial formation of particles such as neutrinos, electrons and quarks, and finally to the nucleosynthesis.
When Edwin Hubble discovered that the distance of distant galaxies is proportional to their redshifts, this observation was used as evidence that galaxies and clusters have an apparent velocity of removal for a given point of observation: more distant they are,higher their apparent speed. If the distance between galaxies clusters is increasing today, this matter suggests that all space objects were closer in the past and going back in time, temperature and density tend to infinity and so we arrive at a moment when these values
​​are so higher than the current physical theories are no longer applicable (this was a very small fraction of a second after the beginning of the process). In fact, for example, some physical quantities at the initial take infinite value.
The construction of particle accelerators has allowed us to verify the behavior of matter under extreme conditions, but these accelerators haven’t the opportunity to examine in depth the system of higher energies. Without any experimental data on the physical conditions associated with the earliest moments of the expansion, the Big Bang theory is not adeguate to describe the initial condition, nevertheless it provides an excellent description of the evolution of the universe from a certain period of time then.

The origin of Space and Time.

Diego Tasselli (astrophysicist) - Abstract.

Recent astrophysics confirmations carry the history of the universe to begin about 15 billion years ago.
Before this event matter does not exist in the way that we know and with which we are accustomed to interact, but it was in the form of pure energy. But you can not say anything about the state of the universe before the initial moment (or istant) called by astronomers and astrophysicists T = 0. It is supposed that at that moment everything was condensed into a point of zero size and infinite energy, the "singularity", where the concept of chronological time (as we conceive it) had no meaning, because time itself was born! Our understanding of the universe in fact, comes at time T = 10^-43 seconds after the Big Bang, at which time all four fundamental forces of nature, that are, gravity, strong nuclear, weak nuclear force and electromagnetic force were unified. This condition was made possible by the very high temperature therein. A few billionths of a second after the explosion, the four forces separate and the first to come off was gravity, followed by all others. This creates the conditions to begin to form elementary particles like quarks and photons, which are the building blocks of ordinary matter. This moment is what scientists call "inflation", a physical process in which the size of Universe take a centimeter in a billionth of a second, that is to say on balance that universe expand faster than speed of light. The inflationary universe theory, although difficult to verify, it is plausible and is in aid in the explanation of some unexplained behavior and facts of the infant universe, first and foremost the fact that the universe today (at least what we know) is formed from matter that is all that remains of the "primordial soup", the mixture of matter and antimatter generated in the wake of the explosion. In theory these entities were the same quantity and billions of times greater than the amount of present survivor matter: matter and anti matter interacted annihilating their essence and transformed into pure energy. Therefore actual matter could be the result of phenomena produced by the existence of "fluctuations" created in the inflationary expansion. A thousandth of a second after the Big Bang quarks gather together in triplets forming protons and neutrons. In those moments, (if we had been present), we could not see anything because the photons, which are the bearers of light energy, interacted with protons and neutrons that quarks generated.
It will take about 300,000 years for the matter to become stable and meets the second elementary chemical patterns going to make two simple gases: hydrogen and helium. The photons do not interact at this point and are released with more consistency throughout the universe in the form of electromagnetic radiation. Today, this radiation, called "fossil radiation", is omnidirectional and completely homogeneous, in fact it constitutes the most convincing evidence to support the Big Bang theory.
From now on we are dealing with a situation more familiar and better represented.
Space and time dilate, galaxies formed since to that time begin to move away the one from the other, it forms the universe as we observe it today.

Let's start with the last statement: "space and time dilate." The analogy is often made is the "balloon" that swells, imagining do it in four dimensions (including time) instead of only three. This is not an explosion, even if it is called Big Bang, but just an expansion. The balloon is inflated, but without tears. It’s a “continuum” temporal space, as Einstein thought, in which space and time dimensions are not clearly distinguishable, so much so that in the relativistic four-vector components along with the "type space" exists to "timelike" dx = cdt. Each "event" is characterized by three spatial and one temporal components. No time without space and vice versa. Space comes with BB and with matter and then expands.

But "in what" is expanded if the space was created with BB?
It expands into matter and with matter with which it was born from the BB, that means that space is matter.

In classical physics matter generically means anything that has mass and occupies space, or alternatively the substance of which physical objects are composed, excluding energy due to the contribution of the force fields.
This definition, sufficient for macroscopic physics (mechanics, thermodynamics, etc.), is no longer suitable for modern atomic and subatomic physics, for which the space occupied by an object is mostly empty, and the energy is equivalent to mass (E = mc^2). You can, however, adopt the definition that matter is made up of a certain class of smaller, physically detectable fundamental entities: these particles are called fermions and follow the Pauli exclusion principle, which states that no more than two fermions can exist in the same quantum state. Because of this principle, the particles that compose matter are not all in the state of minimum energy and then you can create stable structures of assembled fermions.
Additional class of particles, bosons, constitute the fields ; so they can be considered agents operating assemblies of fermions or their modifications, interactions and exchanges of energy. A metaphor, not entirely correct from a physical point of view, but powerful and intuitive, sees the fermions as the bricks that make up the universe's matter, and bosons as glues or cements that hold them together in some ways to constitute physical reality.
So anything that occupies space and has mass is known as matter. In physics, there isn’t a broad consensus for a common definition of matter, in part because the notion of "taking up space" is poorly defined and inconsistent in the context of quantum mechanics. Physicists do not define clearly what is meant by matter, preferring instead to use and refer to more specific concepts of mass, energy and particles.
According to this view, no matter the light (consisting photons), the gravitons and mesons. Yet all have energy for which (according to the relativistic mass-energy equivalence) also have mass. So Mass = Energy, but Mass = Matter, then Mass = Matter = Energy and, for what has been said about space : S=E=M=M.

And time? Time itself does not exist, as suggested by experiments "entanglement" conducted by Alain Aspect in 1982 with polarized photons. It is a "category" of human thought. In the absence of matter, such as space, time does not exist. It is born from BB with a space and matter and, therefore, for “S.E.M.M. logic” is matter and space itself.

The size of the eternal, as claimed by Emanuele Severino recovering Eleatic thought, is already present and is the only existing reality.

Stefano Gusman.

giovedì 13 ottobre 2011

OP HERA

Il modello standard raccoglie tutte le conoscenze sicure sulla fisica delle particelle. Esso descrive i mattoni elementari della materia e le regole a cui essi obbediscono. Tutta la materia è composta da quark e leptoni (a questi appartiene anche l'elettrone). Le quattro forze elementari che operano fra le particelle vengono trasmesse da particelle mediatrici (che sono il gravitone per la gravitazione; il fotone per la forza elettromagnetica; i bosoni W e Z per la forza debole; il gluone per la forza forte). Tutte queste particelle sono «puntiformi»; qui il termine significa solo che, anche in esperimenti con la massima risoluzione, non è possibile misurare effetti riconducibili a una loro estensione.
L'intensità di ognuna delle quattro forze fondamentali viene determinata attraverso proprietà delle particelle che possono essere descritte come cariche generalizzate. Nel caso dell'elettromagnetismo questa proprietà è la ben nota carica elettrica, mentre nel caso della gravitazione è la massa. Le forze, debole e forte, non appartengono alla nostra esperienza quotidiana: anche i concetti di «carica debole» e «carica di colore» introdotti per queste proprietà dai fisici rimangono dunque un po' astratti.
Queste diverse cariche vengono misurate con unità differenti: per esempio la massa in grammi e la carica elettrica in coulomb. Per poter confrontare direttamente le forze, i fisici delle particelle usano però, in luogo delle cariche, costanti di accoppiamento adimensionali. Quanto più grande è questa costante, tanto più intensa è la radiazione della particella mediatrice, e quindi tanto maggiore è la forza.

È la massa delle particelle mediatrici a determinare essenzialmente in che modo la forza dipenda dalla distanza (vedi teoria di Yukawa) se la massa è nulla, come nel caso del fotone e del gravitone (ricordiamo essere le particelle mediatrici rispettivamente della forza elettromagnetica e della gravitazione), il raggio di azione della forza è infinito; perciò noi conosciamo queste forze anche dal nostro mondo macroscopico nella vita quotidiana. I cosiddetti bosoni W e Z, mediatori della forza debole, hanno invece una massa un centinaio di volte maggiore di quella del protone; perciò il raggio d'azione della forza debole è limitato alla centesima parte del diametro del protone, ossia 2x10^-18 metri.
La situazione è completamente diversa nel caso della forza forte. Benchè le sue particelle mediatrici - i gluoni - siano prive di massa, il suo raggio d'azione è pari solo al raggio del protone (circa 10^-15 metri). Il valore delle costanti di accoppiamento forti è quindi così piccolo che solo per distanze molto minori del raggio del protone noi possiamo usare l'immagine di singole particelle e risolvere le equazioni della cromodinamica quantistica (QCD) nello stesso modo già usato nella QED. Per distanze maggiori la costante di accoppiamento, in conseguenza delle interazioni con i gluoni, portatori della carica di colore, diventa così grande che è impossibile, per esempio, separare dagli altri, uno dei tre quark che formano il protone. Qui falliscono anche i metodi di calcolo della QCD, e finora non si sono potute trovare risposte teoriche soddisfacenti alle domande sulla struttura del protone o sul confinamento dei quark e dei gluoni nel protone. Per poter andare oltre bisogna affidarsi innanzitutto a ricerche sperimentali, come quelle che vengono condotte nel collisore Hera.

La forza nucleare forte propone ancora diversi enigmi: in che modo quark e gluoni si uniscono a formare il protone? Come varia la forza forte al variare della distanza fra coppie di particelle? Perchè quark e gluoni sono sempre racchiusi all'interno di particelle come protoni e neutroni e non possono mai essere osservati come particelle libere? Le quattro forze fondamentali possono avere un'origine comune, come sospetta la maggior parte dei fisici, ed essere descritte da una teoria unitaria?
Gli esperimenti condotti con gli acceleratori di particelle, come quelli eseguiti nel collisore Hera, ad Amburgo, hanno dato un contributo essenziale a trovare risposte a queste domande.Hera (acronimo di Hadron-Elektron-Ring-Anlage, ossia «impianto ad anello per adroni ed elettroni») è il più importante acceleratore di particelle del Laboratorio DESY (Deutsches Elektronen-Synchroton). L'impianto è formato da due anelli di accelerazione di 6336 metri di circonferenza ciascuno, costruiti a una profondità di circa 30 metri in un tunnel sotto i quartieri urbani di Bahrenfeld e di Lurup. Un anello accelera elettroni (ma volendo anche le loro antiparticelle, i positroni), portandoli fino a un'energia di 27.5GeV, mentre l'altro accelera protoni fino a un'energia di 920GeV.Nel vuoto spinto dei due anelli di accumulazione, elettroni e protoni sfrecciano per ore in direzione opposta. Essi viaggiano quasi alla velocità della luce, percorrendo il loro itinerario circa 47'000 volte in un secondo e si scontrano frontalmente in due spazi sperimentali. Qui hanno luogo gli esperimenti chiamati H1 e Zeus: rivelatori grandi come case, del peso di varie migliaia di tonnellate, registrano gli urti fra le particelle e le tracce delle particelle secondarie che si generano nelle collisioni. Delle molte migliaia di tali eventi che si verificano ogni secondo, quelli più interessanti vengono registrati per la successiva interpretazione.
Il modello standard raccoglie tutte le conoscenze sicure sulla fisica delle particelle. Esso descrive i mattoni elementari della materia e le regole a cui essi obbediscono. Tutta la materia è composta da quark e leptoni (a questi appartiene anche l'elettrone). Le quattro forze elementari che operano fra le particelle vengono trasmesse da particelle mediatrici (che sono il gravitone per la gravitazione; il fotone per la forza elettromagnetica; i bosoni W e Z per la forza debole; il gluone per la forza forte). Tutte queste particelle sono «puntiformi»; qui il termine significa solo che, anche in esperimenti con la massima risoluzione, non è possibile misurare effetti riconducibili a una loro estensione.
Gli esperimenti di H1 e Zeus condotti con Hera hanno potuto misurare con maggior precisione l'intensità di questa forza che opera fra i quark. Dalle misurazioni compiute con Hera era noto che i quark presenti nel protone emettono gluoni, e che questi generano a loro volta altri gluoni o coppie quark-antiquark. La maggior parte dei fisici era però convinta che, oltre ai tre quark di valenza, nel protone si trovassero solo poche coppie quark-antiquark e solo pochi gluon, e che il protone fosse dunque quasi vuoto. Secondo le nuove misurazioni, invece, l'interno di un protone assomiglia a un brodo spesso, ribollente, in cui gluoni e coppie quark-antiquark vengono incessantemente emesse e di nuovo annichilate. Questa grande densità dell'emissione dei gluoni rappresenta uno stato completamente nuovo, finora non investigato, della forza forte. A nostro avviso si deve proprio a questo stato se quark e gluoni sono «confinati» all'interno del protone, e non sono quindi mai osservabili come particelle libere.
Hera ha fornito anche un'altra grande sorpresa: gli sperimentatori prospettavano che, nelle violente collisioni che si producono in acceleratori di grande potenza, i protoni si frantumassero in un gran numero di nuove particelle. Nel 15 per cento degli urti il protone è rimasto invece integro, anche se aveva subito una vigorosa interazione. Ma come può un protone sopravvivere alla collisione, quando ne viene fatto schizzare violentemente via un quark? La cosa sembra dapprima del tutto incomprensibile. Essa dipende chiaramente da una proprietà straordinaria della forza forte, che dovrebbe aiutarci a capire perchè quark e gluoni rimangono confinati nel protone.La scoperta di questi eventi ha condotto un'intensa collaborazione fra fisici teorici e sperimentali. Entrambi gli esperimenti condotti al collisore Hera - H1 e Zeus - furono variati per estendere le misurazioni a valori di impulso ancora minori e per poter meglio investigare i protoni diffusi. I teorici tentano innanzitutto, con l'aiuto di modelli, di spiegare l'elevata densità dell'emissione di gluoni nel processo di diffusione. Questa ricerca ha fatto nel frattempo grandi passi avanti. E forse si riuscirà presto a capire come la forte emissione di gluoni possa impedire che dal processo di diffusione emergano quark e gluoni come particelle libere e come i protoni possano restare intatti.
Riepiloghiamo ancora una volta: gli esperimenti compiuti col collisore Hera, usando elettroni come sonde, hanno portato sotto la lente di questo supermicroscopio la struttura del protone e le forze fondamentali della natura, permettendo di osservarle con una risoluzione mai raggiunta prima. In quest'ambito, divenuto per la prima volta accessibile alla misurazione, la forza debole e la forza elettromagnetica si comportano esattamente come è stato predetto dal modello standard della fisica delle particelle; benchè a grandi distanze le loro intensità siano del tutto diverse, esse hanno tuttavia un'origine comune. La differenza dipende dalla diversità di massa delle particelle mediatrici.La teoria della forza forte (la cromodinamica quantistica) è stata confermata nel modo più esatto alle piccole distanze. La struttura del protone si è rilevata molto complessa, poichè nel caso di piccoli impulsi la densità dei quark e gluoni è assai elevata. Inoltre, contro ogni attesa, dal processo di diffusione i protoni emergono spesso intatti. Le due nuove osservazioni ripropongono in forma del tutto nuova la domanda fondamentale:

«Perchè quark e gluoni sono imprigionati nell'interno del protone?».

L'Autore:
ROBERT KLANNER è professore di fisica sperimentale all'Università di Amburgo e dal dicembre 1999 è direttore di ricerca del Deutsches Elektronen-Synchrotron (DESY), nella stessa città. Al centro dei suoi interessi ci sono lo sviluppo di rivelatori di particelle e l'investigazione dell'interazione forte e della struttura degli adroni. Prima di trasferirsi ad Amburgo, nel 1984, aveva già lavorato con vari grandi acceleratori: a Serpuchov (in Russia), al Fermilab, presso Chicago, e al Laboratorio europeo per la fisica delle particelle (CERN) a Ginevra.

Bibliografia:
Maianni Luciano, La fisica delle particelle, «Le Scienze quaderni» nr. 103, settembre 1998
Rith Klaus e Schäfer Andreas, Il mistero dello spin dei nucleoni, in «Le Scienze» nr. 173, settembre 1999

Perché il titolo OPHERA a questo post? Perche secondo la MT gli incredibili risultati dell’esperimento Opera condotto dall’equipe del Professor Antonio Ereditato tra il CERN di Ginevra e i laboratori sotterranei del Gran Sasso sono strettamente correlati a quelli ottenuti in HERA di cui al precedente articolo che si chiude con la domanda :
Perché quark e gluoni sono imprigionati all'interno del protone?".
Una struttura come un protone, composto da particelle localizzate (quark) che si scambiano bosoni massivi (gluoni) non può essere stabile, perché non rispetta la legge di conservazione della quantità di moto che, anche su scala quantistica, rimane valida e operante (vedi effetto Moessbauer). Ora tre quark che si scambiano gluoni dovrebbero rinculare oltre che assorbire la quantità di moto dei gluoni ricevuti e il protone espoderebbe a meno che una forza esterna di compressione, esercitata da uno spazio fisico "materiale", non confini i quark. Ma questo tipo di azione è concepibile, al di là delle previsioni del modello standard che prevede particelle puntiformi, solo adottando un modello in cui le particelle sono de - localizzato in onde di materia, come ipotizzato Louis De Broglie.
“Quasi particelle” come solitoni o dromioni
che costituiscono perturbazioni di uno spazio "fisico e materiale" circostante, ovvero degli stessi campi cui appartengono. La variazione di frequenza delle onde determina la modulazione della spinta e della contro spinta che serve a mantenere l'equilibrio tra interno ed esterno, in modo, ad esempio, che quando un quark viene “strappato” ad un protone la materia possa rapidamente “ripararsi” e ristabilire l’equilibrio.
I neutrini, quindi, invece di superare la velocità della luce potrebbero aver semplicemente essersi "scavati" un tunnel attraverso un tale tipo di spazio, sottoattraversando le geodetiche impresse dalla gravità terrestre allo spazio-tempo ; in altre parole le geodetiche luce non sarebbero piu’ le linee di minima distanza tra punti. In luogo dello spazio – tempo esisterebbe un normale spazio euclideo tridimensionale che può essere attraversato anche in linea tendenzialmente retta dove a curvarsi non è lo spazio – tempo, ma la radiazione elettromagnetica.
D’altro canto, escludendo errori statistici e sistematici, o i neutrini sono stati piu veloci della luce (con tutte le conseguenze teoriche del caso ) o hanno preso una "scorciatoia". Questo salverebbe capra (esperimento) e cavoli (insuperabilità di c). Ma questa "scorciatoia", come un tunnel, ha bisogno di "qualcosa di reale" per esservi “scavato”. L’esperimento Alice condotto al Large Hadron Collider (LHC) potrebbe rilevare uno spettro continuo di emissione/assorbimento delle collisioni tra protoni come "biglietto da visita" di queste onde di materia costituite dalle “quasi particelle”.Tenendo, infine, presente che fino ad ora, l'esperimento Atlas, sempre condotto presso LHC, ha escluso l'esistenza del bosone di Higgs in un vasto range di massa/energia, si può ipotizzare che, anche per l’omonimo campo, si possa avere sui rivelatori una distribuzione sempre piu’ omogenea dei dati statistici con riduzione dei "picchi" all'aumentare dell’energia a indicare la presenza di massa /energia delocalizzata in luogo di bosoni vettori di massa localizzati.


Stefano Gusman

OPHERA


The standard model contains all the secure knowledge in particle physics. It describes the building blocks of matter and the rules that they obey. All matter is composed of quarks and leptons (the electron also belongs to these). The four elementary forces acting between the particles is transmitted from the mediating particles (which are the graviton for gravity, the photon to the electromagnetic force, W and Z bosons for the weak force, the gluon for the strong force). All these particles are 'point', hence the term just means that, even in experiments with the highest resolution, it is not possible to measure effects related to their extension.

The intensity of each of the four fundamental forces is determined by properties of the particles that can be described as generalized charges. In the case of electromagnetism this property is the well-known electrical charge, while in the case of gravitation is the mass. The forces, weak and strong are not part of our daily experience: the concepts of "weak charge" and "color charge" introduced by physicists for these properties are therefore a bit abstract.
These different positions are measured in different units: for example the mass in grams and the electric charge in coulombs. In order to compare the forces, particle physicists use, however, in lieu of charges, dimensionless coupling constants. The larger this constant, the more intense the radiation of the carrier particle, and thus the greater the force.
Is the particle mass mediators to determine essentially how the force depends on the distance (see Yukawa theory): if the mass is zero, as in the case of the photon and the graviton (remember to be the mediating particles, respectively, the electromagnetic force and gravitation), the radius of action of the force is infinite, so we know these forces also by our macroscopic world in everyday life. The so-called W and Z bosons, mediators of the weak force,have a mass one hundred times greater than that of the proton, so the range of the weak force is limited to one hundredth of the diameter of the proton, ie 2x10 ^ -18 meters.
The situation is completely different in the case of the strong force. Though its mediating particles - gluons - are massless, its range is equal only to the radius of the proton (about 10 ^ -15 meters). The value of strong coupling constants is therefore so small that only for distances much less than the radius of the proton, we can use the image of individual particles and solve the equations of quantum chromodynamics (QCD) in the same way already used in QED. For longer distances, the coupling constant, as a result of the interactions with the gluons, carrying the color charge, becomes so great that it is impossible, for example, separate from the others, one of the three quarks that make up the proton. You fail to include the methods of calculation of QCD, and so far have not been able to find satisfactory answers to theoretical questions about the structure of the proton or the confinement of quarks and gluons in the proton. In order to go further we must rely primarily on experimental research, such as those that are conducted in the Hera collider.

The strong nuclear force still offers several puzzles: how quarks and gluons together to form the proton? As the strong force varies as a function of distance between pairs of particles? Why quarks and gluons are always enclosed in particles such as protons and neutrons and can never be observed as free particles? The four fundamental forces can have a common origin, as suspected, most physicists, and be described by a single theory?The experiments conducted with particle accelerators, such as those performed in the collider Hera, in Hamburg, have made an essential contribution to find answers to these questions.Hera (which stands for Hadron-Elektron-Ring-Anlage, namely 'loop system for hadrons and electrons ") is the most important particle accelerator laboratory DESY (Deutsches Elektronen-Synchroton). The plant consists of two rings of accelerating 6336 meters in circumference each, built at a depth of about 30 meters in a tunnel under the city districts of Bahrenfeld and Lurup. A ring accelerates electrons (but also wanting their antiparticles, positrons), leading up to an energy of 27.5GeV, while the other accelerates protons to an energy of 920GeV.In the vacuum of the two storage rings, electrons and protons zipping in opposite directions for hours. They travel at nearly the speed of light along their route about 47,000 times a second and collide head-on in two experimental spaces. Take place here the experiments called H1 and Zeus : detectors with size of houses, weighing several thousand tons, record the collisions between the particles and traces of secondary particles that are generated in collisions. Of the many thousands of such events occurring every second, the most interesting ones are recorded for later interpretation.The standard model contains all the safe knowledge in particle physics. It describes the building blocks of matter and the rules that they obey. All matter is composed of quarks and leptons (the electron belongs to these). The four elemental forces operating between the particles are transmitted from the mediating particles (which are the graviton for gravity and the photon to the electromagnetic force, W and Z bosons for the weak force, the gluon for the strong force). All these particles are "point", hence the term simply means that, even in experiments with the highest resolution, it is not possible to measure effects related to their extension.The experiments conducted with the H1 and Zeus, Hera were able to measure more precisely the intensity of this force that operates between the quark. From the measurements made with Hera was known that the quarks in the proton emit gluons, and that they generate further gluons or quark-antiquark pairs. Most physicists, however, was convinced that, in addition to the three valence quarks in the proton, they were only a few pairs quark - antiquark and only few gluons and therefore that the proton was almost empty. According to new measurements, however, the interior of a proton resembles in a seething thick broth in which gluons and quark-antiquark pairs are continuously generated and annihilated again. This high density of the emission of gluons is a completely new state, so far not investigated, of the strong force. In our opinion, is due precisely to this state if quarks and gluons are "confined" inside the proton, and are therefore never observed as free particles.Hera has provided another surprise: the prospective trial was that, in the violent collisions that occur in high power accelerators, protons were crushed in a large number of new particles. Instead in 15 percent of the proton collisions they remained intact, even though he had undergone a vigorous interaction. But as a proton can survive the collision, when a quark is violently gotten out from it ? The thing seems utterly incomprehensible. It clearly depends on a flagship property of the strong force, which should help us understand why quarks and gluons are confined in the proton.The discovery of these events led to an intense collaboration between theoretical and experimental physicists. Both collider experiments to the Hera - H1 and Zeus - were changed to extend the measurements to lower values ​​of pulse to better investigate the protons diffuse. The first theoretical attempt, with the help of models, to explain the high density of the emission of gluons in the scattering process. This research has made great strides in the meantime. And maybe you will soon figure out how the strong emission of gluons can prevent that quarks and gluons emerge as free particles from diffusion process, and as protons can remain intact.Summarize once again: the collider experiments performed with Hera, using electrons as probes, have been brought under the lens of this supermicroscope the structure of the proton and the fundamental forces of nature, allowing to observe with a resolution never achieved before. In this context, for the first time become accessible to measurement, the weak force and electromagnetic force behave exactly as predicted by the standard model of particle physics ; though at great distances their intensities are quite different, they have however a common origin. The difference depends on the diversity of particle mass mediators.The theory of the strong force (quantum chromodynamics) was confirmed in the most accurate for small distances. The structure of the proton is detected very complex because, in the case of small pulses, the density of quarks and gluons is very high. Moreover, against all expectations, protons often emerge intact from the diffusion process. The two new observations re-propose in a completely new way the fundamental question:

"Why quarks and gluons are imprisoned inside the proton?".

The Author:ROBERT KLANNER is a professor of experimental physics at the University of Hamburg in December 1999 and is director of research of Deutsches Elektronen-Synchrotron (DESY) in the same city. At the center of his interests are the development of particle detectors and the investigation of the strong interaction and the structure of hadrons. Before moving to Hamburg in 1984, had already worked with several large accelerators: a Serpuchov (Russia), at Fermilab, near Chicago, and the European Laboratory for Particle Physics (CERN) in Geneva.

Bibliography:
Maianni Luciano, La fisica delle particelle, «Le Scienze quaderni» nr. 103, settembre 1998
Rith Klaus e Schäfer Andreas, Il mistero dello spin dei nucleoni, in «Le Scienze» nr. 173, settembre 1999

OPHERA because the title to this post? Because according to the MT the incredible results of the “Opera” experiment conducted by equipe of Professor Antonio Ereditato between CERN and the Gran Sasso underground laboratories are closely related to those obtained in HERA such as in the previous article that ends with the question:”Why do quarks and gluons inside the proton are imprisoned? ".A structure such as a proton, composed of localized particles (quarks) that exchange mass bosons (gluons) can not be stable, because it does not respect the law of conservation of momentum that even at quantum scale is valid and active (see Moessbauer effect). Now three quarks exchanging gluons should not only recoil, but also absorb the momentum of the gluons received and the proton would explode unless an external pressing force, exerted by a physical "material" space, confines quarks. But this kind of action is conceivable, beyond the standard model which provides estimates of point particles, only by adopting a model in which the particles are unlocalized matter waves, such as Louis De Broglie hypothesized."Almost particles" as solitons or dromions (Attilio Maccari:
http://www.ejtp.com/articles/ejtpv3i10p39.pdf) that make up perturbations of the same fields whose they belong constituting also the surrounding space. The change in frequency of the waves determines the modulation of the thrust and counter thrust being able to maintain the balance between internal and external. So, for example, when a quark is "ripped" to a proton, internal matter quickly “repairs” itself and restore balance. So neutrinos, rather than exceed the speed of light, could have simply underpass geodesics impressed by gravity to the space-time digging a tunnel through such that kind of space ; in other words, light geodesic wouldn’t minimum distance lines between points. In place of the space - time there would be a normal three-dimensional euclidean space that can be traversed in a tendential straight line which is not to bend space - time, but electromagnetic radiation. On the other hand, excluding statistical and systematic errors, or neutrinos were faster than light (with all the theoretical consequences of the case) or have taken a "shortcut". This would make safe goats (experiment) and cabbage (insuperability of c).But this "short cut", like a tunnel, needs "something real" to be "dug".The Alice experiment conducted at the Large Hadron Collider (LHC) could detect a continuous spectrum of emission/absorption of collisions between protons as a "calling card" of these waves of matter formed by the "almost particles".Taking, then, that until now, the Atlas experiment, also conducted at the LHC, has ruled out the existence of the Higgs boson in a wide range of mass/energy, it can be assumed that, even for the same name field, on the detectors may have a distribution of statistical data more and more 'homogeneous with reduction of the"peaks" with increasing energy, to indicate the presence of mass/energy unlocalized, in place of localized massive vector bosons.

Stefano Gusman

mercoledì 28 settembre 2011

Neutrini : molto rumore per nulla ?

Ovviamente se ne parla come della scoperta del secolo.Forse secondo un esperimento di fisica delle particelle effettuato tra il Cern di Ginevra e i laboratori del Gran Sasso, i neutrini potrebbero essere in grado di superare la velocità della luce. La notizia ha fatto il giro del pianeta e provocato grande eccitazione nel mondo della scienza. Il risultato è talmente incredibile da essere stato accolto dalla comunità scientifica con grande scetticismo, tanto che si è ormai scatenata la caccia all'errore. Ma perché gli scienziati hanno così tanta difficoltà ad accettare questi dati? Innanzi tutto un'evidenza di questo genere potrebbe far cadere uno dei pilastri fondamentali su cui si basa la relatività ristretta : l'insuperabilità della velocità della luce. Ma non c'è solo questo.Secondo quanto ha detto al Guardian Subir Sakar, docente di fisica delle particelle all' università di Oxford, questo risultato scombinerebbe la relazione di causalità: “ L'assunto che la causa non possa arrivare dopo l'effetto è assolutamente fondamentale per la nostra concezione di Universo: se salta siamo veramente nei guai”. In effetti l'idea che nulla può viaggiare più veloce della luce nel vuoto rappresenta la pietra angolare della teoria della relatività speciale di Einstein, che assume tale velocità come una costante. Se i neutrini sono più veloci della luce, allora uno dei presupposti fondamentali della scienza, secondo cui le leggi della fisica sono le stesse per tutti gli osservatori, potrebbe essere invalidato.

Tuttavia queste osservazioni riflettono una visione quanto meno “parziale” di tutta la faccenda.

È' noto da tempo che il principio di indeterminazione di Heisenberg mette in crisi soprattutto il concetto di causa. Nella formulazione piú forte del principio di causalità: “se noi conosciamo il presente esattamente possiamo predire il futuro”, è falsa non la conseguenza, ma la premessa. Noi non possiamo in linea di principio conoscere il presente in ogni elemento di determinazione. Perciò ogni osservazione è una selezione da una quantità di possibilità e una limitazione delle possibilità future. Poiché ora il carattere statistico della teoria quantistica è cosí intimamente associato alla inesattezza di tutte le percezioni, si potrebbe essere condotti alla supposizione che al di là del mondo percepito statisticamente si celi ancora un mondo “reale”, nel quale il principio di causalità è valido. La fisica deve descrivere soltanto la connessione formale delle percezioni. Piuttosto si può caratterizzare molto meglio il vero stato della cosa in questo modo : poiché tutti gli esperimenti sono soggetti alle leggi della meccanica quantistica da ciò segue che attraverso la meccanica quantistica viene stabilita definitivamente la nullità del principio di causalità.

Sincronicità è un termine introdotto da Carl Jung nel 1950 per descrivere la contemporaneità di due eventi connessi in maniera a-causale. Coincidenza di due o più eventi a -temporali, quindi non sincroni, legati da un rapporto di analogo contenuto significativo. Jung distingue la sincronicità dal "sincronismo", eventi che accadono simultaneamente, cioè nello stesso tempo, es: ballerini che fanno lo stesso passo con la stessa cadenza simultanemaente, due orologi che segnano lo stesso orario, metronomo e musica che seguono lo stesso ritmo etc…che sono eventi che accadono senza alcuna connessione di significato, sia causale che casuale, perché sono azioni di pura contemporaneità temporale.La sincronicità invece è basata su altri postulati che, nella vita di tutti i giorni, si traducono come: pensare a una persona e poco dopo ricevere una telefonata che ne porta notizie; nominare un numero e vedere passare una macchina con lo stesso numero impresso sulla carrozzeria; leggere una frase che ci colpisce e poco dopo sentircela ripetere da un'altra persona etc.; che talvolta danno la netta impressione d'essere accadimenti precognitivi legati a una sorta di chiaroveggenza interiore, come se questi segnali fossero disseminati ad arte sul nostro percorso quotidiano per "comunicare qualcosa che riguarda solo noi stessi e il nostro colloquio interiore". Una sorta di risposta esterna, affermativa o negativa, oggettivamente impersonale e simbolicamente rappresentata.
In analogia alla causalità che agisce in direzione della progressione del tempo e mette in connessione due fenomeni che accadono nello stesso spazio in tempi diversi, viene ipotizzata l'esistenza di un principio che mette in connessione due fenomeni che accadono nello stesso tempo ma in spazi diversi. Praticamente viene ipotizzato che al fianco del logico svolgimento di un atto conforme al principio in cui in tempi diversi accadono avvenimenti provocati da una causa, ne esista un altro in cui accadono avvenimenti nello stesso tempo ma in due spazi diversi perché, essendo casuali, non sono direttamente provocati da un effetto, corrispondendo per cui perfettamente al principio di a-temporalità.

In fisica le particelle vengono usualmente trattate come funzione d'onda che si evolve secondo l'equazione di Schrödinger. In particolare il principio di sovrapposizione gioca un ruolo fondamentale nella spiegazione di tutti i fenomeni di interferenza osservati. Tuttavia questo comportamento è in contrasto con la meccanica classica: a livello macroscopico, infatti, non è possibile osservare una sovrapposizione di stati distinti. Un esempio ben noto è fornito dal paradosso del gatto di Schrödinger: un gatto (come qualsiasi essere vivente) non può essere contemporaneamente vivo e morto. Sorge quindi una domanda: esiste una separazione tra regime quantistico e regime classico? L'interpretazione di Copenaghen suggerisce una risposta affermativa: effettuare una misura su un sistema quantistico equivale a renderlo osservabile, quindi "classico". Ad esempio, se in un esperimento della doppia fenditura si osserva la traiettoria di una particella, l'interferenza viene distrutta (principio di complementarità). Il meccanismo responsabile di questo fenomeno prende il nome di collasso della funzione d'onda e venne introdotto da Von Neumann.
Tuttavia, se esiste, un confine tra quantistico e classico non è affatto chiaro dove vada tracciato - né perché esso esista: il collasso della funzione d'onda viene solo postulato. Questi problemi vengono affrontati dalla teoria della decoerenza, la cui idea di base è la seguente: le leggi della meccanica quantistica, a partire dall'equazione di Schrödinger, che si applicano a sistemi isolati - in linea di principio, si applicano anche a quelli macroscopici. Quando un sistema quantistico non è isolato dall'esterno - ad esempio durante una misura - esso diventa entangled con l'ambiente (trattato anch'esso quantisticamente); questo fatto, secondo la teoria, ha conseguenze cruciali sul mantenimento della coerenza.
In particolare, se il sistema viene preparato in una
sovrapposizione coerente di stati, l'entanglement con l'ambiente porta alla perdita di coerenza tra le differenti parti della funzione d'onda che corrispondono agli stati sovrapposti. Dopo un tempo di decoerenza caratteristico, il sistema non è più in una sovrapposizione di stati, bensì in una miscela statistica.
Secondo la teoria, la differenza tra sistemi microscopici e macroscopici sta nel fatto che se i primi si possono isolare bene dall'esterno (cioè la coerenza si mantiene facilmente per un tempo sufficientemente "lungo"), lo stesso non si può dire per i secondi, per i quali invece si deve inevitabilmente tener conto dell'interazione con l'ambiente. Di conseguenza è praticamente impossibile osservare sovrapposizioni di stati macroscopicamente distinti, perché se anche si riuscisse a prepararle (cosa in sé difficile, anche se non vietata dalla teoria) avrebbero una durata troppo breve.

Tornando, allora, ai neutrini, alla causalità e alla velocità della luce il problema sta proprio nell’interpretazione del concetto di tempo.
Uno dei piu’ grandi errori della fisica teorica, infatti, è stato quello di considerare il tempo una grandezza fisica “reale” e non la semplice percezione/misurazione di variazioni di stato della materia da parte dell’uomo. Cio’ ha portato erroneamente a credere che il tempo potesse essere “strapazzato” (contratto o dilatato) come se fosse un pezzo di materia. E si che riescie difficile immaginare di poter contrarre o dilatare una lunghezza e, quindi, una distanza tra punti materiali (che, peraltro, esistono solo nella teoria matematico –geometrica e non nella realtà fisica) senza che questa successione di “non punti” sia a sua volta materia, ma il tempo proprio no…E’ un’astrazione, un concetto mentale, peraltro soggettivo o, per dirla alla Einstein, relativo. L’intera struttura dello spazio-tempo è una semplice astrazione matematica e non una realtà fisica. Cio’ che esiste realmente è solo materia in cui il nesso causa effetto degli eventi è preservato dall’essere tale materia un "continuo" fisico a-temporale. Gli esperimenti “entanglement” svolti negli anni 80 da Alain Aspect accreditano fortemente tale ipotesi.


In tale struttura la velocità non è altro che variazione della funzione di stato della materia in un normale spazio euclideo a sua volta materiale e a temporale.

Ma allora che è successo realmente tra il CERN e il Gran Sasso ? Semplicemente i neutrini potrebbero aver percorso una scorciatoia e, cioe', un segmento circolare che sottende l'arco di curva teorico che avrebbero percorso i fotoni.
Consideriamo la corda di lunghezza pari a 730 Km dell’arco del segmento circolare che distanzia i laboratori del CERN e del Gran Sasso. Con semplici considerazioni trigonometriche, dato approssimativamente R = 6.378 Km il raggio della Terra, l'angolo al centro teta è pari a 0,114 rad.
L'anticipo (presunto) dei neutrini rispetto ai fotoni è di circa delta t = 60 ns = 60 10^-9 sec, che si traduce in una "luce" al fotofinish di delta s = 300.000.000 m/sec x delta t = 18 metri circa. Ammettendo che il neutrino possa al massimo eguagliare la velocità luce, ma non superarla, i 18 metri sarebbero l’accorciamento della corda. L'angolo di deflessione relativistica gravitazionale della luce, in radianti puo' essere assunta pari a
:phi = 4* (G M/c^2)/R = 4 * 6.67e-11*5.97e24/(9.00e16*6.37e6) = 2.78e-9 rad. Per avere la deviazione in metri sul punto di arrivo basta propagare linearmente questa deflessione sulla distanza di 732 km, ottenendo : 2e-9*1e6 = 2e-3 m = 2 millimetri circa. Propagando la deflessione solo su 18 metri si otterrebbe uno scarto dalla geodetica naturale di circa 5 e-5 mm. Si tratterebbe, allora, di verificare l’ipotesi di traiettorie tra due punti in uno spazio tempo curvo piu’ brevi di una geodetica sfruttando l'alta capacità di penetrazione dei neutrini nella materia.Per fare cio’ occorre spararli non ad “alzo zero”, ma con un’inclinazione negativa opportunamente calcolata.
"Sulla carta" l'inclinazione negativa che il fascio di neutrini dovrebbe avere per percorrere la corda rettilinea del segmento circolare dovrebbe essere di circa 3,29 gradi (metà dell'angolo al centro), rispetto al piano tangente alla traiettoria "naturale" curva che percorerrebbe se fosse sparato ad alzo zero. Con tale inclinazione la pendenza di un tunnel "ideale" rispetto al piano orizzontale (piano tangente all'arco di curva nel punto di imbocco) scavato nella Terra sarebbe del 5,7 % circa. Questa traiettoria è proprio la corda che, per chi dovesse "scavarla" effettivamente, sarebbe una sella (avremmo una "discesa" e una "risalita" per risbucare in superficie, in quanto dovremmo fare i conti con la forza di gravita'), ma dal punto di vista puramente geometrico (ed euclideo), la corda sarebbe proprio un segmento di retta, con uno scostamento di un paio di mm dalla geodetica "naturale" ; in ogni caso il neutrino avrebbe fatto qualcosa che non è previsto dalla teoria anche senza superare la velocità della luce. Cio' significa anche che accelerando a lungo si puo' pensare di "scavare" un tunnel che "taglia" la strada percorsa dalla radiazione e.m....In pratica attraversare uno spazio "fisico" tridimensionale euclideo passando "sotto" le traiettorie geodetiche luce impresse dalla gravità che, pertanto, non sarebbero piu' le linee di minima distanza tra punti e, magari, raggiungere le stelle piu' rapidamente di quanto finora si potesse pensare.



Stefano Gusman

Neutrinos: much ado about nothing ?

Obviously it speaks as the discovery of the century. May be that according to a particle physics experiment carried on between CERN in Geneva and the Gran Sasso laboratories, the neutrinos might be able to exceed the speed of light. The news has gone around the world and caused great excitement in science. The result is so incredible that it has been greeted with great skepticism by the scientific community, so that started the hunting error. But why scientists have so much trouble accepting this data?First evidence of this kind could bring down one of the fundamental pillars of special relativity: the speed of light insuperability. But that's not all. According to the opinion of a professor of particle physics at the 'University of Oxford, Subir Sakar, published on Guardian, this result mess the causal relation: "The assumption that the cause can not come after the effect is absolutely fundamental to our conception of Universe: If we lose it we are into real troubles. " In fact the idea that nothing can travel faster than light in vacuum is the cornerstone of Einstein's special theory of relativity, which assumes that velocity as a constant. If neutrinos are faster than light, then one of the fundamental assumptions of science, that the laws of physics are the same for all observers, could be invalidated. However these observations at least reflect a partial vision of the whole question. It has long been known that the Heisenberg uncertainty principle, especially undermines the concept of cause. In the strongest formulation of the principle of causality: "If we know exactly present we can accurately predict the future," not the result is false, but the premise. We can not in principle know the present in every element of determination. Thus each observation is a selection from a number of possibilities and a limitation of future possibilities. Because now the statistical nature of quantum theory is so intimately associated with the inaccuracy of all perceptions, one might be led to the assumption that beyond the statistically perceived world is hidden still a "real" world, in which the principle of causality is valid . Physics should describe only the formal connection of perceptions. Rather, one can characterize the true state of the thing a lot better in this way: since all experiments are subject to the laws of quantum mechanics from this matter follows that, by quantum mechanics is established permanently the invalidity of the principle of causality.
Synchronicity is a term introduced by Carl Jung in 1950 to describe the simultaneity of two events connected in an a-causal way. Coincidence of two or more a temporal events, so not synchronous, linked by a similar ratio of meaningful content. Jung distinguishes synchronicity from the "timing" events that occur simultaneously, that is at the same time : dancers who do simultaneously the same step at the same rate, two clocks that mark the same time, metronome and music that follow the same rhythm, etc. ... which are events that occur without any connection with meaning, both causal and random, because they are actions pure contemporary actions. Instead synchronicity is based on other assumptions that, in everyday life, are translated as: to think of a person and shortly after receive a phone call brings news about; appointing a number and going to see a car with the same numberplate, read a sentence that strikes us and shortly after heard repeated by another person, etc.., which sometimes give distinct impression of being precognitive events related to a kind of inner clairvoyance, as if these signals were scattered artfully on our daily journey to "communicate something about only ourselves and our inner conversation." A kind of external response, positive or negative, objectively impersonal and symbolically represented.In analogy to the causality that acts in the direction of the progression of time and links two phenomena that occur in the same space at different times, it is assumed the existence of a principle that connects two phenomena occurring at the same time but in different spaces . Practically it is assumed that in addition to the next logical development of a measure consistent with the principle in which events occur at different times caused by a cause, there exists another in which events occur at the same time but in two different spaces because, being random, are not directly caused by an effect, that correspond perfectly to the principle of a-temporality.

In physics, the particles are usually treated as a wave function that evolves according to the Schrödinger equation. In particular, the superposition principle plays a fundamental role in the explanation of all the interference phenomena observed. However, this behavior is in contrast to classical mechanics: at a macroscopic level, in fact, it is not possible to observe a superposition of distinct states.
A well known example is provided by the paradox of Schrödinger's cat: a cat (like any living being) can not be both alive and dead. Then a question arises: is there a separation between quantum and classical regime? The Copenhagen interpretation suggests an affirmative answer: make a measurement of a quantum system is equivalent to make it observable, then "classic." For example, if in the double slit experiment we observe the trajectory of a particle, the interference is destroyed (principle of complementarity). The mechanism responsible for this phenomenon is called collapse of the wave function and was introduced by Von Neumann. However, if there is a boundary between the quantum and classical is not clear where the track goes - or why it exists: the collapse of the wave function is only postulated. These problems are addressed by the theory of decoherence, whose basic idea is the following: the laws of quantum mechanics, starting out from the Schrödinger equation, that apply – in principle - to isolated systems – apply even at the macroscopic ones. When a quantum system is not isolated from the outside - such as when a measure - it becomes entangled with the environment (which is also treated quantum); this fact, the theory goes, has crucial consequences on the maintenance of coherence.In particular, if the system is prepared in a coherent superposition of states, the entanglement with the environment leads to loss of coherence between the different parts of the wave function that correspond to the states overlapped. After a characteristic time of decoherence, the system is no longer in a superposition of states, but in a statistical mixture.According to the theory, the difference between microscopic and macroscopic systems is that if the first may insulate from the outside (that is that coherence is easily maintained for a sufficient "long" time), the same can not be said for the second , but for which you must inevitably take into account the interaction with the environment. Consequently it is virtually impossible to observe macroscopically distinct states overlap, because even if you could prepare (thing in itself difficult, if not forbidden by the theory) would have a life too short.
Returning then to neutrinos, causality and speed of light the problem lies in the interpretation of the concept of time.One of the most 'biggest mistakes of theoretical physics, in fact, was to consider the time a physical "real" and not merely the perception/measurement of changes of state of matter by man. This' mistakenly led to believe that the time could be "scrambled" (contract or dilated) as if it were a piece of matter. And if is difficult to imagine being able to contract or dilate a length and, therefore, a distance between material points (which, however, exist only in mathematical or geometric theory of, but not in physical reality), without this succession of "no points" is in turn matter, time such not so ... It is just an abstraction, a mental concept, however subjective or, to put it to Einstein, relative. The entire structure of space-time is a simple mathematical abstraction and not a physical reality. What really exists is only matter where the link cause and effect of events is preserved by its continuous and a temporal nature. Experiments "entanglement" performed by Alain Aspect in the 80’ accredit strongly this hypothesis. In this frame speed is nothing else that variation of matter state function in a normal euclideus material and a temporal space.

So what really happened between CERN and Gran Sasso? Neutrinos could have only traveled a short cut, that is a circular segment behind the arc of the curve by the theoretic photon path.
Let’s consider the chord 730 Km long, behind the arc of the circular segment which separates CERN and Gran Sasso
laboratories. Since approximately R = 6,378 km radius of the Earth, with simple trigonometric considerations the central angle theta in radians is 0.114. The advance (presumed) of neutrinos with respect to the photons is approximately delta t = 60 ns = 60 10 ^ -9 sec, which results in a "light" photo finish of delta s = 300,000,000 m / sec x delta t = 18 meters. Admitting that neutrinos can catch but not exceed light speed, 18 meters would be the shortening of the chord. The angle of relativistic gravitational deflection of light, in radians, can be assumed : phi = 4*(GM/c^2)/R = 4*6.67e-11*5.97e24 /(6.37e6 * 9.00e16) = 2.78e-9 rad. To obtain the deviation in meters on arrival point just propagate this deflection linearly on the distance of 732 km, obtaining: 2e-9 * 1E6 = 2e-3 m = 2 mm approximately. Propagating the deflection along 18 meters only, the scart from natural geodesic would be approximately 5 e-5 mm. It would, then, to test the hypothesis of trajectories between two points in a curved spacetime shorter then a geodesic, exploiting the high penetration of neutrinos in matter. To do this' the banker doesen't shoot them with "get up zero", but with a negative slope properly calculated. "On paper" the negative slope that neutrinos beam must have to walk the chord of circular segment, should be about 3.26 degrees (half the angle at the center), with respect to the plane tangent to the earthly bending. This means that, if we would have an "ideal" tunnel under earthly surface, its pendence would be approximately 5,7 % respect on the plane tangent to eartly bending at the access. If neutrino "pulled right", the trajectory is just the rope that, for those who would "dig" it, would be a saddle (we would have a "down" and a "lift" to emerge on the surface, as we should reckon with gravity), but from purely geometrical (and Euclidean) point of view the path would be just a line segment with a scart of a couple of millemeters from "natural" geodesic ; in every way neutrinos would do something that is not predicted by theory. also without exceeding light speed.This also means that for very long accelerating you can think of digging a tunnel that "cuts" the road traveled by the e.m. radiation. In practice to cross an euclidean "phisical" three-dimensional space under light geodetic trajectories impressed by gravity - that wouldn't be the smallest distance lines between points no more and, perhaps, reach for the stars more rapidly than you could think up to now .



Stefano Gusman

domenica 18 settembre 2011

"Zitto e calcola !"

L'interpretazione di Copenhagen della Meccanica Quantistica si ispira fondamentalmente ai lavori svolti da Niels Bohr e da Werner Karl Heisemberg attorno al 1927 all'epoca della loro collaborazione a Copenaghen. Nel classico esperimento in cui la luce attraversa uno schermo sul quale sia praticata una doppia fenditura si ottengono, su una lastra posta di fronte allo schermo bande alterne di colore chiaro e scuro, che possono essere interpretate come le zone in cui le onde luminose interferiscono costruttivamente oppure distruttivamente. Riducendo l'intensità del fascio di luce, in modo tale da avere un solo fotone alla volta, nonostante i fotoni colpiscano uno a uno lo schermo, nel complesso si riottiene la figura d'interferenza tipica delle onde.
Le questioni poste da questo esperimento sono :
1) La meccanica quantistica stabilisce soltanto in modo probabilistico il punto in cui ogni particella colpirà lo schermo e identifica le zone chiare e le zone scure come quelle per cui la probabilità di essere colpite da una particella è, rispettivamente, alta oppure bassa; non è in grado di prevedere in modo esatto dove un determinato corpuscolo andrà a colpire.
2) Cosa succede alle particelle nel percorso che dalla sorgente le porta allo schermo? Ogni particella è descritta da una funzione d'onda non localizzata: sembrerebbe che essa interagisca con entrambe le fenditure, ma se la si considera come puntiforme non può che attraversarne una sola.
Nella logica classica il principio di non-contraddizione afferma la falsità di ogni proposizione implicante che una certa proposizione A e la sua negazione, cioè la proposizione non-A, siano entrambe vere allo stesso tempo e nello stesso modo. Secondo le parole di Aristotele : "E impossibile che il medesimo attributo nel medesimo tempo appartenga e non appartenga al medesimo oggetto e sotto il medesimo riguardo".
Ebbene, la doppia natura corpuscolare - ondulatoria di particelle elementari quali il fotone (e l’elettrone che si comporta in maniera analoga), suggerita dalle evidenze sperimentali, è in contrasto con il suddetto principio.
Molti fisici hanno sottoscritto l'«interpretazione di ordine zero» della meccanica quantistica, riassunta nel famoso detto: «Zitto e calcola!», solitamente (ma forse incorrettamente) attribuito a Feynman.

L'interpretazione di Copenaghen si pone di fronte a tali questioni nel modo seguente:

1. Le affermazioni probabilistiche della meccanica quantistica sono irriducibili, nel senso che non riflettono la nostra conoscenza limitata di qualche variabile nascosta. Nella fisica classica, si ricorre alla probabilità anche se il processo è deterministico (per esempio il lancio di un dado), in modo da sopperire a una nostra conoscenza incompleta dei dati iniziali Per contro, l'interpretazione di Copenaghen sostiene che in meccanica quantistica i risultati delle misurazioni di variabili coniugate sono fondamentalmente non deterministici, ossia che anche conoscendo tutti i dati iniziali è impossibile prevedere il risultato di un singolo esperimento, poiché l'esperimento stesso influenza il risultato.

2. Sono prive di senso domande come: «Dov'era la particella prima che ne misurassi la posizione?», in quanto la meccanica quantistica studia esclusivamente quantità osservabili, ottenibili mediante processi di misurazione. L'atto della misurazione causa il «collasso della funzione d'onda», nel senso che quest'ultima è costretta dal processo di misurazione ad assumere i valori di uno a caso dei possibili stati permessi
Molti fisici e filosofi hanno mosso obiezioni all'interpretazione di Copenaghen e le celebri frasi di Albert Einstein: «Dio non gioca a dadi con l’Universo» e «credi davvero che la Luna non sia lì se non la guardi ne sono una esemplificazione.
La completezza della meccanica quantistica è stata attaccata dall'esperimento mentale Einstein - Podolsky - Rosen, inteso a mostrare che devono esistere alcune variabili nascoste, se si vogliono evitare effetti a distanza istantanei e non locali.

Negli spettri di assorbimento atomici si osservano sdoppiamenti delle righe spettrali che, in "singoletti", si dispongono simmetricamente rispetto alla riga centrale. Nel modello atomico di Bohr la condizione per cui un elettrone muovendosi attorno al nucleo atomico lungo la sua orbita non emetta energia è che il valore del momento angolare sia un multiplo intero della grandezza h/2π (quantizzazione del momento angolare). In pratica un atomo puo’ passare dallo stato fondamentale a uno stato “eccitato” solo assorbendo una determinata quantità di energia tale da portare un elettrone periferico a percorrere un’orbita esterna piu’ ampia il cui raggio r, detta m la massa dell’elettrone e v la sua velocità tangenziale, sia tale che mvr = nh/2π, con n numero intero. A sua volta, diseccitandosi, l’atomo restituirà la stessa quantita’ di energia precedentemente assorbita e, cioe’ E = nhv. Di qui i caratteristici spettri atomici di assorbimento e/o di emissione a righe. A ciascuna riga corrisponde una determinata frequenza v e, quindi, un certo quanto di energia hv.
I “quanti” potevano essere assorbiti o emessi solo in pacchetti definiti dalla quantità nhv dove, appunto, n doveva essere un numero intero che fu definito numero quantico principale. Grazie all’uso di strumenti ottici ad alto potere risolutivo si noto’ successivamente, che in realtà le suddette righe erano, a loro volta, costituite da righe “discrete” il che suggeri’ che gli elettroni oltre che orbite circolari come quelle previste da Bohr, potessero seguire anche orbite ellittiche in numero pari a e, detto numero quantico secondario. Osservazioni di ulteriori sdoppiamenti delle righe spettrale in “singoletti” che, in numero dispari, si disponevano attorno alla riga centrale, suggerirono che, considerando l'orbita ellittica di un elettrone attorno al nucleo alla stregua di una spira piana percorsa da una carica elettrica, questo effetto poteva essere attribuito alla variazione di inclinazione della spira, come si osservava a seguito dell'interazione con un campo magnetico esterno e, quindi, il terzo numero quantico fu definito numero quantico magnetico. Infine, sempre a causa di altri sdoppiamenti osservati fu introdotto il numero quantico di “spin” che definiva il verso di rotazione di ciascun elettrone attorno proprio asse e, quindi, il relativo momento magnetico angolare (o di spin) +1/2 e -1/2, secondo la “regola del cavatappi”, anch'esso influenzabile da un campo magnetico esterno.

Nelle configurazioni stabili gli spin degli elettroni di uno stesso orbitale devono essere uguali e opposti per il principio di esclusione di Pauli.

Il paradosso di Einstein-Podolsky-Rosen (paradosso EPR) è un esperimento mentale che dimostra come una misura eseguita su una parte di un sistema quantistico possa propagare istantaneamente un effetto sul risultato di un'altra misura, eseguita successivamente su un’altra parte dello stesso sistema, indipendentemente dalla distanza che separa le due parti
Questo effetto, noto come entanglement quantistico e derivante dalla interpretazione di Copenhagen della meccanica quantistica, venne considerato paradossale in quanto, oltre che controintuitivo, ritenuto incompatibile con un postulato della relatività ristretta (che considera la velocità della luce la velocità limite alla quale può viaggiare un qualunque tipo d'informazione) e, più in generale, con il principio di località.
Si deve a David Bohm, nel 1951, una riformulazione del paradosso in termini più facilmente verificabili sperimentalmente
Il paradosso EPR descrive un effetto fisico che, come accennato, ha aspetti paradossali nel senso seguente: se in un sistema quantistico ipotizziamo alcune deboli e generali condizioni come realismo, località e completezza, ritenute ragionevolmente vere per qualunque teoria che descriva la realtà fisica senza contraddire la relatività, giungiamo ad una contraddizione. Tuttavia è da notare che "di per sé" la meccanica quantistica non è intrinsecamente contraddittoria, né risulta in contrasto con la relatività
Benché proposto originariamente per mettere in luce l'incompletezza della meccanica quantistica, ulteriori sviluppi teorici e sperimentali seguiti all'articolo originale (come il teorema di Bell e l'esperimento sulla correlazione quantistica di Aspect) hanno portato una gran parte dei fisici a considerare il paradosso EPR solo un illustre esempio di come la meccanica quantistica contrasti in modo stridente con le esperienze quotidiane del mondo macroscopico (per quanto la questione non sia assolutamente chiusa) .
Considereremo la versione semplificata dell'esperimento ideale di EPR formulata da David Bohm.
Si supponga di avere una sorgente che emette coppie di elettroni, uno dei quali viene inviato alla destinazione A, dove c'è un'osservatrice di nome Alice, e l'altro viene inviato alla destinazione B, dove c'è un osservatore di nome Bob. Secondo la meccanica quantistica, possiamo sistemare la sorgente in modo che ciascuna coppia di elettroni emessi occupi uno stato quantistico detto singoletto di spin. Questo si può descrivere come sovrapposizione quantistica di due stati, indicati con I e II. Nello stato I, l'elettrone A ha spin parallelo all'asse z (+z) e l'elettrone B ha spin antiparallelo all'asse z (-z). Nello stato II, l'elettrone A ha spin -z e l'elettrone B ha spin +z. È quindi impossibile associare ad uno dei due elettroni nel singoletto di spin uno stato di spin definito: gli elettroni sono quindi detti entangled, cioè intrecciati.








Riproposizione dell'esperimento suggerito da Einstein, Podolsky e Rosen, eseguito con elettroni.Una sorgente invia elettroni verso due osservatori, Alice (a sinistra) e Bob (a destra), i quali sono in grado di eseguire misure della proiezione dello spin degli elettroni lungo un asse.

Alice misura lo spin lungo l'asse ottenendo uno dei due possibili risultati: +z o -z. Supponiamo che ottenga +z; secondo la meccanica quantistica la funzione d'onda che descrive lo stato di singoletto dei due elettroni collassa nello stato I (le diverse interpretazioni della meccanica quantistica dicono questo in diversi modi, ma il risultato alla fine è lo stesso) e tale stato quantistico determina le probabilità dei risultati di qualunque altra misura fatta sul sistema. In questo caso, se Bob successivamente misurasse lo spin lungo l'asse z, otterrebbe -z con una probabilità del 100%. Analogamente, se Alice misurasse -z, Bob otterrebbe +z, sempre con una probabilità del 100% . In meccanica quantistica, la proiezione dello spin lungo x e quella lungo z sono quantità osservabili tra loro incompatibili, per cui gli operatori associati non commutano, cioè uno stato quantistico non può possedere valori definiti per entrambe le variabili (principio di indeterminazione). Supponiamo che Alice misuri lo spin lungo z e ottenga +z, in modo che il sistema collassi nello stato I. Ora, invece di misurare lo spin lungo z, Bob misura lo spin lungo x : secondo la meccanica quantistica, c'è il 50% di probabilità che egli ottenga +x e il 50% di probabilità che ottenga -x. Inoltre, è impossibile predire quale sarà il risultato fino a quando Bob non esegue la misura. È bene sottolineare che, benché si sia usato lo spin come esempio, si possono considerare molte altre quantità fisiche (osservabili), tra loro entangled. L'articolo originale di EPR, per esempio, usava l'impulso come quantità osservabile. Gli esperimenti odierni usano spesso la polarizzazione dei fotoni, perché più facile da preparare e quindi misurare.

Supponiamo che Alice decida di misurare lo spin lungo z (lo chiameremo z-spin). Dopo che Alice esegue la misura, lo z-spin dell'elettrone di Bob è noto, quindi è un elemento fisico di realtà. Analogamente, se Alice decidesse di misurare lo spin lungo x, l'x-spin di Bob sarebbe un elemento fisico di realtà dopo la sua misura
Uno stato quantistico non può possedere contemporaneamente un valore definito per lo x-spin e lo z-spin . Se la meccanica quantistica è una teoria fisica completa nel senso dato sopra, l'x-spin e lo z-spin non possono essere elementi fisici di realtà allo stesso tempo. Questo significa che la decisione di Alice di eseguire la misura lungo l'asse x o lungo l'asse z ha un effetto istantaneo sugli elementi fisici di realtà nel luogo in cui si trova Bob ad operare con le sue misure. Tuttavia, questa è una violazione del principio di località o principio di separazione.
Il principio di località afferma che i processi fisici non possono avere effetto immediato su elementi fisici di realtà in un altro luogo separato da quello in cui avvengono. A prima vista questa appare un'assunzione ragionevole (infatti a livello macroscopico lo è), in quanto conseguenza della relatività speciale, la quale afferma che le informazioni non si possono mai trasmettere a una velocità maggiore di quella della luce senza violare la causalità. Generalmente si crede che ogni teoria che violi la causalità sia anche internamente inconsistente, e quindi del tutto insoddisfacente
Tuttavia il principio di località si richiama fortemente all'intuizione fisica di livello macroscopico, e Einstein, Podolsky e Rosen non volevano abbandonarlo. Einstein derise le predizioni della meccanica quantistica come "spaventosa azione a distanza". La conclusione che trassero fu che la meccanica quantistica non è una teoria completa.
Esistono parecchi possibili modi per risolvere il paradosso. Quello ipotizzato da EPR è che la meccanica quantistica, nonostante il successo in una ampia e vasta varietà di scenari sperimentali, sia in realtà una teoria incompleta. In altre parole esisterebbe qualche teoria della natura ancora non scoperta, rispetto alla quale la meccanica quantistica gioca il ruolo di approssimazione statistica. Questa teoria più completa conterrebbe variabili che tengono conto di tutti gli "elementi fisici di realtà" e che danno origine agli effetti che la meccanica quantistica è in grado di predire solo a livello probabilistico. Una teoria con tali caratteristiche prende il nome di teoria delle variabili nascoste.
Per illustrare questa idea si può formulare una teoria delle variabili nascoste molto semplice, che spieghi i risultati dell'esperimento descritto sopra.
Si supponga che gli stati quantistici di spin di singoletto emessi dalla sorgente siano in realtà descrizioni approssimate dei "veri" stati fisici che possiedono valori definiti per lo z-spin e per l' x-spin. In questi stati "veri", l'elettrone che va verso Bob ha sempre valori di spin opposti rispetto all'elettrone che va verso Alice, ma tali valori sono completamente random (casuali). Per esempio, la prima coppia emessa dalla sorgente può essere "(+z, -x) verso Alice e (-z, +x) verso Bob", la coppia successiva "(-z, -x) verso Alice e (+z, +x) verso Bob" e così via. Per ciò, se l'asse della misura di Bob è allineato con quello di Alice, egli otterrà necessariamente l'opposto di qualunque cosa ottenga Alice; altrimenti egli otterrà "+" e "-" con eguale probabilità.
Ipotizzando di restringere le misure solo all'asse z e all'asse x, tale teoria delle variabili nascoste è sperimentalmente indistinguibile dalla teoria della meccanica quantistica.

In realtà c'è ovviamente un numero infinito (numerabile) di assi lungo i quali Alice e Bob possono eseguire le rispettive misure; questo significa che, in teoria, si potrebbe considerare un numero infinito di variabili nascoste indipendenti. Tuttavia, si deve tener presente che questa è una formulazione molto semplicistica di una teoria delle variabili nascoste e una teoria più sofisticata sarebbe in grado di risolvere il problema a livello matematico.
Ci sarebbe un’altra obiezione da fare : una volta emessi e, quindi, svincolati dalla struttura atomica di cui facevano parte, gli elettroni del singoletto sono ancora vincolati ad obbedire al principio di esclusione ?La risposta è affermativa in quanto la funzione d'onda che descrive lo stato quantistico del singoletto è unica ed è stazionaria, cioe' non dipende dal tempo, ma solo dallo spazio e "collassa" istantaneamente in una soluzione nel momento in cui Alice o Bob effettuano la misurazione, indipendentemente dal luogo in cui si trova ciascuno dei due elettroni costituenti il singoletto "entangled" dell'atomo da cui i due elettroni sono stati "strappati". Dopo che Alice effettua la sua misurazione e Bob ricava la misurazione correlata ciascun elettrone diventa indipendente dall'altro con una nuova funzione d'onda associata. Nel 1964, John Bell ha mostrato come le predizioni della meccanica quantistica nell'esperimento pensato da EPR siano in realtà leggermente differenti dalle predizioni di una classe molto vasta di teorie delle variabili nascoste. Grosso modo, la meccanica quantistica predice correlazioni statistiche molto più forti tra i risultati di misure eseguite su differenti assi di quanto non facciano le teorie delle variabili nascoste. Queste differenze, espresse adoperando relazioni di disuguaglianza note come disuguaglianze di Bell, sono dal punto di vista di principio individuabili sperimentalmente.
In seguito alla pubblicazione dell'articolo di Bell, cominciarono ad essere approntati tutta una serie di esperimenti per saggiare le disuguaglianze di Bell (come detto sopra, questi esperimenti in generale trattano con misure di polarizzazione di fotoni). Tutti gli esperimenti condotti finora hanno indicato un comportamento in linea con le predizioni della meccanica quantistica standard.
Attualmente la maggior parte dei fisici ritiene che la meccanica quantistica sia corretta e che il paradosso EPR sia appunto solo un "paradosso" per il fatto che le intuizioni classiche (di livello macroscopico) non corrispondano alla realtà. Si possono trarre da ciò parecchie diverse conclusioni, che dipendono da quale interpretazione della meccanica quantistica si usi. Nella vecchia interpretazione di Copenhagen, prodotta da Niels Bohr, Werner Karl Heisenberg, Pascual Jordan e Max Born, si conclude che il principio di località (o di separazione) non debba valere e che avvenga effettivamente il collasso della funzione d'onda istantaneo. Nell'interpretazione a molti-universi, di Hugh Everett III, la località è mantenuta e gli effetti delle misure sorgono dal suddividersi e ramificarsi delle "storie" o linee d'universo degli osservatori
Forse quello del “zitto e calcola” è l’unico approccio possibile alla comprensione della MQ, se non altro per cercare di verificare la tenuta dei modelli teorici alla mole di dati che ci si aspetta, ad es, dai risultati di esperimenti quali quelli in corso di svolgimento al CERN (LHC). C’è il rischio, pero’, che questa navigazione “a vista” conduca erroneamente a identificare modelli matematici e realtà fisiche aumentando, cosi’, lo “spread” tra forma e sostanza che, a mio parere, costituisce l’anello debole di quella catena logica che dovrebbe guidare il percorso della Conoscenza.

Stefano Gusman