tag:blogger.com,1999:blog-64233387870907620612024-03-17T20:04:01.151-07:00Gravity GravitàWhat is the real nature of gravity force ?
Qual'è la vera natura della forza di gravità ?Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.comBlogger52125tag:blogger.com,1999:blog-6423338787090762061.post-4654257111286530252012-10-08T00:13:00.002-07:002012-10-11T10:48:41.017-07:00MT vs RG<!--[if !mso]>
<style>
v\:* {behavior:url(#default#VML);}
o\:* {behavior:url(#default#VML);}
w\:* {behavior:url(#default#VML);}
.shape {behavior:url(#default#VML);}
</style>
<![endif]--><!--[if gte mso 9]><xml>
<w:WordDocument>
<w:View>Normal</w:View>
<w:Zoom>0</w:Zoom>
<w:HyphenationZone>14</w:HyphenationZone>
<w:PunctuationKerning/>
<w:ValidateAgainstSchemas/>
<w:SaveIfXMLInvalid>false</w:SaveIfXMLInvalid>
<w:IgnoreMixedContent>false</w:IgnoreMixedContent>
<w:AlwaysShowPlaceholderText>false</w:AlwaysShowPlaceholderText>
<w:Compatibility>
<w:BreakWrappedTables/>
<w:SnapToGridInCell/>
<w:WrapTextWithPunct/>
<w:UseAsianBreakRules/>
<w:DontGrowAutofit/>
</w:Compatibility>
<w:BrowserLevel>MicrosoftInternetExplorer4</w:BrowserLevel>
</w:WordDocument>
</xml><![endif]--><!--[if gte mso 9]><xml>
<w:LatentStyles DefLockedState="false" LatentStyleCount="156">
</w:LatentStyles>
</xml><![endif]--><!--[if !mso]><img src="//img2.blogblog.com/img/video_object.png" style="background-color: #b2b2b2; " class="BLOGGER-object-element tr_noresize tr_placeholder" id="ieooui" data-original-id="ieooui" />
<style>
st1\:*{behavior:url(#ieooui) }
</style>
<![endif]--><!--[if gte mso 10]>
<style>
/* Style Definitions */
table.MsoNormalTable
{mso-style-name:"Tabella normale";
mso-tstyle-rowband-size:0;
mso-tstyle-colband-size:0;
mso-style-noshow:yes;
mso-style-parent:"";
mso-padding-alt:0cm 5.4pt 0cm 5.4pt;
mso-para-margin:0cm;
mso-para-margin-bottom:.0001pt;
mso-pagination:widow-orphan;
font-size:10.0pt;
font-family:"Times New Roman";
mso-ansi-language:#0400;
mso-fareast-language:#0400;
mso-bidi-language:#0400;}
</style>
<![endif--><span style="font-family: Verdana,sans-serif; font-size: small;">La Relatività Generale generalizza ed estende la Relatività Speciale
ai sistemi non inerziali sotto il postulato del moto di caduta libera dei corpi
: <i>"in regioni indefinitamente piccole dello spazio - tempo per le quali
sia possibile un'accelerazione del sistema di coordinate tale che non sia
indotto alcun campo gravitazionale, vale ancora la RS e, cioe', l'invarianza del
termine ds^2 = - (dx1)^2 - (dx2)^2 - (dx3)^2 + (cdt)^2.</i></span><br />
<div style="font-family: Verdana,sans-serif;">
<span style="font-size: small;">Per quanto sopra tutti gli effetti di curvatura dello spazio - tempo tra due
sistemi di riferimento distinti e non inerziali in moto relativo uno rispetto
al'altro si manifestano e sono osservabili </span><span style="font-size: small;">solo dall’uno nell’altro e viceversa.</span></div>
<div style="font-family: Verdana,sans-serif;">
<span style="font-size: small;">In RG la forza di gravità dipende dall'accelerazione
indotta in una massa dalla curvatura dello spazio – tempo circostante generata
da un'altra massa. Il peso della massa in caduta libera sarebbe, quindi, una
forza apparente di origine elettromagnetica (repulsiva tra nubi elettroniche)
dovuta all'opposizione di una superficie a tale moto. Quindi anche il peso di
un uomo sulla terra sarebbe dovuto a questa accelerazione (potenziale) indotta
dalla curvatura prodotta nello S – T dal centro di massa della terra. Ma si è
detto che la curvatura si manifesta solo <b>tra sistemi non inerziali in moto
relativo l'uno rispetto all'altro</b> quindi, in realta', per la stessa RG noi
non dovremmo avvertire alcun peso. In un sistema di riferimento stazionario
rispetto al centro di massa della terra, quale quello solidale a un uomo con i
piedi ben piantati per terra, non esiste alcuna traiettoria cinematica e,
quindi, nessuna derivata prima e seconda. L'accelerazione viene aggiunta in un
secondo momento sulla base di un presunto moto (potenziale) di caduta libera,
ma si tratta di un mero artificio matematico che vale quanto la Legge di Newton che, forse,
applicando il teorema del <a href="http://it.wikipedia.org/wiki/Teorema_del_guscio_sferico" target="_blank">guscio
sferico</a> spiega anche meglio come si sviluppa la gravita' all'interno della
superficie terrestre e perché al centro della terra essa valga zero.</span><br />
<br />
<span style="font-size: small;">Come gia’ detto La Relatività Generale
descrive l'interazione gravitazionale non più come
azione a distanza fra corpi massivi, come era nella teoria newtoniana, ma come
effetto di una legge fisica che lega distribuzione e flusso nello spazio-tempo
di massa, energia e impulso con la geometria (più specificamente, con la
curvatura) dello spazio-tempo medesimo.</span><br />
<div style="font-family: Verdana,sans-serif;">
<span style="font-size: small;">La geometria dello spazio-tempo, in
particolare, determina quali sistemi di riferimento siano inerziali: sono
quelli associati a osservatori in caduta libera, che si muovono lungo
traiettorie geodetiche dello spazio-tempo. La forza peso risulta in questo modo
una forza apparente osservata nei riferimenti non inerziali.</span></div>
<div class="MsoNormal" style="font-family: Verdana,sans-serif;">
<span style="font-size: small;">Il
Principio di Equivalenza afferma : <i>la massa inerziale e la massa gravitazionale di
un corpo hanno lo stesso valore.</i> Questa uguaglianza è un fatto
sperimentale che non discende da alcun principio della fisica classica ; i
ruoli di queste due quantità sono infatti ben diversi: la massa inerziale
misura quanto il corpo si opponga all'applicazione di una forza, come enunciato
dal secondo principio della dinamica. La massa gravitazionale misura invece la
capacità di un corpo di attrarne un altro secondo la Legge della Gravitazione
Universale. Il fatto che queste due quantità risultino sperimentalmente
coincidere implica il fatto, osservato già da Galileo intorno al 1590, che la
traiettoria di un corpo in caduta libera non dipende dalle proprietà del corpo.
Einstein formulo’ il seguente esperimento mentale. Si consideri un osservatore
situato all'interno di una stanza chiusa. Se la stanza è poggiata sulla
superficie terrestre, l'osservatore percepisce una forza verso il basso dovuta
alla gravità: lanciando una palla in terra potrà misurarne l'entità. Se la
stanza è invece nello spazio, lontana da campi gravitazionali, contenuta in un
razzo che sta accelerando verso l'alto, l'osservatore percepisce anche in
questo caso una forza verso il basso: questa forza, dovuta all'inerzia del suo
corpo, è la stessa forza che percepiamo normalmente alla partenza e all'arrivo
in un ascensore. L'uguaglianza mi = mg ha come conseguenza il fatto seguente:
l'osservatore non può in alcun modo capire se l'accelerazione che sente sia dovuta
ad un campo gravitazionale o ad un'accelerazione. Analogamente, se la stanza è
in caduta libera
verso (ad esempio) la Terra,
l'osservatore al suo interno non percepisce alcuna forza di gravità: se lascia
cadere una moneta, osserva che questa non cade al suolo ma resta sospesa a
mezz'aria. L'osservatore non ha nessuno strumento per capire se è in una zona
dell'universo senza campi gravitazionali, o se invece sta cadendo verso un
pianeta.</span><br />
<br />
<span style="font-family: Verdana,sans-serif; font-size: small;">Vediamo la questione da un punto di vista
piu’ strettamente matematico</span></div>
<div style="font-family: Verdana,sans-serif;">
<span style="font-size: small;">L'<a href="http://it.wikipedia.org/wiki/Equazione_di_campo_di_Einstein">equazione di campo di Einstein</a> descrive la curvatura dello spazio tempo, in funzione della densità di
materia, dell'energia e della pressione, rappresentate tramite il <a href="http://it.wikipedia.org/wiki/Tensore_stress-energia">Tensore Stress– Energia T</a>.</span></div>
<div class="MsoNormal" style="font-family: Verdana,sans-serif;">
<span style="font-size: small;">A sinistra compare il <a href="http://it.wikipedia.org/wiki/Tensore_di_curvatura_di_Ricci">Tensore di curvatura di Ricci</a> che misura la curvatura<a href="http://it.wikipedia.org/wiki/Curvatura" title="Curvatura"><span style="color: windowtext; text-decoration: none;"></span></a> di una <a href="http://it.wikipedia.org/wiki/Variet%C3%A0_riemanniana">varietà riemanniana</a>,ovvero di una <a href="http://it.wikipedia.org/wiki/Variet%C3%A0_differenziabile">varietà differenziabile</a> su cui sono definite le nozioni di distanza, lunghezza, geodetica,area<a href="http://it.wikipedia.org/wiki/Area" title="Area"><span style="color: windowtext; text-decoration: none;"></span></a> (o volume<a href="http://it.wikipedia.org/wiki/Volume" title="Volume"><span style="color: windowtext; text-decoration: none;"></span></a>).</span></div>
<div style="font-family: Verdana,sans-serif;">
<span style="font-size: small;">La nozione di varietà differenziabile è
una generalizzazione del concetto di curva<a href="http://it.wikipedia.org/wiki/Curva_%28matematica%29" title="Curva (matematica)"><span style="color: windowtext; text-decoration: none;"></span></a> e di superficie <a href="http://it.wikipedia.org/wiki/Superficie" title="Superficie"><span style="color: windowtext; text-decoration: none;"></span></a>differenziabile in n dimensioni arbitrarie. Così come una curva differenziabile
è un oggetto che localmente assomiglia ad una retta<a href="http://it.wikipedia.org/wiki/Retta" title="Retta"><span style="color: windowtext; text-decoration: none;"></span></a>, o una superficie
che localmente assomiglia ad un piano<a href="http://it.wikipedia.org/wiki/Piano_%28geometria%29" title="Piano (geometria)"><span style="color: windowtext; text-decoration: none;"></span></a>, una varietà n-dimensionale somiglierà
localmente ad uno spazio<a href="http://it.wikipedia.org/wiki/Spazio_euclideo" title="Spazio euclideo"><span style="color: windowtext; text-decoration: none;"></span></a> euclideo n-dimensionale. L'aggettivo
"differenziabile" indica il fatto che questa "somiglianza"
locale garantisce la possibilità di associare univocamente in ogni punto uno “spazio
tangente” della stessa dimensione della varietà (come ad esempio una retta
tangente a una curva o un piano tangente a una superficie).</span></div>
<div class="MsoNormal" style="font-family: Verdana,sans-serif;">
<span style="font-size: small;">Lo <a href="http://it.wikipedia.org/wiki/Spaziotempo_di_Minkowski">spazio</a><a href="http://it.wikipedia.org/wiki/Spaziotempo_di_Minkowski" title="Spaziotempo di Minkowski"><span style="color: windowtext; text-decoration: none;"></span></a><a href="http://it.wikipedia.org/wiki/Spaziotempo_di_Minkowski"> tempo di Minkowski</a> è lo spazio R^4 dotato
del tensore g che può essere riassunto
nella forma :</span></div>
<div class="MsoNormal" style="font-family: Verdana,sans-serif;">
<span style="font-size: small;"><span lang="EN-GB">:
ds^2 = -c^2dt^2 +dx^2 +dy^2 +dz^2</span></span></div>
<div style="font-family: Verdana,sans-serif;">
<span style="font-size: small;">Nell'equazione di campo a destra compare il Tensore Energia - Impulso, anche detto Tensore Energia Momento o Tensore Stress - Energia che descrive
il flusso di energia
e quantità di moto associate ad un <a href="http://it.wikipedia.org/wiki/Campo_%28fisica%29">campo</a><span style="color: windowtext; text-decoration: none;"> </span></span></div>
<div style="font-family: Verdana,sans-serif;">
<span style="font-size: small;">Il tensore energia impulso fornisce il flusso della quantità di moto attraverso una ipersuperficie.
In RG la quantità di moto è il <a href="http://it.wikipedia.org/wiki/Quadrimpulso">quadrimpulso</a>. In RS il quadrimpulso è la generalizzazione quadrivettoriale
della quantità di moto della meccanica classica, cioè
è un vettore dello spazio tempo quadrimensionale sempre tangente
<a href="http://it.wikipedia.org/wiki/Linea_di_universo">alla linea di universo</a> di una particella, cioè
tangente alla sua traiettoria nello spaziotempo. </span></div>
<div style="font-family: Verdana,sans-serif;">
<span style="font-size: small;"><br /></span></div>
<div style="font-family: Verdana,sans-serif;">
<span style="font-size: small;">In <a href="http://it.wikipedia.org/wiki/Meccanica_lagrangiana">meccanica lagrangiana</a>, ogni sistema
meccanico è caratterizzato da una lagrangiana che consente di descrivere il
moto del sistema per mezzo delle <a href="http://it.wikipedia.org/wiki/Equazioni_di_Eulero-Lagrange">equazioni</a><a href="http://it.wikipedia.org/wiki/Equazioni_di_Eulero-Lagrange"> di Eulero - Lagrange</a>, o del
Principio di Hamilton. Per il <a href="http://it.wikipedia.org/wiki/Principio_variazionale_di_Hamilton">Principio</a><a href="http://it.wikipedia.org/wiki/Principio_variazionale_di_Hamilton"> Variazionale di Hamilton</a>, l'evoluzione temporale di un sistema meccanico minimizza l'azione.
La sua lagrangiana si dimostra essere la differenza tra l'energia
cinetica e l'energia potenziale totale. Le equazioni di Eulero - Lagrange, per questa
differenza, equivalgono al secondo principio della dinamica.
Le componenti spaziali del tensore stress - energia sono quindi le componenti
tridimensionali dell'impulso classico, mentre la componente temporale è
l'energia divisa per la velocità della luce.</span></div>
<div style="font-family: Verdana,sans-serif;">
<span style="font-size: small;">Il tensore è utilizzato per esprimere la
conservazione del quadrimpulso, fornita dall'<a href="http://it.wikipedia.org/wiki/Equazione_di_continuit%C3%A0">equazione</a><a href="http://it.wikipedia.org/wiki/Equazione_di_continuit%C3%A0" title="Equazione di continuità"><span style="color: windowtext; text-decoration: none;"></span></a><a href="http://it.wikipedia.org/wiki/Equazione_di_continuit%C3%A0"> di continuità</a>.</span></div>
<span style="font-size: small;"> </span><!--[if !mso]>
<style>
v\:* {behavior:url(#default#VML);}
o\:* {behavior:url(#default#VML);}
w\:* {behavior:url(#default#VML);}
.shape {behavior:url(#default#VML);}
</style>
<![endif]--><!--[if gte mso 9]><xml>
<w:WordDocument>
<w:View>Normal</w:View>
<w:Zoom>0</w:Zoom>
<w:HyphenationZone>14</w:HyphenationZone>
<w:PunctuationKerning/>
<w:ValidateAgainstSchemas/>
<w:SaveIfXMLInvalid>false</w:SaveIfXMLInvalid>
<w:IgnoreMixedContent>false</w:IgnoreMixedContent>
<w:AlwaysShowPlaceholderText>false</w:AlwaysShowPlaceholderText>
<w:Compatibility>
<w:BreakWrappedTables/>
<w:SnapToGridInCell/>
<w:WrapTextWithPunct/>
<w:UseAsianBreakRules/>
<w:DontGrowAutofit/>
</w:Compatibility>
<w:BrowserLevel>MicrosoftInternetExplorer4</w:BrowserLevel>
</w:WordDocument>
</xml><![endif]--><!--[if gte mso 9]><xml>
<w:LatentStyles DefLockedState="false" LatentStyleCount="156">
</w:LatentStyles>
</xml><![endif]--><!--[if !mso]><img src="//img2.blogblog.com/img/video_object.png" style="background-color: #b2b2b2; " class="BLOGGER-object-element tr_noresize tr_placeholder" id="ieooui" data-original-id="ieooui" />
<style>
st1\:*{behavior:url(#ieooui) }
</style>
<![endif]--><!--[if gte mso 10]>
<style>
/* Style Definitions */
table.MsoNormalTable
{mso-style-name:"Tabella normale";
mso-tstyle-rowband-size:0;
mso-tstyle-colband-size:0;
mso-style-noshow:yes;
mso-style-parent:"";
mso-padding-alt:0cm 5.4pt 0cm 5.4pt;
mso-para-margin:0cm;
mso-para-margin-bottom:.0001pt;
mso-pagination:widow-orphan;
font-size:10.0pt;
font-family:"Times New Roman";
mso-ansi-language:#0400;
mso-fareast-language:#0400;
mso-bidi-language:#0400;}
</style>
<![endif]-->
</div>
<div style="font-family: Verdana,sans-serif;">
<span style="font-size: small;">Il postulato del
moto di caduta libera è, quindi, un artificio volto a consentire la preventiva curvatura dello spazio - tempo e applicare il formalismo matematico che regge tutta la RG.</span><br />
<br />
Per essere ancora piu' chiari : essendo la derivata di una funzione
(e di derivate parziali ne compaiono negli operatori dell'equazione di
campo di Einstein) il limite del rapporto incrementale
al tendere a 0 dell'incremento, il postulato serve, appunto, a
consentire l'esistenza di incrementi sulle traiettorie dello spazio -
tempo, incrementi che, sicuramente, almeno nel caso della potenziale
traiettoria di una massa posta sulla superficie terrestre, rispetto al centro di massa, non esistono. <br />
<span style="font-size: small;"><br /></span></div>
<div class="MsoNormal" style="font-family: Verdana,sans-serif;">
<div style="font-family: Verdana,sans-serif;">
<span style="font-size: small;">In realtà in
assenza di campo gravitazionale, lo spazio-tempo non è curvo (è lo spazio-tempo
piatto di Minkowski) ; in esso possono essere scelti infiniti sistemi di
riferimento inerziali e fra di essi valgono la Relatività Speciale
e le trasformate di Lorentz. Un generico spazio curvo ha una proprietà molto
importante che lo raccorda, per così dire, al più familiare spazio piatto
euclideo. Per quanto esso possa essere incurvato, è sempre possibile
considerarne una porzione nella quale esso sia praticamente piatto. Si può
capire meglio il concetto considerando la superficie terrestre. Essa è uno
spazio (varietà) bidimensionale curvo in cui sono definibili coordinate
curvilinee quali la latitudine e la longitudine. In grande scala la curvatura
della superficie terrestre è ineliminabile e gli effetti di ciò sono ben
visibili a tutti. Per un muratore che sta costruendo una casa, invece, la
superficie terrestre è piatta ed egli non si pone neppure il problema. In ogni
spazio-tempo curvo è sempre possibile scegliere un sistema di coordinate
curvilinee rispetto alle quali lo spazio-tempo è localmente piatto ed inerziale
(spazio-tempo di Minkowski). Per fare questo è sufficiente immaginare un corpo
che cade liberamente in un campo gravitazionale. Rispetto a questo corpo gli
altri corpi liberi che cadono con lui, per un tempo limitato, appaiono
soddisfare la legge d'inerzia. Quelli fermi permangono fermi, quelli in moto
uniforme permangono in tale moto. Rispetto a quel sistema di riferimento in
caduta per un breve tempo, lo spazio-tempo è quello piatto di Minkowski . Hanno
esperienza di ciò gli astronauti quando sono parcheggiati in orbite terrestri
stazionarie (in effetti è come se cadessero liberamente). All'interno delle
loro navicelle essi esperimentano la gravità zero. Qui sulla terra è possibile
verificare quanto detto per breve tempo quando, per esempio, un aereo prende un
vuoto d'aria o in certi giochi al lunapark. Il fatto che lo spazio-tempo sia
incurvato dalle masse che vi creano il campo gravitazionale è un concetto al di
fuori dell'esperienza comune. In uno spazio curvo non valgono le regole e le
proprietà della geometria euclidea, che è la geometria della nostra vita
quotidiana. Per chiarire meglio questo concetto consideriamo un sistema di
riferimento inerziale K ed un sistema di riferimento K' non inerziale in
rotazione uniforme rispetto a K. Consideriamo anche una circonferenza solidale
con K : </span></div>
<br />
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgzHHWdwqcyIDO1P7U8Jd2w1heICf6eiWA179vGwcz7P-cqVksQMlnLKAeZzw1T4oZ4OOyppVEOlGeAK21f8mrBRl_S4uNmCXkPSOpZbB45t2jOBb-U6PfzancMsNuMGJG2AQ-g8ybGVdYM/s320/clip_image001.gif" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgzHHWdwqcyIDO1P7U8Jd2w1heICf6eiWA179vGwcz7P-cqVksQMlnLKAeZzw1T4oZ4OOyppVEOlGeAK21f8mrBRl_S4uNmCXkPSOpZbB45t2jOBb-U6PfzancMsNuMGJG2AQ-g8ybGVdYM/s320/clip_image001.gif" /></a><span style="font-size: 12pt;"> </span><br />
<div style="font-family: Verdana,sans-serif;">
<span style="font-size: small;">Rispetto a K il rapporto fra la circonferenza in quiete ed il suo
diametro è π. Rispetto a K' che ruota in senso antiorario la circonferenza
viene vista ruotare in senso orario. Ogni piccolo segmento della circonferenza
viene visto da K' muoversi con una certa velocità v. In un certo istante ogni
piccolo segmento di cui è formata la circonferenza viene visto contrarsi
rispetto a K' secondo la legge della contrazione di Lorentz per cui il rapporto
fra circonferenza e diametro è, rispetto a K', diverso da π (il diametro non subisce
la contrazione di Lorentz perchè non si muove rispetto a K' nel senso della sua
lunghezza).<br />
<br />
Con questo semplice esempio si dimostra che lo spazio rispetto ad un sistema di
riferimento accelerato non è piatto ma è curvo, in quanto non valgono più le
regole della geometria euclidea e se diamo per buona l'affermazione : <i>"in
fisica è reale cio’ che è misurabile"</i> ne deriverebbe che la
dilatazione dei tempi e la contrazione delle lunghezze sarebbero effettive (o,
il che è equivalente, assolute) e, quindi, si puo’ affermare che poichè un
campo gravitazionale è equivalente a un sistema di riferimento accelerato, lo
spazio-tempo viene incurvato da un campo gravitazionale.<br />
<br />
<b>In realtà lo spazio - tempo è visto curvo da k, ma non si curva
effettivamente</b>....nel merito <a href="http://marius-gravity.blogspot.it/2011/02/il-paradosso-del-disco-rigido.html">il paradosso del disco rigido</a><span style="color: blue;"><u>.</u></span><u><span style="color: blue;"> </span></u></span></div>
</div>
<div style="font-family: Verdana,sans-serif;">
<span style="font-size: small;">Nell’esperimento Hafele – Keating, alcuni
orologi atomici posti in volo attorno alla terra su aeroplani rimasero desincronizzati
rispetto a identici orologi a terra in quanto, evidentemente, accumularono
un ritardo nelle fasi di moto lineare in cui valeva la RS rispetto a quelli fissi a
terra e lo conservarono in fase di atterraggio quando la RS non era piu' applicabile. In
MT cio' viene interpretato con l'esistenza di un sistema di riferimento
assoluto per il tempo. <b>NB : Lo stesso ragionamento non vale per le lunghezze
perchè non c'è alcuna fase di accumulo, ma soltanto la contrazione misurata dal
sistema di riferimento a terra</b>.</span></div>
<div style="font-family: Verdana,sans-serif;">
<span style="font-size: small;">La possibile esistenza di un sistema di
riferimento assoluto per il tempo potrebbe essere dimostrata sperimentalemente
dalla presenza di effetti non relativi, ma intrinsechi a un sistema di
riferimento non inerziale in prolungato moto di caduta libera verso un centro
di massa attrattore in grado di generare un forte gradiente di curvatura dello
S – T (per es. una stella a neutroni), con un orologio al cesio che misurasse
il tempo di decadimento di un atomo radioattivo e lo confrontasse quello
teorico che si sarebbe misurato in caso il sistema di riferimento fosse stato stazionario.</span></div>
<div style="font-family: Verdana,sans-serif;">
<br />
<span style="font-size: small;">In definitiva nella MT si conclude che poiche'
la forza peso (ovvero, piu’ genericamente, la gravità), non è una forza
attrattiva e non dipende dalla curvatura dello S – T, essa non puo’ che essere una
forza attiva di natura compressiva (con tanto di modulo, verso e punto di
applicazione), generata da un campo gravitazionale dinamico e non statico.</span></div>
<div style="font-family: Verdana,sans-serif;">
<span style="font-size: small;"><br /></span></div>
<div style="font-family: Verdana,sans-serif;">
<span lang="EN-GB" style="font-size: small;">Stefano Gusman</span></div>
Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com22tag:blogger.com,1999:blog-6423338787090762061.post-8896823265747239832012-10-07T23:29:00.001-07:002012-10-11T10:47:39.416-07:00MT vs GR<!--[if !mso]>
<style>
v\:* {behavior:url(#default#VML);}
o\:* {behavior:url(#default#VML);}
w\:* {behavior:url(#default#VML);}
.shape {behavior:url(#default#VML);}
</style>
<![endif][if gte mso 9]><xml>
<w:WordDocument>
<w:View>Normal</w:View>
<w:Zoom>0</w:Zoom>
<w:HyphenationZone>14</w:HyphenationZone>
<w:PunctuationKerning/>
<w:ValidateAgainstSchemas/>
<w:SaveIfXMLInvalid>false</w:SaveIfXMLInvalid>
<w:IgnoreMixedContent>false</w:IgnoreMixedContent>
<w:AlwaysShowPlaceholderText>false</w:AlwaysShowPlaceholderText>
<w:Compatibility>
<w:BreakWrappedTables/>
<w:SnapToGridInCell/>
<w:WrapTextWithPunct/>
<w:UseAsianBreakRules/>
<w:DontGrowAutofit/>
</w:Compatibility>
<w:BrowserLevel>MicrosoftInternetExplorer4</w:BrowserLevel>
</w:WordDocument>
</xml><![endif][if gte mso 9]><xml>
<w:LatentStyles DefLockedState="false" LatentStyleCount="156">
</w:LatentStyles>
</xml><![endif][if gte mso 10]>
<style>
/* Style Definitions */
table.MsoNormalTable
{mso-style-name:"Tabella normale";
mso-tstyle-rowband-size:0;
mso-tstyle-colband-size:0;
mso-style-noshow:yes;
mso-style-parent:"";
mso-padding-alt:0cm 5.4pt 0cm 5.4pt;
mso-para-margin:0cm;
mso-para-margin-bottom:.0001pt;
mso-pagination:widow-orphan;
font-size:10.0pt;
font-family:"Times New Roman";
mso-ansi-language:#0400;
mso-fareast-language:#0400;
mso-bidi-language:#0400;}
</style>
<![endif]--><span lang="EN" style="font-family: Verdana; font-size: small;">General
Relativity generalizes and extends Special Relativity to not-inertial reference
systems under the assumption of bodies free fall motion : <i>" in indefinitely small spacetime regions in which it is
possible such coordinate system acceleration that is not induced any
gravitational field, is still valid SR that is the invariance of the term : ds
^ 2 = - (dx1) ^ 2 - (dx2) ^ 2 - (dx3) ^ 2 + (cdt) ^ 2.<br />
</i>As above all the effects of spacetime curvature between two distinct and
not-inertial reference systems, in relative motion one with respect to the
other, occur and are observable only from one into the other and viceversa.<br />
In RG gravity force depends on the acceleration induced in a mass by
sourronding spacetime curvature generated by another mass.Therefore the
free-falling mass weight would an apparent strength of electromagnetic origin
(repulsive between electronic clouds) due to the opposition of a surface to
such motion. So the weight of a man on Earth would be due to this potential acceleration
induced by S - T curvature by Earth center mass. But it was said that curvature
occurs only between not-inertial systems moving relative each to the other so
in reality, for the same GR, we should not feel any weight. In a stationary
reference frame, with respect to the center of mass of the Earth, such as the
one fixed to a man with his feet firmly on the ground, there is no kinematics
trajectory and, therefore, no first and second derivatives. Acceleration is
added, at a later date, on the basis of an alleged (potential) free fall motion.
but it is a mere mathematical artifice, and perhaps, applying <a href="http://en.wikipedia.org/wiki/Shell_theorem">spherical shelltheorem</a>, law of Newton better explains how gravity develops under Earth's
surface and why it is worth zero in the center.<br />
</span><!--[if gte mso 9]><xml>
<w:WordDocument>
<w:View>Normal</w:View>
<w:Zoom>0</w:Zoom>
<w:HyphenationZone>14</w:HyphenationZone>
<w:PunctuationKerning/>
<w:ValidateAgainstSchemas/>
<w:SaveIfXMLInvalid>false</w:SaveIfXMLInvalid>
<w:IgnoreMixedContent>false</w:IgnoreMixedContent>
<w:AlwaysShowPlaceholderText>false</w:AlwaysShowPlaceholderText>
<w:Compatibility>
<w:BreakWrappedTables/>
<w:SnapToGridInCell/>
<w:WrapTextWithPunct/>
<w:UseAsianBreakRules/>
<w:DontGrowAutofit/>
</w:Compatibility>
<w:BrowserLevel>MicrosoftInternetExplorer4</w:BrowserLevel>
</w:WordDocument>
</xml><![endif]--><!--[if gte mso 9]><xml>
<w:LatentStyles DefLockedState="false" LatentStyleCount="156">
</w:LatentStyles>
</xml><![endif]--><!--[if !mso]><img src="//img2.blogblog.com/img/video_object.png" style="background-color: #b2b2b2; " class="BLOGGER-object-element tr_noresize tr_placeholder" id="ieooui" data-original-id="ieooui" />
<style>
st1\:*{behavior:url(#ieooui) }
</style>
<![endif]--><!--[if gte mso 10]>
<style>
/* Style Definitions */
table.MsoNormalTable
{mso-style-name:"Tabella normale";
mso-tstyle-rowband-size:0;
mso-tstyle-colband-size:0;
mso-style-noshow:yes;
mso-style-parent:"";
mso-padding-alt:0cm 5.4pt 0cm 5.4pt;
mso-para-margin:0cm;
mso-para-margin-bottom:.0001pt;
mso-pagination:widow-orphan;
font-size:10.0pt;
font-family:"Times New Roman";
mso-ansi-language:#0400;
mso-fareast-language:#0400;
mso-bidi-language:#0400;}
</style>
<![endif]-->
<br />
<div class="MsoNormal" style="font-family: Verdana,sans-serif;">
<br />
<span lang="EN-GB" style="font-size: small;">As just said General Relativity describes the
gravitational interaction not as </span><span lang="EN-GB" style="font-size: small;">a distance </span><span lang="EN-GB" style="font-size: small;">action between massive bodies,
as it was in the Newtonian theory, but as a result of a physical law that binds
and flow distribution in spacetime of mass, energy and momentum with the
geometry ( more specifically, with the curvature) of the spacetime itself.<br />
</span><span style="font-size: small;">The geometry of
spacetime, in particular, determines which are inertial reference systems: are
those ones associated with observers in free fall, which move along geodesic trajectories
of spacetime. </span><span lang="EN-GB" style="font-size: small;">The weight force is, in this way, an apparent
force observed in not-inertial references systems.<br />
Equivalence Principle states that <i>inertial
mass and gravitational mass of a body have the same value</i>. This equality is
an experimental fact that it does not follow from any principle of classical
physics ;</span><span lang="EN-GB" style="font-size: small;">in fact</span><span lang="EN-GB" style="font-size: small;"> the roles of these two quantities are very different: the
inertial mass measures how the body prevents the application of a force, as
stated by the second law of motion, instead gravitational mass measures the ability
of a body to attract another mass, according to the law of universal
gravitation.<br />
The fact that these two quantities experimentally found to coincide implies the
fact, already observed by Galileo around 1590, that the trajectory of a body in
free fall is not dependent on the properties of the body.<br />
</span><span style="font-size: small;">Einstein issued the
following thought experiment. Consider an observer located inside a closed
room. If the room is resting on the earth's surface, the observer perceives a
downward force due to gravity: throwing a ball into the ground you can measure
the size. If the room is instead in space, away from gravitational fields,
contained in a rocket accelerating upwards, the observer perceives, in
this case also, a downward force: this force, due to the inertia of his body, is
the same force that normally is perceived in the departure and arrival in an elevator.
The equality results in the following fact: the observer can not in any way to
find out whether he feels is due to a gravitational field or an acceleration.<br />
Similarly, if the room is in a free fall to (for example) the Earth, the viewer
inside receives no gravity: if he drops a coin notes that this does not fall
to the ground but remains suspended in mid-air . The observer has no means to
understand if it is in a universe without gravitational fields, or if it is
falling towards a planet.</span><br />
<br />
<span lang="EN-GB" style="font-size: small;">Let’s see the question from a more closely
mathematical point of view.</span><br />
<span lang="EN-GB" style="font-size: small;"><a href="http://en.wikipedia.org/wiki/Einstein_field_equations">Einstein field equation</a> describes the spacetime curvature
depending on the density of matter, energy and pressure, represented by the
stress-energy tensor T.<br /> </span></div>
<div class="MsoNormal" style="font-family: Verdana,sans-serif;">
<span lang="EN-GB" style="font-size: small;">In the left of the equation appears the <a href="http://en.wikipedia.org/wiki/Ricci_curvature_tensor">Ricci curvature tensor</a> that measures
the curvature of a <a href="http://en.wikipedia.org/wiki/Riemannian_manifold">Riemannian manifold</a> that is a differentiable manifold on which are defined the notions of distance,
length, <a href="http://en.wikipedia.org/wiki/Geodesic">geodesics</a>, area (or volume).<br />
</span><span style="font-size: small;">The notion of a
differentiable manifold is a generalization of the concept of curve and surface
differentiable in arbitrary n dimensions. </span><span lang="EN-GB" style="font-size: small;">As well as
a differentiable curve is an object which locally resembles a straight line, or
a surface that locally resembles a plane, locally an n-dimensional manifold looks
to an n-dimensional Euclidean space. The adjective "differentiable"
indicates the fact that this local "similarity" guarantees the
ability to uniquely associate each point in a "tangent space" of the
same size of the manifold (such as a tangent line to a curve, or a tangent plane
to a surface).<br />
<a href="http://en.wikipedia.org/wiki/Minkowski_space">Minkowski spacetime</a> is the R^4 space with the g yensor summarized in the form :</span></div>
<div class="MsoNormal" style="font-family: Verdana,sans-serif;">
<br />
<span lang="EN-GB" style="font-size: small;">ds^2 = -(cdt)^2+dx^2+dy^2+dz^2<br /> </span><br />
<span lang="EN-GB" style="font-size: small;">The Energy-Momentum tensor, also called <a href="http://en.wikipedia.org/wiki/Stress%E2%80%93energy_tensor">Stress Energy Tensor</a>, describes the energy and momentum </span><span lang="EN-GB" style="font-size: small;">flow </span><span lang="EN-GB" style="font-size: small;">associated with
the field.<br />
In General Relativity motion quantity is the
four-momentum. In Special Relativity the <a href="http://en.wikipedia.org/wiki/Four-vector">four- vector</a> is the
quadrivectorial</span><span lang="EN-GB" style="font-size: small;"> </span><span lang="EN-GB" style="font-size: small;">generalization</span><span lang="EN-GB" style="font-size: small;"> of classical mechanics </span><span lang="EN-GB" style="font-size: small;">momentum</span><span lang="EN-GB" style="font-size: small;">, which is a four-dimensional spacetime
vector always tangent to a particle</span><span lang="EN-GB" style="font-size: small;"> world line</span><span lang="EN-GB" style="font-size: small;">, that is tangent to its
trajectory. <br /> </span><br />
<span lang="EN-GB" style="font-size: small;">In <a href="http://en.wikipedia.org/wiki/Lagrange_equations">lagrangian mechanics</a>, every mechanical system is
characterized by a Lagrangian which allows to describe motion system
by means of <a href="http://en.wikipedia.org/wiki/Euler%E2%80%93Lagrange_equation">Euler-Lagrange equations</a>, or the Hamilton Principle.<br />
</span><span style="font-size: small;">Its importance is
fundamental in classical mechanics and in many areas of physics, as it allows
to derive the </span><span style="font-size: small;">motion </span><span style="font-size: small;">equations of the system (excluding the influence of
non-conservative forces).<br />
For the variational principle of Hamilton,
the temporal evolution of a mechanical system minimizes the action. </span><span lang="EN-GB" style="font-size: small;">Its
Lagrangian proves to be the difference between the kinetic energy and total
potential energy. For this difference the Euler-Lagrange equations is
equivalent to the second law of dynamics.</span></div>
<div class="MsoNormal" style="font-family: Verdana,sans-serif;">
<br />
<span lang="EN-GB" style="font-size: small;">On the right of field equation appears the Sress –
Energy Tensor that express the conservation of the four-vector, given by the <a href="http://en.wikipedia.org/wiki/Continuity_equation">continuity equation</a>.</span></div>
<div class="MsoNormal" style="font-family: Verdana,sans-serif;">
<br />
<span lang="EN-GB" style="font-size: small;">Therefore free fall postulate is an artifice designed
to enable the prior space - time curvature and apply the mathematical formalism
that holds all GR.</span><br />
<div class="almost_half_cell" id="gt-res-content">
<div dir="ltr" style="zoom: 1;">
<span class="" id="result_box" lang="en"><span class="hps">To be</span> <span class="hps atn">even more </span>clear: since <span class="hps">the derivative of</span> <span class="hps atn">a function (</span>and <span class="hps">partial derivatives </span><span class="hps">appear in the mathematical operators of</span> <span class="hps">Einstein field</span> <span class="hps">equation</span>) is the limit <span class="hps">of the incremental quotient</span> <span class="hps">tending</span> <span class="hps">increment to 0</span><span class="">, the postulate</span>, in fact, <span class="hps">allows existence of</span> <span class="hps">increments</span> <span class="hps">on </span></span><span class="" id="result_box" lang="en"><span class="hps">spacetime</span></span><span class="" id="result_box" lang="en"><span class="hps"> trajectories</span>, <span class="hps">increments that</span>, surely, at least in <span class="hps">the case of the</span> <span class="hps">potential</span> <span class="hps">trajectory of a</span> <span class="hps">mass</span> <span class="hps">placed on the</span> <span class="hps">surface of the earth</span> <span class="hps">do not exist with respect to the mass center.</span></span></div>
</div>
</div>
<br />
<span lang="EN" style="font-family: Verdana; font-size: small;">
In fact, without
gravitational fields space time isn’t curved (it is the Minkowsky’s plane space
– time) ; in it can be chosen infinite inertial reference systems and between
them are valid Special Relativity and Lorentz transformations. A general curved
space – time has a much important property that connects it, as we can say, to
the most familiar euclideus plane space. As far as it could be curved, it’s
always possible to consider a little portion of it where it's practically
plane. We can better understand this concept considering earthly surface. It's
a two dimensional space (variety) curved where we can define curvilinear
coordinates as latitude and longitude. In great scale we can’t take away the
curvature of earthly surface and the effects are well visible to all. Instead
for a mason building an house earthly surface is plane and he doesn’t mind of
the problem. In every curved space – time it's always possible to choose a
reference system respect on which space – time is locally plane and inertial
(Minkowski’s space – time).<br />
To do it is sufficient to imagine a body that falls down free in a
gravitational field. Respect to this body, for a limited time, the other free
bodies falling down with it look to satisfy the inertia law. The ones standing
keep standing, the ones in uniform motion get on in this way. Respect to this
reference system, falling down for a short time, space – time is the plane
Minkowski’s one of SR. The astronauts have experience of this when they are
parked on earthly stationary orbits (In effect it is the same thing as they
really would fall down freely). In their space craft they test zero gravity.
Here on the Earth is possible to verify this for a short time when, for
example, an airplane gets an air vacuum or in some games at lunapark.<br />
The fact that space – time is curved by masses that create gravitational field
is a concept outside commune experience. In a curved space – time are invalid
the rules and the properties of euclideus geometry, that is the geometry of our
daily life.<br />
To clarify better this concept let's consider an inertial reference system K
and a not inertial reference system K’ in uniform rotation respect to K. Let's
consider also a circumference tied with K.</span><br />
<span style="font-size: small;"><br /></span>
<span style="font-size: small;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgzHHWdwqcyIDO1P7U8Jd2w1heICf6eiWA179vGwcz7P-cqVksQMlnLKAeZzw1T4oZ4OOyppVEOlGeAK21f8mrBRl_S4uNmCXkPSOpZbB45t2jOBb-U6PfzancMsNuMGJG2AQ-g8ybGVdYM/s320/clip_image001.gif" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgzHHWdwqcyIDO1P7U8Jd2w1heICf6eiWA179vGwcz7P-cqVksQMlnLKAeZzw1T4oZ4OOyppVEOlGeAK21f8mrBRl_S4uNmCXkPSOpZbB45t2jOBb-U6PfzancMsNuMGJG2AQ-g8ybGVdYM/s320/clip_image001.gif" /></a></span><span lang="EN" style="font-family: Verdana; font-size: small;"><br />
Respect to K the fraction between the circumference and its diameter is π.
Respect to K’, that rotates in a clockwise direction, the circumference is seen
rotating in the opposite way. Every little segment of the circumference is seen
from K’ moving on with v speed. For some instant every little segment by which
is made up the circumference is seen contracting respect to K’ in accord with
the Lorentz contraction law for which the fraction between circumference and
its diameter is, respect to K’, unequal of π (diameter doesn’t be subjected to
the Lorentz contraction for the reason that it doesn’t move respect to K’ in
the sense of its length).<br />
This simple example shows that space, respect to an accelerated reference
system, is not plane but is curved, for the reason that are not valid the rules
of euclideus geometry and so, remembering the precedent statement :<i> “in
physics is real what is measurable",</i> we could say that time dilatation
and lenght contraction are real (or, that is the same thing, absolute) and that
since a gravitational field is equivalent to an accelerated reference system,
space – time is curved by a gravitational field.<br />
This is the fundamental principle of General Relativity : weight force is due
to the curvature induced by masses in the space – time.</span><span lang="EN" style="font-family: Verdana; font-size: small;"><br />
In reality space
- time is seen curved by k but it does not bend .... About the <a href="http://marius-gravity.blogspot.it/2011/02/rigid-disk-paradox.html">rigid disk paradox</a>.<br />
</span><br />
<span lang="EN" style="font-family: Verdana; font-size: small;">In the Hafele
- Keating experiment some atomic clocks placed in aircraft flighting around the
Earth remained desynchronized than identical clocks on the ground. The reason
was that they accumulated delay during linear motion phases, in which worked RS,
than those fixed to the ground, and mainteined it in landing when RS was no longer
applicable. In MT this way is interpreted with the existence of an absolute
reference system for the time. The same reasoning does not apply to the lengths
because there is no accumulation phase, but only contraction measured by the
system ground reference.<br />
The possible existence of a absolute reference system for the time could be
experimentally demonstrated by the presence of not relative effects but
intrinsic to a noT-inertial reference system in prolonged free fall motion towards
a center mass attractor capable of generating a strong S – T curvature gradient
(ex. a neutron star), with a cesium clock which measures time decay of a radioactive
atom and would compare it to the theoretical one that would be measured if the
reference system standing. Obiouvsly this experiment is impossible.<br /> </span><br />
<span lang="EN" style="font-family: Verdana; font-size: small;">Ultimately in
MT it is conclude that since 'the weight force (more' generically gravity), is not an attractive
force and not depends on S - T curvature, it can not 'be than an active pushing
force (with application point, modulus and direction),generated by a dynamic
and not static gravitational field.<br />
<br />
</span><br />
<span style="font-family: Verdana;"><span style="font-size: small;">Stefano Gusman</span><br style="mso-special-character: line-break;" />
<br style="mso-special-character: line-break;" />
</span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com1tag:blogger.com,1999:blog-6423338787090762061.post-86132016464937431362012-06-16T08:46:00.002-07:002012-06-16T22:46:48.110-07:00Spazio, tempo e gravità sono realtà "emergenti".<span style="font-size: small;">In un recente <a href="http://blogs.scientificamerican.com/critical-opalescence/2012/06/11/is-dark-matter-a-glimpse-of-a-deeper-level-of-reality/">articolo</a> pubblicato su Scientific American viene commentato un nuovo articolo del teorico delle stringhe Erik Verlinde che ha destato singolari reazioni nella comunità dei fisici. Dal punto di vista matematico la trattazione non va oltre un’algebra da scuola superiore. Dal punto di vista logico e fisico, invece, le cose cambiano.</span><br />
<span style="font-size: small;"><i> "I fisici teorici consultati dissero che non riuscivano a seguirlo ; una risposta che sembra un modo gentile per dire che il loro collega era andato fuori di testa. Alcuni blogger furono più espliciti e gli diedero apertamente dello svitato. Ma chi lo conosce sa che non merita l'appellativo: Verlinde è un brillante fisico teorico, e la quantità di discussioni provocate dal suo articolo fa pensare che la maggior parte dei suoi colleghi vi abbia trovato qualcosa di stimolante”</i>.</span><br />
<br />
<span style="font-size: small;">Chiunque aspiri all’unificazione della fisica si trova di fronte a un problema di fondo. Le teorie che cercano di unificare la teoria quantistica dei campi e la teoria della relatività generale di Einstein poggiano su solide basi e ottime verifiche sperimentali, ma sono incompatibili tra loro. Riconciliarle richiederà l'abbandono di alcune intuizioni profondamente radicate, la prima delle quali è che il mondo esiste nello spazio-tempo.
Spazio e tempo non sono enti fondamentali ma "emergenti": l’universo che vediamo esistere nello spazio e nel tempo potrebbe essere soltanto il livello di superficie, sul quale galleggiamo come barchette, mentre i leviatani si agitano nelle profondità.</span><br />
<br />
<span style="font-size: small;">Intervistato sull’argomento Verlinde afferma : <i>
“Partiamo da un esempio: il moto del gas in una stanza. A distanze microscopiche, è la conseguenza degli urti tra le singole molecole di gas. Ma a distanze macroscopiche, è molto più pratico descrivere lo stato termodinamico del gas in funzione della pressione e della temperatura. Queste due quantità non esistono a livello microscopico ma soltanto quando facciamo una media del comportamento delle molecole a grande scala. La gravità funziona allo stesso modo.
Un’analogia più precisa è l’osmosi. Separiamo una miscela di due tipi di molecole di gas con una membrana che permette il passaggio di un tipo solo di molecole. Se la concentrazione di quest’ultima molecola è più elevata da una parte della membrana rispetto all’altra, possiamo misurare una forza netta. Si può calcolare questa forza usando metodi statistici. Nel mio articolo, spiego come ottenere la legge della gravità di Newton in un modo molto simile. Nel caso della gravità, la forza è la conseguenza del cambiamento di probabilità, quando due oggetti pesanti vengono spostati l’uno rispetto all’altro e la membrana diventa invece uno schermo olografico.
Di solito si pensa alla gravità come a una delle quattro forze fondamentali. Tra i fisici, si crede che per ottenere la descrizione ultima sia necessario unificare la meccanica quantistica con la relatività generale di Einstein. Ma ci sono indicazioni che la gravità non sia fondamentale. La materia e persino lo spazio e il tempo sono composti da mattoncini che obbediscono a delle leggi microscopiche che non contengono la gravità. Questi gradi di libertà e le leggi che li governano sono invisibili per noi, così come non riusciamo a vedere a occhio nudo le singole molecole di gas. La gravità che vediamo è il risultato netto di tutte queste forze, che emerge solo a grandi distanze”</i>.</span><br />
<br />
<span style="font-size: small;">Nel modello di Verlinde tutta la materia, sia ordinaria sia oscura, consiste di vibrazioni dei gradi di libertà dell'universo sottostante e, perciò, viene creata e distrutta in continuazione
L’articolo di Verlinde applica questa linea di ragionamento alle stesse leggi della gravità. Invece di essere una forza fondamentale della natura, come tutti i fisici hanno pensato, a partire da Newton, la gravità potrebbe essere una “forza entropica”, un prodotto di una sorta di dinamica a scala più fine, un po' come la pressione di un gas emerge dal moto collettivo delle molecole.
Per spiegare l’anomala dinamica interna osservata nelle galassie e nei sistemi stellari più vasti, gli astronomi pensano che il nostro universo debba essere riempito da una forma invisibile di materia, che supera in abbondanza la materia ordinaria di un fattore cinque. Tuttavia questa materia non è mai stata rivelata direttamente e per essere una cosa tanto predominante la <a href="http://it.wikipedia.org/wiki/Materia_oscura">materia oscura</a> ha un effetto sorprendentemente sottile.
Di conseguenza, alcuni astronomi e fisici sospettano che la materia oscura potrebbe non esistere affatto.
La principale alternativa alla materia oscura è nota come "<a href="http://it.wikipedia.org/wiki/Teorie_MOND">MOND</a>", <i>Modified Newtonian Dynamics.</i> Verlinde ha reinterpretato la MOND non solo come una revisione delle leggi della fisica, ma come la prova dell'esistenza di un vasto substrato. Ha derivato la formula della MOND assumendo che la materia oscura non sia un nuovo tipo di particella ma la manifestazione delle vibrazioni di alcuni gradi di libertà sottostanti e, precisamente, le vibrazioni prodotte da fluttuazioni termiche casuali. Tali fluttuazioni sono attenuate e diventano intense solo dove l’energia termica media è bassa, come alla periferia delle galassie. Sorprendentemente Verlinde è riuscito a ottenere il rapporto cinque a uno della massa della materia oscura rispetto a quella ordinaria.</span><br />
<br />
<span style="font-size: small;">Ecco un estratto dell’articolo di Verlinde.</span><br />
<span style="font-size: small;"><b>On the Origin of Gravity
and the Laws of Newton
Erik </b></span><br />
<span style="font-size: small;"><b>Verlinde
Institute for Theoretical Physics
University of Amsterdam </b></span><br />
<br />
<span style="font-size: small;"><i>A partire dai principi primi e dalle ipotesi generali della legge gravitazionale di Newton si dimostra che questi sorgono naturalmente e inevitabilmente da una teoria in cui lo spazio emerge da uno scenario olografico. La gravità è spiegata come una forza entropica causata da cambiamenti nelle informazioni associate con le posizioni dei corpi materiali. Una generalizzazione relativistica delle argomentazioni presentate conduce direttamente alle equazioni di Einstein. Quando emerge lo spazio si spiega anche la legge di inerzia di Newton. Il Principio di Equivalenza ci porta a concludere che, in realtà, l’origine di questa legge è entropica. </i></span><br />
<span style="font-size: small;"><i>In natura, di tutte le forze, la gravità è chiaramente la più universale. Essa influenza ed è influenzata da tutto ciò che porta una energia ed è intimamente connessa con la struttura dello spazio-tempo.
La natura universale della gravità è dimostrata anche dal fatto che le sue equazioni di base sono simili alle leggi della termodinamica e dell’ idrodinamica. Finora, non c'è stata una chiara spiegazione per questa somiglianza. La gravità domina a grandi distanze ma è molto debole alle scale piccole. In realtà le sue leggi fondamentali sono state testate solo fino a distanze dell'ordine di un millimetro. La gravità è anche notevolmente più difficile da coniugare con la meccanica quantistica rispetto a tutte le altre forze. La ricerca di unificazione della gravità con le altre forze della natura, a livello microscopico, quindi, puo’ non essere il giusto approccio. Tale approccio, come noto, causa molti problemi e paradossi. La teoria delle stringhe in certa misura ha risolto alcuni di essi, ma non tutti.
Molti fisici ritengono che la gravità e la geometria spazio-temporale siano “emergenti”. Anche la teoria delle stringhe e i suoi relativi sviluppi hanno dato diverse indicazioni in tal senso.
L'universalità della gravità suggerisce che la sua comparsa sia indipendenti dai dettagli specifici della sottostante teoria microscopica. In questo lavoro si sostiene che la nozione centrale necessaria per ricavare la forza di gravità è l'informazione. Più precisamente è la quantità di informaziona associata alla materia e alla sua posizione.
Per la nascita dello spazio si ipotizza uno scenario olografico dove la gravità e l’inerzia sono collegate dal <a href="http://it.wikipedia.org/wiki/Principio_di_equivalenza">Principio di Equivalenza</a>.
A partire da principi primi, usando solo concetti spaziali indipendenti come l'energia, l’entropia e la temperatura, si dimostra che le leggi di Newton appaiono in modo naturale e quasi inevitabilmente. La gravità è spiegata come una forza entropica causata da un cambiamento nella quantità di informazioni associate alle posizioni di corpi materiali. Un ingrediente essenziale è che solo un numero finito di gradi di libertà è associato a un dato volume di spazio, come dettato dal<a href="http://ulisse.sissa.it/chiediAUlisse/domanda/2005/Ucau050722d001"> principio olografico</a>. L'energia, che è equivalente alla materia, viene distribuita uniformemente secondo i gradi di libertà e porta così a una temperatura. Si dimostra che il prodotto della temperatura e della variazione di entropia dovuta allo spostamento della materia è uguale al lavoro svolto dalla forza gravitazionale. In questo modo la Legge di Newton emerge in modo sorprendentemente semplice.
Una forza entropica è una forza efficace macroscopica che ha origine in un sistema con molti gradi di libertà per la tendenza statistica del sistema ad aumentare la sua entropia. La forza è espressa in termini di differenze entropia ed è indipendente dai particolari delle dinamiche microscopiche. In particolare, non c'è un campo fondamentale associato a una forza entropica. Forze entropiche si sviluppano, per esempio, in sistemi macroscopici come quelli biofisici colloidali. Grandi molecole colloidali sospese in un ambiente termico di particelle più piccole dove, a causa degli effetti di volume escluso, si generano forze entropiche che guidano, ad esempio, il fenomeno dell’osmosi.
Forse l'esempio più noto di forze entropiche è l'elasticità di una molecola di polimero. Una molecola di polimero singolo può essere modellato unendo insieme molti monomeri di lunghezza fissa in modo che ogni monomero possa ruotare liberamente attorno ai punti di attacco e disporsi secondo qualsiasi direzione dello spazio. Ciascuna di queste configurazioni ha la stessa energia. Quando la molecola di polimero viene immersa in un bagno di calore si dispone secondo configurazioni spaziali casuali a spirale poiché queste sono entropicamente favorite. Di queste configurazioni ce ne sono molte di piu’ quando la molecola è corta rispetto a quando si è allungata. La tendenza statistica a tornare in uno stato di massima entropia si traduce in una forza macroscopica che, in questo caso, è la forza elastica.
Usando delle pinzette si possono tirare i punti estremi del polimero da un lato con una forza esterna F che deve essere uguale alla forza entropica che tenta di ripristinare il polimero alla sua posizione di equilibrio. Una forza entropica si riconosce da un lato dal fatto che punta nella direzione di aumento dell'entropia, e dall'altro che è proporzionale alla temperatura. Per il polimero si dimostra che tale forza obbedisce alla legge di Hooke.
Questo esempio rende chiaro che a livello macroscopico una forza entropica può essere conservativa almeno quando la temperatura è mantenuta costante. Il corrispondente potenziale non ha alcun significato microscopico e, tuttavia, “emerge”.
Lo spazio è in primo luogo un dispositivo introdotto per descrivere le posizioni e i movimenti di particelle. Lo spazio è, quindi, letteralmente solo uno spazio di archiviazione per informazioni. Questa informazione è, naturalmente, associata alla materia. Dato che per ogni volume di spazio il numero massimo di informazioni consentite è finito è impossibile localizzare una particella con precisione infinita in un punto di uno spazio continuo. In effetti i punti e le coordinate nascono come concetti derivati. Si potrebbe ipotizzare che le informazioni sono memorizzate in punti di uno spazio discretizzato (come in un modello reticolare). Ma se tutte le informazioni associate esistessero senza duplicazioni, non si otterrebbe una descrizione olografica. In realtà, non esisterebbe la gravità. Così presumiamo che le informazioni siano memorizzate su superfici o schermi. Schermi separano le particelle e, quindi, sono il luogo naturale per memorizzare le informazioni sulle particelle che si muovono da uno all’altro. Quindi immaginiamo che queste informazioni sulla localizzazione delle particelle siano memorizzati in bit discreti sugli schermi. Le dinamiche su ogni schermo scaturiscono da regole sconosciute che possono essere pensate come un modo di elaborare le informazioni memorizzate su di esso. Non si tratta, quindi, una teoria di campo o, comunque, a noi familiare.
La gravità fornisce molti indizi sul suo essere un fenomeno emergente, ma fino ad oggi essa è ancora considerata una forza fondamentale. Le analogie con altri noti fenomeni emergenti come la termodinamica e l’idrodinamica sono state per lo più considerate solo suggestive somiglianze. E' tempo di parlare non solo di analogie e somiglianze e, finalmente, farla finita con la gravità come forza fondamentale. La descrizione geometrica della gravità di Einstein è bellissima e in un certo modo convincente. La geometria si appella alla parte visiva della nostra mente ed è sorprendentemente potente nel riassumere molti aspetti di un problema fisico. Presumibilmente questo spiega perché noi, come comunità, siamo stati così riluttanti a rinunciare alla formulazione geometrica della gravità come fondamentale. Ma è inevitabile che se la gravità è emergente, cosi’ lo è anche la geometria dello spazio tempo. Einstein aveva legato questi due concetti insieme, ma entrambi devono essere abbandonati se vogliamo comprendere l’uno o l'altro a un livello più profondo. I risultati di questo studio suggeriscono che la gravità si manifesta come una forza entropica una volta che sono emersi lo spazio e il tempo. Se gravità, spazio e tempo possono essere intesi come fenomeni emergenti, questo avrebbe grandi implicazioni per molte aree in cui la gravità gioca un ruolo centrale. Sarebbe particolarmente interessante indagare le conseguenze per la cosmologia. Ad esempio il modo in cui i redshift derivano dai gradienti di entropia potrebbe portare a scoprire nuove realtà. </i></span><br />
<span style="font-size: small;"><i> Il motivo per cui la gravità deve portar traccia delle energie cosi’ come delle differenze di entropia è ormai chiaro. Deve, perché questo è ciò che provoca il movimento!
</i></span><br />
<span style="font-size: small;"> <i>Gli argomenti presentati sono certamente di natura piuttosto euristica. Non poteva essere diversamente in considerazione del fatto che stiamo entrando in un territorio sconosciuto dove non esiste uno spazio da cui cominciare.
E’ la natura profonda di queste domande che, a nostro avviso, giustifica il carattere euristico del ragionamento.</i></span><br />
<br />
<span style="font-size: small;">La teoria di Verlinde è un ottimo esempio di come, per quanto difficile da “digerire”, solo rinunciando a considerare la gravità come effetto della curvatura dello spazio – tempo si possano approcciare in maniera logicamente consistente le evidenze osservative dell’astronomia moderna.
Come lo spin network della <a href="http://marius-gravity.blogspot.it/2012/01/mt-versus-lqg.html">Loop Quantum Gravity </a>di Carlo Rovelli e Lee Smolin, lo “spazio delle fasi” di Verlinde è quel “substrato” necessario a originare e trasmettere la forza di gravità che, piu’ che una forza, è una manifestazione di questa entità fisica sottostante che nella MT presentata in questo blog è una sorta di “etere” non quantizzato costituito da <a href="http://marius-gravity.blogspot.it/2011/02/un-mare-di-luce_09.html">onde stazionarie di natura elettromagnetica</a> la cui dinamica scaturisce da <a href="http://marius-gravity.blogspot.it/2012/02/simmetrie-e-gravita.html">rotture di simmetria </a>interne.</span><br />
<br />
<span style="font-size: small;">Sconvolgente ? Non per chi come Marius, l’ideatore della MT, non ha fatto dello spazio tempo di Einstein un intangibile totem ideologico.</span><br />
<span style="font-size: small;"><br /></span><br />
<span style="font-size: small;">Stefano Gusman.</span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com23tag:blogger.com,1999:blog-6423338787090762061.post-8605863875482566002012-06-16T08:36:00.000-07:002012-06-16T22:49:01.448-07:00Space, time and gravity are "emergent" reality.<span style="font-size: small;">In a recent <a href="http://blogs.scientificamerican.com/critical-opalescence/2012/06/11/is-dark-matter-a-glimpse-of-a-deeper-level-of-reality">article</a> published in Scientific American is commented a new article of the string theorist Erik Verlinde that has aroused unusual reactions in the physics community. From mathematical point of view the treatment does not go beyond a simple algebra. From logical and physical standpoint things change.
<i> </i></span><br />
<span style="font-size: small;"><i>”Theoretical physicists consulted said that they could not follow him, an answer that seems like a nice way of saying that their colleague had gone crazy. Some bloggers were more explicit and gave openly of loosening. But who knows him knows that he deserves the title: Verlinde is a brilliant theoretical physicist, and the amount of threads caused by his article suggests that most of his colleagues will have found something interesting”.</i> </span><br />
<br />
<span style="font-size: small;">Anyone who aspires to the unification of physics is facing a major problem. Theories attempting to unify quantum field theory and Einstein's general theory of relativity are based on solid foundations and excellent experimental verification, but are incompatible with each other. Reconcile them will require the abandonment of some deep-seated intuitions, the first of which is that the world exists in space-time.
Space and time are not fundamental entities but "emerging": the universe we see exist in space and time might be just the surface level on which we float like boats, while the leviathans stir the depths. </span><br />
<br />
<span style="font-size: small;">Interviewed on the subject Verlinde says:
<i>"Let's start with an example: the motion of gas in a room. At microscopic distances, is the result of collisions between individual gas molecules. But at macroscopic distances, it is much more practical to describe the gas status in terms of pressure and temperature. These two quantities do not exist at the microscopic level, but only when we make an average behavior of molecules on a large scale. Gravity works in the same way.
A more accurate analogy is osmosis. We separate a mixture of two types of gas molecules with a membrane, which allows the passage of only one type of molecules. If the concentration of the latter molecule is higher on one side of the membrane than the other, we can measure a net force. You can calculate this force by using statistical methods. In my articl, I explain how to obtain the Newton's law of gravity in a similar way. In the case of gravity, the force is the result of the change of probability, when two heavy objects are moved relative to one another and the membrane becomes instead a <a href="http://en.wikipedia.org/wiki/Holographic_screen">holographic screen</a>.
Usually, you think of gravity as one of the four fundamental forces. Among physicists, it is believed that to get the last description is necessary to unify quantum mechanics with Einstein's general relativity. But there are indications that gravity is not essential. The matter and even space and time are composed of bricks, which obey the laws that do not contain microscopic severity. These degrees of freedom and the laws that govern them are invisible to us, as we can not see with the naked eye the individual gas molecules. The gravity that we see is the net result of all these forces, which emerges only at great distances. "
</i> </span><br />
<br />
<span style="font-size: small;">In the Verlinde model all matter, both ordinary and dark, consists of vibrations of the underlying degrees of freedom of the universe and, therefore, is created and destroyed continuously.
Verlinde's article applies this line of reasoning to the same laws of gravity. Instead of being a fundamental form of nature, as all physicists have thought from Newton, gravity would be an "entropic force", a product of a sort of dynamic at finer scale, a bit as the pressure of a gas emerges from collective motion of molecules.
To explain the observed anomalous internal dynamics in galaxies and more extensive star systems, astronomers think that our universe should be filled by an invisible form of matter, which exceeds the ordinary matter in abundance by a factor of five. However this matter has never been detected directly and to be something so prominent <a href="http://en.wikipedia.org/wiki/Dark_matter">dark matter</a> has a surprisingly thin effect.
Consequently some physicists and astronomers suspect that dark matter may not exist at all.
The main alternative to dark matter is known as <a href="http://en.wikipedia.org/wiki/Modified_Newtonian_dynamics">"MOND"</a> <i>Modified Newtonian Dynamics. </i>Verlinde reinterpreted MOND not only as a revision of the laws of physics, but as evidence of the existence of a large substrate. He derivates MOND formula assuming that dark matter is not a new type of particle, but the event of vibrations of some freedom degrees below, namely vibrations produced by random thermal fluctuations. These fluctuations are softened and become intense where the average thermal energy is low as at the outskirts of galaxies. Amazingly Verlinde managed to get five to one ratio of the mass of dark matter than ordinary. </span><br />
<br />
<span style="font-size: small;">Here's an abstract from Verlinde article. </span><br />
<span style="font-size: small;"><b>On the Origin of Gravity
and the Laws of Newton </b></span><br />
<span style="font-size: small;"><b>Erik Verlinde.
Institute for Theoretical Physics
University of Amsterdam. </b></span><br />
<br />
<span style="font-size: small;"><i>Starting from first principles and general assumptions Newton's law of grav
itation is shown to arise naturally and unavoidably in a theory in which space
is emergent through a holographic scenario. Gravity is explained as an entropic
force caused by changes in the information associated with the positions of material bodies. A relativistic generalization of the presented arguments directly leads to the Einstein equations. When space is emergent even Newton's law of inertia needs to be explained. The <a href="http://en.wikipedia.org/wiki/Equivalence_principle">equivalence principle</a> leads us to conclude that it is actually this law of inertia whose origin is entropic.
Of all forces of nature gravity is clearly the most universal. Gravity influences and is influenced by everything that carries an energy, and is intimately connected with the structure of space-time. The universal nature of gravity is also demonstrated by the fact that its basic equations closely resemble the laws of thermodynamics and hydrodynamics. So far there has not been a clear explanation for this resemblance. Gravity dominates at large distances, but is very weak at small scales. In fact its basic laws have only been tested up to distances of the order of a millimeter. Gravity is also considerably harder to combine with quantum mechanics than all the other forces. The quest for unification of gravity with these other forces of nature, at a microscopic
level, may therefore not be the right approach. It is known to lead to many problems, paradoxes and puzzles. String theory has to a certain extent solved some of these, but not all.
Many physicists believe that gravity, and space-time geometry are emergent. Also string theory and its related developments have given several indications in this direction.
The universality of gravity suggests that its emergence should be understood from general principles that are independent of the specific details of the underlying microscopic theory. In this paper we will argue that the central notion needed to derive gravity is information. More precisely, it is the amount of information associated with matter and its location, in whatever form the microscopic theory likes to have it, measured in terms of entropy. Changes in this entropy when matter is displaced leads to an entropic force, which as we will show takes the form of gravity. Its origin therefore lies in the tendency of the microscopic theory to maximize its entropy.
We present a holographic scenario for the emergence of space and address the origins of gravity and inertia, which are connected by the equivalence
principle. Starting from first principles, using only space independent concepts like energy, entropy and temperature, it is shown that Newton's laws appear naturally and practically unavoidably. Gravity is explained as an entropic force caused by a change in the amount of information associated with the positions of bodies of matter. A crucial ingredient is that only a finite number of degrees of freedom are associated with a given spatial volume, as dictated by the <a href="http://en.wikipedia.org/wiki/Holographic_principle">holographic principle</a>. The energy, that is equivalent to the matter, is distributed evenly over the degrees of freedom, and thus leads to a temperature. The product of the temperature and the change in entropy due
to the displacement of matter is shown to be equal to the work done by the gravitational force. In this way Newton's law of gravity emerges in a surprisingly simple fashion.
valid.
An entropic force is an effective macroscopic force that originates in a system with many degrees of freedom by the statistical tendency to increase its entropy. The force equation is expressed in terms of entropy differences, and is independent of the details of the microscopic dynamics. In particular there is no fundamental field associated with an entropic force. Entropic forces occur typically in macroscopic systems such as in colloid or bio-physics. Big colloid molecules suspended in an thermal environment
of smaller particles, for instance, experience entropic forces due to excluded volume effects. Osmosis is another phenomenon driven by an entropic force.
Perhaps the best known example is the elasticity of a polymer molecule. A single polymer molecule can be modeled by joining together many monomers of fixed length, where each monomer can freely rotate around the points of attachment and direct itself in any spatial direction. Each of these configurations has the same energy. When the polymer molecule is immersed into a heat bath, it likes to put itself into a randomly coiled configuration since these are entropically favored. There are many more such configurations when the molecule is short compared to when it is stretched into an extended configuration. The statistical tendency to return to a maximal entropy state
translates into a macroscopic force, in this case the elastic force.
By using tweezers one can pull the endpoints of the polymer apart, and bring it
out of its equilibrium configuration by an external force F.
By the balance of forces, the external force F should be equal to the entropic force, that tries to restore the polymer to its equilibrium position. An entropic force is recognized by the facts that it points in the direction of increasing entropy, and, secondly, that it is proportional to the temperature. For the polymer the force can be shown to obey Hooke's law.
This example makes clear that at a macroscopic level an entropic force can be conservative at least when the temperature is kept constant. The corresponding potential has no microscopic meaning, however, and is emergent.
Space is in the first place a device introduced to describe the positions and movements of particles. Space is therefore literally just a storage space for information. This information is naturally associated with matter. Given that the maximal allowed information is finite for each part of space, it is impossible to localize a particle with infinite precision at a point of a continuum space. In fact, points and coordinates arise as derived concepts. One could assume that information is stored in points of a discretized space (like in a lattice model). But if all the associated information would be without duplication, one would not obtain a holographic description. In fact, one would not recover gravity.
Thus we are going to assume that information is stored on surfaces, or screens. Screens separate points, and in this way are the natural place to store information about particles that move from one side to the other. Thus we imagine that this information about the location particles is stored in discrete bits on the screens. The dynamics on each screen is given by some unknown rules, which can be thought of as a way of processing the information that is stored on it. Hence, it does not have to be given by a local field theory, or anything familiar.
Gravity has given many hints of being an emergent phenomenon, yet up to this day it is still seen as a fundamental force. The similarities with other known emergent phenomena, such as thermodynamics and hydrodynamics, have been mostly regarded as just suggestive analogies. It is time we not only notice the analogy, and talk about the similarity, but finally do away with gravity as a fundamental force. Of course, Einstein's geometric description of gravity is beautiful, and in a certain way compelling. Geometry appeals to the visual part of our minds, and is amazingly powerful in summarizing many aspects of a physical problem. Presumably this explains why we, as a community, have been so reluctant to give up the geometric formulation of gravity as being fundamental. But it is inevitable we do so. If gravity is emergent, so is space time geometry. Einstein tied these two concepts together, and both have to be given up if we want to understand one or the other at a more fundamental level.
The results of this paper suggest gravity arises as an entropic force, once space and time themselves have emerged. If the gravity and space time can indeed be explained as emergent phenomena, this should have important implications for many areas in which gravity plays a central role. It would be especially interesting to investigate the consequences for cosmology. For instance, the way redshifts arise from entropy gradients could lead to many new insights.
The reason why gravity has to keep track of energies as well as entropy differences is now clear. It has to, because this is what causes motion!
The presented arguments have admittedly been rather heuristic. One can not expect otherwise, given the fact that we are entering an unknown territory in which space does not exist to begin with. The profound nature of these questions in our view justifies the heuristic level of reasoning. </i></span><br />
<br />
<span style="font-size: small;">Verlinde's theory is a good example of how, although difficult to "digest", only giving up to consider gravity as effect of space – time curvature can be a logically consistent approach in the modern observational astronomy.
As the spin networks of <a href="http://marius-gravity.blogspot.it/2012/01/mt-vs-lqg.html">Loop Quantum Gravity</a> by Carlo Rovelli and Lee Smolin, the Verlinde’s "phase space" is the "substrate" necessary to originate and transmit gravity force that is, more 'than force, a manifestation of this physical entity in the underlying that in the MT theory presented in this blog is a kind of non quantized "aether" consisting in <a href="http://marius-gravity.blogspot.it/2011/02/sea-of-light.html">electromagnetic standing waves</a> whose dynamics arises from <a href="http://marius-gravity.blogspot.it/2012/02/symmetry-and-gravity.html">broken internal symmetry.</a> </span><br />
<br />
<span style="font-size: small;">Shocking? Not for who, like Marius, the founder of MT, didn’t get Einstein spacetime as an intangible ideological totem. </span><br />
<br />
<span style="font-size: small;">Stefano Gusman.</span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com0tag:blogger.com,1999:blog-6423338787090762061.post-71480921918809661012012-04-04T01:11:00.006-07:002012-04-20T08:38:28.111-07:00Il "fantasma di Opera"<span style="font-family:verdana;font-size:130%;">Alle idi di marzo del 2012 A.D. Carlo Ereditato, direttore scientifico dell’esperimento <a href="http://operaweb.lngs.infn.it/?lang=en">Opera</a>, condotto tra il CERN di Ginevra e i laboratori sotterranei del Gran Sasso, decide di dimettersi a seguito delle polemiche scaturite dalla divulgazione della scoperta di neutrini superluminali, successivamente smentita dalla scoperta di errori sistematici di misurazione causati da difetti meccanici delle strumentazioni. </span><br /><span style="font-family:verdana;font-size:130%;">L’analogo esperimento <a href="http://icarus.lngs.infn.it/">ICARUS</a>, condotto dal premio Nobel Carlo Rubbia, ha “rivisto al ribasso” il vantaggio (presunto) dei neutrini sulla luce passando da circa 60 ns a 0,3 ns +- 4ns +- 9ns di incertezza sulla misurazione del “tempo di volo” (1 ns = 1 nano secondo = 10^-9 sec).<br />La dichiarazione ufficiale del portavoce di ICARUS è stata : “La velocità dei neutrini è compatibile con quella della luce”.<br />Marius chiede, comunque, che a Ereditato si conceda l’onore delle armi.<br />Cosa vuol dire, infatti, “La velocità dei neutrini è compatibile con quella della luce” ?<br />E’ maggiore, uguale, inferiore ?<br />La <a href="http://it.wikipedia.org/wiki/Massa_a_riposo">massa a riposo</a> del neutrino è stimata attorno agli 0,05 eV/c^2. La Relatività Speciale impedisce a qualsiasi particella massiva di eguagliare la velocità della luce nel vuoto. La massa/energia (E = mc^2) “a riposo” di una particella massiva accelerata, infatti, aumenta secondo il <a href="http://it.wikipedia.org/wiki/Fattore_di_Lorentz">fattore di Lorenz</a> che, al tendere della velocità della particella u a quella della luce c, diverge, tendendo asintoticamente all’infinito.<br />Essendo stato misurato uno scarto temporale avente ordine di grandezza pari al miliardesimo di secondo (10^-9 sec) su un “tempo di volo” avente ordine di grandezza pari ai millesimi di secondo, il tempo di volo dovrebbe essere stato misurato con una precisione spinta almeno fino alla nona cifra dopo la virgola (0,00x.xxx.xxx sec).<br />Purtroppo, pero’, con le attuali tecnologie disponibili (triangolazioni satellitari GPS), la misurazione delle distanze ha, invece, una precisione incommensurabilmente inferiore (al piu’ una ventina di cm). Poiche', pero’, lo scarto sul tempo di volo a vantaggio dei neutrini è stato valutato per una parte su un miliardo, il rapporto tra i valori quadrati della velocità dei neutrini u e della luce c (il fattore beta che compare al denominatore della formula che esprime il fattore di Lorenz), andrebbe fatto esprimendo le due velocità almeno in nano metri su nano secondi, ossia con nove cifre decimali dopo la virgola, in maniera da ottenere l’effettivo valore della <a href="http://it.wikipedia.org/wiki/Massa_relativistica">massa/energia relativistica</a> (o “apparente”) dei neutrini e, soprattutto, delle particelle cariche che li hanno generati.<br />Lo scarto temporale di ICARUS di “soli” 0,3 ns +- 4ns +- 9ns (peraltro ancora “a favore” dei neutrini), lascia ancora una grossa alea di incertezza su quanto i neutrini si siano avvicinati alla velocità della luce (volendo lasciare “intonsa” la RS che impone che tale velocità sia comunque inferiore).<br />La questione non è di “lana caprina”, ma di merito.<br />Se i neutrini, infatti, avessero una velocità molto prossima a quella della luce avrebbero una massa apparente tendente rapidamente a divergere, essendo la curva del fattore di Lorenz ripidissima per valori del rapporto u^2/c^2 tendenti all’unità.<br />Costruendo la curva del fattore di Lorenz per punti si osserva che, posto ad esempio c = 300.000.000,000.000.000 m/sec e u = 299.999.999,000 m/sec, gamma vale 387.298,310 che moltiplicato per la massa a riposo stimata del neutrino vale 19.364,916 eV/c^2. Per u = 299.999.999,999.990.000, m = 193.404,531 eV/c^2. Per u = 299.999.999,999.000, m = 607.575 eV/c^2 e cosi’ via.<br />Di quanto, allora, una particella elementare massiva accelerata puo' anche solo avvicinarsi alla velocità della luce senza che la sua massa/energia relativistica aumenti in maniera incompatibile con le leggi fisiche note ?<br />I neutrini vengono prodotti accelerando in un ciclotrone, tramite campi magnetici, fasci di protoni che, impattando contro bersagli fissi, generano fasci di pioni che “decadono” in muoni. Questi e, successivamente, i loro “prodotti di decadimento”, ossia i neutrini, vengono in seguito indirizzati, con opportuna inclinazione (circa 3,26 °), che tiene conto della curvatura della superficie terrestre, verso i rilevatori posti a 730 km di distanza. Se, quindi, ai neutrini viene impressa un’accelerazione tale da eguagliare (quasi) la velocità della luce, i protoni che li hanno generati e i successivi prodotti di reazione (pioni e muoni carichi) dovrebbero emettere <a href="http://it.wikipedia.org/wiki/Radiazione_di_sincrotrone">radiazione di sincrotrone</a>.<br />Nulla di tutto cio’.<br /></span><br /><span style="font-family:verdana;font-size:130%;">Riassumendo :<br /></span><br /><span style="font-family:verdana;font-size:130%;">1. Particelle massive viaggiano a velocità molto prossime a quelle della luce ma, seppur di poco, inferiore.<br /></span><br /><span style="font-family:verdana;font-size:130%;">2. Le stesse particelle, fino a prova contraria, vengono rilevate prima di quando sarebbe stato rilevato un fascio di fotoni lungo lo stesso (?) percorso teorico nel vuoto.<br /></span><br /><span style="font-family:verdana;font-size:130%;">3. La velocità dei neutrini non puo’, comunque essere stata troppo prossima alla velocità della luce perche’ i valori teorici delle masse apparenti delle particelle che li generano sarebbero superiori a quelli rilevati sperimentalmente.<br /></span><br /><span style="font-family:verdana;font-size:130%;">E allora ?<br /></span><br /><span style="font-family:verdana;font-size:130%;">La MT fornisce una possibile spiegazione.<br /></span><br /><span style="font-family:verdana;font-size:130%;">Stefano Gusman</span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com8tag:blogger.com,1999:blog-6423338787090762061.post-64571625415357174502012-04-04T01:07:00.005-07:002012-04-08T00:49:45.796-07:00The "Opera phantom"<span style="font-family:verdana;font-size:130%;">The Ides of March of 2012 A.D. Carlo Ereditato, scientific director of the <a href="http://operaweb.lngs.infn.it/spip.php?article57&lang=en">Opera experiment </a>conducted between CERN and Gran Sasso underground laboratory, decided to resign as part of the controversy arising from the disclosure of superluminal neutrinos, subsequently disproved by the discovery of systematic measurement errors caused by defects of mechanical instrumentation. </span><br /><span style="font-family:verdana;font-size:130%;">The same <a href="http://icarus.lngs.infn.it/">ICARUS experiment</a>, led by Nobel Prize Carlo Rubbia, has "revised down" the neutrinos advantage (allegedly) over the light from about 60 ns to 0.3 ns + - 4ns +- 9ns of uncertainty on the measurement of "time flight "(1 ns = 1 nano second = 10 ^ -9 sec).The official statement of the spokesman of ICARUS was: "Neutrinos speed is compatible with the light one."<br />However Marius asks for Ereditato honors of war.<br />What does it mean, in fact, "Neutrinos speed is compatible with the light one." ? Greater, equal, less?<br />Neutrino <a href="http://en.wikipedia.org/wiki/Invariant_mass">rest mass</a> is estimated around 0.05 eV/c^2. Special Relativity prevents any particle mass to match the light speed. Infact rest mass/energy (E=mc^2) of an accelerated massive particle increases with the <a href="http://en.wikipedia.org/wiki/Lorentz_factor">Lorenz factor</a> that, at stretching of particle speed “u” to that of light c, diverges, tending asymptotically to infinity.Having been measured a temporal difference having order of magnitude equal to the billionth of a second (10 ^ -9 sec) on a "time of flight" having a magnitude equal to thousandths of a second, the flight time should have been measured with an accuracy until the ninth digit after the decimal point (0.00 sec x.xxx.xxx) at least.Unfortunately, 'with existing available technology (satellite triangulation GPS), measuring distances has immeasurably less precision (the most' twenty cm). But since the gap on the flight time for neutrinos benefit was evaluated for a part in a billion, the ratio between the values of the neutrinos and light speed squares (the “beta” in the denominator of the Lorenz formula), should be done by expressing the two speeds in nano meters on nano seconds at least, which is nine decimal digits after the decimal point, so as to obtain a realistic value of the relativistic (or "apparent") neutrinos mass/energy and, above all, of the charged particles generated them in the accelerators.The delay of Icarus "only" 0.3 ns +-4ns +- 9ns (though still "in favor" of neutrinos), still leaves a large randomness of uncertainty about what the neutrinos have approached the speed of light (if you wish leave it "untouched" the RS that means that the speed is still below).The question is not "futile", but of merit.Infact if neutrinos had a speed closest to the light one would have an apparent mass tending rapidly to diverge, being the curve of the Lorenz factor steep for values of the ratio u2 /c^2 tending to unity.Constructing the Lorenz factor curve by point, is observed that, placed, for example c = 300.000.000,000.000.000 m/sec and u = 299.999.999,000 m/sec, range applies 387.298,310 which multiplied by the estimated neutrino rest mass is 19.364,916 eV/c^2. For u = 299.999.999,999.990.000, m = 193.404,531 eV/c^2. For u = 299.999.999,999.000, m = 607.575 eV/c^2, and so on.How much, then, an accelerated massive elementary particle can come close to the light speed without increasing its <a href="http://en.wikipedia.org/wiki/Mass_in_special_relativity">relativistic mass/energy</a> in a inconsistent way with the known physics laws?Neutrinos are produced in a cyclotron accelerating, via magnetic fields, protons beams impacting against fixed targets, which produce pions beams "decading" into muons. These and, subsequently, their "decay products", neutrinos, are subsequently addressed, with appropriate inclination (about 3.26 °), which takes into account the Earth's surface curvature, towards detectors placed 730 km away. Therefore, if to neutrinos is impressed such an acceleration to come closest to light speed, the protons and the subsequent reaction products that generate them (pions and muons) should issue <a href="http://en.wikipedia.org/wiki/Synchrotron_radiation">synchrotron radiation</a>.<br />None of this.<br /></span><br /><span style="font-family:verdana;font-size:130%;">In summary:<br /></span><br /><span style="font-family:verdana;font-size:130%;">1. Massive particles travel with closest speed to that of the light but, albeit slightly, lower.<br /></span><br /><span style="font-family:verdana;font-size:130%;">2. The particles themselves, until proven otherwise, will be detected earlier than they would have been detected photons beam along the same (?) theoretical journey into vacuum space.<br /></span><br /><span style="font-family:verdana;font-size:130%;">3. However neutrinos speed can not 'have been too much close to light speed cause the theoretical values of the apparent masses of the particles that create them are higher than those observed experimentally.<br /><br /></span><span style="font-family:verdana;font-size:130%;"></span><span style="font-family:verdana;font-size:130%;">So what?<br /></span><br /><span style="font-family:verdana;font-size:130%;">The MT provides a possible explanation.</span><br /><span style="font-family:Verdana;font-size:130%;"></span><br /><span style="font-family:Verdana;font-size:130%;">Stefano Gusman</span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com0tag:blogger.com,1999:blog-6423338787090762061.post-20154423502484222872012-02-25T02:04:00.026-08:002012-04-20T07:42:08.294-07:00Simmetria e gravità<!--[if gte mso 9]><xml> <w:worddocument> <w:view>Normal</w:View> <w:zoom>0</w:Zoom> <w:hyphenationzone>14</w:HyphenationZone> <w:punctuationkerning/> <w:validateagainstschemas/> <w:saveifxmlinvalid>false</w:SaveIfXMLInvalid> <w:ignoremixedcontent>false</w:IgnoreMixedContent> <w:alwaysshowplaceholdertext>false</w:AlwaysShowPlaceholderText> <w:compatibility> <w:breakwrappedtables/> <w:snaptogridincell/> <w:wraptextwithpunct/> <w:useasianbreakrules/> <w:dontgrowautofit/> </w:Compatibility> <w:browserlevel>MicrosoftInternetExplorer4</w:BrowserLevel> </w:WordDocument> </xml><![endif][if gte mso 9]><xml> <w:latentstyles deflockedstate="false" latentstylecount="156"> </w:LatentStyles> </xml><![endif][if !mso]><object classid="clsid:38481807-CA0E-42D2-BF39-B33AF135CC4D" id="ieooui"></object> <style> st1\:*{behavior:url(#ieooui) } </style> <![endif][if gte mso 10]> <style> /* Style Definitions */ table.MsoNormalTable {mso-style-name:"Tabella normale"; mso-tstyle-rowband-size:0; mso-tstyle-colband-size:0; mso-style-noshow:yes; mso-style-parent:""; mso-padding-alt:0cm 5.4pt 0cm 5.4pt; mso-para-margin:0cm; mso-para-margin-bottom:.0001pt; mso-pagination:widow-orphan; font-size:10.0pt; font-family:"Times New Roman"; mso-ansi-language:#0400; mso-fareast-language:#0400; mso-bidi-language:#0400;} </style> <![endif][if gte mso 9]><xml> <w:worddocument> <w:view>Normal</w:View> <w:zoom>0</w:Zoom> <w:hyphenationzone>14</w:HyphenationZone> <w:punctuationkerning/> <w:validateagainstschemas/> <w:saveifxmlinvalid>false</w:SaveIfXMLInvalid> <w:ignoremixedcontent>false</w:IgnoreMixedContent> <w:alwaysshowplaceholdertext>false</w:AlwaysShowPlaceholderText> <w:compatibility> <w:breakwrappedtables/> <w:snaptogridincell/> <w:wraptextwithpunct/> <w:useasianbreakrules/> <w:dontgrowautofit/> </w:Compatibility> <w:browserlevel>MicrosoftInternetExplorer4</w:BrowserLevel> </w:WordDocument> </xml><![endif][if gte mso 9]><xml> <w:latentstyles deflockedstate="false" latentstylecount="156"> </w:LatentStyles> </xml><![endif][if !mso]><object classid="clsid:38481807-CA0E-42D2-BF39-B33AF135CC4D" id="ieooui"></object> <style> st1\:*{behavior:url(#ieooui) } </style> <![endif][if gte mso 10]> <style> /* Style Definitions */ table.MsoNormalTable {mso-style-name:"Tabella normale"; mso-tstyle-rowband-size:0; mso-tstyle-colband-size:0; mso-style-noshow:yes; mso-style-parent:""; mso-padding-alt:0cm 5.4pt 0cm 5.4pt; mso-para-margin:0cm; mso-para-margin-bottom:.0001pt; mso-pagination:widow-orphan; font-size:10.0pt; font-family:"Times New Roman"; mso-ansi-language:#0400; mso-fareast-language:#0400; mso-bidi-language:#0400;} </style> <![endif]--><!--[if gte mso 9]><xml> <w:worddocument> <w:view>Normal</w:View> <w:zoom>0</w:Zoom> <w:hyphenationzone>14</w:HyphenationZone> <w:punctuationkerning/> <w:validateagainstschemas/> <w:saveifxmlinvalid>false</w:SaveIfXMLInvalid> <w:ignoremixedcontent>false</w:IgnoreMixedContent> <w:alwaysshowplaceholdertext>false</w:AlwaysShowPlaceholderText> <w:compatibility> <w:breakwrappedtables/> <w:snaptogridincell/> <w:wraptextwithpunct/> <w:useasianbreakrules/> <w:dontgrowautofit/> </w:Compatibility> <w:browserlevel>MicrosoftInternetExplorer4</w:BrowserLevel> </w:WordDocument> </xml><![endif][if gte mso 9]><xml> <w:latentstyles deflockedstate="false" latentstylecount="156"> </w:LatentStyles> </xml><![endif][if !mso]><object classid="clsid:38481807-CA0E-42D2-BF39-B33AF135CC4D" id="ieooui"></object> <style> st1\:*{behavior:url(#ieooui) } </style> <![endif][if gte mso 10]> <style> /* Style Definitions */ table.MsoNormalTable {mso-style-name:"Tabella normale"; mso-tstyle-rowband-size:0; mso-tstyle-colband-size:0; mso-style-noshow:yes; mso-style-parent:""; mso-padding-alt:0cm 5.4pt 0cm 5.4pt; mso-para-margin:0cm; mso-para-margin-bottom:.0001pt; mso-pagination:widow-orphan; font-size:10.0pt; font-family:"Times New Roman"; mso-ansi-language:#0400; mso-fareast-language:#0400; mso-bidi-language:#0400;} </style> <![endif]--> <p style="font-family: verdana;font-family:times new roman;" class="MsoNormal"><span lang="EN-GB" style="font-size:130%;"><span style="font-style: italic;">Liberamente tratto da </span><a style="font-style: italic;" href="http://www.trekportal.it/coelestis/showthread.php?t=45182">questa</a><span style="font-style: italic;"> discussione.</span><br /></span></p> <p style="font-family: verdana;font-family:times new roman;" class="MsoNormal"><span lang="EN-GB" style="font-size:130%;">Il modello standard è un modello perfettamente predittivo per quanto riguarda le interazioni elettromagnetiche, deboli e forti. Tuttavia nella sua versione “semplice” non prevede la massa delle particelle. Perchè?</span></p><p style="font-family: verdana;font-family:times new roman;" class="MsoNormal"><span lang="EN-GB" style="font-size:130%;">Nelle teorie di fisica moderna sono fondamentali le <span style="font-weight: bold; font-style: italic;">“simmetrie”</span>. Tutte le leggi di conservazione (impulso, energia, spin, momento angolare, numero barionico, numero leptonico) sono conseguenza della presenza di alcune simmetrie. Poiche’ sperimentalmente si osserva la conservazione di queste quantità, è fondamentale che la teoria abbia le relative simmetrie. Senza la massa, la teoria ha le simmetrie richieste, le quantità sono conservate, e la teoria concorda con l’esperimento.<br />Nel momento in cui si aggiunge la massa alla teoria, si rompono alcune delle fondamentali simmetrie e la teoria non è più coerente con l'esperimento. Quindi bisogna riflettere: senza la massa le interazioni vengono descritte perfettamente. Aggiungendo la massa la teoria non descrive più correttamente le interazioni.<br />Eppure la massa in natura esiste! Come si risolve il problema?<br /><br />E' ovvio che il termine di massa deve essere aggiunto. Bisogna trovare solo il modo per farlo senza distruggere le simmetrie.<br />Se viene aggiunto il termine di massa che <span style="font-style: italic;">"rompe la simmetria"</span>, dovrà essere aggiunto un altro termine, un nuovo termine, il quale si comporta nel modo opposto rispetto al termine di massa, per quella particolare simmetria: i due effetti sono uguali e opposti, si elidono, e abbiamo una teoria con la massa in cui le simmetrie sono conservate.<br /><br />Nelle teorie attualmente in corso di sperimentazione e verifica il nuovo termine è il cosiddetto <span style="font-weight: bold;">bosone di Higgs</span> e il meccanismo con cui viene conferita massa alle particelle elementari è, appunto, il <a href="http://it.wikipedia.org/wiki/Meccanismo_di_Higgs"><span style="font-weight: bold; font-style: italic;">“meccanismo di Higgs”</span></a>.</span></p> <p style="font-family: verdana;font-family:times new roman;" class="MsoNormal"><span lang="EN-GB" style="font-size:130%;">Esistono, pero’, altri modi, formalmente molto più eleganti, per ottenere tale risultato attraverso il principio della <span style="font-weight: bold; font-style: italic;">“rottura spontanea di simmetria”</span>.</span></p> <p style="font-family: verdana;font-family:times new roman;" class="MsoNormal"><span lang="EN-GB" style="font-size:130%;">Il modo più semplice per capire cosa si intenda è applicarlo alla<span style="font-weight: bold; font-style: italic;">“catena di spin”</span>.<br /><br />La catena di spin (unidimensionale) è il modello che rappresenta un magnete elementare (unidimensionale).<br /><br />Si immagini una serie di punti (nodi) su una retta cui corrisponda una successione di numeri interi a ciascuno dei quali si associa uno<span style="font-weight: bold; font-style: italic;"> <a href="http://it.wikipedia.org/wiki/Spin">“spin”</a></span>, che può valere + o -.<br /><br />.... + + - - + - + - - + + + - - - + - ++ - - + - + - ....<br /><br />A questo modello aggiungiamo una dinamica ovvero facciamo fluttuare questi nodi nel tempo in modo dipendente dalla temperatura, secondo la dinamica decisa da una certa legge matematica.<br /><br />Abbiamo un modello per il quale, a temperatura molto alta, la probabilità per ogni nodo di essere + o - è al 50%. In questa fase, infatti, la temperatura (agitazione termica) vince completamente sulla magnetizzazione (l'interazione dei nodi vicini è troppo scarsa rispetto all'agitazione termica).<br />Se, quindi, mediamo gli spin e chiamiamo la media magnetizzazione M, otteniamo il valore M = 0.<br /><br />Diminuendo la temperatura la condizione M = 0 si conserva fino a una certa temperatura critica Tc. Al di sotto della temperatura critica, l'agitazione termica non è più sufficiente a far oscillare lo spin in modo casuale e, quindi, iniziano a formarsi delle zone tutte positive o tutte negative (l'interazione tra nodi vicini inizia a vincere sull'agitazione termica). L'agitazione termica agisce ancora, anche se in modo inferiore.<br />Quindi la magnetizzazione M è diversa da zero (ad esempio, appena sotto la temperatura critica, potrebbe valere M = 0,1).<br /><br />Scendendo ancora con la temperatura, avvicinandosi a T = 0, l'agitazione termica è sempre più debole, le fluttuazioni casuali sempre meno probabili e la catena di spin tende al valore M = 1 (o -1, a seconda del caso deciso dalle fluttuazioni attorno alla transizione T = Tc).<br /><br />Ricapitolando:<br /><br />T > Tc : M = 0 ;<br />T = Tc : transizione di stato, in cui gli spin iniziano ad accoppiarsi ;<br />T < Tc : M diverso da 0 (M tende a +1 o a -1 per T = 0).<br /><br />Abbiamo quindi un fenomeno di magnetizzazione spontanea per T < Tc.<br /><br />Dove sta la rottura spontanea di simmetria? E, sopratutto, di quale simmetria stiamo parlando?<br />La simmetria è sempre rispetto ad una <span style="font-weight: bold;">trasformazione</span>.<br />In questo caso, la trasformazione consiste nell'invertire il segno di ogni spin:<br /><br />+ ----> -<br />- ----> +<br /><br />E' chiaro che nella fase T > Tc, siccome i + e i - sono distribuiti casualmente, la magnetizzazione M resterà nulla. Quindi il sistema è simmetrico rispetto a questa trasformazione.<br /><br />Lo stesso non si può dire per la fase T < Tc. Essendo infatti M diversa da 0, applicando la stessa trasformazione<br /><br />+ ----> -<br />- ----> +<br /><br />si avrà che<br /><br />M ----> -M<br /><br />e, quindi, la trasformazione non è piu’ una simmetria per il sistema.<br /><br />Si è verificata una <span style="font-weight: bold;">rottura spontanea di simmetria</span>.</span></p> <p style="font-family: verdana;font-family:times new roman;" class="MsoNormal"><span lang="EN-GB" style="font-size:130%;">Questo meccanismo è alla base delle variazioni di fase nei sistemi termodinamici.</span></p> <p style="font-family: verdana;font-family:times new roman;" class="MsoNormal"><span lang="EN-GB" style="font-size:130%;">Nell’esempio gli spin rapresentano i momenti “giromagnetici” degli elettroni ovvero i “quarti numeri quantici” che definiscono il <span style="font-weight: bold;">principio di esclusione di Pauli</span> per il quale nelle configurazioni stabili di ottetto degli elementi chimici gli ultimi due elettroni degli orbitali esterni devono avere spin semiinteri uguali e opposti (+ ½ e – ½) ; ovvero, se consideriamo gli elettroni particelle localizzate, questi devono ruotare attorno al proprio asse uno in un verso e uno nell'altro per dare due campi magnetici uguali e opposti. In realtà gli elettroni che occupano gli orbitali atomici non appaiono propriamente come particelle localizzate. <span style="font-weight: bold;">Il principio di indeterminazione di Heisemberg</span>, che è alla base di tutta la Meccanica Quantistica, afferma che non è possibile determinare con certezza la posizione e la quantità di moto di un elettrone. Queste, infatti, sono definite dalle possibili soluzioni (autovalori) della <span style="font-weight: bold;">funzione d'onda di probabilità di Shroedinger</span> o, come si suol dire, dal <span style="font-style: italic;">"collasso" della funzione d'onda</span> in uno dei possibili <span style="font-weight: bold; font-style: italic;">"autostati"</span> del sistema quantistico considerato (la posizione e la quantità di moto dell’elettrone in questo caso). L’orbitale atomico è da considerare, appunto, un’area di distribuzione di densità di probabilità di trovare l’elettrone ad una certa distanza dal nucleo. L’integrale di tale area è 1 (condizione di <span style="font-style: italic;">“normalizzazione”</span>) e rappresenta la “sommatoria” delle probabilità della presenza dell’elettrone attorno al nucleo che è la certezza matematica. </span></p> <p style="font-family: verdana;font-family:times new roman;" class="MsoNormal"><span lang="EN-GB" style="font-size:130%;">Lo stato quantistico “collassato” (autostato) è la causa dello stato fisico osservato nel sistema macroscopico.<span style=""> </span></span></p> <p style="font-family: verdana;font-family:times new roman;" class="MsoNormal"><span lang="EN-GB" style="font-size:130%;"><span style="font-weight: bold;">Pertanto rotture di simmetria quantistiche determinano variazioni di stato nei sistemi fisici macroscopici e, quindi, anche transizioni di fase nei sistemi termodinamici.</span> Tornando ai momenti giromagnetici e considerando in luogo della catena di spin una <span style="font-weight: bold; font-style: italic;">“rete di spin”</span> perfettamente simmetrica, omogenea e isotropa (tanti + e - disposti secondo un reticolo spaziale tridimensionale e ordinatamente alternati) otterremo un campo magnetico “potenziale”. Sostituendo anche un solo + con un – si ha una rottura di simmetria e l’innesco di un <span style="font-style: italic;">effetto "domino" </span>che si traduce nel passaggio da campo potenziale a campo “in atto” ovvero che manifesta le sue proprietà (la magnetizzazione con le relative linee di forza in questo caso).</span></p> <p style="font-family: verdana;font-family:times new roman;" class="MsoNormal"><span lang="EN-GB" style="font-size:130%;">Vediamo un altro esempio di trasformazione. Prendiamo un sistema planetario a due corpi. L'energia potenziale che descrive il sistema è centrale, ovvero dipende solo dalla distanza dei due corpi e non dalla posizione assoluta.<br />Una possibile trasformazione è <span style="font-style: italic;">"avvicinare o allontanare radialmente i due oggetti" </span>oppure <span style="font-style: italic;">"ruotare un oggetto attorno all'altro, mantenendo la distanza costante"</span>.<br />Entrambe sono trasformazioni, ma solo la seconda è una simmetria perchè il potenziale, che contiene tutte le informazioni necessarie a descrivere il sistema, non varia a meno che non cambi la distanza radiale. Sappiamo, grazie al <span style="font-weight: bold;">teorema di Noether</span>, che ad ogni simmetria corrisponde una quantità conservata.Il teorema ci permette di calcolare questa quantità partendo dalla simmetria. Applicando il teorema all'esempio citato, otteniamo come quantità conservata il momento angolare. La stessa identica procedura la si applica anche a livello quantistico: <span style="font-style: italic;">ad ogni simmetria, corrisponde una quantità conservata</span>.<br />Impulso, energia, ma non solo: anche tutti i numeri quantici. numero leptonico, numero barionico, spin e così via sono tutte quantità che risultano conservate come conseguenza della presenza di simmetria nel modello standard.</span></p> <p style="font-family: verdana;font-family:times new roman;" class="MsoNormal"><span lang="EN-GB" style="font-size:130%;">La simmetria precedentemente descritta per la rete di spin puo’ essere estesa a una qualunque distribuzione di sorgenti di energia/impulso e, per esempio, descrivere anche un campo gravitazionale quando tale simmetria venga a rompersi. In tal caso, pero’, le sorgenti di energia gravitazionale sarebbero di natura elettromagnetica e l’energia sprigionata dalla rottura di simmetria sarebbe tanto maggiore quanto piu’ fitto fosse il reticolo tridimensionale. Considerando, infatti, l’elettrone un’onda e non una particella, l’energia associata al campo elettromagnetico sarebbe E = hv, con h costante di Planck e v frequenza di oscillazione (Hz) del campo, tanto maggiore quanto piu’ stretta è la lunghezza d’onda. La simmetria dell’interferenza tra onde trasversali di uguali ampiezza frequenza e fase generebbe onde stazionarie e, quindi, renderebbe il campo solo potenziale. La rottura di simmetria della rete di spin, causata anche da una piccola variazione di frequenza, fase o ampiezza di oscillazione, libererebbe l’energia potenziale imbrigliata nel reticolo/matrice tridimensionale, dando luogo alle linee di forza del campo gravitazionale che, ovviamente, sarebbe dinamico.</span></p> <p style="font-family: verdana;font-family:times new roman;" class="MsoNormal"><span lang="EN-GB" style="font-size:130%;">La matrice/reticolo, pero’, rappresenterebbe solo un’approssimazione “discreta” di una realtà fisica sottostante costituita da un <span style="font-weight: bold; font-style: italic;">“continuum” </span>di materia/energia distribuita sotto forma di onde.</span></p> <p style="font-family: verdana;font-family:times new roman;" class="MsoNormal"><span lang="EN-GB" style="font-size:130%;">La rete di spin, quindi, potrebbe risultare utile per definire un modello matematico/geometrico di calcolo semplificato che descriva formalmente il campo.</span></p> <p style="font-family: verdana;font-family:times new roman;" class="MsoNormal"><span lang="EN-GB" style="font-size:130%;">Stefano Gusman.</span></p>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com16tag:blogger.com,1999:blog-6423338787090762061.post-910938154081681312012-02-25T02:01:00.015-08:002012-04-20T07:44:12.756-07:00Symmetry and gravity<!--[if gte mso 9]><xml> <w:worddocument> <w:view>Normal</w:View> <w:zoom>0</w:Zoom> <w:hyphenationzone>14</w:HyphenationZone> <w:punctuationkerning/> <w:validateagainstschemas/> <w:saveifxmlinvalid>false</w:SaveIfXMLInvalid> <w:ignoremixedcontent>false</w:IgnoreMixedContent> <w:alwaysshowplaceholdertext>false</w:AlwaysShowPlaceholderText> <w:compatibility> <w:breakwrappedtables/> <w:snaptogridincell/> <w:wraptextwithpunct/> <w:useasianbreakrules/> <w:dontgrowautofit/> </w:Compatibility> <w:browserlevel>MicrosoftInternetExplorer4</w:BrowserLevel> </w:WordDocument> </xml><![endif][if gte mso 9]><xml> <w:latentstyles deflockedstate="false" latentstylecount="156"> </w:LatentStyles> </xml><![endif][if gte mso 10]> <style> /* Style Definitions */ table.MsoNormalTable {mso-style-name:"Tabella normale"; mso-tstyle-rowband-size:0; mso-tstyle-colband-size:0; mso-style-noshow:yes; mso-style-parent:""; mso-padding-alt:0cm 5.4pt 0cm 5.4pt; mso-para-margin:0cm; mso-para-margin-bottom:.0001pt; mso-pagination:widow-orphan; font-size:10.0pt; font-family:"Times New Roman"; mso-ansi-language:#0400; mso-fareast-language:#0400; mso-bidi-language:#0400;} </style> <![endif]--> <p style="font-family: verdana;font-family:times new roman;" class="MsoNormal"><span lang="EN-GB" style="font-size:130%;">The standard model is a perfectly predictive model for the electromagnetic interactions, weak and strong. However, in its "simple" version does not include the mass of the particles. </span><span style="font-size:130%;">Why?<br />In the theories of modern physics <b style=""><i style="">"symmetry"</i></b> is fundamental. All the conservation laws (momentum, energy, spin, angular momentum, baryon number, lepton number) are a consequence of the presence of certain symmetries. </span><span lang="EN-GB" style="font-size:130%;">Since experimentally is observed conservation of these quantities, it is essential that the theory has its symmetries. Without mass, the theory has the symmetry required, quantities are preserved, and the theory agrees with experiment.<br />In the moment that you add mass to the theory, break some of the fundamental symmetries, and the theory is no longer consistent with the experiment. </span><span style="font-size:130%;">So you have to think about: no mass interactions are well described. </span><span lang="EN-GB" style="font-size:130%;">By adding the mass the theory doesen’t correctly describe the interactions.<br /></span><span style="font-size:130%;">Yet the mass exists in nature! How do you solve the problem?<br /><br />It 'obvious that the mass term must be added. We must only find a way to do it without destroying the symmetry.<br /></span><span lang="EN-GB" style="font-size:130%;">If the mass term added breaks the symmetry, must be added another term, a new term, which behaves in the opposite way to the mass term for the particular symmetry: the two effects are equal and opposite , cancel out, and we have a theory with the mass in which the symmetries are preserved.<br /><br />In the theories currently experimentally testing, the new term is the so called <b style=""><i style="">“Higgs boson”</i></b> and the mechanism by which is given mass to elementary particles is, in fact, the <b style=""><i style=""><a href="http://en.wikipedia.org/wiki/Higgs_mechanism">"Higgs mechanism"</a>.</i></b><br />However there are other ways, formally more elegant, to achieve this result through the principle of <b style=""><i style="">"spontaneous symmetry breaking."</i></b><br />The easiest way to understand what is meant is to apply the <b style=""><i style="">" spin chain”.</i></b><br /><br />The spin chain (one-dimensional) is the model that represents a elementary magnet (unidimensional).<br /><br />Imagine a set of points (nodes) on a line which corresponds to a sequence of integers each of which is associated with a <a href="http://en.wikipedia.org/wiki/Spin_%28physics%29"><b style=""><i style="">"spin"</i></b></a> worth + or -.<br /><br />.... </span><span style="font-size:130%;">+ + - + - + - + + + --- + - + + - + - + - ....<br /><br /></span><span lang="EN-GB" style="font-size:130%;">In this model we add a dynamic or do fluctuate over time these nodes in dependence on temperature, according to the dynamics determined by a certain mathematical law.<br /><br />We have a model for which, at very high temperature, the probability for each node to be + or - is 50%. In this phase, in fact, temperature (thermal agitation) wins completely on the magnetization (the interaction of the neighboring nodes is too low compared with thermal agitation).<br /></span><span style="font-size:130%;">If then mediate the spins, and we call the average magnetization M, we obtain the value M = 0.<br /><br /></span><span lang="EN-GB" style="font-size:130%;">Decreasing the temperature, the condition M = 0 is kept up since to a certain critical temperature Tc. Below the critical temperature thermal agitation is no longer sufficient to swing the spin at random and, therefore, begin to form all positive or all negative areas (the interaction between neighboring nodes start winning on thermal agitation). Thermal agitation is still acting, although less so.<br /></span><span style="font-size:130%;">Then the magnetization M is different from zero (for example, just below the critical temperature, it might be M = 0.1).<br /><br /></span><span lang="EN-GB" style="font-size:130%;">Down again with temperature, approaching at T = 0, thermal agitation is weaker and weaker, likely random fluctuations always less, and spin chain tends to the value M = 1 (or -1, depending on the case decided by the fluctuations around the transition T = Tc).<br /><br />In summary:<br /><br />T> Tc : M = 0 ;<br />T = Tc : transition state, where the spins begin to mate ;<br />T <tc m="" other="" than="" 0="" tends="" to="" 1="" or="" for="" t="0)." therefore="" we="" have="" a="" spontaneous="" magnetization="" phenomenon="" span="">Where is the spontaneous breaking of symmetry? <span style="" lang="EN-GB">And, above all, what we're talking about symmetry?<br />Symmetry is always compared to a transformation.<br />In this case the transformation is to invert the sign of each spin:<br /><br />+ ----> -<br />-----> +<br /><br />It 's also clear that in phase T> Tc, since the + and - are randomized, will be nothing the magnetization M. Then the system is symmetrical respect to this transformation.<br /><br /></span>The same can not be said for the phase T <tc. span=""><span style="" lang="EN-GB">In fact, being M different from 0, applying the same transformation<br /><br />+ ----> -<br />-----> +<br /><br />that is you will obtain :<br /><br />M ----> M-<br /><br />and, therefore, the transformation is no more symmetric for the system.<br /><br /></span>There was a <b style=""><i style="">spontaneous symmetry breaking</i></b>.<br /><span style="" lang="EN-GB">This kind of mechanism is the basis of phase changes in thermodynamic systems.<br />In the example spins represent electrons magnetic spin moments or <b style=""><i style="">" quarter quantum <span style=""> </span>numbers"</i></b> that define the <b style=""><i style="">Pauli exclusion principle</i></b> for which, in the stable octet configurations of chemical elements, the last two electrons of the outer orbitals must have equal and opposite spins (+ ½ and - ½) ; or, if we consider the electrons as localized particles, rotate around its own axis one in a direction and one in the other, to give two equal and opposite magnetic fields. In reality electrons occuping atomic orbitals do not appear exactly as localized particles. The <b style=""><i style="">Heisenberg uncertainty principle</i></b>, which underlies whole Quantum Mechanics, provides for you can not determine with certainty position and momentum of an electron. These, in fact, are defined by the possible solutions (eigenvalues) <b style=""><i style="">of Shroedinger probability wave function </i></b>or, as they say, the "collapse" of the wave function in one of the possible <b style="">"eigenstates"</b> of the quantum system under consideration (the 'orbits of the electron position and momentum in this case). In fact the atomic orbital is to be considered a probability density distribution area of finding electron at a certain distance from the nucleus. The integral of this area is 1 (the <i style="">"normalization”</i> condition) and represents the "sum" of the likelihood of the electron presence around the nucleus, which is a mathematical certainty.<br />The "collapsed" (eigenstate) quantum state is the cause of the observed physical state of the macroscopic system.<br /><span style="font-weight: bold;">Therefore breaking quantum symmetry determines status changes in the macroscopic physical systems and also phase transition in thermodynamic systems.</span><br />Going back to the spin moments and considering in place of a spin chain a <b style=""><i style="">"spin network"</i></b> perfectly symmetrical, homogeneous and isotropic (many + and - according to a three-dimensional spatial lattice and neatly alternates) will get a "potential" magnetic field Substituting even one only + with a - we have a symmetry breaking and the triggering “domino” effect which results in the transition from potential to “actuated” field, that is it reveals its properties (the magnetization with the relative lines of force in this case).<br />Let’s see another example of transformation.<br /></span>Consider a planetary system with two bodies. <span style="" lang="EN-GB">The potential energy which describes the system is central, that is it depends only on the distance of the two bodies and not on the absolute position.<br /><br />One possible transformation is <i style="">" get closer or farther away radially the two objects"</i> or <i style="">"rotate an object around another, keeping constant the distance."</i><br />Both are transformations, but only the second is a symmetry because the potential, which contains all the information needed to describe the system, does not vary unless it changes the radial distance.<br />We know, thanks to <b style="">Noether theorem</b>, that each symmetry corresponds to a conserved quantity.<br />The theorem allows to calculate this quantity starting from the symmetry. Applying the theorem to the cited example, we obtain the angular momentum as conserved quantity.<br /></span>The exact same procedure also applies to the quantum level: each symmetry, corresponds to a conserved quantity.<br /><span lang="EN-GB">Momentum, energy, but not only that : all the quantum numbers. lepton number, baryon number, spin, and so on are all conserved quantities as a consequence of symmetry presence in the standard model.<br />The symmetry previously described for the spin network can 'be extended to any distribution of pulse/energy sources and, for example, also can describe a gravitational field when this symmetry breaks. However, in this case, the sources of gravitational energy would be electromagnetic and the energy released by symmetry breaking would be greater then more dense the three-dimensional lattice. In fact thought electron as a wave and not particle, the energy associated to the electromagnetic field would be E = hv, with h Planck's constant and v frequency (Hz) of <span style=""> </span>the field oscillation, greater then more close is the wave length. Symmetry of the interference between transverse waves of equal amplitude, frequency and phase would give standing waves and, therefore, would make the field only potential. The symmetry spin network breaking, caused also by a small change in frequency, phase or amplitude of oscillation, would give the releasing of potential energy bridled in the lattice/three-dimensional matrix, giving rise to the lines of force of the gravitational field which, of course, would be dynamic.<br />However the matrix/lattice would be only a “discrete” model of an underlying physical reality consisting of a <b style=""><i style="">"continuum"</i></b> made up of matter/energy distributed as waves. </span></tc.></tc></span></p><p style="font-family: verdana;font-family:times new roman;" class="MsoNormal"><span lang="EN-GB" style="font-size:130%;">The spin network, then, might be useful to define a mathematical/ geometrical simplified calculation that describes formally the field.</span></p> <span style="font-family: verdana;font-family:times new roman;font-size:130%;" lang="EN-GB" >Stefano Gusman.</span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com0tag:blogger.com,1999:blog-6423338787090762061.post-37539048944756738982012-01-21T03:04:00.003-08:002012-03-08T22:23:31.561-08:00"MT" vs "LQG". Oltre l'ultima frontiera della gravità.<span style="font-size:130%;">La “<a href="http://arxiv.org/pdf/gr-qc/9903045.pdf">Loop Quantum Gravity</a>” (LQG) opera, nel 1990, di Carlo Rovelli e Lee Smolin basata sul concetto di <span style="font-style: italic;">“spin network”</span> (rete di spin), ideato nei primi anni ’70, da Roger Penrose, rappresenta una delle piu’ affascinanti ed eleganti teorie gravitazionali.<br /><a href="http://arxiv.org/pdf/gr-qc/9903045.pdf"></a><br />In fisica, una <a href="http://en.wikipedia.org/wiki/Spin_networks">rete di spin</a> è un tipo di diagramma che puo’ essere usato per rappresentare gli stati e le interazioni tra particelle e campi in meccanica quantistica. Dal punto di vista matematico, i diagrammi sono un modo conciso per rappresentare funzioni multilineari e funzioni tra gruppi di matrici. La notazione diagrammatica spesso semplifica il calcolo perché semplici diagrammi possono essere usati per rappresentare funzioni complicate. A Roger Penrose è attribuita l'invenzione delle “reti di spin” nel 1971, anche se simili tecniche diagrammatiche esistevano anche prima di allora. Le reti di spin sono state applicate alla teoria della gravità quantistica da Carlo Rovelli, Lee Smolin, Jorge Pullin e altri.<br /><a href="http://en.wikipedia.org/wiki/Spin_networks"></a><br />Una rete di spin, come descritta da Penrose nel 1971, è una sorta di schema in cui ogni segmento di linea rappresenta la linea di universo di una "unità" (una particella elementare o un sistema composto di particelle). Tre segmenti di linea convergono in ogni vertice. Un vertice può essere interpretato sia come un evento in cui una singola unità si divide in due, sia come uno in cui due unità si scontrano e si uniscono a formare una singola unità. Schemi le cui linee-segmenti sono tutti uniti nei vertici sono chiamati reti di spin chiuse. Il tempo può essere visto scorrere in una direzione, piuttosto che dal basso verso l'alto dello schema, ma per le reti di spin chiuse la direzione del tempo è irrilevante per i calcoli. Ogni segmento è marcato con un numero intero chiamato “numero di spin”. Un’unità con numero di spin n è detta “n-unità” e ha momento angolare nh/2л. Per i bosoni, come fotoni e gluoni, n è un numero pari. Per i fermioni, come gli elettroni e i quark, n è dispari.<br />Nella gravità quantistica a loop (LQG), una rete di spin rappresenta uno "stato quantico" del campo gravitazionale su una ipersuperficie tridimensionale.<br /></span><span style="font-size:130%;">La gravità quantistica a loop è conosciuta anche come “geometria quantistica” e “relatività generale canonica”. E 'stata proposta come teoria quantistica dello spazio-tempo che tenta di unificare le teorie apparentemente incompatibili della meccanica quantistica e relatività generale. Si tratta di una teoria quantistica della gravità in cui è quantizzato lo spazio reale in cui accadono tutti gli altri fenomeni fisici. La LQG conserva gli aspetti fondamentali della relatività generale, come l’invarianza per trasformazioni di coordinate e, al tempo stesso, utilizza la quantizzazione dello spazio e del tempo alla scala di Planck, caratteristica della meccanica quantistica. I critici della LQG fanno spesso riferimento al fatto che la teoria non predice l'esistenza di dimensioni extra dello spazio-tempo , o la supersimmetria. La risposta dei fautori LQG è che, attualmente, nonostante le ripetute ricerche sperimentali, non ci sono prove di altre dimensioni o particelle supersimmetriche, per cui le dimensioni aggiuntive dello spazio e del tempo e la supersimmetria devono essere considerate ipotesi speculative.<br /><br />Estratto da “on LQG” di Carlo Rovelli.<br /><br /><span style="font-style: italic;">Nel 1915 Einstein si rese conto che la gravità doveva anche essere descritta da una teoria di campo in modo da essere coerente con la relatività speciale. Finché restiamo nell'ambito del regime classico, piuttosto che in quello quantistico, il campo gravitazionale definisce un continuum 4D. Possiamo, cioe’, pensare ancora al campo come a una sorta di spazio-tempo che si piega, oscilla e obbedisce alle equazioni di campo. Tuttavia se portiamo la meccanica quantistica in scena questo continuum si rompe. I campi quantistici hanno una struttura granulare - il campo elettromagnetico, per esempio, è composto da fotoni - e subiscono le fluttuazioni probabilistiche. E’ difficile pensare lo spazio come un oggetto granulare e fluttuante. Possiamo, naturalmente, ancora chiamarlo "spazio", o "spazio quantico". Ma è davvero un campo quantistico, in un mondo dove ci sono solo campi su campi, e nessun residuo di spazio sullo sfondo.</span> <span style="font-style: italic;">John Wheeler della Princeton University ha suggerito che lo spazio-tempo deve avere una “schiuma” come struttura a scale molto piccole e, insieme a Bryce DeWitt ora alla Texas University, ha introdotto l'idea di una "funzione d'onda su geometrie". Questa è una funzione che esprime la probabilità di avere una geometria dello spazio-tempo piuttosto che un altro, nello stesso modo in cui la funzione d'onda di Schrödinger esprime la probabilità che una particella quantistica sia qui o là. Questa funzione d'onda su geometrie obbedisce a un'equazione molto complessa che si chiama equazione di Wheeler-DeWitt, che è una sorta di equazione di Schrödinger per il campo gravitazionale stesso.</span> <span style="font-style: italic;">Queste idee erano brillanti e di grande ispirazione, ma è stato più di due decenni dopo che sono diventate concr</span><span>e</span><span style="font-style: italic;">te. La svolta si è avuta improvvisamente intorno alla fine degli anni’80, quando una teoria matematica ben definita che descrive lo spazio-tempo quantistico ha cominciato a formarsi. La chiave che rese possibile il funzionamento della teoria fu una vecchia idea di fisica delle particelle: le variabili naturali per descrivere una teoria di Yang-Mills sono proprio le "linee di forza" del campo di Faraday. Una linea di Faraday può essere vista come uno stato di eccitazione del quanto di campo elementare e, in assenza di cariche, queste linee devono chiudersi su se stesse a formare un loop. La Loop Quantum Gravity è la descrizione matematica del campo gravitazionale quantistico mediante di tali loops. Cioè i cicli sono eccitazioni quantistiche delle linee di forza di Faraday del campo gravitazionale. In approssimazioni a bassa energia della teoria, questi loop appaiono come gravitoni - le particelle fondamentali che portano la forza gravitazionale.</span> <span style="font-style: italic;">Nella LQG i loop stessi non sono nello spazio, perché non c'è spazio. I loop sono lo spazio, perché sono le eccitazioni quantistiche del campo gravitazionale, che è lo spazio fisico. Pertanto non ha senso pensare a un loop disposto in una piccola quantità di spazio. Ha senso solo la posizione relativa di un loop rispetto agli altri e la posizione di un loop rispetto allo spazio circostante è determinata solo dagli altri loops con i quali si interseca. Uno stato dello spazio è quindi descritto da una rete di loops che si intersecano. Non esiste una posizione della rete, ma solo la posizione sulla stessa rete, non ci sono loops di spazio, ma solo loop su loop. I loops interagiscono con le particelle nello stesso modo in cui, ad esempio, un fotone interagisce con un elettrone, tranne per il fatto che i loops non sono nello spazio come i fotoni e gli elettroni.</span> <span style="font-style: italic;">I grani elementari di spazio sono rappresentati, su una "rete di spin", dai nodi. Le linee che uniscono i nodi, o i grani adiacenti dello spazio, sono chiamati link. Gli spin sui link (numeri interi o semi-intero) sono i numeri quantici che determinano l'area delle superfici elementari di separazione dei grani adiacenti dello spazio. I numeri quantici dei nodi determinano il volume dei grani. Gli spin e il modo in cui si riuniscono presso i nodi possono assumere qualsiasi numero intero o semi-intero e sono regolati dalla stessa algebra del momento angolare in meccanica quantistica.</span> <span style="font-style: italic;">L'idea che non ci possono essere regioni dello spazio arbitrariamente piccole può essere compresa con semplici considerazioni di meccanica quantistica e relatività generale classica. Il principio di indeterminazione impone che per osservare una piccola regione dello spazio-tempo abbiamo bisogno di concentrare una grande quantità di energia e momento. Tuttavia la relatività generale implica che se si concentra troppa energia e quantità di moto in una piccola regione, quella regione collassa in un buco nero e sparisce. Mettendo dei numeri scopriamo che la dimensione minima di tale regione è dell'ordine della lunghezza di Planck - circa 1,6 × 10-35m. La LQG aveva cominciato a rendere concreta questa intuizione e stava emergendo un’immagine dello spazio quantico fatta di reti di loops. Ma allora non sapevamo davvero cosa significava. Ma lo spazio non è solo un insieme di elementi di volume. C'è anche la considerazione chiave che alcuni elementi sono vicino agli altri. Un "link" della rete - la porzione di rete tra due nodi - indica con precisione i quanti di spazio che sono adiacenti l'uno all'altro. Due elementi adiacenti dello spazio sono separati da una superficie, e l'area di questa superficie risulta essere pure quantizzata. Infatti, ben presto divenne chiaro che i nodi portano numeri quantici di elementi di volume e i collegamenti portano numeri quantici degli elementi dell'area. Ogni nodo di una rete di spin determina una cella, o un chicco elementare di spazio. I nodi sono rappresentati da piccole sfere nere e i collegament come linee nere, mentre le celle sono separate da superfici elementari. Ogni superficie corrisponde a un link, e la struttura costruisce uno spazio 3D. Quando le superfici sono tirate via possiamo vedere la sequenza di collegamenti formare un anello. Questi sono gli "anelli" della gravità quantistica a loop.</span> <span style="font-style: italic;">Per il momento non c'è stata alcuna prova sperimentale diretta della teoria. Una costruzione teorica deve rimanere umile fino a quando le sue predizioni non sono stati testate direttamente e senza ambiguità. Questo vale per le stringhe così come per i loops. La natura non sempre condivide i nostri gusti su una teoria bellissima. La teoria di Maxwell è diventata credibile quando le onde radio sono state osservate.</span><br /><br />La MT (<span style="font-style: italic;">“Marius Theory”</span>) è stata ideata da Marius quando ancora non conosceva la LQG. L’impressionante analogia dei concetti ha portato Marius a confrontarsi con tale teoria. L’esito è stato che le conclusioni apparentemente “surreali” della MT (sostanziale identità tra spazio, energia, massa e materia : logica “S.E.M.M". ; inesistenza del tempo, gravità compressiva, etere stazionario e altro…) tutto sommato tanto fantasiose non fossero.<br />Dove la MT marca una sostanziale differenza rispetto alla LQG è nella quantizzazione di un normale spazio euclideo 3d, anziche’ della ipersuperficie 3d della LQG che, secondo Marius, avrebbe bisogno di liberarsi della dimensione temporale, atteso che, la "freccia temporale" risulta ininfluente per la chiusura dei loops. Certo questo non consentirebbe di mettere d’accordo RG e MQ ma, sempre secondo Marius, lo spin network, come la quantizzazione dello spazio 3d, rappresentano solo l’approssimazione di quella che è la realtà fisica sottostante, una matrice a – temporale costituita da onde elettromagnetiche stazionarie.<br />Nella formulazione “compatta” della MT : DU = nhv, il termine di quantizzazione n rappresenta il numero di volte in cui il cammino di una massa concentrata in un punto tra due orbite di un campo gravitazionale puo’ essere diviso in “<span style="font-style: italic;">spazi di Planck</span>” : 10^-35 m. Cio' che sviluppa energia è l'elettromagnetismo rappresentato dal secondo membro dell’uguaglianza nhv, con v frequenza della radiazione. L’applicazione di questa formula “grossolana” ha consentito a Marius di calcolare, su un percorso piu’ o meno verosimile, le frequenze necessarie a spostare alcuni pianeti del sistema solare dall’orbita mareale del sole fino alle orbite attuali e, con suo grande stupore, a scoprire che tali frequenze erano dell’ordine di grandezza di normali raggi gamma ad alta energia. Il termine di quantizzazione n, che rappresenta il parametro fondamentale della formula, contiene tutte le variabili in gioco, ossia l’energia necessaria a compattare la massa inizialmente fluida e incandescente del pianeta in forma sferica a partire dall’orbita di Roche del Sole, il guadagno di momento angolare nelle fasi di allontanamento e lo stazionamento a una certa distanza dal sole e con una certa velocità angolare. Tutto questo grazie, ritiene Marius, all’aver considerato la massa del pianeta puntiforme e, quindi, in grado di mobilitare tutti i quanti di spazio realmente attraversati dalla massa “distribuita” lungo il percorso, indipendentemente dal tempo impiegato.<br /><br />Stefano Gusman</span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com14tag:blogger.com,1999:blog-6423338787090762061.post-53431607039053301932012-01-21T03:02:00.000-08:002012-02-06T21:56:32.351-08:00"MT" vs "LQG". Beyond the last gravity frontier<span style="font-size:130%;">The "<a href="http://arxiv.org/pdf/gr-qc/9903045.pdf">Loop Quantum Gravity</a>" (LQG), designed by Carlo Rovelli and Lee Smolin in 1990, based on the concept of <span style="font-style: italic;">"spin networks"</span>, designed in the early '70s by Roger Penrose, is one of the most fascinating and elegant theories of gravity.<br /></span><br /><span style="font-size:130%;">In physics a spin network is a type of diagram which can be used to represent states and interactions between particles and fields in quantum mechanics. From a mathematical perspective, the diagrams are a concise way to represent multilinear functions and functions between representations of matrix groups. The diagrammatic notation often simplifies calculation because simple diagrams may be used to represent complicated functions. Roger Penrose is credited with the invention of spin networks in 1971, although similar diagrammatic techniques existed before that time.<br /><a href="http://en.wikipedia.org/wiki/Spin_networks">Spin networks</a> have been applied to the theory of quantum gravity by Carlo Rovelli, Lee Smolin, Jorge Pullin and others.<br /></span><span style="font-size:130%;"><br />A spin network, as described by Penrose in 1971, is a kind of diagram in which each line segment represents the world line of a "unit" (either an elementary particle or a compound system of particles). Three line segments join at each vertex. A vertex may be interpreted as an event in which either a single unit splits into two or two units collide and join into a single unit. Diagrams whose line segments are all joined at vertices are called closed spin networks. Time may be viewed as going in one direction, such as from the bottom to the top of the diagram, but for closed spin networks the direction of time is irrelevant to calculations.<br />Each line segment is labeled with an integer called a spin number. A unit with spin number n is called an n-unit and has angular momentum nh/2л. For bosons, such as photons and gluons, n is an even number. For fermions, such as electrons and quarks, n is odd.<br />In loop quantum gravity (LQG), a spin network represents a "quantum state" of the gravitational field on a 3-dimensional hypersurface.<br />The loop quantum gravity is also known by terms of gravity loop quantum geometry and quantum canonical general relativity. It has been proposed as a quantum theory of spacetime which attempts to unify seemingly incompatible theories of quantum mechanics and general relativity. This theory is part of a family of theories called canonical quantum gravity. It is a quantum theory of gravity in which the real space in which happen all the other physical phenomena is quantized.<br />The LQG retains the basic aspects of general relativity, such as invariance to coordinate transformations, and at the same time, using the quantization of space and time at the Planck scale, feature of quantum mechanics. In this sense it combines general relativity and quantum mechanics. Critics of the LQG often refer to the fact that the theory doesen't predict the existence of extra dimensions of space-time, or supersymmetry. The response of the LQG proponents is that at present, despite repeated experimental researches, there is no experimental evidence or other dimensions or supersymmetric particles, so the additional dimensions of space and time, both supersymmetry must be considered speculative hypotheses found to run faster than they do on Earth.<br /><br />Abstract from “on LQG” by Carlo Rovelli.<br /><br /><span style="font-style: italic;">In 1915 Einstein realized that gravity also had to be described by a field theory in order to be consistent with special relativity. As long as we stay within the classical regime, rather than the quantum one, the gravitational field defines a 4D continuum. We can therefore still think of the field as a sort of spacetime, albeit one that bends, oscillates and obeys field equations. However, once we bring quantum mechanics into the picture this continuum breaks down. Quantum fields have a granular structure – the electromagnetic field, for example, consists of photons – and they undergo probabilistic fluctuations. It is difficult to think of space as a granular and fluctuating object. We can, of course, still call it “space”, or “quantum space”. But it is really a quantum field in a world where there are only fields over fields, and no remnant of background space.</span> <span style="font-style: italic;">John Wheeler of Princeton University suggested that spacetime must have a foam like structure at very small scales and, along with Bryce DeWitt now at Texas University, he introduced the idea of a “wavefunction over geometries”. This is a function that expresses the probability of having one spacetime geometry rather than another, in the same way that the Schrödinger wave function expresses the probability that a quantum particle is either here or there. This wave function over geometries obeys a very complicated equation that is now called the Wheeler–DeWitt equation, which is a sort of Schrödinger equation for the gravitational field itself.</span> <span style="font-style: italic;">These ideas were brilliant and inspiring, but it was more than two decades before they become concrete. The turn around came suddenly at the end of the 1980s, when a well defined mathematical theory that described quantum spacetime began to form. The key input that made the theory work was an old idea from particle physics: the natural variables for describing a Yang–Mills field theory are precisely Faraday’s “lines of force”. A Faraday line can be viewed as an elementary quantum excitation of the field, and in the absence of charges, these lines must close on themselves to form loops. Loop quantum gravity is the mathematical description of the quantum gravitational field in terms of these loops. That is the loops are quantum excitations of the Faraday lines of force of the gravitational field. In low energy approximations of the theory, these loops appear as gravitons – the fundamental particles that carry the gravitational force.</span> <span style="font-style: italic;">In LQG the loops themselves are not in space because there is no space. The loops are space because they are the quantum excitations of the gravitational field, which is the physical space. It therefore makes no sense to think of a loop being displaced by a small amount in space. There is only sense in the relative location of a loop with respect to other loops, and the location of a loop with respect to the surrounding space is only determined by the other loops it intersects. A state of space is therefore described by a net of intersecting loops. There is no location of the net, but only location on the net itself; there are no loops on space, only loops on loops. Loops interact with particles in the same way as a photon interacts with an electron, except that the two are not in space like photons and electrons are.</span> <span style="font-style: italic;">Elementary grains of space are represented by the nodes on a “spin network”. The lines joining the nodes, or adjacent grains of space, are called links. Spins on the links (integer or half- integer numbers) are the quantum numbers that determine the area of the elementary surfaces separating adjacent grains of space. The quantum numbers of the nodes determine the volume of the grains. The spins and the way they come together at the nodes can take on any integer or half-integer value, and are governed by the same algebra as angular momentum in quantum mechanics.</span> <span style="font-style: italic;">The idea that there cannot be arbitrary small spatial regions can be understood from simple considerations of quantum mechanics and classical general relativity. The uncertainty principle states that in order to observe a small region of spacetime we need to concentrate a large amount of energy and momentum. However, general relativity implies that if we concentrate too much energy and momentum in a small region, that region will collapse into a black hole and disappears. Putting in the numbers, we find that the minimum size of such a region is of the order of the Planck length – about 1.6× 10–35m. Loop gravity had begun to make this intuition concrete, and a picture of quantum space in terms of nets of loops was emerging. But at the time we did not really under stand what that meant.</span> <span style="font-style: italic;">But space is more than just a collection of volume elements. There is also the key fact that some elements are near to others. A “link” of the net – the portion of loop between two nodes – indicates precisely the quanta of space that are adjacent to one another. Two adjacent elements of space are separated by a surface, and the area of this surface turns out to be quantized as well. In fact, it soon became clear that nodes carry quantum numbers of volume elements and links carry quantum numbers of area elements. Each node in a spin network determines a cell, or an elementary grain of</span><span style="font-style: italic;"> space. Nodes are represented by small black spheres and the links as black lines, while cells are separated by elementary surfaces. Each surface corresponds to one link, and the structure builds up a 3D space. When the surfaces are pulled away we can see that the sequence of links form a loop. These are the “loops” of loop quantum gravity.</span> <span style="font-style: italic;">Finally, for the moment there has not been any direct experimental test of the theory. A theoretical construction must remain humble until its predictions have been directly and unambiguously tested. This is true for strings as well as for loops. Nature does not always share our tastes about a beautiful theory. Maxwell’s theory became credible when radio waves were observed.</span><br /><br />The MT (<span style="font-style: italic;">"Marius Theory"</span>) was created by Marius when he still did not know the LQG. The striking similarity of the concepts brought Marius to deal with this theory. The outcome was that the seemingly "surreal" conclusions of MT (substantial identity between space, energy, mass and matter: "S.E.M.M. logic”, absence of time, pushing gravity, standing aether and more ...) all things were not so fanciful.<br />Where MT makes substantial difference respect to LQG is in the quantization of a normal 3d Euclidean space, rather than the 3d hypersurface of LQG which, according to Marius, would need set free from temporal dimension standing that "time arrow" is irrelevant for the closure of loops. Of course this does not allows to conciliate GR and QM but, according to Marius, the spin networks, such as the quantization of 3d space, represent only the nearest approximation of the underlying physical reality, that is an a-temporal matrix made up by standing electromagnetic waves.<br />In the "compact" form of MT : DU = nhv, the quantization term “n” represents the number of times that the path between two orbits in a gravitational field of a point mass can be divided into Planck’s sizes" : 10 ^ -35 m. The thing that generates energy is electromagnetism represented by the second term of equality: nhv, with v frequency of the radiation. The application of this formula allowed Marius to calculate, on a path more or less likely, the frequencies necessary to move some solar system planets from the tidal Sun’s orbit since to the actual one and, with his large surprise, to discover that these frequencies have the sizes of normal high-energy gamma rays. The quantization term n, which is the fundamental parameter of the formula, contains all the variables involved : the energy required to compact the, at the beginning, fluid and incandescent mass of the planet in a spherical form starting out from Roche’s orbit of the Sun, the gain of angular momentum during removal since to parking at a certain distance from the sun with a certain angular speed. All this thanks, Marius believes, to having seen the planet mass point and, therefore, able to make work all the quantum space really crossed by the “distributed” mass along the path, regardless by the time it takes.<br /><br />Stefano Gusman</span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com0tag:blogger.com,1999:blog-6423338787090762061.post-15334950074899094392011-12-17T02:16:00.002-08:002012-03-08T22:05:14.408-08:00Il "quasi bosone"<span style="font-size:130%;">Nel grafico seguente sono riportati i risultati delle eleborazioni statistiche sui dati provenienti dalla ricerca del bosone di Higgs svolta ad oggi da Atlas LHC e CMS combinati. Il grafico non è ufficiale (sono stati divulgati nella conferenza CERN del 13/12/11 i due grafici separatamente) ma, comunque, la visione di assieme è ugualmente attendibile per una valutazione qualitativa. In ascisse abbiamo la massa del bosone (che, ricordiamo, teoricamente è un'incognita) e in ordinate la probabilità che il bosone stesso si manifesti. Tale probabilità si ricava, a sua volta, dai diversi modi attesi teoricamente di manifestarsi del bosone (vari "canali di decadimento") nei vari range di massa/energia. Poichè il bosone viene prodotto da scontri tra protoni che determinano altri prodotti/modalità di decadimento (soprattutto fotoni ad alta energia che vengono rilevati mediante carlorimetri) occorre depurare da questi dati non significativi ai fini statistici ("rumore di fondo") i dati complessivi. Le fasce verdi e gialle rappresentano la "deviazione standard" (pari, rispettivamente, a 1 e 2 sigma) ovvero l'indicatore della "dispersione" dei dati attorno al valor medio della distribuzione probabilistica che governa il fenomeno fisico (in questo caso curve di Poisson) e, quindi, l'ampiezza del campione statistico e, in definitiva, la sua attendibilità, tanto maggiore quanto piu' grande e la sigma stessa. La linea orizzontale rappresenta quello che, in teoria, sarebbe con certezza (probabilità 1) "rumore di fondo" (dati compresi al di sotto della linea). </span><br /><p><a style="CLEAR: left; FLOAT: left; MARGIN-BOTTOM: 1em; MARGIN-RIGHT: 1em" href="http://vixra.files.wordpress.com/2011/12/atlascmshiggsnov11.png?w=450&h=262"><img src="http://vixra.files.wordpress.com/2011/12/atlascmshiggsnov11.png?w=450&h=262" width="400" border="0" height="232" /></a></p><br /><br /><br /><br /><br /><p><span style="font-size:130%;"><br /></span></p><br /><br /><br /><br /><br /><p><span style="font-size:130%;">Come si puo osservare i dati presentano degli "eccessi statistici" nel campo di massa che va da 115 a circa 120 Gev, ossia il campo di esistenza di un bosone "leggero" la cui esistenza prevede, per essere compatibile con il modello standard, anche quella delle particelle super simmetriche (<a href="http://it.wikipedia.org/wiki/Supersimmetria">SUSY</a>) delle quali non c'è traccia. La conclusione del seminario svoltosi al CERN è stata che i dati suggeriscono la possibile esistenza del bosone di Higgs in quel range di massa/energia, e ne escludono l'esistenza negli altri. La maggiore difficoltà sta proprio nel distinguere precisamente la singola particella dal rumore di fondo. Nei prossimi "run" di LHC che, entro il 2013, raggiungeranno i Tev la situazione dovrebbe chiarirsi ulteriormente. </span></p><span style="font-size:130%;"><span style="mso-bidi-font-weight: bold">La MT</span><span style="mso-bidi-font-weight: bold"> prevede che i "picchi statistici", come già si puo' cominciare a notare dal grafico, si appiattiranno ulteriormente assumendo andamenti "ondulati" a evidenziare la natura non localizzata delle particelle elementari, come da <a href="http://it.wikipedia.org/wiki/Ipotesi_di_de_Broglie">ipotesi di Louise De Broglie</a>, e la loro appartenenza fisica ai campi di massa/energia (il campo di Higgs in questo caso) di cui rappresentano "stati di eccitazione". </span></span><span style="font-size:130%;"><span style="mso-bidi-font-weight: bold">In ultima analisi si osserveranno dei “<a href="http://users.utu.fi/hietarin/dromions/index.html">solitoni</a>”.</span></span><br /><p><span style="font-size:130%;"><span style="mso-bidi-font-weight: bold">Stefano Gusman</span></span></p>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com8tag:blogger.com,1999:blog-6423338787090762061.post-68995943734797708542011-12-17T02:07:00.001-08:002012-03-08T22:06:32.327-08:00The "quasi boson"<p><span style="font-size:130%;"><span lang="EN">The following chart shows the results of statistical elaborations on data from research conducted at today for the Higgs boson at LHC by Atlas and CMS, combined. The chart is not official (CERN have been disclosed in the conference of 13/12/11 the two graphs separately) but still, watching together is equally reliable for a qualitative assessment. In abscissa we have the mass of the Higgs (which, remember, it is theoretically unknown) and the ordinate the probability that the Higgs is manifested. This probability is obtained, in turn, by different ways of theoretically expected showing mode of the boson (various "decay channels") in various ranges of mass / energy. Since the Higgs is produced by crashes between protons that determine other products/decay mode (especially high-energy photons that are detected by calorimethers) must be purified from these data not significant for statistical purposes ("background noise") of the overall data. The green and yellow bands are the "standard deviation" (respectively equal to 1 and 2 sigma) or the indicator data scattering around the mean value of the probability distribution that governs the physical phenomenon (in this case Poisson curves ) and, therefore, the amplitude of the statistical sample and, ultimately, its credibility, greater more great the sigma itself. </span><span class="" id="result_box" lang="en"><span class="hps">The horizontal line</span> <span class="hps">represents what</span><span style="font-size:0;">,</span> <span class="hps">in theory</span><span style="font-size:0;">,</span> <span class="hps">would</span> <span class="hps">with certainty</span> <span class="hps">"background noise</span><span class="">"</span> (data below the line).</span></span> </p><br /><p><a style="CLEAR: left; FLOAT: left; MARGIN-BOTTOM: 1em; MARGIN-RIGHT: 1em" href="http://vixra.files.wordpress.com/2011/12/atlascmshiggsnov11.png?w=450&h=262"><img src="http://vixra.files.wordpress.com/2011/12/atlascmshiggsnov11.png?w=450&h=262" width="400" border="0" height="232" /></a></p><br /><br /><br /><br /><br /><p><span style="font-size:130%;"><span lang="EN"><br /></span></span></p><br /><br /><br /><br /><br /><p><span style="font-size:130%;"><span lang="EN"><br /></span></span></p><span style="font-size:130%;">As you can observe data present "statistical excess" in the field of mass ranging from 115 to about 120 Gev, namely the existence of a “light” Higgs boson whose existence requires, to be compatible with the standard model, even the super symmetric particles (<a href="http://en.wikipedia.org/wiki/Supersymmetry">SUSY</a>) of which there isn't track. The conclusion of the workshop held at CERN was that data suggest the possible existence of the Higgs boson in this mass range/energy, and exclude the existence of others. The main difficulty lies in distinguishing precisely the single particle from the background noise. In the next "run" of the LHC, which, by the end of 2012, will reach Tev, should clarify the situation further.</span><br /><span style="font-size:130%;"><span lang="EN"><br />The MT provides for "statistical peaks", as you can begin to see from the graph flatting further, taking "wavy" development, going to show un localized nature of elementary particles, as <a href="http://en.wikipedia.org/wiki/De_Broglie_hypothesis">Louise De Broglie hypothesis</a> , and their membership to the physical mass/energy fields (the Higgs field in this case) of which they are "exciting states". </span></span><span style="font-size:130%;"><span lang="EN">Ultymately you will observe the "<a href="http://users.utu.fi/hietarin/dromions/index.html">solitons</a>".</span></span><br /><span style="font-size:130%;"><span style="mso-bidi-font-weight: bold"><br /></span></span><span style="font-size:130%;">Stefano Gusman</span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com0tag:blogger.com,1999:blog-6423338787090762061.post-38648756389928616842011-11-01T10:40:00.000-07:002011-11-02T08:52:21.373-07:00logica "S.E.M.M."<p style="font-family:verdana;"><span style="font-size:130%;"><span style="font-family:Verdana;font-size:11;">Partiamo dall’inizio che è anche la fine, la conclusione e, allo stesso tempo, il postulato della MT : la costruzione della <b style="mso-bidi-font-weight: normal"><i style="mso-bidi-font-style: normal">logica "S.E.M.M.”</i></b> : <b style="mso-bidi-font-weight: normal">Spazio = Energia = Massa = Materia</b>.</span></span></p><span style="font-family:verdana;font-size:130%;"><span style="font-family:Verdana;font-size:11;">Il Big Bang rientra a tutti gli effetti nel modello standard e implica, nel suo sviluppo cosmogonico di espansione, i principi della meccanica quantistica. Le varie fasi di espansione e relativo raffreddamento, percorrono attraverso le rotture di simmetria la formazione iniziale di particelle come neutrini, elettroni e quark, per arrivare infine alla nucleosintesi.</span></span><span style="font-family:verdana;font-size:130%;"><span style="font-family:Verdana;font-size:11;"> Quando Erwin Hubble scoprì che la distanza delle galassie più lontane è proporzionale al loro redshift, tale osservazione fu usata come prova del fatto che le galassie e gli ammassi hanno una velocità apparente di allontanamento rispetto ad un determinato punto di osservazione: tanto più sono lontane, tanto più è elevata la loro velocità apparente. Se la distanza fra gli ammassi di galassie sta aumentando oggi, ciò suggerisce che tutti gli oggetti spaziali fossero più vicini in passato;andando a ritroso nel tempo, densità e temperatura tendono a infinito e si arriva perciò a un istante in cui tali valori sono così elevati che le attuali teorie fisiche non sono più applicabili (ciò avvenne una piccolissima frazione di secondo dopo l'inizio del processo). Infatti, per esempio, alcune grandezze fisiche assumono valore infinito nell'istante iniziale. </span></span><br /><p style="font-family:verdana;"><span style="font-size:130%;"><span style="font-family:Verdana;font-size:11;">La costruzione di acceleratori di particelle ha permesso di verificare il comportamento della materia in condizioni estreme tuttavia questi acceleratori non hanno la possibilità di esaminare a fondo i regimi di energia piu' elevati. Senza alcun dato sperimentale relativo alle condizioni fisiche associate ai primissimi istanti dell'espansione, la teoria del Big Bang non è adeguata per descrivere tale condizione iniziale, tuttavia essa fornisce un'ottima descrizione dell'evoluzione dell'universo da un determinato periodo di tempo in poi.</span></span></p><span style="font-family:verdana;font-size:130%;"><b style="mso-bidi-font-weight: normal"><span style="font-family:Verdana;font-size:11;">L'origine dello Spazio e del Tempo.</span></b></span><br /><p style="font-family:verdana;"><span style="font-size:130%;"><span style="font-family:Verdana;font-size:11;">di Diego Tasselli (astrofisico) – Estratto.</span></span></p><span style="font-family:verdana;font-size:130%;"><i style="mso-bidi-font-style: normal"><span style="font-family:Verdana;font-size:11;">Le recenti conferme astrofisiche, portano la storia dell’Universo ad iniziare circa 15 miliardi di anni fa.</span></i></span><br /><p style="font-family:verdana;"><span style="font-size:130%;"><b style="mso-bidi-font-weight: normal"><i style="mso-bidi-font-style: normal"><span style="font-family:Verdana;font-size:11;">Prima di questo avvenimento la materia non esisteva</span></i></b><i style="mso-bidi-font-style: normal"><span style="font-family:Verdana;font-size:11;"> nella forma con cui noi la conosciamo e con la quale siamo abituati a interagire, ma si presentava sotto forma di energia pura. Non si può però dire nulla sullo stato dell’Universo prima del momento (o istante) iniziale, che gli astronomi e astrofisici chiamano T=0. Si suppone che in quell’istante tutto fosse condensato in un punto di dimensioni nulle e di energia infinita, la "singolarità", dove il concetto di tempo cronologico (come lo concepiamo noi) non aveva significato, perché <b style="mso-bidi-font-weight: normal">il tempo stesso doveva nascere!</b> La nostra comprensione dell’Universo infatti, arriva al tempo T=10^-43 secondi dopo il Big Bang, momento nel quale tutte le quattro forze fondamentali della natura, cioè gravità, forza nucleare forte, forza nucleare debole e forza elettromagnetica erano unificate. Questa condizione era resa possibile dall’elevatissima temperatura ivi presente. Alcuni miliardesimi di secondo dopo l’esplosione, le quattro forze si separano e la prima a staccarsi fu la gravità, a cui seguono tutte le altre. Si generano così le condizioni affinché inizino a formarsi le particelle elementari come i quark ed i fotoni, che sono i mattoni della materia ordinaria. In questo istante avviene quello che gli scienziati chiamano <b style="mso-bidi-font-weight: normal">"inflazione"</b>, un processo fisico, che fa assumere all’Universo la dimensione di un centimetro in un miliardesimo di secondo; <b style="mso-bidi-font-weight: normal">ciò equivale a dire a conti fatti, che l'Universo si espande ad una velocità maggiore di quella della luce</b>. La teoria dell'Universo inflazionario, anche se difficile da verificare, è plausibile e viene in aiuto nella spiegazione di alcuni comportamenti e fatti inspiegabili del neonato universo, primo fra tutti il fatto che l'universo attuale (almeno quello che conosciamo noi) è formato da materia che è ciò che rimane del "brodo primordiale", cioè il miscuglio di materia ed antimateria, generatosi dopo l’esplosione. In teoria tali entità erano in quantità uguale e miliardi di volte superiore alla quantità della materia attuale superstite: materia ed antimanteria interagivano annichilendolsi e trasformavano la loro essenza in energia pura. La materia attuale potrebbe dunque essere il risultato di fenomeni prodotti dall'esistenza di "fluttuazioni" create dall'espanzione inflazionaria. Un millesimo di secondo dopo il Big Bang i quark si riuniscono tra loro in tripletti formando così i protoni e i neutroni. In quei momenti, (se fossimo stati presenti), non avremmo potuto vedere assolutamente nulla in quanto i fotoni, che sono i portatori dell’energia luminosa, interagivano con i protoni ed i neutroni che i quark avevano generato.</span></i></span></p><span style="font-family:verdana;font-size:130%;"><i style="mso-bidi-font-style: normal"><span style="font-family:Verdana;font-size:11;">Dovranno passare circa 300.000 anni perchè la materia diventi stabile e si riunisca secondo schemi chimici elementari andando a formare due gas semplici: l’idrogeno e l’elio. I fotoni a questo punto non interagiscono più e vengono rilasciati con omogeneità in ogni parte dell’Universo sotto forma di radiazione elettromagnetica. Oggi questa radiazione viene chiamata "radiazione fossile" è omnidirezionale e assolutamente omogenea, infatti essa costituisce la prova più convincente a sostegno della teoria del Big Bang.</span></i></span><br /><p style="font-family:verdana;"><span style="font-size:130%;"><i style="mso-bidi-font-style: normal"><span style="font-family:Verdana;font-size:11;">Da questo momento in poi abbiamo a che fare con una situazione più familiare e meglio rappresentabile. </span></i></span></p><span style="font-family:verdana;font-size:130%;"><b style="mso-bidi-font-weight: normal"><i style="mso-bidi-font-style: normal"><span style="font-family:Verdana;font-size:11;">Lo Spazio ed il Tempo si dilatano</span></i></b><i style="mso-bidi-font-style: normal"><span style="font-family:Verdana;font-size:11;">, le galassie che si sono sino a quel momento formate, iniziano ad allontanarsi tra di loro, si forma l’universo come noi oggi lo osserviamo.</span></i></span><br /><p style="font-family:verdana;"><span style="font-size:130%;"><span style=" mso-bidi-: bold;font-family:Verdana;font-size:11;" >Partiamo da quest’ultima affermazione : <i style="mso-bidi-font-style: normal">“ lo spazio e il tempo si dilatano”</i>. L’analogia che spesso viene fatta è quella del “palloncino” che si gonfia, immaginando, pero’ che lo faccia in quattro dimensioni (comprendendo il tempo) anziché soltanto in tre. Non si tratta di un’esplosione, anche se si parla di Big Bang, ma, appunto, di un’espansione. Il palloncino si gonfia, ma senza strappi. E’ un “continuum” spazio temporale, come Einstein stesso pensava, nel quale la dimensione spazio e la dimensione tempo non sono nettamente distinguibili, tanto è vero che nel quadrivettore relativistico assieme alle componenti di “tipo spazio” esiste quella di “tipo tempo” : dx = cdt. Ogni “evento” è caratterizzato da tre componenti spaziali e una temporale. Senza spazio niente tempo e viceversa. Lo spazio quindi nasce con il BB e con la materia e successivamente si espande. </span></span></p><span style="font-family:verdana;font-size:130%;"><b><span style="font-family:Verdana;font-size:11;">Ma in “cosa” si espande se lo spazio nasce con il BB ?</span></b></span><span style="font-family:verdana;font-size:130%;"><span style=" mso-bidi-: bold;font-family:Verdana;font-size:11;" >Si espande nella materia e con la materia insieme alla quale è nato dal BB, il che significa che <b>lo spazio è materia</b>.</span></span><br /><p style="font-family:verdana;"><span style="font-size:130%;"><span style=" mso-bidi-: bold;font-family:Verdana;font-size:11;" >In fisica classica, con materia genericamente si indica qualsiasi cosa che abbia massa e occupi spazio o alternativamente la sostanza di cui gli oggetti fisici sono composti, escludendo l'energia dovuta al contributo dei campi delle forze. </span></span></p><span style="font-family:verdana;font-size:130%;"><span style=" mso-bidi-: bold;font-family:Verdana;font-size:11;" >Questa definizione, sufficiente per la fisica macroscopica (meccanica, termodinamica etc), non è più adatta per la moderna fisica atomica e subatomica, per cui lo spazio occupato da un oggetto è prevalentemente vuoto, e <b>l'energia è equivalente alla massa (E=mc^2)</b>. Si può invece adottare la definizione che la materia è costituita da una certa classe delle più piccole, fondamentali entità fisicamente rilevabili: queste particelle sono dette fermioni e seguono il principio di esclusione di Pauli che stabilisce che non più di due fermioni possono esistere nello stesso stato quantistico. A causa di questo principio, le particelle che compongono la materia non sono tutte nello stato di energia minima e quindi è possibile creare strutture stabili di assemblati di fermioni.</span></span><br /><p style="font-family:verdana;"><span style="font-size:130%;"><span style=" mso-bidi-: bold;font-family:Verdana;font-size:11;" >Particelle della classe complementare, i bosoni, costituiscono invece i campi ; essi possono quindi essere considerati gli agenti che operano gli assemblaggi dei fermioni o le loro modificazioni, interazioni e scambi di energia. Una metafora non del tutto corretta da un punto di vista fisico, ma efficace e intuitiva, vede i fermioni come i mattoncini che costituiscono la materia dell'universo, e i bosoni come le colle o i cementi che li tengono assieme in certi modi per costituire la realtà fisica.</span></span></p><span style="font-family:verdana;font-size:130%;"><span style=" mso-bidi-: bold;font-family:Verdana;font-size:11;" >Dunque tutto ciò che occupa spazio e ha massa è conosciuto come materia. In fisica, non c'è un largo consenso per una comune definizione di materia, in parte perché la nozione di "occupare spazio" è mal definita e inconsistente nel quadro della meccanica quantistica. I fisici non definiscono con precisione cosa si deve intendere per materia, preferendo invece utilizzare e rivolgersi a concetti più specifici di massa, energia e particelle.</span></span><br /><p style="font-family:verdana;"><span style="font-size:130%;"><span style=" mso-bidi-: bold;font-family:Verdana;font-size:11;" >Secondo questa visione, non sono materia la luce (costituita da fotoni), i gravitoni e i mesoni. Ciò nonostante hanno tutti energia per cui (in accordo con l'equivalenza relativistica massa-energia) hanno anche massa. Dunque Massa = Energia, ma Massa = Materia, dunque Massa = Materia = Energia e, per quello che si è detto a proposito dello spazio : <b>S=E=M=M</b>.</span></span></p><span style="font-family:verdana;font-size:130%;"><span style=" mso-bidi-: bold;font-family:Verdana;font-size:11;" >E il tempo ? Il tempo di per se non esiste, come suggeriscono gli esperimenti “entanglement” condotti da Alain Aspect nel 1982 su fotoni polarizzati. Si tratta di una “categoria” del pensiero umano. In assenza di materia, come lo spazio, anche il tempo non esiste. Assieme allo spazio e alla materia è nato con il BB e, quindi, per la <b>logica S.E.M.M</b>. è esso stesso spazio e materia.</span></span><span style="font-family:verdana;font-size:130%;"><span style=" mso-bidi-: bold;font-family:Verdana;font-size:11;" > La dimensione dell’eterno, come sostiene Emanuele Severino riprendendo il pensiero eleatico, è già presente ed è l’unica realtà esistente.</span></span><br /><p style="font-family:verdana;"><span style="font-size:130%;"><span style=" mso-bidi-: bold;font-family:Verdana;font-size:11;" >Stefano Gusman.</span></span></p>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com31tag:blogger.com,1999:blog-6423338787090762061.post-29036120526263092452011-11-01T10:37:00.000-07:002011-11-04T11:41:51.109-07:00"S.E.M.M." logic<!--[if gte mso 9]><xml> <w:worddocument> <w:view>Normal</w:View> <w:zoom>0</w:Zoom> <w:hyphenationzone>14</w:HyphenationZone> <w:punctuationkerning/> <w:validateagainstschemas/> <w:saveifxmlinvalid>false</w:SaveIfXMLInvalid> <w:ignoremixedcontent>false</w:IgnoreMixedContent> <w:alwaysshowplaceholdertext>false</w:AlwaysShowPlaceholderText> <w:compatibility> <w:breakwrappedtables/> <w:snaptogridincell/> <w:wraptextwithpunct/> <w:useasianbreakrules/> <w:dontgrowautofit/> </w:Compatibility> <w:browserlevel>MicrosoftInternetExplorer4</w:BrowserLevel> </w:WordDocument> </xml><![endif]--><!--[if gte mso 9]><xml> <w:latentstyles deflockedstate="false" latentstylecount="156"> </w:LatentStyles> </xml><![endif]--><!--[if gte mso 10]> <style> /* Style Definitions */ table.MsoNormalTable {mso-style-name:"Tabella normale"; mso-tstyle-rowband-size:0; mso-tstyle-colband-size:0; mso-style-noshow:yes; mso-style-parent:""; mso-padding-alt:0cm 5.4pt 0cm 5.4pt; mso-para-margin:0cm; mso-para-margin-bottom:.0001pt; mso-pagination:widow-orphan; font-size:10.0pt; font-family:"Times New Roman"; mso-ansi-language:#0400; mso-fareast-language:#0400; mso-bidi-language:#0400;} </style> <![endif]--> <p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto"><span style="mso-bidi-;font-family:Verdana;font-size:130%;" >Let’s start from the beginning that is the end, the conclusion and at the same time, the postulate of MT: the construction of <b><i style="mso-bidi-font-style:normal">“S.E.M.M.” logic</i></b> : Space = Energy = Mass = Matter.<br />The Big Bang falls in all respects in the Standard Model and implies, in its cosmological expansion development, the principles of quantum mechanics. The various stages of its expansion and cooling, traverse through the broken symmetry of the initial formation of particles such as neutrinos, electrons and quarks, and finally to the nucleosynthesis.<br />When Edwin Hubble discovered that the distance of distant galaxies is proportional to their redshifts, this observation was used as evidence that galaxies and clusters have an apparent velocity of removal for a given point of observation: more distant they are,higher their apparent speed. If the distance between galaxies clusters is increasing today, this matter suggests that all space objects were closer in the past and going back in time, temperature and density tend to infinity and so we arrive at a moment when these values </span><span style="mso-bidi-font-family:"Arial Unicode MS";mso-fareast-font-family: "Times New Roman";mso-bidi-Times New Roman"font-family:";font-size:130%;" ></span><span style="mso-bidi-;font-family:Verdana;font-size:130%;" >are so higher than the current physical theories are no longer applicable (this was a very small fraction of a second after the beginning of the process). In fact, for example, some physical quantities at the initial take infinite value.<br />The construction of particle accelerators has allowed us to verify the behavior of matter under extreme conditions, but these accelerators haven’t the opportunity to examine in depth the system of higher energies. Without any experimental data on the physical conditions associated with the earliest moments of the expansion, the Big Bang theory is not adeguate to describe the initial condition, nevertheless it provides an excellent description of the evolution of the universe from a certain period of time then.</span></p> <p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto"><span style="font-size:130%;"><b><span style="mso-bidi-;font-family:Verdana;" >The origin of Space and Time</span></b></span><span style="mso-bidi-;font-family:Verdana;font-size:130%;" >.</span></p> <p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto"><span style="mso-bidi-;font-family:Verdana;font-size:130%;" > Diego Tasselli (astrophysicist) - Abstract.</span></p> <p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto"><span style="font-size:130%;"><i style="mso-bidi-font-style:normal"><span style="mso-bidi- ;font-family:Verdana;" >Recent astrophysics confirmations carry the history of the universe to begin about 15 billion years ago.<br />Before this event matter does not exist in the way that we know and with which we are accustomed to interact, but it was in the form of pure energy. But you can not say anything about the state of the universe before the initial moment (or istant) called by astronomers and astrophysicists T = 0. It is supposed that at that moment everything was condensed into a point of zero size and infinite energy, the "singularity", where the concept of chronological time (as we conceive it) had no meaning, because time itself was born! Our understanding of the universe in fact, comes at time T = 10^-43 seconds after the Big Bang, at which time all four fundamental forces of nature, that are, gravity, strong nuclear, weak nuclear force and electromagnetic force were unified. This condition was made possible by the very high temperature therein. A few billionths of a second after the explosion, the four forces separate and the first to come off was gravity, followed by all others. This creates the conditions to begin to form elementary particles like quarks and photons, which are the building blocks of ordinary matter. This moment is what scientists call <b>"inflation",</b> a physical process in which <b>the size of Universe take a centimeter in a billionth of a second, that is to say on balance that universe expand faster than speed of light</b>. The inflationary universe theory, although difficult to verify, it is plausible and is in aid in the explanation of some unexplained behavior and facts of the infant universe, first and foremost the fact that the universe today (at least what we know) is formed from matter that is all that remains of the "primordial soup", the mixture of matter and antimatter generated in the wake of the explosion. In theory these entities were the same quantity and billions of times greater than the amount of present survivor matter: matter and anti matter interacted annihilating their essence and transformed into pure energy. Therefore actual matter could be the result of phenomena produced by the existence of "fluctuations" created in the inflationary expansion. A thousandth of a second after the Big Bang quarks gather together in triplets forming protons and neutrons. In those moments, (if we had been present), we could not see anything because the photons, which are the bearers of light energy, interacted with protons and neutrons that quarks generated.<br />It will take about 300,000 years for the matter to become stable and meets the second elementary chemical patterns going to make two simple gases: hydrogen and helium. The photons do not interact at this point and are released with more consistency throughout the universe in the form of electromagnetic radiation. Today, this radiation, called "fossil radiation", is omnidirectional and completely homogeneous, in fact it constitutes the most convincing evidence to support the Big Bang theory.<br />From now on we are dealing with a situation more familiar and better represented.<br /><b>Space and time dilate</b>, galaxies formed since to that time begin to move away the one from the other, it forms the universe as we observe it today.<br /><br /></span></i></span><span style="mso-bidi-;font-family:Verdana;font-size:130%;" >Let's start with the last statement: <b><i style="mso-bidi-font-style:normal">"space and time dilate."</i></b> The analogy is often made is the "balloon" that swells, imagining do it in four dimensions (including time) instead of only three. This is not an explosion, even if it is called Big Bang, but just an expansion. The balloon is inflated, but without tears. It’s a “continuum” temporal space, as Einstein thought, in which space and time dimensions are not clearly distinguishable, so much so that in the relativistic four-vector components along with the "type space" exists to "timelike" dx = cdt. Each "event" is characterized by three spatial and one temporal components. No time without space and vice versa. Space comes with BB and with matter and then expands.</span></p> <p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto"><span style="mso-bidi-;font-family:Verdana;font-size:130%;" > </span><span style="font-size:130%;"><b><span style="mso-bidi-;font-family:Verdana;" >But "in what" is expanded if the space was created with BB?</span></b></span><span style="mso-bidi-;font-family:Verdana;font-size:130%;" ><br />It expands into matter and with matter with which it was born from the BB, that means that <b>space is matter</b>.</span></p> <p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto"><span style="mso-bidi-;font-family:Verdana;font-size:130%;" > In classical physics matter generically means anything that has mass and occupies space, or alternatively the substance of which physical objects are composed, excluding energy due to the contribution of the force fields.<br />This definition, sufficient for macroscopic physics (mechanics, thermodynamics, etc.), is no longer suitable for modern atomic and subatomic physics, for which the space occupied by an object is mostly empty, and the energy is equivalent to mass (<b>E = mc^2</b>). You can, however, adopt the definition that matter is made up of a certain class of smaller, physically detectable fundamental entities: these particles are called fermions and follow the Pauli exclusion principle, which states that no more than two fermions can exist in the same quantum state. Because of this principle, the particles that compose matter are not all in the state of minimum energy and then you can create stable structures of assembled fermions.<br />Additional class of particles, bosons, constitute the fields ; so they can be considered agents operating assemblies of fermions or their modifications, interactions and exchanges of energy. A metaphor, not entirely correct from a physical point of view, but powerful and intuitive, sees the fermions as the bricks that make up the universe's matter, and bosons as glues or cements that hold them together in some ways to constitute physical reality.<br />So anything that occupies space and has mass is known as matter. In physics, there isn’t a broad consensus for a common definition of matter, in part because the notion of "taking up space" is poorly defined and inconsistent in the context of quantum mechanics. Physicists do not define clearly what is meant by matter, preferring instead to use and refer to more specific concepts of mass, energy and particles.<br />According to this view, no matter the light (consisting photons), the gravitons and mesons. Yet all have energy for which (according to the relativistic mass-energy equivalence) also have mass. So Mass = Energy, but Mass = Matter, then Mass = Matter = Energy and, for what has been said about space : <b>S=E=M=M</b>.</span></p> <p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto"><span style="mso-bidi-;font-family:Verdana;font-size:130%;" >And time? <b>Time itself does not exist</b>, as suggested by experiments "entanglement" conducted by Alain Aspect in 1982 with polarized photons. It is a "category" of human thought. In the absence of matter, such as space, time does not exist. It is born from BB with a space and matter and, therefore, for <b><i style="mso-bidi-font-style:normal">“S.E.M.M. logic”</i></b> is matter and space itself.</span></p> <p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto"><span style="mso-bidi-;font-family:Verdana;font-size:130%;" >The size of the eternal, as claimed by Emanuele Severino recovering Eleatic thought, is already present and is the only existing reality.</span></p> <p class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto"><span style="mso-bidi-;font-family:Verdana;font-size:130%;" >Stefano Gusman.</span></p>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com2tag:blogger.com,1999:blog-6423338787090762061.post-50908726818756829722011-10-13T01:22:00.000-07:002012-02-06T21:50:18.725-08:00OP HERA<!--[if gte mso 9]><xml> <w:worddocument> <w:view>Normal</w:View> <w:zoom>0</w:Zoom> <w:hyphenationzone>14</w:HyphenationZone> <w:punctuationkerning/> <w:validateagainstschemas/> <w:saveifxmlinvalid>false</w:SaveIfXMLInvalid> <w:ignoremixedcontent>false</w:IgnoreMixedContent> <w:alwaysshowplaceholdertext>false</w:AlwaysShowPlaceholderText> <w:compatibility> <w:breakwrappedtables/> <w:snaptogridincell/> <w:wraptextwithpunct/> <w:useasianbreakrules/> <w:dontgrowautofit/> </w:Compatibility> <w:browserlevel>MicrosoftInternetExplorer4</w:BrowserLevel> </w:WordDocument> </xml><![endif]--><!--[if gte mso 9]><xml> <w:latentstyles deflockedstate="false" latentstylecount="156"> </w:LatentStyles> </xml><![endif]--><!--[if !mso]><object classid="clsid:38481807-CA0E-42D2-BF39-B33AF135CC4D" id="ieooui"></object> <style> st1\:*{behavior:url(#ieooui) } </style> <![endif]--><!--[if gte mso 10]> <style> /* Style Definitions */ table.MsoNormalTable {mso-style-name:"Tabella normale"; mso-tstyle-rowband-size:0; mso-tstyle-colband-size:0; mso-style-noshow:yes; mso-style-parent:""; mso-padding-alt:0cm 5.4pt 0cm 5.4pt; mso-para-margin:0cm; mso-para-margin-bottom:.0001pt; mso-pagination:widow-orphan; font-size:10.0pt; font-family:"Times New Roman"; mso-ansi-language:#0400; mso-fareast-language:#0400; mso-bidi-language:#0400;} </style> <![endif]--> <p><span style="font-size:130%;">Il modello standard raccoglie tutte le conoscenze sicure sulla fisica delle particelle. Esso descrive i mattoni elementari della materia e le regole a cui essi obbediscono. Tutta la materia è composta da quark e leptoni (a questi appartiene anche l'elettrone). Le quattro forze elementari che operano fra le particelle vengono trasmesse da particelle mediatrici (che sono il gravitone per la gravitazione; il fotone per la forza elettromagnetica; i bosoni W e Z per la forza debole; il gluone per la forza forte). Tutte queste particelle sono «puntiformi»; qui il termine significa solo che, anche in esperimenti con la massima risoluzione, non è possibile misurare effetti riconducibili a una loro estensione.<br />L'intensità di ognuna delle quattro forze fondamentali viene determinata attraverso proprietà delle particelle che possono essere descritte come cariche generalizzate. Nel caso dell'elettromagnetismo questa proprietà è la ben nota carica elettrica, mentre nel caso della gravitazione è la massa. Le forze, debole e forte, non appartengono alla nostra esperienza quotidiana: anche i concetti di «carica debole» e «carica di colore» introdotti per queste proprietà dai fisici rimangono dunque un po' astratti.<br />Queste diverse cariche vengono misurate con unità differenti: per esempio la massa in grammi e la carica elettrica in coulomb. Per poter confrontare direttamente le forze, i fisici delle particelle usano però, in luogo delle cariche, costanti di accoppiamento adimensionali. Quanto più grande è questa costante, tanto più intensa è la radiazione della particella mediatrice, e quindi tanto maggiore è la forza. </span></p><span style="font-size:130%;"> </span><p><span style="font-size:130%;">È la massa delle particelle mediatrici a determinare essenzialmente in che modo la forza dipenda dalla distanza (vedi <a href="http://it.wikipedia.org/wiki/Hideki_Yukawa%20http://it.wikipedia.org/wiki/Potenziale_di_Yukawa">teoria di Yukawa</a>) se la massa è nulla, come nel caso del fotone e del gravitone (ricordiamo essere le particelle mediatrici rispettivamente della forza elettromagnetica e della gravitazione), il raggio di azione della forza è infinito; perciò noi conosciamo queste forze anche dal nostro mondo macroscopico nella vita quotidiana. I cosiddetti bosoni W e Z, mediatori della forza debole, hanno invece una massa un centinaio di volte maggiore di quella del protone; perciò il raggio d'azione della forza debole è limitato alla centesima parte del diametro del protone, ossia 2x10^-18 metri.<br />La situazione è completamente diversa nel caso della forza forte. Benchè le sue particelle mediatrici - i gluoni - siano prive di massa, il suo raggio d'azione è pari solo al raggio del protone (circa 10^-15 metri). Il valore delle costanti di accoppiamento forti è quindi così piccolo che solo per distanze molto minori del raggio del protone noi possiamo usare l'immagine di singole particelle e risolvere le equazioni della cromodinamica quantistica (QCD) nello stesso modo già usato nella QED. Per distanze maggiori la costante di accoppiamento, in conseguenza delle interazioni con i gluoni, portatori della carica di colore, diventa così grande che è impossibile, per esempio, separare dagli altri, uno dei tre quark che formano il protone. Qui falliscono anche i metodi di calcolo della QCD, e finora non si sono potute trovare risposte teoriche soddisfacenti alle domande sulla struttura del protone o sul confinamento dei quark e dei gluoni nel protone. Per poter andare oltre bisogna affidarsi innanzitutto a ricerche sperimentali, come quelle che vengono condotte nel collisore Hera.</span></p> <span style="font-size:130%;">La forza nucleare forte propone ancora diversi enigmi: in che modo quark e gluoni si uniscono a formare il protone? Come varia la forza forte al variare della distanza fra coppie di particelle? Perchè quark e gluoni sono sempre racchiusi all'interno di particelle come protoni e neutroni e non possono mai essere osservati come particelle libere? Le quattro forze fondamentali possono avere un'origine comune, come sospetta la maggior parte dei fisici, ed essere descritte da una teoria unitaria?<br />Gli esperimenti condotti con gli acceleratori di particelle, come quelli eseguiti nel collisore Hera, ad Amburgo, hanno dato un contributo essenziale a trovare risposte a queste domande.Hera (acronimo di Hadron-Elektron-Ring-Anlage, ossia «impianto ad anello per adroni ed elettroni») è il più importante acceleratore di particelle del Laboratorio DESY (Deutsches Elektronen-Synchroton). L'impianto è formato da due anelli di accelerazione di 6336 metri di circonferenza ciascuno, costruiti a una profondità di circa 30 metri in un tunnel sotto i quartieri urbani di Bahrenfeld e di Lurup. Un anello accelera elettroni (ma volendo anche le loro antiparticelle, i positroni), portandoli fino a un'energia di 27.5GeV, mentre l'altro accelera protoni fino a un'energia di 920GeV.Nel vuoto spinto dei due anelli di accumulazione, elettroni e protoni sfrecciano per ore in direzione opposta. Essi viaggiano quasi alla velocità della luce, percorrendo il loro itinerario circa 47'000 volte in un secondo e si scontrano frontalmente in due spazi sperimentali. Qui hanno luogo gli esperimenti chiamati H1 e Zeus: rivelatori grandi come case, del peso di varie migliaia di tonnellate, registrano gli urti fra le particelle e le tracce delle particelle secondarie che si generano nelle collisioni. Delle molte migliaia di tali eventi che si verificano ogni secondo, quelli più interessanti vengono registrati per la successiva interpretazione.<br />Il modello standard raccoglie tutte le conoscenze sicure sulla fisica delle particelle. Esso descrive i mattoni elementari della materia e le regole a cui essi obbediscono. Tutta la materia è composta da quark e leptoni (a questi appartiene anche l'elettrone). Le quattro forze elementari che operano fra le particelle vengono trasmesse da particelle mediatrici (che sono il gravitone per la gravitazione; il fotone per la forza elettromagnetica; i bosoni W e Z per la forza debole; il gluone per la forza forte). Tutte queste particelle sono «puntiformi»; qui il termine significa solo che, anche in esperimenti con la massima risoluzione, non è possibile misurare effetti riconducibili a una loro estensione.<br />Gli esperimenti di H1 e Zeus condotti con Hera hanno potuto misurare con maggior precisione l'intensità di questa forza che opera fra i quark. Dalle misurazioni compiute con Hera era noto che i quark presenti nel protone emettono gluoni, e che questi generano a loro volta altri gluoni o coppie quark-antiquark. La maggior parte dei fisici era però convinta che, oltre ai tre quark di valenza, nel protone si trovassero solo poche coppie quark-antiquark e solo pochi gluon, e che il protone fosse dunque quasi vuoto. Secondo le nuove misurazioni, invece, l'interno di un protone assomiglia a un brodo spesso, ribollente, in cui gluoni e coppie quark-antiquark vengono incessantemente emesse e di nuovo annichilate. Questa grande densità dell'emissione dei gluoni rappresenta uno stato completamente nuovo, finora non investigato, della forza forte. A nostro avviso si deve proprio a questo stato se quark e gluoni sono «confinati» all'interno del protone, e non sono quindi mai osservabili come particelle libere.<br />Hera ha fornito anche un'altra grande sorpresa: gli sperimentatori prospettavano che, nelle violente collisioni che si producono in acceleratori di grande potenza, i protoni si frantumassero in un gran numero di nuove particelle. Nel 15 per cento degli urti il protone è rimasto invece integro, anche se aveva subito una vigorosa interazione. Ma come può un protone sopravvivere alla collisione, quando ne viene fatto schizzare violentemente via un quark? La cosa sembra dapprima del tutto incomprensibile. Essa dipende chiaramente da una proprietà straordinaria della forza forte, che dovrebbe aiutarci a capire perchè quark e gluoni rimangono confinati nel protone.La scoperta di questi eventi ha condotto un'intensa collaborazione fra fisici teorici e sperimentali. Entrambi gli esperimenti condotti al collisore Hera - H1 e Zeus - furono variati per estendere le misurazioni a valori di impulso ancora minori e per poter meglio investigare i protoni diffusi. I teorici tentano innanzitutto, con l'aiuto di modelli, di spiegare l'elevata densità dell'emissione di gluoni nel processo di diffusione. Questa ricerca ha fatto nel frattempo grandi passi avanti. E forse si riuscirà presto a capire come la forte emissione di gluoni possa impedire che dal processo di diffusione emergano quark e gluoni come particelle libere e come i protoni possano restare intatti.<br />Riepiloghiamo ancora una volta: gli esperimenti compiuti col collisore Hera, usando elettroni come sonde, hanno portato sotto la lente di questo supermicroscopio la struttura del protone e le forze fondamentali della natura, permettendo di osservarle con una risoluzione mai raggiunta prima. In quest'ambito, divenuto per la prima volta accessibile alla misurazione, la forza debole e la forza elettromagnetica si comportano esattamente come è stato predetto dal modello standard della fisica delle particelle; benchè a grandi distanze le loro intensità siano del tutto diverse, esse hanno tuttavia un'origine comune. La differenza dipende dalla diversità di massa delle particelle mediatrici.La teoria della forza forte (la cromodinamica quantistica) è stata confermata nel modo più esatto alle piccole distanze. La struttura del protone si è rilevata molto complessa, poichè nel caso di piccoli impulsi la densità dei quark e gluoni è assai elevata. Inoltre, contro ogni attesa, dal processo di diffusione i protoni emergono spesso intatti. Le due nuove osservazioni ripropongono in forma del tutto nuova la domanda fondamentale:<br /></span><br /><strong><span style="font-size:130%;">«Perchè quark e gluoni sono imprigionati nell'interno del protone?».<br /></span></strong><br /><a name="autore"></a><span style="font-size:130%;">L'Autore:<br />ROBERT KLANNER è professore di fisica sperimentale all'Università di Amburgo e dal dicembre 1999 è direttore di ricerca del Deutsches Elektronen-Synchrotron (DESY), nella stessa città. Al centro dei suoi interessi ci sono lo sviluppo di rivelatori di particelle e l'investigazione dell'interazione forte e della struttura degli adroni. Prima di trasferirsi ad Amburgo, nel 1984, aveva già lavorato con vari grandi acceleratori: a Serpuchov (in Russia), al Fermilab, presso Chicago, e al Laboratorio europeo per la fisica delle particelle (CERN) a Ginevra.<br /></span><br /><span style="font-size:130%;">Bibliografia:<br />Maianni Luciano, La fisica delle particelle, «Le Scienze quaderni» nr. 103, settembre 1998<br /><a href="http://www.desy.de/pr-info/desyhome/html/presse/hginfos/hera/forschung.en.html">Rith Klaus e Schäfer Andreas, Il mistero dello spin dei nucleoni</a>, in «Le Scienze» nr. 173, settembre 1999<br /></span><span style="font-size:130%;"><br />Perché il titolo OPHERA a questo post? Perche secondo la MT gli incredibili risultati dell’esperimento Opera condotto dall’equipe del Professor Antonio Ereditato tra il CERN di Ginevra e i laboratori sotterranei del Gran Sasso sono strettamente correlati a quelli ottenuti in HERA di cui al precedente articolo che si chiude con la domanda :<br />Perché quark e gluoni sono imprigionati all'interno del protone?".<br />Una struttura come un protone, composto da particelle localizzate (quark) che si scambiano bosoni massivi (gluoni) non può essere stabile, perché non rispetta la legge di conservazione della quantità di moto che, anche su scala quantistica, rimane valida e operante (vedi effetto Moessbauer). Ora tre quark che si scambiano gluoni dovrebbero rinculare oltre che assorbire la quantità di moto dei gluoni ricevuti e il protone espoderebbe a meno che una forza esterna di compressione, esercitata da uno spazio fisico "materiale", non confini i quark. Ma questo tipo di azione è concepibile, al di là delle previsioni del modello standard che prevede particelle puntiformi, solo adottando un modello in cui le particelle sono de - localizzato in onde di materia, come ipotizzato Louis De Broglie.<br />“Quasi particelle” come <a href="http://www.ejtp.com/articles/ejtpv3i10p39.pdf">solitoni o dromioni</a> </span><span style="font-size:130%;">che costituiscono perturbazioni di uno spazio "fisico e materiale" circostante, ovvero degli stessi campi cui appartengono. La variazione di frequenza delle onde determina la modulazione della spinta e della contro spinta che serve a mantenere l'equilibrio tra interno ed esterno, in modo, ad esempio, che quando un quark viene “strappato” ad un protone la materia possa rapidamente “ripararsi” e ristabilire l’equilibrio.<br />I neutrini, quindi, invece di superare la velocità della luce potrebbero aver semplicemente essersi "scavati" un tunnel attraverso un tale tipo di spazio, sottoattraversando le geodetiche impresse dalla gravità terrestre allo spazio-tempo ; in altre parole le geodetiche luce non sarebbero piu’ le linee di minima distanza tra punti. In luogo dello spazio – tempo esisterebbe un normale spazio euclideo tridimensionale che può essere attraversato anche in linea tendenzialmente retta dove a curvarsi non è lo spazio – tempo, ma la radiazione elettromagnetica.<br />D’altro canto, escludendo errori statistici e sistematici, o i neutrini sono stati piu veloci della luce (con tutte le conseguenze teoriche del caso ) o hanno preso una "scorciatoia". Questo salverebbe capra (esperimento) e cavoli (insuperabilità di c). Ma questa "scorciatoia", come un tunnel, ha bisogno di "qualcosa di reale" per esservi “scavato”. L’esperimento Alice condotto al Large Hadron Collider (LHC) potrebbe rilevare uno spettro continuo di emissione/assorbimento delle collisioni tra protoni come "biglietto da visita" di queste onde di materia costituite dalle “quasi particelle”.Tenendo, infine, presente che fino ad ora, l'esperimento Atlas, sempre condotto presso LHC, ha escluso l'esistenza del bosone di Higgs in un vasto range di massa/energia, si può ipotizzare che, anche per l’omonimo campo, si possa avere sui rivelatori una distribuzione sempre piu’ omogenea dei dati statistici con riduzione dei "picchi" all'aumentare dell’energia a indicare la presenza di massa /energia delocalizzata in luogo di bosoni vettori di massa localizzati. </span><br /><span style="font-size:130%;"></span><br /><span style="font-size:130%;">Stefano Gusman</span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com2tag:blogger.com,1999:blog-6423338787090762061.post-34070442293391629082011-10-13T01:18:00.000-07:002012-02-06T21:36:04.189-08:00OPHERA<object id="ieooui" classid="clsid:38481807-CA0E-42D2-BF39-B33AF135CC4D"></object><br /><style> st1\:*{behavior:url(#ieooui) } </style><span class="longtext" style="font-size:130%;"><span style="mso-ansi-language: EN" lang="EN">The standard model contains all the secure knowledge in particle physics. </span><span title="Esso descrive i mattoni elementari della materia e le regole a cui essi obbediscono.">It describes the building blocks of matter and the rules that they obey. </span><span title="Tutta la materia è composta da quark e leptoni (a questi appartiene anche l'elettrone).">All matter is composed of quarks and leptons (the electron also belongs to these). </span><span title="Le quattro forze elementari che operano fra le particelle vengono trasmesse da particelle mediatrici (che sono il gravitone per la gravitazione; il fotone per la forza elettromagnetica; i bosoni W e Z per la forza debole; il gluone per la forza forte).">The four elementary forces acting between the particles is transmitted from the mediating particles (which are the graviton for gravity, the photon to the electromagnetic force, W and Z bosons for the weak force, the gluon for the strong force). </span><span title="Tutte queste particelle sono «puntiformi»; qui il termine significa solo che, anche in esperimenti con la massima risoluzione, non è possibile misurare effetti riconducibili a una loro estensione.">All these particles are 'point', hence the term just means that, even in experiments with the highest resolution, it is not possible to measure effects related to their extension.</span></span><br /><p><span style="font-size:130%;"><span style="mso-ansi-language: EN" lang="EN"><span title="L'intensità di ognuna delle quattro forze fondamentali viene determinata attraverso proprietà delle particelle che possono essere descritte come cariche generalizzate.">The intensity of each of the four fundamental forces is determined by properties of the particles that can be described as generalized charges. </span><span title="Nel caso dell'elettromagnetismo questa proprietà è la ben nota carica elettrica, mentre nel caso della gravitazione è la massa.">In the case of electromagnetism this property is the well-known electrical charge, while in the case of gravitation is the mass. </span><span title="Le forze, debole e forte, non appartengono alla nostra esperienza quotidiana: anche i concetti di «carica debole» e «carica di colore» introdotti per queste proprietà dai fisici rimangono dunque un po' astratti.">The forces, weak and strong are not part of our daily experience: the concepts of "weak charge" and "color charge" introduced by physicists for these properties are therefore a bit abstract.</span><br /><span class="longtext"></span><span title="Queste diverse cariche vengono misurate con unità differenti: per esempio la massa in grammi e la carica elettrica in coulomb.">These different positions are measured in different units: for example the mass in grams and the electric charge in coulombs. </span><span title="Per poter confrontare direttamente le forze, i fisici delle particelle usano però, in luogo delle cariche, costanti di accoppiamento adimensionali.">In order to compare the forces, particle physicists use, however, in lieu of charges, dimensionless coupling constants. </span><span title="Quanto più grande è questa costante, tanto più intensa è la radiazione della particella mediatrice, e quindi tanto maggiore è la forza.">The larger this constant, the more intense the radiation of the carrier particle, and thus the greater the force.</span><br /><span class="longtext"></span><span title="È la massa delle particelle mediatrici a determinare essenzialmente in che modo la forza dipenda dalla distanza (vedi teoria di Yukawa http://it.wikipedia.org/wiki/Hideki_Yukawa): se la massa è nulla, come nel caso del fotone e del">Is the particle mass mediators to determine essentially how the force depends on the distance (see Yukawa theory): if the mass is zero, as in the case of the photon and the </span><span title="gravitone (ricordiamo essere le particelle mediatrici rispettivamente della forza elettromagnetica e della gravitazione), il raggio di azione della forza è infinito; perciò noi conosciamo queste forze anche dal nostro mondo macroscopico nella vita quotidiana.">graviton (remember to be the mediating particles, respectively, the electromagnetic force and gravitation), the radius of action of the force is infinite, so we know these forces also by our macroscopic world in everyday life. </span><span title="I cosiddetti bosoni W e Z, mediatori della forza debole, hanno invece una massa un centinaio di volte maggiore di quella del protone; perciò il raggio d'azione della forza debole è limitato alla centesima parte del diametro del protone, ossia 2x10^-18">The so-called W and Z bosons, mediators of the weak force,have a mass one hundred times greater than that of the proton, so the range of the weak force is limited to one hundredth of the diameter of the proton, ie 2x10 ^ -18 </span><span title="metri.">meters.</span><br /><span title="La situazione è completamente diversa nel caso della forza forte.">The situation is completely different in the case of the strong force. </span><span title="Benchè le sue particelle mediatrici - i gluoni - siano prive di massa, il suo raggio d'azione è pari solo al raggio del protone (circa 10^-15 metri).">Though its mediating particles - gluons - are massless, its range is equal only to the radius of the proton (about 10 ^ -15 meters). </span><span title="Il valore delle costanti di accoppiamento forti è quindi così piccolo che solo per distanze molto minori del raggio del protone noi possiamo usare l'immagine di singole particelle e risolvere le equazioni della cromodinamica quantistica (QCD) nello stesso modo già usato nella QED.">The value of strong coupling constants is therefore so small that only for distances much less than the radius of the proton, we can use the image of individual particles and solve the equations of quantum chromodynamics (QCD) in the same way already used in QED. </span><span title="Per distanze maggiori la costante di accoppiamento, in conseguenza delle intestazioni con i gluoni, portatori della carica di colore, diventa così grande che è impossibile, per esempio, separare dagli altri, uno dei tre quark che formano il protone.">For longer distances, the coupling constant, as a result of the interactions with the gluons, carrying the color charge, becomes so great that it is impossible, for example, separate from the others, one of the three quarks that make up the proton. </span><span title="Qui falliscono anche i metodi di calcolo della QCD, e finora non si sono potute trovare risposte teoriche soddisfacenti alle domande sulla struttura del protone o sul confinamento dei quark e dei gluoni nel protone.">You fail to include the methods of calculation of QCD, and so far have not been able to find satisfactory answers to theoretical questions about the structure of the proton or the confinement of quarks and gluons in the proton. </span><span title="Per poter andare oltre bisogna affidarsi innanzitutto a ricerche sperimentali, come quelle che vengono condotte nel collisore Hera.">In order to go further we must rely primarily on experimental research, such as those that are conducted in the Hera collider.</span></span></span></p><span style="font-size:130%;">The strong nuclear force still offers several puzzles: how quarks and gluons together to form the proton? As the strong force varies as a function of distance between pairs of particles? Why quarks and gluons are always enclosed in particles such as protons and neutrons and can never be observed as free particles? The four fundamental forces can have a common origin, as suspected, most physicists, and be described by a single theory?The experiments conducted with particle accelerators, such as those performed in the collider Hera, in Hamburg, have made an essential contribution to find answers to these questions.Hera (which stands for Hadron-Elektron-Ring-Anlage, namely 'loop system for hadrons and electrons ") is the most important particle accelerator laboratory DESY (Deutsches Elektronen-Synchroton). The plant consists of two rings of accelerating 6336 meters in circumference each, built at a depth of about 30 meters in a tunnel under the city districts of Bahrenfeld and Lurup. A ring accelerates electrons (but also wanting their antiparticles, positrons), leading up to an energy of 27.5GeV, while the other accelerates protons to an energy of 920GeV.In the vacuum of the two storage rings, electrons and protons zipping in opposite directions for hours. They travel at nearly the speed of light along their route about 47,000 times a second and collide head-on in two experimental spaces. Take place here the experiments called H1 and Zeus : detectors with size of houses, weighing several thousand tons, record the collisions between the particles and traces of secondary particles that are generated in collisions. Of the many thousands of such events occurring every second, the most interesting ones are recorded for later interpretation.The standard model contains all the safe knowledge in particle physics. It describes the building blocks of matter and the rules that they obey. All matter is composed of quarks and leptons (the electron belongs to these). The four elemental forces operating between the particles are transmitted from the mediating particles (which are the graviton for gravity and the photon to the electromagnetic force, W and Z bosons for the weak force, the gluon for the strong force). All these particles are "point", hence the term simply means that, even in experiments with the highest resolution, it is not possible to measure effects related to their extension.The experiments conducted with the H1 and Zeus, Hera were able to measure more precisely the intensity of this force that operates between the quark. From the measurements made with Hera was known that the quarks in the proton emit gluons, and that they generate further gluons or quark-antiquark pairs. Most physicists, however, was convinced that, in addition to the three valence quarks in the proton, they were only a few pairs quark - antiquark and only few gluons and therefore that the proton was almost empty. According to new measurements, however, the interior of a proton resembles in a seething thick broth in which gluons and quark-antiquark pairs are continuously generated and annihilated again. This high density of the emission of gluons is a completely new state, so far not investigated, of the strong force. In our opinion, is due precisely to this state if quarks and gluons are "confined" inside the proton, and are therefore never observed as free particles.Hera has provided another surprise: the prospective trial was that, in the violent collisions that occur in high power accelerators, protons were crushed in a large number of new particles. Instead in 15 percent of the proton collisions they remained intact, even though he had undergone a vigorous interaction. But as a proton can survive the collision, when a quark is violently gotten out from it ? The thing seems utterly incomprehensible. It clearly depends on a flagship property of the strong force, which should help us understand why quarks and gluons are confined in the proton.The discovery of these events led to an intense collaboration between theoretical and experimental physicists. Both collider experiments to the Hera - H1 and Zeus - were changed to extend the measurements to lower values of pulse to better investigate the protons diffuse. The first theoretical attempt, with the help of models, to explain the high density of the emission of gluons in the scattering process. This research has made great strides in the meantime. And maybe you will soon figure out how the strong emission of gluons can prevent that quarks and gluons emerge as free particles from diffusion process, and as protons can remain intact.Summarize once again: the collider experiments performed with Hera, using electrons as probes, have been brought under the lens of this supermicroscope the structure of the proton and the fundamental forces of nature, allowing to observe with a resolution never achieved before. In this context, for the first time become accessible to measurement, the weak force and electromagnetic force behave exactly as predicted by the standard model of particle physics ; though at great distances their intensities are quite different, they have however a common origin. The difference depends on the diversity of particle mass mediators.The theory of the strong force (quantum chromodynamics) was confirmed in the most accurate for small distances. The structure of the proton is detected very complex because, in the case of small pulses, the density of quarks and gluons is very high. Moreover, against all expectations, protons often emerge intact from the diffusion process. The two new observations re-propose in a completely new way the fundamental question:<br /></span><br /><strong><span style="font-size:130%;">"Why quarks and gluons are imprisoned inside the proton?".</span></strong><br /><span style="font-size:130%;"></span><br /><span style="font-size:130%;">The Author:ROBERT KLANNER is a professor of experimental physics at the University of Hamburg in December 1999 and is director of research of Deutsches Elektronen-Synchrotron (DESY) in the same city. At the center of his interests are the development of particle detectors and the investigation of the strong interaction and the structure of hadrons. Before moving to Hamburg in 1984, had already worked with several large accelerators: a Serpuchov (Russia), at Fermilab, near Chicago, and the European Laboratory for Particle Physics (CERN) in Geneva.</span><br /><span style="font-size:130%;"></span><br /><span style="font-size:130%;">Bibliography:<br />Maianni Luciano, La fisica delle particelle, «Le Scienze quaderni» nr. 103, settembre 1998<br /><a href="http://www.desy.de/pr-info/desyhome/html/presse/hginfos/hera/forschung.en.html">Rith Klaus e Schäfer Andreas</a>, Il mistero dello spin dei nucleoni, in «Le Scienze» nr. 173, settembre 1999<br /></span><span style="font-size:130%;"><br />OPHERA because the title to this post? Because according to the MT the incredible results of the “Opera” experiment conducted by equipe of Professor Antonio Ereditato between CERN and the Gran Sasso underground laboratories are closely related to those obtained in HERA such as in the previous article that ends with the question:”Why do quarks and gluons inside the proton are imprisoned? ".A structure such as a proton, composed of localized particles (quarks) that exchange mass bosons (gluons) can not be stable, because it does not respect the law of conservation of momentum that even at quantum scale is valid and active (see Moessbauer effect). Now three quarks exchanging gluons should not only recoil, but also absorb the momentum of the gluons received and the proton would explode unless an external pressing force, exerted by a physical "material" space, confines quarks. But this kind of action is conceivable, beyond the standard model which provides estimates of point particles, only by adopting a model in which the particles are unlocalized matter waves, such as Louis De Broglie hypothesized."Almost particles" as solitons or dromions (Attilio Maccari: </span><a href="http://www.ejtp.com/articles/ejtpv3i10p39.pdf"><span style="font-size:130%;">http://www.ejtp.com/articles/ejtpv3i10p39.pdf</span></a><span style="font-size:130%;">) that make up perturbations of the same fields whose they belong constituting also the surrounding space. The change in frequency of the waves determines the modulation of the thrust and counter thrust being able to maintain the balance between internal and external. So, for example, when a quark is "ripped" to a proton, internal matter quickly “repairs” itself and restore balance. So neutrinos, rather than exceed the speed of light, could have simply underpass geodesics impressed by gravity to the space-time digging a tunnel through such that kind of space ; in other words, light geodesic wouldn’t minimum distance lines between points. In place of the space - time there would be a normal three-dimensional euclidean space that can be traversed in a tendential straight line which is not to bend space - time, but electromagnetic radiation. On the other hand, excluding statistical and systematic errors, or neutrinos were faster than light (with all the theoretical consequences of the case) or have taken a "shortcut". This would make safe goats (experiment) and cabbage (insuperability of c).But this "short cut", like a tunnel, needs "something real" to be "dug".The Alice experiment conducted at the Large Hadron Collider (LHC) could detect a continuous spectrum of emission/absorption of collisions between protons as a "calling card" of these waves of matter formed by the "almost particles".Taking, then, that until now, the Atlas experiment, also conducted at the LHC, has ruled out the existence of the Higgs boson in a wide range of mass/energy, it can be assumed that, even for the same name field, on the detectors may have a distribution of statistical data more and more 'homogeneous with reduction of the"peaks" with increasing energy, to indicate the presence of mass/energy unlocalized, in place of localized massive vector bosons.<br /><br />Stefano Gusman</span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com0tag:blogger.com,1999:blog-6423338787090762061.post-36749726501765024052011-09-28T04:38:00.014-07:002012-03-08T11:33:26.765-08:00Neutrini : molto rumore per nulla ?<span style="font-size:130%;">Ovviamente se ne parla come della scoperta del secolo.Forse secondo un esperimento di fisica delle particelle effettuato tra il Cern di Ginevra e i laboratori del Gran Sasso, i <a href="http://it.wikipedia.org/wiki/Neutrino">neutrini</a> potrebbero essere in grado di superare la velocità della luce. La notizia ha fatto il giro del pianeta e provocato grande eccitazione nel mondo della scienza. Il risultato è talmente incredibile da essere stato accolto dalla comunità scientifica con grande scetticismo, tanto che si è ormai scatenata la caccia all'errore. Ma perché gli scienziati hanno così tanta difficoltà ad accettare questi dati? Innanzi tutto un'evidenza di questo genere potrebbe far cadere uno dei pilastri fondamentali su cui si basa la relatività ristretta : l'insuperabilità della velocità della luce. Ma non c'è solo questo.Secondo quanto ha detto al Guardian Subir Sakar, docente di fisica delle particelle all' università di Oxford, questo risultato scombinerebbe la relazione di causalità: “ L'assunto che la causa non possa arrivare dopo l'effetto è assolutamente fondamentale per la nostra concezione di Universo: se salta siamo veramente nei guai”. In effetti l'idea che nulla può viaggiare più veloce della luce nel vuoto rappresenta la pietra angolare della </span><span style="font-size:130%;">teoria della relatività speciale</span><span style="font-size:130%;"> di Einstein, che assume tale velocità come una costante. Se i neutrini sono più veloci della luce, allora uno dei presupposti fondamentali della scienza, secondo cui le leggi della fisica sono le stesse per tutti gli osservatori, potrebbe essere invalidato.<br /></span><br /><span style="font-size:130%;">Tuttavia queste osservazioni riflettono una visione quanto meno “parziale” di tutta la faccenda.<br /></span><br /><span style="font-size:130%;">È' noto da tempo che il <a href="http://it.wikipedia.org/wiki/Principio_di_indeterminazione_di_Heisenberg">principio di indeterminazione di Heisenberg</a> mette in crisi soprattutto il concetto di causa. Nella formulazione piú forte del principio di causalità: “se noi conosciamo il presente esattamente possiamo predire il futuro”, è falsa non la conseguenza, ma la premessa. Noi non possiamo in linea di principio conoscere il presente in ogni elemento di determinazione. Perciò ogni osservazione è una selezione da una quantità di possibilità e una limitazione delle possibilità future. Poiché ora il carattere statistico della teoria quantistica è cosí intimamente associato alla inesattezza di tutte le percezioni, si potrebbe essere condotti alla supposizione che al di là del mondo percepito statisticamente si celi ancora un mondo “reale”, nel quale il principio di causalità è valido. La fisica deve descrivere soltanto la connessione formale delle percezioni. Piuttosto si può caratterizzare molto meglio il vero stato della cosa in questo modo : poiché tutti gli esperimenti sono soggetti alle leggi della meccanica quantistica da ciò segue che attraverso la meccanica quantistica viene stabilita definitivamente la nullità del principio di causalità.<br /></span><br /><span style="font-size:130%;">Sincronicità è un termine introdotto da Carl Jung nel 1950 per descrivere la contemporaneità di due eventi connessi in maniera a-causale. Coincidenza di due o più eventi a -temporali, quindi non sincroni, legati da un rapporto di analogo contenuto significativo. Jung distingue la sincronicità dal "sincronismo", eventi che accadono simultaneamente, cioè nello stesso tempo, es: ballerini che fanno lo stesso passo con la stessa cadenza simultanemaente, due orologi che segnano lo stesso orario, metronomo e musica che seguono lo stesso ritmo etc…che sono eventi che accadono senza alcuna connessione di significato, sia causale che casuale, perché sono azioni di pura contemporaneità temporale.La sincronicità invece è basata su altri postulati che, nella vita di tutti i giorni, si traducono come: pensare a una persona e poco dopo ricevere una telefonata che ne porta notizie; nominare un numero e vedere passare una macchina con lo stesso numero impresso sulla carrozzeria; leggere una frase che ci colpisce e poco dopo sentircela ripetere da un'altra persona etc.; che talvolta danno la netta impressione d'essere accadimenti precognitivi legati a una sorta di chiaroveggenza interiore, come se questi segnali fossero disseminati ad arte sul nostro percorso quotidiano per "comunicare qualcosa che riguarda solo noi stessi e il nostro colloquio interiore". Una sorta di risposta esterna, affermativa o negativa, oggettivamente impersonale e simbolicamente rappresentata.<br />In analogia alla causalità che agisce in direzione della progressione del tempo e mette in connessione due fenomeni che accadono nello stesso spazio in tempi diversi, viene ipotizzata l'esistenza di un principio che mette in connessione due fenomeni che accadono nello stesso tempo ma in spazi diversi. Praticamente viene ipotizzato che al fianco del logico svolgimento di un atto conforme al principio in cui in tempi diversi accadono avvenimenti provocati da una causa, ne esista un altro in cui accadono avvenimenti nello stesso tempo ma in due spazi diversi perché, essendo casuali, non sono direttamente provocati da un effetto, corrispondendo per cui perfettamente al principio di a-temporalità.<br /></span><br /><span style="font-size:130%;">In fisica le particelle vengono usualmente trattate come funzione d'onda che si evolve secondo l'</span><a title="Equazione di Schrödinger" href="http://it.wikipedia.org/wiki/Equazione_di_Schr%C3%83%C6%92%C3%82%C2%B6dinger"><span style="font-size:130%;">equazione di Schrödinger</span></a><span style="font-size:130%;">. In particolare il </span><a title="Principio di sovrapposizione (fisica quantistica) (pagina inesistente)" href="http://it.wikipedia.org/w/index.php?title=Principio_di_sovrapposizione_%28fisica_quantistica%29&action=edit&redlink=1"><span style="font-size:130%;">principio di sovrapposizione</span></a><span style="font-size:130%;"> gioca un ruolo fondamentale nella spiegazione di tutti i fenomeni di interferenza osservati. Tuttavia questo comportamento è in contrasto con la meccanica classica: a livello macroscopico, infatti, non è possibile osservare una sovrapposizione di stati distinti. Un esempio ben noto è fornito dal </span><a title="Paradosso del gatto di Schrödinger" href="http://it.wikipedia.org/wiki/Paradosso_del_gatto_di_Schr%C3%83%C6%92%C3%82%C2%B6dinger"><span style="font-size:130%;">paradosso del gatto di Schrödinger</span></a><span style="font-size:130%;">: un gatto (come qualsiasi essere vivente) non può essere contemporaneamente vivo e morto. Sorge quindi una domanda: esiste una separazione tra regime quantistico e regime classico? L'interpretazione di Copenaghen suggerisce una risposta affermativa: effettuare una misura su un sistema quantistico equivale a renderlo osservabile, quindi "classico". Ad esempio, se in un </span><a title="Esperimento della doppia fenditura" href="http://it.wikipedia.org/wiki/Esperimento_della_doppia_fenditura"><span style="font-size:130%;">esperimento della doppia fenditura</span></a><span style="font-size:130%;"> si osserva la traiettoria di una particella, l'interferenza viene distrutta (</span><a title="Principio di complementarità" href="http://it.wikipedia.org/wiki/Principio_di_complementarit%C3%83%C6%92"><span style="font-size:130%;">principio di complementarità</span></a><span style="font-size:130%;">). Il meccanismo responsabile di questo fenomeno prende il nome di </span><a title="Collasso della funzione d'onda" href="http://it.wikipedia.org/wiki/Collasso_della_funzione_d"><span style="font-size:130%;">collasso della funzione d'onda</span></a><span style="font-size:130%;"> e venne introdotto da Von Neumann.<br />Tuttavia, se esiste, un confine tra quantistico e classico non è affatto chiaro dove vada tracciato - né perché esso esista: il collasso della funzione d'onda viene solo postulato. Questi problemi vengono affrontati dalla teoria della decoerenza, la cui idea di base è la seguente: le leggi della meccanica quantistica, a partire dall'equazione di Schrödinger, che si applicano a sistemi isolati - in linea di principio, si applicano anche a quelli macroscopici. Quando un sistema quantistico non è isolato dall'esterno - ad esempio durante una misura - esso diventa entangled con l'ambiente (trattato anch'esso quantisticamente); questo fatto, secondo la teoria, ha conseguenze cruciali sul mantenimento della coerenza.<br />In particolare, se il sistema viene preparato in una </span><a title="Sovrapposizione coerente" href="http://it.wikipedia.org/wiki/Sovrapposizione_coerente"><span style="font-size:130%;">sovrapposizione coerente</span></a><span style="font-size:130%;"> di stati, l'entanglement con l'ambiente porta alla perdita di coerenza tra le differenti parti della funzione d'onda che corrispondono agli stati sovrapposti. Dopo un tempo di decoerenza caratteristico, il sistema non è più in una sovrapposizione di stati, bensì in una </span><a title="Miscela statistica" href="http://it.wikipedia.org/wiki/Miscela_statistica"><span style="font-size:130%;">miscela statistica</span></a><span style="font-size:130%;">.<br />Secondo la teoria, la differenza tra sistemi microscopici e macroscopici sta nel fatto che se i primi si possono isolare bene dall'esterno (cioè la coerenza si mantiene facilmente per un tempo sufficientemente "lungo"), lo stesso non si può dire per i secondi, per i quali invece si deve inevitabilmente tener conto dell'interazione con l'ambiente. Di conseguenza è praticamente impossibile osservare sovrapposizioni di stati macroscopicamente distinti, perché se anche si riuscisse a prepararle (cosa in sé difficile, anche se non vietata dalla teoria) avrebbero una durata troppo breve.<br /></span><br /><span style="font-size:130%;">Tornando, allora, ai neutrini, alla causalità e alla velocità della luce il problema sta proprio nell’interpretazione del concetto di tempo.<br />Uno dei piu’ grandi errori della fisica teorica, infatti, è stato quello di considerare il tempo una grandezza fisica “reale” e non la semplice percezione/misurazione di variazioni di stato della materia da parte dell’uomo. Cio’ ha portato erroneamente a credere che il tempo potesse essere “strapazzato” (contratto o dilatato) come se fosse un pezzo di materia. E si che riescie difficile immaginare di poter contrarre o dilatare una lunghezza e, quindi, una distanza tra punti materiali (che, peraltro, esistono solo nella teoria matematico –geometrica e non nella realtà fisica) senza che questa successione di “non punti” sia a sua volta materia, ma il tempo proprio no…E’ un’astrazione, un concetto mentale, peraltro soggettivo o, per dirla alla Einstein, relativo. L’intera struttura dello spazio-tempo è una semplice astrazione matematica e non una realtà fisica. Cio’ che esiste realmente è solo materia in cui il nesso causa effetto degli eventi è preservato dall’essere tale materia un "continuo" fisico a-temporale. Gli esperimenti “entanglement” svolti negli anni 80 da Alain Aspect accreditano fortemente tale ipotesi. </span><br /><span style="font-size:130%;"></span><br /><span style="font-size:130%;">In tale struttura la velocità non è altro che variazione della funzione di stato della materia in un normale spazio euclideo a sua volta materiale e a temporale.<br /><br /></span><span style="font-size:130%;">Ma allora che è successo realmente tra il CERN e il Gran Sasso ? Semplicemente i neutrini potrebbero aver percorso una scorciatoia e, cioe', un segmento circolare che sottende l'arco di curva teorico che avrebbero percorso i fotoni. </span><br /><span style="font-size:130%;">Consideriamo la corda di lunghezza pari a 730 Km dell’arco del segmento circolare che distanzia i laboratori del CERN e del Gran Sasso. Con semplici considerazioni trigonometriche, dato approssimativamente R = 6.378 Km il raggio della Terra, l'angolo al centro teta è pari a 0,114 rad.<br />L'anticipo (presunto) dei neutrini rispetto ai fotoni è di circa delta t = 60 ns = 60 10^-9 sec, che si traduce in una "luce" al fotofinish di delta s = 300.000.000 m/sec x delta t = 18 metri circa. Ammettendo che il neutrino possa al massimo eguagliare la velocità luce, ma non superarla, i 18 metri sarebbero l’accorciamento della corda. L'angolo di deflessione relativistica gravitazionale della luce, in radianti <a href="http://www.theory.caltech.edu/people/patricia/lclens.html">puo' essere assunta pari a</a></span> :<span style="font-size:130%;">phi = 4* (G M/c^2)/R = 4 * 6.67e-11*5.97e24/(9.00e16*6.37e6) = 2.78e-9 rad. Per avere la deviazione in metri sul punto di arrivo basta propagare linearmente questa deflessione sulla distanza di 732 km, ottenendo : 2e-9*1e6 = 2e-3 m = 2 millimetri circa.</span><span style="font-size:130%;"> Propagando la deflessione solo su 18 metri si otterrebbe uno scarto dalla geodetica naturale di circa 5 e-5 mm. Si tratterebbe, allora, di verificare l’ipotesi di traiettorie tra due punti in uno spazio tempo curvo piu’ brevi di una geodetica sfruttando l'alta capacità di penetrazione dei neutrini nella materia.</span><span style="font-size:130%;">Per fare cio’ occorre spararli non ad “alzo zero”, ma con un’inclinazione negativa opportunamente calcolata. </span><br /><span style="font-size:130%;">"Sulla carta" l'inclinazione negativa che il fascio di neutrini dovrebbe avere per percorrere la corda rettilinea del segmento circolare dovrebbe essere di circa 3,29 gradi (metà dell'angolo al centro), rispetto al piano tangente alla traiettoria "naturale" curva che percorerrebbe se fosse sparato ad alzo zero. Con tale inclinazione la pendenza di un tunnel "ideale" rispetto al piano orizzontale (piano tangente all'arco di curva nel punto di imbocco) scavato nella Terra sarebbe del 5,7 % circa. Questa traiettoria è proprio la corda che, per chi dovesse "scavarla" effettivamente, sarebbe una sella (avremmo una "discesa" e una "risalita" per risbucare in superficie, in quanto dovremmo fare i conti con la forza di gravita'), ma dal punto di vista puramente geometrico (ed euclideo), la corda sarebbe proprio un segmento di retta, con uno scostamento di un paio di mm dalla geodetica "naturale" ; in ogni caso il neutrino avrebbe fatto qualcosa che non è previsto dalla teoria anche senza superare la velocità della luce.</span><span style="font-size:130%;"> Cio' significa anche che accelerando a lungo si puo' pensare di "scavare" un tunnel che "taglia" la strada percorsa dalla radiazione e.m....In pratica attraversare uno spazio "fisico" tridimensionale euclideo passando "sotto" le traiettorie <a href="http://it.wikipedia.org/wiki/Geodetica">geodetiche</a> luce impresse dalla gravità che, pertanto, non sarebbero piu' le linee di minima distanza tra punti e, magari, raggiungere le stelle</span> <span style="font-size:130%;">piu' rapidamente di quanto finora si potesse pensare.<br /></span><span style="font-size:130%;"><br /></span><a href="http://www.borborigmi.org/wordpress/wp-content/uploads/2011/09/cngs2-500x276.jpg"><img style="FLOAT: left; MARGIN: 0pt 10px 10px 0pt; WIDTH: 413px; CURSOR: pointer; HEIGHT: 224px" alt="" src="http://www.borborigmi.org/wordpress/wp-content/uploads/2011/09/cngs2-500x276.jpg" border="0" /></a><br /><span style="font-size:130%;"><br />Stefano Gusman</span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com12tag:blogger.com,1999:blog-6423338787090762061.post-60080623991749164832011-09-28T04:33:00.022-07:002012-03-08T11:32:23.089-08:00Neutrinos: much ado about nothing ?<span style="font-family:times new roman;font-size:130%;">Obviously it speaks as the discovery of the century. May be that according to a particle physics experiment carried on between CERN in Geneva and the Gran Sasso laboratories, the neutrinos might be able to exceed the speed of light. The news has gone around the world and caused great excitement in science. The result is so incredible that it has been greeted with great skepticism by the scientific community, so that started the hunting error. But why scientists have so much trouble accepting this data?First evidence of this kind could bring down one of the fundamental pillars of special relativity: the speed of light insuperability. But that's not all. According to the opinion of a professor of particle physics at the 'University of Oxford, Subir Sakar, published on Guardian, this result mess the causal relation: "The assumption that the cause can not come after the effect is absolutely fundamental to our conception of Universe: If we lose it we are into real troubles. " In fact the idea that nothing can travel faster than light in vacuum is the cornerstone of Einstein's special theory of relativity, which assumes that velocity as a constant. If neutrinos are faster than light, then one of the fundamental assumptions of science, that the laws of physics are the same for all observers, could be invalidated.</span><span style="font-family:times new roman;font-size:130%;"> However these observations at least reflect a partial vision of the whole question. It has long been known that the Heisenberg uncertainty principle, especially undermines the concept of cause. In the strongest formulation of the principle of causality: "If we know exactly present we can accurately predict the future," not the result is false, but the premise. We can not in principle know the present in every element of determination. Thus each observation is a selection from a number of possibilities and a limitation of future possibilities. Because now the statistical nature of quantum theory is so intimately associated with the inaccuracy of all perceptions, one might be led to the assumption that beyond the statistically perceived world is hidden still a "real" world, in which the principle of causality is valid . Physics should describe only the formal connection of perceptions. Rather, one can characterize the true state of the thing a lot better in this way: since all experiments are subject to the laws of quantum mechanics from this matter follows that, by quantum mechanics is established permanently the invalidity of the principle of causality.<br /></span><span style="font-family:times new roman;font-size:130%;"></span><span style="font-family:times new roman;font-size:130%;">Synchronicity is a term introduced by Carl Jung in 1950 to describe the simultaneity of two events connected in an a-causal way. Coincidence of two or more a temporal events, so not synchronous, linked by a similar ratio of meaningful content. Jung distinguishes synchronicity from the "timing" events that occur simultaneously, that is at the same time : dancers who do simultaneously the same step at the same rate, two clocks that mark the same time, metronome and music that follow the same rhythm, etc. ... which are events that occur without any connection with meaning, both causal and random, because they are actions pure contemporary actions. Instead synchronicity is based on other assumptions that, in everyday life, are translated as: to think of a person and shortly after receive a phone call brings news about; appointing a number and going to see a car with the same numberplate, read a sentence that strikes us and shortly after heard repeated by another person, etc.., which sometimes give distinct impression of being precognitive events related to a kind of inner clairvoyance, as if these signals were scattered artfully on our daily journey to "communicate something about only ourselves and our inner conversation." A kind of external response, positive or negative, objectively impersonal and symbolically represented.In analogy to the causality that acts in the direction of the progression of time and links two phenomena that occur in the same space at different times, it is assumed the existence of a principle that connects two phenomena occurring at the same time but in different spaces . Practically it is assumed that in addition to the next logical development of a measure consistent with the principle in which events occur at different times caused by a cause, there exists another in which events occur at the same time but in two different spaces because, being random, are not directly caused by an effect, that correspond perfectly to the principle of a-temporality.<br /></span><span style="font-family:times new roman;font-size:130%;"><br /></span><span style="font-family:times new roman;font-size:130%;">In physics, the particles are usually treated as a wave function that evolves according to the Schrödinger equation. In particular, the superposition principle plays a fundamental role in the explanation of all the interference phenomena observed. However, this behavior is in contrast to classical mechanics: at a macroscopic level, in fact, it is not possible to observe a superposition of distinct states.<br /></span><span style="font-family:times new roman;font-size:130%;">A well known example is provided by the paradox of Schrödinger's cat: a cat (like any living being) can not be both alive and dead. Then a question arises: is there a separation between quantum and classical regime? The Copenhagen interpretation suggests an affirmative answer: make a measurement of a quantum system is equivalent to make it observable, then "classic." For example, if in the double slit experiment we observe the trajectory of a particle, the interference is destroyed (principle of complementarity). The mechanism responsible for this phenomenon is called collapse of the wave function and was introduced by Von Neumann. However, if there is a boundary between the quantum and classical is not clear where the track goes - or why it exists: the collapse of the wave function is only postulated. These problems are addressed by the theory of decoherence, whose basic idea is the following: the laws of quantum mechanics, starting out from the Schrödinger equation, that apply – in principle - to isolated systems – apply even at the macroscopic ones. When a quantum system is not isolated from the outside - such as when a measure - it becomes entangled with the environment (which is also treated quantum); this fact, the theory goes, has crucial consequences on the maintenance of coherence.In particular, if the system is prepared in a coherent superposition of states, the entanglement with the environment leads to loss of coherence between the different parts of the wave function that correspond to the states overlapped. After a characteristic time of decoherence, the system is no longer in a superposition of states, but in a statistical mixture.According to the theory, the difference between microscopic and macroscopic systems is that if the first may insulate from the outside (that is that coherence is easily maintained for a sufficient "long" time), the same can not be said for the second , but for which you must inevitably take into account the interaction with the environment. Consequently it is virtually impossible to observe macroscopically distinct states overlap, because even if you could prepare (thing in itself difficult, if not forbidden by the theory) would have a life too short.<br /></span><span style="font-family:times new roman;font-size:130%;">Returning then to neutrinos, causality and speed of light the problem lies in the interpretation of the concept of time.One of the most 'biggest mistakes of theoretical physics, in fact, was to consider the time a physical "real" and not merely the perception/measurement of changes of state of matter by man. This' mistakenly led to believe that the time could be "scrambled" (contract or dilated) as if it were a piece of matter. And if is difficult to imagine being able to contract or dilate a length and, therefore, a distance between material points (which, however, exist only in mathematical or geometric theory of, but not in physical reality), without this succession of "no points" is in turn matter, time such not so ... It is just an abstraction, a mental concept, however subjective or, to put it to Einstein, relative. The entire structure of space-time is a simple mathematical abstraction and not a physical reality. What really exists is only matter where the link cause and effect of events is preserved by its continuous and a temporal nature. Experiments "entanglement" performed by Alain Aspect in the 80’ accredit strongly this hypothesis. </span><span style="font-family:times new roman;font-size:130%;"><span style="font-size:100%;">In this frame speed is nothing else that variation of matter state function in a normal euclideus material and a temporal space.</span><br /></span><span style="font-family:times new roman;font-size:130%;"><span lang="EN"><br />So what really happened between CERN and Gran Sasso? Neutrinos could have only traveled a short cut, that is a circular segment behind the arc of the curve by the theoretic photon path. </span>Let’s consider the chord 730 Km long, behind the arc of the circular segment which separates CERN and Gran Sasso</span><span style="font-family:times new roman;font-size:130%;"> laboratories</span><span style="font-family:times new roman;font-size:130%;">. Since approximately R = 6,378 km radius of the Earth, with simple trigonometric considerations the central angle theta in radians is 0.114. The advance (presumed) of neutrinos with respect to the photons is approximately delta t = 60 ns = 60 10 ^ -9 sec, which results in a "light" photo finish of delta s = 300,000,000 m / sec x delta t = 18 meters. Admitting that neutrinos can catch but not exceed light speed, 18 meters would be the shortening of the chord. The angle of relativistic gravitational deflection of light, in radians, <a href="http://www.theory.caltech.edu/people/patricia/lclens.html">can be assumed</a> :</span><span style="font-family: times new roman;font-family:verdana;font-size:130%;" lang="EN" > phi = 4*(GM/c^2)/R = 4*6.67e-11*5.97e24 /(6.37e6 * 9.00e16) = 2.78e-9 rad. To obtain the deviation in meters on arrival point just propagate this deflection linearly on the distance of 732 km, obtaining: 2e-9 * 1E6 = 2e-3 m = 2 mm approximately.</span><span style="font-family:times new roman;font-size:130%;"> </span><span style="font-family: times new roman;font-family:verdana;font-size:130%;" lang="EN" >Propagating the deflection along 18 meters only, the scart from natural geodesic would be approximately 5 e-5 mm. It would, then, to test the hypothesis of trajectories between two points in a curved spacetime shorter then a geodesic, exploiting the high penetration of neutrinos in matter. To do this' the banker doesen't shoot them with "get up zero", but with a negative slope properly calculated. "On paper" the negative slope that neutrinos beam must have to walk the chord of circular segment, should be about 3.26 degrees (half the angle at the center), with respect to the plane tangent to the earthly bending. This means that, if we would have an "ideal" tunnel under earthly surface, its pendence would be approximately 5,7 % respect on the plane tangent to eartly bending at the access. If neutrino "pulled right", the trajectory is just the rope that, for those who would "dig" it, would be a saddle (we would have a "down" and a "lift" to emerge on the surface, as we should reckon with gravity), but from purely geometrical (and Euclidean) point of view the path would be just a line segment with a scart of a couple of millemeters from "natural" geodesic ; in every way neutrinos would do something that is not predicted by theory. also without exceeding light speed.</span><span style="font-family: times new roman;font-family:times new roman;font-size:130%;" ><span lang="EN">This also means that for very long accelerating you can think of digging a tunnel that "cuts" the road traveled by the e.m. radiation. In practice to cross an euclidean "phisical" three-dimensional space under light geodetic trajectories impressed by gravity - that wouldn't be the smallest distance lines between points no more and, perhaps, reach for the stars</span></span><span style="font-family:times new roman;font-size:130%;"> </span><span style="font-family: times new roman;font-family:times new roman;font-size:130%;" ><span lang="EN">more rapidly than you could think up to now</span> .</span><br /><span style="font-size:130%;"><br /></span><a href="http://www.borborigmi.org/wordpress/wp-content/uploads/2011/09/cngs2-500x276.jpg"><img style="FLOAT: left; MARGIN: 0pt 10px 10px 0pt; WIDTH: 413px; CURSOR: pointer; HEIGHT: 224px" alt="" src="http://www.borborigmi.org/wordpress/wp-content/uploads/2011/09/cngs2-500x276.jpg" border="0" /></a><br /><span style="font-size:130%;"><br /><span style="font-family:times new roman;">Stefano Gusman</span></span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com0tag:blogger.com,1999:blog-6423338787090762061.post-81465600768173248822011-09-18T02:57:00.000-07:002011-09-22T21:55:29.137-07:00"Zitto e calcola !"<span style="font-size:130%;">L'interpretazione di Copenhagen<span style="TEXT-DECORATION: underline"></span> della Meccanica Quantistica si ispira fondamentalmente ai lavori svolti da Niels Bohr e da Werner Karl Heisemberg<span style="TEXT-DECORATION: underline"></span> attorno al 1927 all'epoca della loro collaborazione a Copenaghen.</span> <span style="font-size:130%;">Nel classico esperimento in cui la luce attraversa uno schermo sul quale sia praticata una doppia fenditura si ottengono, su una lastra posta di fronte allo schermo bande alterne di colore chiaro e scuro, che possono essere interpretate come le zone in cui le onde luminose interferiscono costruttivamente oppure distruttivamente. Riducendo l'intensità del fascio di luce, in modo tale da avere un solo fotone alla volta, nonostante i fotoni colpiscano uno a uno lo schermo, nel complesso si riottiene la figura d'interferenza tipica delle onde.</span><br /><span style="font-size:130%;">Le questioni poste da questo esperimento sono :</span><br /><span style="font-size:130%;">1) La meccanica quantistica stabilisce soltanto in modo probabilistico il punto in cui ogni particella colpirà lo schermo e identifica le zone chiare e le zone scure come quelle per cui la probabilità di essere colpite da una particella è, rispettivamente, alta oppure bassa; non è in grado di prevedere in modo esatto dove un determinato corpuscolo andrà a colpire.</span><span style="font-size:130%;"><br />2) Cosa succede alle particelle nel percorso che dalla sorgente le porta allo schermo? Ogni particella è descritta da una funzione d'onda non localizzata: sembrerebbe che essa interagisca con entrambe le fenditure, ma se la si considera come puntiforme non può che attraversarne una sola.</span><span style="font-size:130%;">Nella logica classica il <b>principio di non-contraddizione</b> afferma la falsità di ogni proposizione implicante che una certa proposizione A e la sua negazione, cioè la proposizione non-A, siano entrambe vere allo stesso tempo e nello stesso modo. Secondo le parole di Aristotele : "E impossibile che il medesimo attributo nel medesimo tempo appartenga e non appartenga al medesimo oggetto e sotto il medesimo riguardo"</span><span style="font-size:0;"><span style="font-size:100%;">.</span><br /></span><span style="font-size:130%;"><b>Ebbene, la doppia natura corpuscolare - ondulatoria di particelle elementari quali il fotone (e l’elettrone che si comporta in maniera analoga), suggerita dalle evidenze sperimentali, è in contrasto con il suddetto principio.</b></span><br /><span style="font-size:130%;">Molti fisici hanno sottoscritto <b>l'«interpretazione di ordine zero»</b> della meccanica quantistica, riassunta nel famoso detto: <b>«Zitto e calcola!», </b>solitamente (ma forse incorrettamente) attribuito a Feynman. </span><br /><span style="font-size:130%;"></span><br /><span style="font-size:130%;">L'interpretazione di Copenaghen si pone di fronte a tali questioni nel modo seguente:</span><br /><span style="font-size:130%;"></span><span style="font-size:130%;"></span><br /><span style="font-size:130%;">1. Le affermazioni probabilistiche della meccanica quantistica sono irriducibili, nel senso che non riflettono la nostra conoscenza limitata di qualche variabile nascosta. Nella fisica classica, si ricorre alla probabilità anche se il processo è deterministico (per esempio il lancio di un dado), in modo da sopperire a una nostra conoscenza incompleta dei dati iniziali Per contro, l'interpretazione di Copenaghen sostiene che in meccanica quantistica i risultati delle misurazioni di variabili coniugate sono fondamentalmente non deterministici, ossia che anche conoscendo tutti i dati iniziali è impossibile prevedere il risultato di un singolo esperimento, poiché l'esperimento stesso influenza il risultato.</span><br /><span style="font-size:130%;"></span><br /><span style="font-size:130%;">2. Sono prive di senso domande come: «Dov'era la particella prima che ne misurassi la posizione?», in quanto la meccanica quantistica studia esclusivamente quantità osservabili, ottenibili mediante processi di misurazione. L'atto della misurazione causa il «collasso della funzione d'onda», nel senso che quest'ultima è costretta dal processo di misurazione ad assumere i valori di uno a caso dei possibili stati permessi</span><br /><span style="font-size:130%;">Molti fisici e filosofi hanno mosso obiezioni all'interpretazione di Copenaghen e le celebri frasi di Albert Einstein: «<i>Dio non gioca a dadi con l’Universo</i>» e «<i>credi davvero che la Luna non sia lì se non la guardi</i>?»<span style="font-size:0;"> </span>ne sono una esemplificazione.</span><br /><span style="font-size:130%;">La completezza della meccanica quantistica è stata attaccata dall'esperimento mentale Einstein - Podolsky - Rosen, inteso a mostrare che devono esistere alcune variabili nascoste, se si vogliono evitare effetti a distanza istantanei e non locali.</span><br /><br /><span style="font-size:130%;">Negli spettri di assorbimento atomici si osservano sdoppiamenti delle righe spettrali che, in "singoletti", si dispongono simmetricamente rispetto alla riga centrale. Nel modello atomico di Bohr la condizione per cui un elettrone muovendosi attorno al nucleo atomico lungo la sua orbita non emetta energia è che il valore del momento angolare sia un multiplo intero della grandezza h/2π (quantizzazione del momento angolare). In pratica un atomo puo’ passare dallo stato fondamentale a uno stato “eccitato” solo assorbendo una determinata quantità di energia tale da portare un elettrone periferico a percorrere un’orbita esterna piu’ ampia il cui raggio r, detta m la massa dell’elettrone e v la sua velocità tangenziale, sia tale che mvr = nh/2π, con n numero intero. A sua<span style="font-size:0;"> </span>volta, diseccitandosi, l’atomo restituirà la stessa quantita’ di energia precedentemente assorbita e, cioe’ E = nhv. Di qui i caratteristici spettri atomici di assorbimento e/o di emissione a righe. A ciascuna riga corrisponde una determinata frequenza v e, quindi, un certo quanto di energia hv.</span><br /><span style="font-size:130%;">I “quanti” potevano essere assorbiti o emessi solo in pacchetti definiti dalla quantità nhv dove, appunto, n doveva essere un numero intero che fu definito numero quantico principale. </span><span style="font-size:130%;">Grazie all’uso di strumenti ottici ad alto potere risolutivo si noto’ successivamente, che in realtà le suddette righe erano, a loro volta, costituite da righe “discrete” il che suggeri’ che gli elettroni oltre che orbite circolari come quelle previste da Bohr, potessero seguire anche orbite ellittiche in numero pari a e, detto numero quantico secondario.</span> <span style="font-size:130%;">Osservazioni di ulteriori sdoppiamenti delle righe spettrale in “singoletti” che, in numero dispari, si disponevano attorno alla riga centrale, suggerirono che, considerando l'orbita ellittica di un elettrone attorno al nucleo alla stregua di una spira piana percorsa da una carica elettrica, questo effetto poteva essere attribuito alla variazione di inclinazione della spira, come si osservava a seguito dell'interazione con un campo magnetico esterno e, quindi, il terzo numero quantico fu definito numero quantico magnetico. Infine, sempre a causa di altri sdoppiamenti osservati fu introdotto il numero quantico di “spin” che definiva il verso di rotazione di ciascun elettrone attorno proprio asse e, quindi,<span style="font-size:0;"> </span>il relativo momento magnetico angolare (o di spin) +1/2 e -1/2, secondo la “regola del cavatappi”, anch'esso influenzabile da un campo magnetico esterno.</span><br /><br /><span style="font-size:130%;"><b>Nelle configurazioni stabili gli spin degli elettroni di uno stesso orbitale devono essere uguali e opposti per il principio di esclusione di Pauli.</b></span><br /><br /><span style="font-size:130%;">Il <b>paradosso di Einstein-Podolsky-Rosen</b> (<b>paradosso EPR</b>) è un esperimento mentale che dimostra come una misura eseguita su una parte di un sistema quantistico possa propagare <i>istantaneamente</i> un effetto sul risultato di un'altra misura, eseguita successivamente su un’altra parte dello stesso sistema, indipendentemente dalla distanza che separa le due parti</span><br /><span style="font-size:130%;">Questo effetto, noto come <b>entanglement quantistico</b> e derivante dalla interpretazione di Copenhagen della meccanica quantistica, venne considerato paradossale in quanto, oltre che controintuitivo, ritenuto incompatibile con un postulato della relatività ristretta (che considera la velocità della luce la velocità limite alla quale può viaggiare un qualunque tipo d'informazione) e, più in generale, con il principio di località.</span><br /><span style="font-size:130%;">Si deve a David Bohm, nel 1951, una riformulazione del paradosso in termini più facilmente verificabili sperimentalmente</span><br /><span style="font-size:130%;">Il paradosso EPR descrive un effetto fisico che, come accennato, ha aspetti paradossali nel senso seguente: se in un sistema quantistico ipotizziamo alcune deboli e generali condizioni come realismo, località e completezza, ritenute ragionevolmente vere per qualunque teoria che descriva la realtà fisica senza contraddire la relatività, giungiamo ad una contraddizione. Tuttavia è da notare che "<i>di per sé</i>" la meccanica quantistica non è intrinsecamente contraddittoria, né risulta in contrasto con la relatività</span><br /><span style="font-size:130%;">Benché proposto originariamente per mettere in luce l'incompletezza della meccanica quantistica, ulteriori sviluppi teorici e sperimentali seguiti all'articolo originale (come il teorema di Bell e l'esperimento sulla correlazione quantistica di Aspect) hanno portato una gran parte dei fisici a considerare il paradosso EPR solo un illustre esempio di come la meccanica quantistica contrasti in modo stridente con le esperienze quotidiane del mondo macroscopico (per quanto la questione non sia assolutamente chiusa)</span> .<br /><span style="font-size:130%;">Considereremo la versione semplificata dell'esperimento ideale di EPR formulata da David Bohm.</span><br /><span style="font-size:130%;">Si supponga di avere una sorgente che emette coppie di elettroni, uno dei quali viene inviato alla destinazione <i>A</i>, dove c'è un'osservatrice di nome <a href="http://it.wikipedia.org/wiki/Paradosso_Einstein-Podolsky-Rosen"><span style="color:green;">Alice</span></a>, e l'altro viene inviato alla destinazione <i>B</i>, dove c'è un osservatore di nome Bob. Secondo la meccanica quantistica, possiamo sistemare la sorgente in modo che ciascuna coppia di elettroni emessi occupi uno stato quantistico detto singoletto di spin. Questo si può descrivere come sovrapposizione quantistica di due stati, indicati con I e II. Nello stato I, l'elettrone <i>A</i> ha spin parallelo all'asse <i>z</i> (<i>+z</i>) e l'elettrone <i>B</i> ha spin antiparallelo all'asse <i>z</i> (<i>-z</i>). Nello stato II, l'elettrone <i>A</i> ha spin <i>-z</i> e l'elettrone <i>B</i> ha spin <i>+z</i>. È quindi impossibile associare ad uno dei due elettroni nel singoletto di spin uno stato di spin definito: gli elettroni sono quindi detti <i>entangled</i>, cioè intrecciati.</span><br /><p class="MsoNormal"><a href="http://upload.wikimedia.org/wikipedia/it/a/a3/Paradosso_EPR.jpg"><img style="FLOAT: left; MARGIN: 0pt 10px 10px 0pt; WIDTH: 390px; CURSOR: pointer; HEIGHT: 123px" alt="" src="http://upload.wikimedia.org/wikipedia/it/a/a3/Paradosso_EPR.jpg" border="0" /></a></p><br /><br /><br /><br /><br /><br /><br /><span style="font-size:100%;">Riproposizione dell'esperimento suggerito da Einstein, Podolsky e Rosen, eseguito con elettroni.Una sorgente invia elettroni verso due osservatori, Alice (a sinistra) e Bob (a destra), i quali sono in grado di eseguire misure della proiezione dello spin degli elettroni lungo un asse.</span><br /><br /><span style="font-size:130%;">Alice misura lo spin lungo l'asse ottenendo uno dei due possibili risultati: <i>+z</i> o <i>-z</i>. Supponiamo che ottenga <i>+z</i>; secondo la meccanica quantistica la funzione d'onda che descrive lo stato di singoletto dei due elettroni collassa nello stato I (le diverse interpretazioni della meccanica quantistica dicono questo in diversi modi, ma il risultato alla fine è lo stesso) e tale stato quantistico determina le probabilità dei risultati di qualunque altra misura fatta sul sistema. In questo caso, se Bob successivamente misurasse lo spin lungo l'asse <i>z</i>, otterrebbe <i>-z</i> con una probabilità del 100%. Analogamente, se Alice misurasse <i>-z</i>, Bob otterrebbe <i>+z</i>, sempre con una probabilità del 100%</span> . <span style="font-size:130%;">In meccanica quantistica, la proiezione dello spin lungo <i>x</i> e quella lungo <i>z</i> sono quantità osservabili tra loro incompatibili, per cui gli operatori associati non commutano, cioè uno stato quantistico non può possedere valori definiti per entrambe le variabili (principio di indeterminazione). Supponiamo che Alice misuri lo spin lungo <i>z</i> e ottenga <i>+z</i>, in modo che il sistema collassi nello stato I. Ora, invece di misurare lo spin lungo <i>z</i>, Bob misura lo spin lungo <i>x</i> : secondo la meccanica quantistica, c'è il 50% di probabilità che egli ottenga <i>+x</i> e il 50% di probabilità che ottenga <i>-x</i>. Inoltre, è impossibile predire quale sarà il risultato fino a quando Bob non esegue la misura. </span><span style="font-size:130%;">È bene sottolineare che, benché si sia usato lo spin come esempio, si possono considerare molte altre quantità fisiche (osservabili), tra loro entangled. L'articolo originale di EPR, per esempio, usava l'impulso come quantità osservabile. Gli esperimenti odierni usano spesso la polarizzazione dei fotoni, perché più facile da preparare e quindi misurare</span>.<br /><p class="MsoNormal"><span style="font-size:130%;">Supponiamo che Alice decida di misurare lo spin lungo <i>z</i> (lo chiameremo <i>z</i>-spin<i>). Dopo che Alice esegue la misura, lo</i> z<i>-spin dell'elettrone di Bob è noto, quindi è un elemento fisico di realtà.</i> Analogamente, se Alice decidesse di misurare lo spin lungo <i>x</i>, l'<i>x</i>-spin di Bob sarebbe un elemento fisico di realtà dopo la sua misura</span><br /><span style="font-size:130%;">Uno stato quantistico non può possedere contemporaneamente un valore definito per lo <i>x</i>-spin e lo <i>z</i>-spin . Se la meccanica quantistica è una teoria fisica completa nel senso dato sopra, l'<i>x</i>-spin e lo <i>z</i>-spin non possono essere elementi fisici di realtà allo stesso tempo. Questo significa che la decisione di Alice di eseguire la misura lungo l'asse <i>x</i> o lungo l'asse <i>z</i> ha un effetto istantaneo sugli elementi fisici di realtà nel luogo in cui si trova Bob ad operare con le sue misure. Tuttavia, questa è una violazione del principio di località o principio di separazione.</span><br /><span style="font-size:130%;">Il principio di località afferma che i processi fisici non possono avere effetto immediato su elementi fisici di realtà in un altro luogo separato da quello in cui avvengono. A prima vista questa appare un'assunzione ragionevole (infatti a livello macroscopico lo è), in quanto conseguenza della relatività speciale, la quale afferma che le informazioni non si possono mai trasmettere a una velocità maggiore di quella della luce senza violare la causalità. Generalmente si crede che ogni teoria che violi la causalità sia anche internamente inconsistente, e quindi del tutto insoddisfacente</span><br /><span style="font-size:130%;">Tuttavia il principio di località si richiama fortemente all'intuizione fisica di livello macroscopico, e Einstein, Podolsky e Rosen non volevano abbandonarlo. Einstein derise le predizioni della meccanica quantistica come "spaventosa azione a distanza". La conclusione che trassero fu che la meccanica quantistica non è una teoria completa.</span><br /><span style="font-size:130%;">Esistono parecchi possibili modi per risolvere il paradosso. Quello ipotizzato da EPR è che la meccanica quantistica, nonostante il successo in una ampia e vasta varietà di scenari sperimentali, sia in realtà una teoria incompleta. In altre parole esisterebbe qualche teoria della natura ancora non scoperta, rispetto alla quale la meccanica quantistica gioca il ruolo di approssimazione statistica. Questa teoria più completa conterrebbe variabili che tengono conto di tutti gli "elementi fisici di realtà" e che danno origine agli effetti che la meccanica quantistica è in grado di predire solo a livello probabilistico. Una teoria con tali caratteristiche prende il nome di teoria delle variabili nascoste.</span><br /><span style="font-size:130%;">Per illustrare questa idea si può formulare una teoria delle variabili nascoste molto semplice, che spieghi i risultati dell'esperimento descritto sopra.<br />Si supponga che gli stati quantistici di spin di singoletto emessi dalla sorgente siano in realtà descrizioni approssimate dei "veri" stati fisici che possiedono valori definiti per lo <i>z</i>-spin e per l' <i>x</i>-spin. In questi stati "veri", l'elettrone che va verso Bob ha sempre valori di spin opposti rispetto all'elettrone che va verso Alice, ma tali valori sono completamente random (casuali). Per esempio, la prima coppia emessa dalla sorgente può essere "<i>(+z, -x)</i> verso Alice e <i>(-z, +x)</i> verso Bob", la coppia successiva "<i>(-z, -x)</i> verso Alice e <i>(+z, +x)</i> verso Bob" e così via. Per ciò, se l'asse della misura di Bob è allineato con quello di Alice, egli otterrà necessariamente l'opposto di qualunque cosa ottenga Alice; altrimenti egli otterrà "<i>+</i>" e "<i>-</i>" con eguale probabilità.<br />Ipotizzando di restringere le misure solo all'asse <i>z</i> e all'asse <i>x</i>, tale teoria delle variabili nascoste è sperimentalmente indistinguibile dalla teoria della meccanica quantistica.</span><br /><span style="font-size:130%;">In realtà c'è ovviamente un numero infinito (numerabile) di assi lungo i quali Alice e Bob possono eseguire le rispettive misure; questo significa che, in teoria, si potrebbe considerare un numero infinito di variabili nascoste indipendenti. Tuttavia, si deve tener presente che questa è una formulazione molto semplicistica di una teoria delle variabili nascoste e una teoria più sofisticata sarebbe in grado di risolvere il problema a livello matematico.</span><br /><span style="font-size:130%;"><b>Ci sarebbe un’altra obiezione da fare : una volta emessi e, quindi, svincolati dalla struttura atomica di cui facevano parte, gli elettroni del singoletto sono ancora vincolati ad obbedire al principio di esclusione ?</b></span><span style="font-size:130%;">La risposta è affermativa in quanto la funzione d'onda che descrive lo stato quantistico del singoletto è unica ed è stazionaria, cioe' non dipende dal tempo, ma solo dallo spazio e "collassa" istantaneamente in una soluzione nel momento in cui Alice o Bob effettuano la misurazione, indipendentemente dal luogo in cui si trova ciascuno dei due elettroni costituenti il singoletto "entangled" dell'atomo da cui i due elettroni sono stati "strappati". Dopo che Alice effettua la sua misurazione e Bob ricava la misurazione correlata ciascun elettrone diventa indipendente dall'altro con una nuova funzione d'onda associata. </span><span style="font-size:130%;">Nel 1964, John Bell ha mostrato come le predizioni della meccanica quantistica nell'esperimento pensato da EPR siano in realtà leggermente differenti dalle predizioni di una classe molto vasta di teorie delle variabili nascoste. Grosso modo, la meccanica quantistica predice correlazioni statistiche molto più forti tra i risultati di misure eseguite su differenti assi di quanto non facciano le teorie delle variabili nascoste. Queste differenze, espresse adoperando relazioni di disuguaglianza note come disuguaglianze di Bell, sono dal punto di vista di principio individuabili sperimentalmente.</span><br /><span style="font-size:130%;">In seguito alla pubblicazione dell'articolo di Bell, cominciarono ad essere approntati tutta una serie di esperimenti per saggiare le disuguaglianze di Bell (come detto sopra, questi esperimenti in generale trattano con misure di polarizzazione di fotoni). Tutti gli esperimenti condotti finora hanno indicato un comportamento in linea con le predizioni della meccanica quantistica standard.</span><br /><span style="font-size:130%;">Attualmente la maggior parte dei fisici ritiene che la meccanica quantistica sia corretta e che il paradosso EPR sia appunto solo un "paradosso" per il fatto che le intuizioni classiche (di livello macroscopico) non corrispondano alla realtà. Si possono trarre da ciò parecchie diverse conclusioni, che dipendono da quale interpretazione della meccanica quantistica si usi. Nella vecchia interpretazione di Copenhagen, prodotta da Niels Bohr, Werner Karl Heisenberg, Pascual Jordan e Max Born, si conclude che il principio di località (o di separazione) non debba valere e che avvenga effettivamente il collasso della funzione d'onda istantaneo. Nell'interpretazione a molti-universi, di Hugh Everett III, la località è mantenuta e gli effetti delle misure sorgono dal suddividersi e ramificarsi delle "storie" o <i>linee d'universo</i> degli osservatori</span><br /><span style="font-size:130%;">Forse quello del <i>“zitto e calcola”</i> è l’unico approccio possibile alla comprensione della MQ, se non altro per cercare di verificare la tenuta dei modelli teorici alla mole di dati che ci si aspetta, ad es, dai risultati di esperimenti quali quelli in corso di svolgimento al CERN (LHC). C’è il rischio, pero’, <span style="font-size:0;"></span>che questa navigazione “a vista” conduca erroneamente a identificare modelli matematici e realtà fisiche aumentando, cosi’, lo “spread” tra forma e sostanza che, a mio parere, costituisce l’anello debole di quella catena logica che dovrebbe guidare il percorso della Conoscenza.</span><br /><span style="font-size:130%;"></span></p><span style="font-size:130%;">Stefano Gusman</span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com6tag:blogger.com,1999:blog-6423338787090762061.post-26069125366001852102011-09-18T02:48:00.000-07:002011-09-22T00:05:58.476-07:00"Shut up and calculate !"<span style="font-size:130%;">The <b>Copenhagen interpretation</b> of quantum mechanics is fundamentally inspired by the work done by Niels Bohr and Werner Karl Heisenberg around 1927, when they were together in Copenhagen. </span><span style="font-size:130%;">In the classic experiment in which light passes through a screen on which is carried out a double slit are obtained, on a plate placed in front of the screen, alternating bands of light and dark color, which can be interpreted as areas where light waves interfere constructively or destructively. By reducing the intensity of the beam, so as to have only one photon at a time, in spite of the photons hit the screen one by one, on the whole it regains the interference. pattern is typical of the waves. </span><span style="font-size:130%;">The questions posed by this experiment are :</span><br /><span style="font-size:130%;">1)</span> <span style="font-size:130%;">quantum mechanics provides only a statistical point where each particle hit the screen and identifies lighter and dark areas such as those for which the probability of being hit by a particle, respectively, high or low ; can not to predict exactly where a given particle will hit; </span><br /><span style="font-size:130%;">2) w</span><span style="font-size:130%;">hat happens to the particles in the path that leads from the source to the screen? Each particle is described by a wave function not localized: it appears that it interacts with both slits, but if it is viewed as a point it can cross one only.</span><br /><br /><span style="font-size:130%;">In classical logic the <b>principle of not contradiction</b> asserts the falsity of every proposition which implies that a certain proposition A and its negation, the proposition that not-A are both true at the same time and in the same way. In the words of Aristotle: <i>"It is impossible that the same attribute at the same time belong and not belong to the same subject and under the same respect"</i><br />More simply, the proposition "A is also not-A" is false.</span> <span style="font-size:130%;"><b>Well, the dual nature of particle - wave of elementary particles like the photon (and the electron that has analogous behaviour), suggested by experimental evidence, is contrary to this principle.</b></span> <span style="font-size:130%;">Many physicists have signed the <b>"zero-order interpretation"</b> of quantum mechanics, summarized in the famous saying: <b><i>"Shut up and calculate!", </i></b>usually (but perhaps incorrectly) attributed to Feynman. </span><span style="font-size:130%;">The Copenhagen interpretation confronts these issues as follows:</span><br /><span style="font-size:130%;">a) the probabilistic statements of quantum mechanics are irreducible, meaning they do not reflect our limited knowledge of some hidden variable. In classical physics, the probability is used even if the process is deterministic (for example, the roll of a dice), so as to overcome our incomplete knowledge of the initial data. On the other hand, the Copenhagen interpretation of quantum mechanics argues that the results of measurements of conjugate variables are basically non-deterministic, that is even knowing all the initial data it is impossible to predict the outcome of a single experiment, because the experiment itself affects the result ;</span><br /><span style="font-size:130%;">b) they are meaningless questions like <i>"Where was the first particle that I have had neasured its <span style="font-size:0;"></span>position?"</i>, as quantum mechanics studies only observable quantities, obtained by measurement processes. The act of measurement causes the "collapse of the wave function" in the sense that it is constrained by the measurement process to take on the values of one case of possible states allowed.</span><br /><span style="font-size:130%;">Many physicists and philosophers have objected to the Copenhagen and the famous words of Albert Einstein: <i>"God does not play dice with the Universe"</i> and <i>"do you really think the moon is not there unless you look?" </i></span><span style="font-size:130%;"></span><span style="font-size:130%;">are examples of this.<br />The completeness of quantum mechanics has been attacked by the experiment of mind of Einstein-Podolsky-Rosen, intended to show that there must be some hidden variables, if you want to avoid instantaneous effects at a distance and not local. </span><span style="font-size:130%;">In the atomic absorption spectra are observed splitting of spectral lines that, "singletons", are arranged symmetrically with respect to the middle line. In Bohr's atomic model the condition for an electron moving around the atomic nucleus along its orbit does not emit energy is that that value of angular momentum is an integer multiple of the size h/2π (quantization of angular momentum). In practice, an atom can move from the ground state to an "excited" state only absorbing a certain amount of energy that it brings along an electron to orbit in outer periphery more wide, with a radius r, called m the electron mass, and v its tangential speed, is such that nh/2π = mvr, where n is integer. In turn, de-energizing, the atom will return the same amount of energy previously absorbed, that is</span><span style="font-size:130%;"> </span><span style="font-size:130%;">E = nhv. Hence the characteristic atomic spectra of absorption and/or emission lines. Each line corresponds with a certain frequency v and, therefore, a certain quantum of energy hv.<br />The "quantums" can be absorbed or emitted only in packages defined by the amount nhv where, precisely, n must be an integer which was defined as the principal quantum number.<br />Through the use of optical instruments with high resolving power is known then, that in fact these lines were, in turn, consist of discrete lines which suggested that the electrons as well as circular orbits such as those provided by Bohr , could also follow elliptical orbits in numbers equal t e so called</span><span style="font-size:130%;"> </span><span style="font-size:130%;">secondary quantum number.<br />Further doubling of the observed spectral lines in "singletons" that, in odd numbers, were arranged around the central line, suggested that considering the elliptical orbit of an electron around the nucleus of a loop like the plane flown by an electrical charge, this effect could be attributed to the difference in the inclination of the loop, as was observed following interaction with an external magnetic field and, therefore, the third quantum number was called magnetic quantum number. Finally, again because of other observed splitting, was introduced the quantum number of "spin" that defined the direction of rotation of each electron around its axis and, hence, its angular magnetic moment (or spin) +1/2 ; - 1/ 2, according to the "rule of the corkscrew," also influenced by an external magnetic field.</span><span style="font-size:130%;"><b>In the stable configurations the spins electrons on the same orbital must be equal and opposite to the Pauli exclusion principle.</b> The paradox of Einstein-Podolsky-Rosen (<b>EPR paradox</b>) is a thought experiment that shows how a measurement of a part of a quantum system can propagate an instant effect on the outcome of another measurement, performed later on another part of the same system, regardless of the distance that separates the two sides.<br />This effect, known as <b>quantum entanglement</b> and resulting from the Copenhagen interpretation of quantum mechanics, was considered a paradox in that, not only counter intuitive but also deemed inconsistent with a postulate of special relativity (which considers that the speed of light limits the speed at which one can travel any type of information) and, more generally, with the principle of locality.<br />It is due to David Bohm, in 1951, a reformulation of the paradox in terms more easily verifiable experimentally.<br />The EPR paradox describes a physical effect that, as mentioned, is paradoxical in the following sense: if in a quantum system we assume some weak and general conditions, such as realism, locality and completeness, which are considered reasonably true for any theory that describes physical reality without contradict relativity, we arrive at a contradiction. However, note that quantum mechanics is not inherently contradictory, or in conflict with relativity.<br />Although originally proposed to highlight the incompleteness of quantum mechanics, additional theoretical and experimental developments followed the original article (like Bell's theorem and quantum correlation experiment of Aspect) led a large part of physicists to consider the EPR paradox only an illustrious example of how quantum mechanics contrasts sharply with the everyday experiences of the macroscopic world (although the issue is not completely closed). </span><span style="font-size:130%;">Consider the simplified version of the ideal EPR experiment formulated by David Bohm.<br /><br />Suppose you have a source that emits pairs of electrons, one of which is sent to destination A, where there is an observer named Alice, and the other is sent to destination B, where there is an observer named Bob. According to quantum mechanics, we can adjust the source so that each pair of emitted electrons occupy a quantum state called a singlet spin. This can be described as a quantum superposition of two states, denoted by I and II. In the I state, the electron has spin parallel to the z-axis (+ z) and electron B has spin antiparallel to the z axis (-z). In the II state, electron A has spin-z and electron B has spin + z. It is therefore impossible to associate one of the two electrons in the spin singlet to defined spin state : the electrons are entangled so called, that is twisted.<br /><br /><a href="http://upload.wikimedia.org/wikipedia/it/thumb/a/a3/Paradosso_EPR.jpg/800px-Paradosso_EPR.jpg"><img style="FLOAT: left; MARGIN: 0pt 10px 10px 0pt; WIDTH: 406px; CURSOR: pointer; HEIGHT: 113px" alt="" src="http://upload.wikimedia.org/wikipedia/it/thumb/a/a3/Paradosso_EPR.jpg/800px-Paradosso_EPR.jpg" border="0" /></a></span><span style="font-size:100%;">Returning the experiment suggested by Einstein, Podolsky and Rosen, performed with electrons. A source sends electrons toward two observers, Alice (left) and Bob (right), which are capable of measuring the projection of the spin of electrons along an axis.</span><br /><br /><span style="font-size:130%;">Alice measures the spin along the axis of getting one of two possible results: + z-z. Suppose that obtains + z ; according to quantum mechanics the wave function that describes the singlet state of two electrons collapses in the state I (the different interpretations of quantum mechanics say this in different ways, but at the end result is the same) and the quantum state determines the probability of any other measure of results done on the system. In this case, if Bob subsequently measures the spin along the z axis, would -z with a probability of 100%. Similarly, if Alice would -z, Bob would+ z</span><span style="font-size:130%;"> </span><span style="font-size:130%;"></span><span style="font-size:130%;">with a probability of 100%.<br />In quantum mechanics, the projection of the spin along the x and z are along observable quantities that are incompatible, for which the associated operators do not commute, that is that a quantum state can not have definite values for both variables (uncertainty principle). Suppose Alice measures the spin along z and obtains + z, so that the system collapses in the state I. Now, instead of measuring the spin along z, Bob measures the spin along x: according to quantum mechanics, there is a 50% chance that he gets + x and a 50% probability of obtaining x-. In addition, it is impossible to predict what the outcome will be as long as Bob does not fit.<br />It should be noted that although the spin is used as an example, we can consider many other physical quantities (observables), entangled with each other. The original paper of EPR, for example, used as the impulse observable quantities. Experiments today often use the polarization of the photons, because more easy to prepare and then measure.<br />Suppose that Alice decides to measure the spin along z (we will call z-spin). After Alice performs the measurement, the z-spin of the electron is known to Bob, so it's a physical element of reality. Similarly, if Alice decides to measure spin along x, the x-spin of Bob would be a physical element of reality after his measure.<br />A quantum state can not simultaneously have a definite value for the x-spin and z- spin. If quantum mechanics is a complete physical theory in the sense given above, the x-spin and the z-spin can not be physical elements of reality at the same time. This means that the decision of Alice to a measurement along the x or z-axis has an instant effect on the physical elements of reality in the place where Bob is at work with his measures. However, this is a violation of the principle of locality or the principle of separation.<br />The principle of locality states that physical processes may have no immediate effect on the physical elements of reality to another location separate from that in which they occur. At first sight this assumption seems reasonable (in fact, at the macro level it is), as a consequence of special relativity, which states that information can never be transmitted at a rate faster than light without violating causality. Generally believed that any theory which violates causality is also internally inconsistent, and therefore completely unsatisfactory.<br />However, the principle of locality is strongly recalls macroscopic physical intuition, and Einstein, Podolsky and Rosen did not want to leave. Einstein derided the predictions of quantum mechanics as "horrific action at a distance." The conclusion that they drew was that quantum mechanics is not a complete theory.<br />There are several possible ways to resolve the paradox. The one suggested by EPR is that quantum mechanics, despite the success in a broad variety of experimental scenarios, is actually an incomplete theory. In other words, there is some theory of nature not yet discovered, with respect to which quantum mechanics plays the role of statistical approximation. This more complete theory contains variables that take into account all the "elements of physical reality" and that give rise to the fact that quantum mechanics can predict only probability level. A theory with such characteristics is called the <b>theory of hidden variables</b>.<br />To illustrate this idea may make a very simple theory of hidden variables that explain the results of the experiment described above.<br />Suppose that the quantum states of spin singlet emitted from the source are actually approximate descriptions of "real" physical states that have defined values for the z-spin and the 'x-spin. In these </span><span style="font-size:130%;"></span><span style="font-size:130%;">"true" states, the electron going to Bob has always the opposite of the electron spin values goini towards Alice, but these values are completely random. For example, the first pair emitted from the source can be "(+ z,-x) to Alice and (-z + x) to Bob" ; the next pair "(-z,-x) to Alice and (+ z , + x) to Bob, "and so on. For this, if the axis of the measurement of Bob is aligned with that of Alice, he will necessarily get the opposite of whatever Alice, otherwise he will "+" and "-" with equal probability.<br />Assuming the measures to restrict only the axis z and the x-axis, the theory of hidden variables is experimentally indistinguishable from the theory of quantum mechanics.<br />In fact there is obviously an infinite number (countable) set of axes along which Alice and Bob can perform the respective measures, which means that, in theory, you might consider an infinite number of independent hidden variables. However, it should be noted that this is a very simplistic formulation of a theory of hidden variables and a more sophisticated theory would be able to solve the problem in mathematics. </span><span class="hps" style="font-size:130%;"><b><span lang="EN">There</span></b></span><span style="font-size:130%;"><b><span lang="EN"> <span class="hps">was</span> <span class="hps">another objection</span> <span class="hps">to do</span>: once emitted, and then <span class="hps">released from</span> <span class="hps">atomic structure</span> <span class="hps">to which they belonged</span>, <span class="hps">the electrons in the</span> <span class="hps">singlet</span> <span class="hps">are still bound</span> <span class="hps">to obey the</span> <span class="hps">exclusion principle</span>?</span></b></span><span style="font-size:130%;"><span class="" lang="en" id="result_box"><span class="hps">The answer</span> <span class="hps">is yes</span> <span class="hps">because the</span> <span class="hps">wave function</span> <span class="hps">describing</span> <span class="hps">the quantum state</span> <span class="hps">of the</span> <span class="hps">singlet</span> <span class="hps">is single and stationary</span><span style="font-size:0;">,</span> <span class="hps">that is that doesn't </span><span class="hps">depend on time,</span> <span class="hps">but only</span> <span class="hps">by the space and</span> <span class="hps atn">"collapses"</span> <span class="hps">in a solution</span> <span class="hps">instantly</span> <span class="hps">when</span> <span class="hps">Alice</span> <span class="hps">or</span> <span class="hps">Bob</span> <span class="hps">perform</span> <span class="hps">the measurement</span> <span class="hps">regardless</span> <span class="hps">of where</span> <span class="hps">you</span> <span class="hps">found</span> <span class="hps">each of the two</span> <span class="hps">electrons</span> <span class="hps">making up the</span> <span class="hps">singlet</span> <span class="hps atn">"</span><span class="">entangled"</span><span class="hps"></span> <span class="hps">of the atom</span> <span class="hps">from which</span> <span class="hps">the two electrons</span> <span class="hps">were</span> <span class="hps atn">"</span><span style="font-size:0;">torn"</span><span style="font-size:0;">.</span> <span class="hps">After</span> <span class="hps">that Alice have done her measure</span> <span class="hps">and Bob</span><span class="hps"></span><span class="hps"></span><span class="hps"></span> <span class="hps">derived </span>his<span class="hps"></span> <span class="hps">correlated measure</span>, <span class="hps"></span><span class="hps">each</span> <span class="hps">electron becomes</span> <span class="hps">independent of the other</span> <span class="hps">associated with</span> <span class="hps">a new</span> <span class="hps">wave function</span><span class="">.</span></span></span><br /><br /><span style="font-size:130%;">In 1964, John Bell showed that the predictions of quantum mechanics thought experiment of EPR are actually slightly different from the predictions of a very large class of theories of hidden variables. Roughly speaking, quantum mechanics predicts much stronger statistical correlations between the results of measurements on different axes than do the theories of hidden variables. These differences, expressed employing unequal relations known as <b>Bell inequalities</b> are in terms of principle experimentally detectable.<br />Following the publication of the artiche, Bell began to be prepared a series of experiments to test the Bell inequalities (as mentioned above, these experiments generally deal with polarization measurements of photons). All experiments conducted so far have shown a behavior in line with the predictions of standard quantum mechanics. </span><span style="font-size:130%;">Currently the majority of physicists believes that quantum mechanics is correct and that the EPR paradox is indeed only a "paradox" because classical intuitions (at the macroscopic level) does not correspond to reality. One can draw several conclusions from this lot, depending on which interpretation of quantum mechanics is used. In the old Copenhagen interpretation, produced by Niels Bohr, Werner Karl Heisenberg, Pascual Jordan and Max Born, it is concluded that the principle of locality (or separation) should not apply and that they do so the collapse of the wave function instantaneously. In the <i>“Many-worlds interpretation”</i> of Hugh Everett III, the locality is maintained and the effects of the measures rise from separating and branching of the "stories" or <i>“world lines”</i> of observers. </span><span style="font-size:130%;">Perhaps <b><i><span style="font-size:0;"></span>"shut up and calculate" </i></b>is the only possible approach to understand QM, if only to try to check the tightness of theoretical models to the amount of data expecting, for example, from results of experiments such those in progress at CERN (LHC). </span><span class="hps" style="font-size:130%;"><span lang="EN">There is a risk</span></span><span lang="EN" style="font-size:130%;">, <span class="hps">however</span> <span class="hpsatn">'</span>, <span class="hps">that this</span> <span class="hps">guidance "on</span> <span class="hps">sight"</span> <span class="hps">leads</span> <span class="hps">erroneously</span> <span class="hps">to identify</span> <span class="hps">mathematical models and</span> <span class="hps">physical realities</span> <span class="hps">increasing</span>, <span class="hps">so</span>', <span class="hps">the "spread</span>" <span class="hps">between form</span> <span class="hps">and substance</span> <span class="hps">which, in my</span> <span class="hps">opinion</span>, <span class="hps">is</span> <span class="hps">the weak link</span> <span class="hps">the</span> <span class="hps">chain of logic</span> <span class="hps">that should guide</span> <span class="hps">the path</span> <span class="hps">of Knowledge.</span></span><br /><br /><span class="hps" style="font-size:130%;"><span lang="EN">Stefano Gusman</span></span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com0tag:blogger.com,1999:blog-6423338787090762061.post-85987347825109057342011-09-14T03:50:00.001-07:002012-02-20T09:03:45.655-08:00Modello Standard e Forze Fondamentali : occhio al rinculo !<span style="font-size:130%;">A partire dagli anni ottanta del XX secolo molti fisici teorici si sono concentrati sulla definizione di una teoria quantistica che conciliasse la meccanica quantistica e la relatività generale e spiegasse in maniera chiara l'esistenza delle quattro famiglie di particelle, dei bosoni intermedi e della gravità.<br />Nel modello standard ci sono tre tipi di bosoni : i </span><a title="Fotone" href="http://it.wikipedia.org/wiki/Fotone"><span style="font-size:130%;">fotoni</span></a><span style="font-size:130%;">, i </span><a title="Gluone" href="http://it.wikipedia.org/wiki/Gluone"><span style="font-size:130%;">gluoni</span></a><span style="font-size:130%;"> e i cosiddetti "bosoni deboli", cioè i </span><a title="Bosoni W e Z" href="http://it.wikipedia.org/wiki/Bosoni_W_e_Z"><span style="font-size:130%;">bosoni W e Z</span></a><span style="font-size:130%;"> (anche detti più precisamente "bosoni vettori intermedi W e Z"). Questi tre tipi di bosoni sono i responsabili rispettivamente della </span><a title="Forza elettromagnetica" href="http://it.wikipedia.org/wiki/Forza_elettromagnetica"><span style="font-size:130%;">forza elettromagnetica</span></a><span style="font-size:130%;">, della </span><a title="Forza nucleare forte" href="http://it.wikipedia.org/wiki/Forza_nucleare_forte"><span style="font-size:130%;">forza nucleare forte</span></a><span style="font-size:130%;"> e della </span><a title="Forza nucleare debole" href="http://it.wikipedia.org/wiki/Forza_nucleare_debole"><span style="font-size:130%;">forza nucleare debole</span></a><span style="font-size:130%;">. I </span><a title="Fotone" href="http://it.wikipedia.org/wiki/Fotone"><span style="font-size:130%;">fotoni</span></a><span style="font-size:130%;"> sono bosoni di Gauge delle interazioni elettromagnetiche (forza elettromagnetica), i </span><a title="Gluone" href="http://it.wikipedia.org/wiki/Gluone"><span style="font-size:130%;">gluoni</span></a><span style="font-size:130%;"> sono i bosoni delle interazioni forti (forza forte), e i </span><a title="Bosoni W e Z" href="http://it.wikipedia.org/wiki/Bosoni_W_e_Z"><span style="font-size:130%;">bosoni W e Z</span></a><span style="font-size:130%;"> sono i bosoni delle interazioni deboli (forza debole). In </span><a title="Fisica delle particelle" href="http://it.wikipedia.org/wiki/Fisica_delle_particelle"><span style="font-size:130%;">fisica delle particelle</span></a><span style="font-size:130%;"> i bosoni di Gauge sono particelle elementari che hanno il compito di trasportare le forze fondamentali della natura.<br />In particolare, le </span><a title="Particella elementare" href="http://it.wikipedia.org/wiki/Particella_elementare"><span style="font-size:130%;">particelle elementari</span></a><span style="font-size:130%;">, le cui interazioni sono descritte dalla </span><a title="Teoria di gauge" href="http://it.wikipedia.org/wiki/Teoria_di_gauge"><span style="font-size:130%;">teoria di Gauge</span></a><span style="font-size:130%;">, esercitano forze su ogni altra particella mediante lo scambio di bosoni di Gauge.<br />La teoria della relatività generale di Albert Einstein descrive il campo gravitazionale in termini geometrici (cioè usando la nozione di curvatura dello spaziotempo). Tuttavia, essa non ci dice nulla riguardo alle particelle mediatrici della forza gravitazionale, i cosiddetti </span><a title="Gravitone" href="http://it.wikipedia.org/wiki/Gravitone"><span style="font-size:130%;">gravitoni</span></a><span style="font-size:130%;">.<br />La gravità quantistica è quel campo della fisica teorica che tenta di unificare la teoria dei campi (meccanica quantistica relativistica), che descrive tre delle </span><a title="Interazioni fondamentali" href="http://it.wikipedia.org/wiki/Interazioni_fondamentali"><span style="font-size:130%;">forze fondamentali</span></a><span style="font-size:130%;"> della natura (elettromagnetica, debole e forte), con la teoria della relatività generale, riguardante la quarta interazione fondamentale, ossia la gravità Ad un livello teorico semplice tutti i bosoni di Gauge devono essere privi di massa e le forze che essi descrivono devono essere a lungo raggio. La contraddizione tra questa teoria e l'evidenza sperimentale riguardante il corto raggio delle interazioni deboli richiedono ulteriori approfondimenti teorici ed al momento attuale una giustificazione di tutto ciò arriva dal meccanismo di Higgs. Questo processo conduce a bosoni di Gauge massivi a partire da particelle inizialmente senza massa.<br />.<br />Lo scopo ultimo di alcune teorie in questo campo (ad esempio la teoria delle stringhe), è anche quello di ottenere una struttura unica per tutte e quattro le forze fondamentali e quindi di realizzare una teoria del tutto.<br /></span><br /><span style="font-size:130%;"><strong>Ma una teoria che faccia scaturire le forze fondamentali dallo scambio tra particelle elementari di bosoni massivi, seppur corretta formalmente dal punto di vista matematico, è di per se incoerente dal punto di vista fisico in quanto viola palesemente il principio di conservazione della quantità di moto che anche a scale quantistiche, è una legge fisica sperimentalmente evidente.</strong><br /></span><br /><span style="font-size:130%;">Ad esempio, la <strong>spettroscopia Mössbauer</strong> è una tecnica spettroscopica basata sull'assorbimento ed emissione risonante di </span><span style="font-size:130%;">raggi gamma</span><span style="font-size:130%;"> nei solidi. Con i raggi gamma, a differenza degli altri fotoni meno energetici, si verifica solitamente un problema: l'atomo che emette il fotone 'rincula' in maniera non trascurabile, assorbendo così una fetta di energia dal fotone stesso il quale, di conseguenza, non ha più la stessa frequenza di prima e non è in grado di effettuare risonanza con un altro atomo analogo. Come prima soluzione a questo problema si era ottenuta la risonanza disponendo la sostanza emettitrice sopra un cilindro ruotante ad alta velocità, così da compensare il suddetto rinculo. Ma successivamente l'assorbimento ed emissione risonante furono osservati per la prima volta da Rudolf Mössbauer nel 1957 su materiali che avevano una struttura cristallina tale da distribuire il rinculo stesso su molti più atomi riducendo così la perdita di energia del fotone gamma: tale fenomeno è stato chiamato appunto <strong><em>effetto Mössbauer</em></strong>.<br /></span><br /><span style="font-size:130%;"><strong>Quanto sopra a ribadire il concetto che, fino a prova contraria, la legge di conservazione della quantità di moto resta valida ed operante anche tra le particelle elementari del Modello Standard.</strong><br /></span><br /><span style="font-size:130%;"><strong></strong></span><span style="font-size:130%;">Struttura del protone : Forza nucleare forte.</span><span style="font-size:130%;"> </span><br /><span style="font-size:130%;">Ogni quark possiede una carica di colore che cambia continuamente trasferendo gluoni ad altri quark. Tale condivisione di gluoni genera un campo attrattivo che si oppone alle forze elettrodinamiche repulsive. </span><span style="font-size:130%;"><strong><br /></strong></span><a href="http://upload.wikimedia.org/wikipedia/commons/thumb/9/92/Quark_structure_proton.svg/525px-Quark_structure_proton.svg.png"><img style="FLOAT: left; MARGIN: 0pt 10px 10px 0pt; WIDTH: 202px; CURSOR: pointer; HEIGHT: 202px" alt="" src="http://upload.wikimedia.org/wikipedia/commons/thumb/9/92/Quark_structure_proton.svg/525px-Quark_structure_proton.svg.png" border="0" /></a><br /><span style="font-size:130%;"><strong><br /></strong></span><br /><span style="font-size:130%;"><strong>Resta allora da capire come possa essere stabile una struttura del genere, ovvero come possano svilupparsi forze attrattive tra particelle elementari che si scambiano particelle massive (i gluoni in questo caso).<br /></strong></span><br /><span style="font-size:130%;"><span style="font-family: Times New Roman;"><span style="font-size: large;">È la massa delle particelle mediatrici, infatti, a determinare il raggio d'azione dell'interazione, rispetto al quale è in rapporto di proporzionalità inversa (vedi <a href="http://it.wikipedia.org/wiki/Hideki_Yukawa%20http://it.wikipedia.org/wiki/Potenziale_di_Yukawa">teoria di Yukawa</a> <a href="http://it.wikipedia.org/wiki/Potenziale_di_Yukawa"><span style="color: #ddaa77; font-size: large;"></span></a><span style="font-size: large;">),</span> raggio di azione che, nel caso dell'interazione nucleare forte è estremamente breve. </span><span style="font-size: large;">Quindi se la massa a riposo dei gluoni fosse nulla, come nel caso del fotone e del gravitone (che ricordiamo essere le particelle mediatrici rispettivamente della forza elettromagnetica e della gravitazione), il raggio di azione della forza sarebbe infinito.</span></span></span><br /><span style="font-size:130%;"><br />Il “confinamento” dei quark è, allora, fisicamente possibile solo ipotizzando che questi ultimi siano “delocalizzati” come <a href="http://it.wikipedia.org/wiki/Ipotesi_di_de_Broglie">onde di materia</a>, sostituendo all’interazione tramite mediatori quantistici quella di un campo a sua volta costituito da onde di materia, nei quali i quark sono "immersi" e che agisce anche dall'esterno.<br /></span><br /><span style="font-size:130%;"><strong>Questo è il motivo per cui l’ideatore della MT, Marius, ritiene che soltanto sostituendo un modello ondulatorio a quello particellare della materia proposto dal Modello Standard. si possano spiegare le forze attrattive (tra cui, ovviamente, anche la forza di gravità) oltre che quelle repulsive.<br /></strong></span><br /><span style="font-size:130%;">Stefano Gusman</span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com4tag:blogger.com,1999:blog-6423338787090762061.post-50472922734347395832011-09-14T03:43:00.005-07:002012-02-20T09:09:22.031-08:00Standard Model and Fundamental Forces: Look at the recoil !<span style="font-size:130%;">Since the eighties of the twentieth century, many theorists have focused on defining a quantum theory which would reconcile quantum mechanics and general relativity and explain clearly the existence of four families of particles, intermediate bosons and gravity.<br />In the Standard Model there are three types of bosons: photons, gluons and so-called "weak bosons", namely the W and Z bosons (also called more precisely "intermediate vector bosons W and Z"). These three types of bosons are responsible, respectively, for the electromagnetic force, the strong nuclear force and the weak nuclear force. Photons are Gauge bosons of electromagnetic interactions (electromagnetic force), the gluons those ones of the strong interaction (strong force), and W and Z are the bosons of weak interactions (weak force). In particle physics, the Gauge bosons are elementary particles that have the task of transporting the fundamental forces of nature. In particular, the elementary particles whose interactions are described by Gauge theories exert forces on each other particle through the exchange of Gauge bosons.The theory of general relativity by Albert Einstein described the gravitational field in geometric terms (using the notion of spacetime curvature). However, it does not tell us anything about the particle mediating the gravitational force, the so-called gravitons.The quantum gravity is that field of theoretical physics that attempts to unify the field theory (relativistic quantum mechanics), which describes three of the fundamental forces of nature (electromagnetic, weak and strong), with the theory of general relativity, on the fourth fundamental interaction that is gravity. At a theoretical level, all the simple Gauge bosons must be massless and the forces that they describe must be a long haul. The contradiction between this theory and experimental evidence, regarding the short range of weak interactions, require further theoretical and at present a justification of this comes from the Higgs mechanism. This process leads to massive Gauge bosons from initially massless particles..The ultimate goal of some theories in this field (such as string theory), is also to get a unique structure for all four fundamental forces and then to build a theory of everything.<br /></span><br /><span style="font-size:130%;"><strong>But a theory that do arise the fundamental forces between elementary particles by the exchange of massive bosons, although formally correct from the mathematical point of view, is itself inconsistent from the physical point of view because it clearly violates the principle of conservation of momentum that at quantum scales, is a physical law experimentally evident.</strong></span><br /><span style="font-size:130%;"></span><br /><span style="font-size:130%;">For example, the <strong>Mössbauer spectroscopy</strong> is a spectroscopic technique based on the absorption and emission of resonant gamma rays in solids.With gamma rays, unlike other less energetic photons, there is usually a problem: the atom emitting a photon recoils in a non-negligible way, thus absorbing a slice of energy from the same photon which, consequently, doesen’t have the same frequency as before and is not able to make similar resonance with another atom. As the first solution to this problem was obtained by placing the substance emitting over an high speed rotating cylinder so as to compensate the before mentioned recoil.But then the resonant absorption and emission were observed for the first time by Rudolf Mössbauer in 1957 on materials that had a crystalline structure such as to distribute the same recoil on many more atoms thus reducing loss of the photon energy range: this phenomenon has been precisely known as<strong> “Mössbauer effect”.</strong><br /></span><span style="font-size:130%;"><strong>The above is to reaffirm the notion that, until proven otherwise, the law of conservation of momentum is valid and working among the elementary particles of the Standard Model.<br /></strong></span><br /><span style="font-size:130%;">Structure of the proton : Strong nuclear force.</span><span style="font-size:130%;"> </span><span style="font-size:130%;"><strong><br /></strong></span><a href="http://upload.wikimedia.org/wikipedia/commons/thumb/9/92/Quark_structure_proton.svg/525px-Quark_structure_proton.svg.png"><img style="FLOAT: left; MARGIN: 0pt 10px 10px 0pt; WIDTH: 202px; CURSOR: pointer; HEIGHT: 202px" alt="" src="http://upload.wikimedia.org/wikipedia/commons/thumb/9/92/Quark_structure_proton.svg/525px-Quark_structure_proton.svg.png" border="0" /></a><br /><span style="font-size:130%;"><strong><br /></strong></span><span style="font-size:130%;"><span class="hps"><span style="mso-ansi-language: EN" lang="EN">Each quark</span></span><span style="mso-ansi-language: EN" lang="EN"> <span class="hps">has a</span> <span class="hps">color charge</span> <span class="hps">moving</span> <span class="hps">constantly changing</span> <span class="hps">gluons</span> <span class="hps">to other</span> <span class="hps">quarks.</span> <span class="hps">Such</span> <span class="hps">sharing of</span> <span class="hps">gluons</span> <span class="hps">generates</span> <span class="hps">attractive field</span> <span class="hps">which opposes the</span> <span class="hps">electrodynamic</span> <span class="hps">repulsion</span> <span class="hps">forces.</span></span></span><br /><p><span style="font-size:130%;"><span class="hps"><span style="mso-ansi-language: EN" lang="EN">It remains then</span></span><span style="mso-ansi-language: EN" lang="EN"> <span class="hps">to understand</span> <span class="hps">how can be</span> <span class="hps">stable this kind of structure</span>, or <span class="hps">how can</span> <span class="hps">develop</span> <span class="hps">attractive forces between</span> <span class="hps">elementary particles that</span> <span class="hps">are exchanged</span> <span class="hps">massive particles</span> <span class="hpsatn">(</span>the gluons <span class="hps">in this case)</span>.</span></span></p><span class="" lang="en" style="font-size:130%;"><span class="hps"><span lang="EN-GB" style="font-family:Verdana;"><span style="Times New Roman",serif;font-family:Times,";" >Is the particle mass mediators, in fact, to determine the range of interaction, with which is compared to a ratio of inverse proportionality (see Yukawa theory), range that, in the case of the strong force is extremely short. So if the rest mass of gluons be void, as in the case of the photon and the graviton (mediators, respectively, of electromagnetic force and gravitation), the radius of action of the force would be infinite.</span></span></span><span class="hps"> </span></span><span style="font-size:100%;"><br /></span><span style="font-size:130%;"><br />Then, "confinement" of quarks is physically possible only assuming that they are "relocated" as matter waves, according to Loise De Broglie's hypotesis, the interaction with mediators replacing that of a quantum field in turn consists of matter waves in which the quarks are "immersed" acting also from the outside.</span><br /><p><span style="font-size:130%;"><strong></strong></span><span style="font-size:130%;"><strong></strong></span></p><span style="font-size:130%;"><strong>This is why the creator of the MT, Marius, believes that only by replacing a model wave-particle of matter to that proposed by the Standard Model could be explained the attractive forces (including, of course, the gravity force) as well as repulsive.</strong></span><br /><p><span style="font-size:130%;">Stefano Gusman</span></p>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com0tag:blogger.com,1999:blog-6423338787090762061.post-1466621384704572192011-09-09T05:14:00.001-07:002012-02-07T09:29:34.923-08:00Il "compattatore spaziale"<span style="font-size:130%;">Quanti affascinanti racconti di fantascienza sono ricorsi al concetto fisico di “buco nero” per narrare avventure da svolgersi in tunnels spazio temporali dove violare i limiti imposti ai viaggi spaziali dalla velocità della luce, entrare in altre dimensioni o, addirittura, viaggiare nel tempo. Ma nell’immaginario collettivo il buco nero è soprattutto quel terribile mostro, magari creato artificialmente dall'uomo a causa di imprudenti esperimenti, capace di risucchiare qualsiasi cosa al suo interno come un gigantesco aspirapolvere.<br /></span><br /><span style="font-size:130%;">Ma cos’è davvero un buco nero ?<br /></span><br /><span style="font-size:130%;">Nella</span><span style="font-size:130%;"> Relatività Generale si definisce buco nero una regione di spazio da cui nulla, nemmeno la </span><span style="font-size:130%;">luce</span><span style="font-size:130%;">, può sfuggire. Cio’ puo’ avvenire attorno a un corpo celeste estremamente denso dotato di un'attrazione gravitazionale talmente elevata da non permettere l'allontanamento di alcunché dalla propria superficie. Questa condizione si ottiene quando la velocità di fuga </span><span style="font-size:130%;">dalla sua superficie è superiore alla velocità della luce. Un corpo celeste con questa proprietà è invisibile e la sua presenza potrebbe essere rilevata solo indirettamente, tramite gli effetti del suo intenso campo gravitazionale.<br /></span><span style="font-size:130%;">Ma come nasce un buco nero ?<br /></span><span style="font-size:130%;">Nel nucleo di una stella alla fine del proprio ciclo vitale, dopo essersi consumato, tramite </span><a title="Fusione nucleare" href="http://it.wikipedia.org/wiki/Fusione_nucleare"><span style="font-size:130%;">fusione nucleare</span></a><span style="font-size:130%;">, il 10% dell'idrogeno trasformatosi in elio, si arrestano le reazioni nucleari. La forza gravitazionale che prima era in equilibrio con la pressione generata dalle reazioni di fusione nucleare, prevale e comprime la massa della stella verso il suo centro. Quando la densità diventa sufficientemente elevata può innescarsi la fusione nucleare dell'elio, in seguito alla quale c'è la produzione di litio, azoto e altri elementi (fino all'ossigeno e al silicio). Durante questa fase la stella si espande e si contrae violentemente più volte, espellendo parte della propria massa. Le stelle più piccole si fermano ad un certo punto della catena e si spengono, raffreddandosi e contraendosi lentamente, attraversano lo stadio di </span><a title="Nana bianca" href="http://it.wikipedia.org/wiki/Nana_bianca"><span style="font-size:130%;">nana bianca</span></a><span style="font-size:130%;"> e nel corso di molti milioni di anni diventano una sorta di gigantesco pianeta. Se invece il nucleo della stella supera una massa critica, detta </span><a title="Limite di Chandrasekhar" href="http://it.wikipedia.org/wiki/Limite_di_Chandrasekhar"><span style="font-size:130%;">limite di Chandrasekhar</span></a><span style="font-size:130%;"> pari a 1,4 volte la </span><a title="Massa solare" href="http://it.wikipedia.org/wiki/Massa_solare"><span style="font-size:130%;">massa solare</span></a><span style="font-size:130%;">, le reazioni possono arrivare fino alla sintesi del Ferro. La reazione che sintetizza il ferro per la formazione di elementi più pesanti è endotermica, richiede energia invece che emetterne, quindi il nucleo della stella diventa una massa inerte di ferro e non presentando più reazioni nucleari non c'è più nulla in grado di opporsi al collasso gravitazionale. A questo punto la stella subisce una contrazione fortissima che puo' causare una gigantesca esplosione, detta esplosione di </span><a title="Supernova" href="http://it.wikipedia.org/wiki/Supernova"><span style="font-size:130%;">supernova di tipo II</span></a><span style="font-size:130%;">. Durante l'esplosione quel che resta della stella espelle gran parte della propria massa, che va a disperdersi nell'universo circostante; quello che rimane è un nucleo estremamente denso e massiccio. Se la sua massa è abbastanza piccola da permettere alla pressione di degenerazione<span style="text-decoration: underline;"><span style="font-style: italic;"></span></span><a href="http://it.wikipedia.org/wiki/Materia_degenere"> http://it.wikipedia.org/wiki/Materia_degenere</a> di contrastare la forza di gravità si arriva ad una situazione di equilibrio e si forma una </span><a title="Stella di neutroni" href="http://it.wikipedia.org/wiki/Stella_di_neutroni"><span style="font-size:130%;">stella di neutroni</span></a><span style="font-size:130%;">. Se la massa supera le tre masse solari (limite di Volkoff-Oppenheimer) non c'è più niente che possa contrastare la forza gravitazionale; inoltre, secondo la Relatività generale, la pressione interna non viene più esercitata verso l'esterno (in modo da contrastare il campo gravitazionale), ma diventa essa stessa una sorgente del campo gravitazionale, rendendo così inevitabile il collasso infinito.<br /></span><br /><span style="font-size:130%;">Un vero e proprio “compattatore spaziale”.<br /></span><br /><span style="font-size:130%;">A questo punto la densità della stella morente, ormai diventata un buco nero, raggiunge velocemente valori tali da creare un campo gravitazionale talmente intenso da non permettere a nulla di sfuggire alla sua attrazione, neppure alla luce: si ha una curvatura infinita dello spaziotempo, che può far nascere dei cunicoli all'interno di buchi neri in rotazione. Alcuni scienziati hanno così ipotizzato che, almeno in linea teorica, è possibile viaggiare nel passato, visto che i cunicoli collegano due regioni diverse dello spaziotempo. A causa delle loro caratteristiche, i buchi neri non possono essere "visti" direttamente ma la loro presenza può essere ipotizzata a causa degli effetti di attrazione gravitazionale che esercitano nei confronti della materia vicina e della radiazione luminosa in transito nei paraggi o "in caduta" sul buco. In astronomia, un disco di accrescimento è una struttura formata da materiale che cade in una sorgente di campo gravitazionale. La conservazione del </span><a title="Momento angolare" href="http://it.wikipedia.org/wiki/Momento_angolare"><span style="font-size:130%;">momento angolare</span></a><span style="font-size:130%;"> richiede che, quando un'estesa nube di materiale collassa verso l'interno, ogni piccola rotazione che essa ha all'inizio debba aumentare. La forza centrifuga</span><span style="font-size:130%;"> costringe la nube rotante a collassare in un disco e </span><a title="Forza di marea" href="http://it.wikipedia.org/wiki/Forza_di_marea"><span style="font-size:130%;">forze di marea</span></a><span style="font-size:130%;"> tendono ad allineare la rotazione del disco con la rotazione della sorgente gravitazionale posta al centro. L'attrito tra le particelle del disco genera calore e dissipa il momento orbitale</span><span style="font-size:130%;"> causando la caduta del materiale del disco verso il centro in lente spirali, finché non impatta contro il corpo centrale. I dischi di accrescimento più spettacolari che si trovano in natura sono quelli dei nuclei galatticiattivi: mentre la materia spiraleggia verso un buco nero supermassiccio centrale, il forte gradiente gravitazionale porta allo sviluppo di un forte calore. Il disco di accrescimento di un buco nero è abbastanza caldo da emettere raggi X, quindi temperature di milioni di gradi, poco prima di attraversare l'orizzonte degli eventi. In realtà un buco nero non è del tutto nero: esso emette particelle, in quantità inversamente proporzionale alla sua massa, portando ad una sorta di evaporazione. Questo fenomeno, dimostrato nel 1974 per la prima volta dal fisico Stephen Hawking, è noto come radiazione di Hawking ed è alla base della termodinamica dei buchi neri. La radiazione di Hawking è una radiazione termica che si ritiene sia emessa dai buchi neri a causa degli effetti quantistici. Si può comprendere il processo a livello fisico immaginando la radiazione particella-antiparticella emessa appena oltre l’orizzonte degli eventi. Un orizzonte degli eventi è, nell'accezione più diffusa, un concetto collegato ai buchi neri, una previsione della relatività generale. Secondo questa teoria, lo spazio ed il tempo formano un unico complesso con quattro dimensioni reali (detto spazio tempo</span><span style="font-size:130%;">). Nel caso di un </span><a title="Buco nero di Schwarzschild" href="http://it.wikipedia.org/wiki/Buco_nero_di_Schwarzschild"><span style="font-size:130%;">buco nero di Schwarzschild</span></a><span style="font-size:130%;">, l'orizzonte degli eventi si crea nel momento in cui, in un corpo autogravitante, la "materia" (concetto utilizzato qui per identificare insieme la massa e l'energia, che secondo la relatività generale sono la stessa cosa) è così concentrata che la velocità di fuga dovrebbe essere pari o addirittura superiore a quella della luce.Secondo una definizione data da Roger Penrose </span><span style="font-size:130%;">in un buco nero, l'orizzonte degli eventi è una particolare superficie dello spazio-tempo che separa i posti da cui possono sfuggire segnali da quelli da cui nessun segnale può sfuggire. In un’accezione molto più generale, se per "evento" si intende un fenomeno (particolare stato della realtà fisica osservabile), identificato dalle quattro coordinate spazio-temporali, un "orizzonte degli eventi" può essere definito come una regione dello spazio-tempo oltre la quale cessa di essere possibile osservare il fenomeno. Nel caso dei buchi neri di Schwarzschild, l'orizzonte degli eventi è una superficie sferica che circonda una singolarità</span><span style="font-size:130%;"> posta al centro della sfera; quest'ultima è un punto nel quale la densità assume un valore infinito. La singolarità potrebbe non essere necessaria, secondo alcune teorie (gravità quantistica - gravità quantistica a loop) </span><span style="font-size:130%;">che postulano lo spazio-tempo come una entità dotata di una realtà fisica, e non solo un mero concetto matematico, suddiviso in elementi discreti del diametro di una </span><a title="Lunghezza di Planck" href="http://it.wikipedia.org/wiki/Lunghezza_di_Planck"><span style="font-size:130%;">lunghezza di Planck</span></a><span style="font-size:130%;">. In altri termini, lo spazio-tempo avrebbe, secondo la suddetta teoria, un ruolo fisicamente attivo, non passivo e la sua struttura intima sarebbe costituita da veri e propri "atomi" che formerebbero una densa rete in continua evoluzione. In condizioni normali non si percepirebbe la struttura atomica dello spazio-tempo, il quale apparirebbe un continuo matematico e l'universo sarebbe descritto dalla relatività generale, ma a distanze nell'ordine della lunghezza di Planck le cose cambierebbero radicalmente: gli effetti quantistici e gravitazionali assumerebbero intensità confrontabili. Sarebbe come se lo spazio assumesse una "personalità fisica" propria ed interagisse con l'energia (massa) in modo attivo. Molti risultati sono solo di tipo speculativo o ipotetico, considerato che, al momento nessuno ha mai visto "da vicino" un buco nero (sono spesso avvolti da dischi di accrescimento o densi aloni di materia). C'è, inoltre, da osservare che dall'interno di un buco nero non può uscire alcuna informazione che possa dire alcunché sulla sua struttura intima o, perlomeno, non esiste una teoria di riferimento ben consolidata e suffragata da dati osservativi.<br /></span><br /><span style="font-size:130%;">Tornando, allora, alla <a href="http://it.wikipedia.org/wiki/Radiazione_di_Hawking">radiazione di Hawcking</a> questa non proviene direttamente dal buco nero stesso, ma piuttosto è il risultato di particelle virtuali che – nascendo in coppia continuamente nel vuoto cosmico – diventano reali a causa della forza gravitazionale del buco nero. Per essere più precisi, le </span><a title="Fluttuazione quantistica" href="http://it.wikipedia.org/wiki/Fluttuazione_quantistica"><span style="font-size:130%;">fluttuazioni quantistiche</span></a><span style="font-size:130%;"> del vuoto provocano la comparsa di coppie particella-antiparticella in prossimità dell’orizzonte degli eventi dell’oggetto celeste. Una particella della coppia cade nel buco nero, mentre l’altra riesce a sfuggire nell’universo esterno. Per rispettare il principio di conservazione dell’energia complessiva, la particella che è precipitata nel buco nero deve avere energia negativa (rispetto a un osservatore che si trovi lontano dal buco nero). Mediante questo processo il buco nero perde massa e a un osservatore esterno sembrerebbe che il buco stesso abbia appena emesso una particella.<br /></span><br /><span style="font-size:130%;">Resta irrisolto il problema matematico della “singolarità” che impedisce di mettere d’accordo Relatività Generale e Meccanica Quantistica.<br /></span><br /><span style="font-size:130%;">D’altronde se è possibile teorizzare una singolarità matematica non puo’ esistere una singolarità fisica, nonostante il compattatore spaziale voglia costringere l’infinitamente grande a diventare infinitamente piccolo.<br /><br />Stefano Gusman.</span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com5tag:blogger.com,1999:blog-6423338787090762061.post-59456092154012915062011-09-09T05:12:00.000-07:002011-09-13T03:39:23.489-07:00The "space compactor"<span style="font-size:130%;">How many fascinating fantasy stories appeal to the physical concept of "black hole" to narrate adventures taking place in space-time tunnels, which violate the limits imposed by the speed of light to interstellar or time travelling, or permit to go into other dimensions. But in the collective black hole is above all that terrible monster, perhaps artificially created by reckless experiments, capable of sucking everything in it like a giant vacuum cleaner.</span><br /><span style="font-size:130%;"></span><br /><span style="font-size:130%;">But what really is a black hole?</span><br /><span style="font-size:130%;"></span><br /><span style="font-size:130%;">In general relativity black hole is defined as a region of space from which nothing, not even light, can escape. This can take place around a celestial body with extremely dense gravitational attraction so high as not to allow the removal of anything from its surface. This condition occurs when the escape velocity from its surface is greater than the speed of light. A heavenly body with this property is invisible and its presence could be detected only indirectly, through the effects of its intense gravitational field. </span><br /><span style="font-size:130%;">But how does rise a black hole?</span><br /><span style="font-size:130%;">At the core of a star at the end of its life cycle, after having consumed by nuclear fusion, 10% hydrogen turned into helium, the nuclear reactions stop. The gravitational force, which was previously in equilibrium with the pressure generated by nuclear fusion reactions, takes over and compresses the mass of the star towards its center. When the density becomes high enough triggers the nuclear fusion of helium, after which there is the production of lithium, nitrogen and other elements (up to oxygen and silicon). During this phase the star expands and contracts several times violently, expelling part of its mass. The smallest stars will stop at some point in the chain and off, slowly cooling and contracting, through the stage of white dwarf and over many millions of years become a sort of giant planet.If the core of the star exceeds a critical mass, called the Chandrasekhar limit of 1.4 times the solar mass, reactions can be up to the synthesis of the iron. The reaction that synthesizes the iron for the formation of heavier elements is endothermic, requires energy rather than emit, then the core of the star becomes an inert mass of iron and not presenting any nuclear reactions there is nothing that can oppose the gravitational collapse. At this point, the star undergoes a strong contraction that can cause a gigantic explosion, called supernova explosion of type II. During the explosion that remains of the star expels most of its mass, which is to be scattered around the universe ; what remains is a core extremely dense and massive. If its mass is small enough to allow the degeneracy pressure to counteract the force of gravity reaches equilibrium and forms a neutron star. If the mass exceeds three solar masses (Oppenheimer-Volkoff limit) there is nothing that can counter the gravitational force ; in addition, according to general relativity, the internal pressure is no longer carried out (in order to counteract the gravitational field), but becomes itself a source of the gravitational field, making inevitable infinite collapse.A true "space compactor."At this point the density of the dying star, now become a black hole, quickly reaches those values to create a gravitational field so intense that it does not allow anything to escape its attraction, even the light: it has an infinite curvature of spacetime, which can give birth to passages within black holes in rotation. Some scientists have speculated that it, at least in theory, you can travel into the past, since the tunnels connecting two different regions of spacetime.Because of their characteristics, the black holes can not be "seen" directly, but their presence can be assumed due to the effects of gravitational attraction on matter in exercising nearby and on the light radiation passing nearby or "falling" down towards the hole. In astronomy, an increasing disk is a structure formed by material falling in a gravitational field source. The conservation of angular momentum requires that when an extended cloud of material collapses inward, any small rotation at the beginning should thrive. The centrifugal force causes the rotating cloud collapses into a disk and tidal forces tend to align the rotation of the disk with the rotation of the gravitational source in the center. The friction between the particles of the disk generates heat and dissipates the orbital angular momentum, causing the material falls toward the center of the disk in slow spirals until it impacts against the central body. The most spectacular increasing disks found in nature are those of active galactic nucleus: while the matter spirals into a supermassive central black hole, the strong gravity gradient leads to the development of a strong heat. The increasing disk of a black hole is hot enough to emit X-rays and temperatures of millions of degrees, just before crossing the event horizon.In fact a black hole is not completely black: it emits particles, in an amount inversely proportional to its mass, leading to a kind of evaporation. This phenomenon, demonstrated for the first time in 1974 by physicist Stephen Hawking, is known as Hawking radiation and is the basis of the thermodynamics of blacks holes. The Hawking radiation is thermal radiation believed emitted from black holes due quantum effects. One can understand the physical process by imagining particle-antiparticle radiation emitted just beyond the event horizon.An event horizon is, in the popular, a concept linked to black holes, and a prediction of general relativity. According to this theory, space and time form a single complex with four full size (called space-time). In the case of a Schwarzschild black hole, the event horizon is created when, in a self-gravitating body, the "matter" (term used here to identify the mass and energy, which according to general relativity, are the same thing) is so concentrated that the escape velocity should be equal or even superior to that of light. As definition given by Roger Penrose a black hole event horizon is a particular area of space-time that separates the seats from which signals can escape from those from which no signal can escape. In a much more general sense, if by "event" refers to a phenomenon (particular state of an observable physical reality), identified by the four space-time coordinates, an "event horizon" can be defined as a region of space-time beyond which shall stop to be possible to observe the phenomenon. In the case of black Schwarzschild holes, the event horizon is a spherical surface surrounding a singularity at the center of the sphere ; the latter is a point at which the density would be infinite and the laws of physics, according to the theory of general relativity, lose their meaning. The singularity may not be necessary, according to some theories of quantum gravity (loop quantum gravity), which require space-time as an entity endowed with a physical reality, and not just merely a mathematical concept, divided into discrete elements with diameter equal to Planck length. In other words, the space-time would have, according to this theory, an active, not passive, physically active role and its intimate structure would consist of real "atoms" that would form a dense network in constant evolution. Under normal conditions do not perceive the atomic structure of spacetime, which appear continuous mathematician and the universe would be described by general relativity ; but at the size of distances in the order of the Planck length things would change radically and quantum and gravitational effects take on comparable intensity. It would be like if the space took on a "physical personality" and interacted with its energy (mass) in an active way. Many results are only for speculative or hypothetical, given that, at the time no one has ever seen "up close" a black hole (they are often surrounded by increasing disks or dense matter halos). There also should be noted that the inside of a black hole can not leave any information that can say anything about its inner structure, or at least that there isn’t a theory well-established and supported by observational data.</span><br /><span style="font-size:130%;"></span><br /><span style="font-size:130%;">Returning, then, to the Hawcking’s radiation, this does not come directly from the black hole itself, but rather is the result of virtual particles - always in pairs born in cosmic void - come to life due to the gravitational pull of the black hole. To be more precise, the quantum fluctuations of the vacuum causes the appearance of particle-antiparticle pairs near the event horizon of the heavenly body. A particle of the pair falls into the black hole, while the other managed to escape in the external universe. To respect the principle of conservation of the total energy, the particle that has fallen into the black hole must have negative energy (relative to an observer who is far away from the black hole). Due to this process the black hole loses mass and an outside observer it would appear that the hole has just emitted a particle itself.<br /></span><br /><span style="font-size:130%;">Remains unsolved mathematical problem of the "singularity" that forbids to reconcile General Relativity and Quantum Mechanics.<br /></span><br /><span style="font-size:130%;">Moreover, if you can theorize a mathematical singularity can not exist a physical singularity, despite the compactor that want to force the infinitely large space to become infinitely small.<br /><br />Stefano Gusman.</span>Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com1tag:blogger.com,1999:blog-6423338787090762061.post-18987591001055032652011-08-10T03:00:00.000-07:002011-08-29T23:58:23.990-07:00ATLAS e la "particella di Dio"<span style="font-size:130%;">Particella ipotizzata dal fisico teorico scozzese P.W. Higgs, docente dell'Università di Edimburgo, che ha elaborato la teoria di </span><a href="http://www.sapere.it/enciclopedia/campo+(fisica).html"><span style="font-size:130%;">campo</span></a><span style="font-size:130%;"> che prende il suo nome (campo di Higgs ) la cui </span><span style="font-size:130%;">particella</span><span style="font-size:130%;"> mediatrice, attivamente ricercata presso i laboratori del CERN di Ginevra nell’ambito dell’esperimento Atlas, è detta, appunto, particella o “</span><span style="font-size:130%;">bosone</span><span style="font-size:130%;"> di Higgs”. Grazie a questa particella fondamentale le particelle, originariamente tutte con </span><span style="font-size:130%;">massa</span><span style="font-size:130%;"> nulla, acquisterebbero ognuna la propria massa. Il bosone di Higgs darebbe coerenza matematica al </span><a href="http://www.sapere.it/enciclopedia/modello+standard.html"><span style="font-size:130%;">Modello Standard</span></a><span style="font-size:130%;">, la teoria che descrive le particelle fondamentali e le </span><span style="font-size:130%;">forze </span><span style="font-size:130%;">attraverso le quali interagiscono. All'origine della teoria di Higgs c'è la constatazione che le particelle posseggono un'amplissima varietà di masse, dalla più piccola (la massa dell'</span><span style="font-size:130%;">elettrone</span><span style="font-size:130%;">) alla più grande, cioè la massa del </span><a href="http://www.sapere.it/enciclopedia/quark.html"><span style="font-size:130%;">quark</span></a><span style="font-size:130%;">top (pari a circa 200.000 volte quella dell'elettrone). I valori delle diverse masse non sembrano avere una relazione fra loro; non solo, ma la versione più semplice del Modello Standard richiede che tutte le particelle abbiano massa pari a zero. Il campo di Higgs è stato introdotto per conciliare queste due esigenze. Higgs ha proposto che tutto lo spazio-tempo sia permeato da un campo, il campo di Higgs, simile per alcuni versi a un </span><span style="font-size:130%;">campo elettromagnetico</span><span style="font-size:130%;">. Quando le particelle si muovono nello spazio-tempo si muovono anche nel campo di Higgs e, interagendo con esso, acquisiscono una massa. Più è grande l'</span><span style="font-size:130%;">interazione</span><span style="font-size:130%;"> delle particelle con il campo e più la massa acquisita è grande. Questa interazione può essere considerata simile all'azione di forze viscose che agiscono su particelle che si muovono in un </span><span style="font-size:130%;">liquido</span><span style="font-size:130%;"> denso. Più è grande l'interazione con il liquido e maggiore sembra essere la loro massa, dato che la massa può essere vista anche come la resistenza alle variazioni di </span><span style="font-size:130%;">moto</span><span style="font-size:130%;">. Muovendosi nel campo di Higgs le particelle acquisirebbero la loro massa inerziale. Questo è un campo a valore costante, anche nel </span><span style="font-size:130%;">vuoto</span><span style="font-size:130%;">, e di tipo scalare (cioè non vettoriale, ossia determinato soltanto da un valore numerico e non anche da una direzione). Poiché dalla </span><a href="http://www.sapere.it/enciclopedia/quanto.html"><span style="font-size:130%;">teoria dei quanti</span></a><span style="font-size:130%;"> discende che ogni campo ha una particella associata a esso, un bosone (come il </span><span style="font-size:130%;">fotone</span><span style="font-size:130%;"> per il campo elettromagnetico), il campo di Higgs prevede l'esistenza della particella o bosone di Higgs. Anche questo sarebbe scalare, cioè dotato di </span><span style="font-size:130%;">spin</span><span style="font-size:130%;"> nullo.
<br />In questo campo i fotoni, particelle prive di massa che sono i mediatori dell'elettromagnetismo, viaggerebbero secondo la direzione del campo (il termine “direzione” non ha il significato fisico del nostro spazio tridimensionale, ma è una proprietà interna del campo) e pertanto non acquisirebbero massa e sarebbero osservati da noi, appunto, come fotoni. Le stesse particelle, quando si muovono in direzione opposta hanno bisogno di più energia (cioè massa), che viene assorbita dal campo di Higgs; diventano quindi bosoni W e Z, i mediatori della forza nucleare debole. Questa visione consente di unificare anche sotto tale aspetto l'elettromagnetismo e la forza nucleare debole nella teoria elettrodebole, giustificando l'attuale diversità dei rispettivi mediatori, che sarebbero quindi due aspetti della stessa particella, che noi vediamo come fotoni o come W e Z a seconda della loro interazione col campo di Higgs. Ogni tipo di particella decade in elettroni, fotoni, muoni, adroni, neutrini, o nelle loro antiparticelle. ATLAS cerca di rilevare queste particelle stabili (i “prodotti di decadimento”), per poi risalire alla particella iniziale decaduta dopo un certo periodo di tempo.Il bosone di Higgs potrebbe decadere in molti modi a seconda della sua massa, che è un'incognita della teoria. Il campo di Higgs, invece, deve assumere un valore di fondo uniforme e non nullo anche nel vuoto.
<br />Ma cosa succederebbe se la particella di Dio non venisse rilevata ? L’intuizione di Higgs sarebbe sbagliata?
<br />Marius, che è l’ideatore della teoria gravitazionale esposta in questo blog, ritiene di no anzi è convinto, piuttosto, che sia il campo di Higgs cio’ che con piu’ probabilità i rilevatori di Atlas potrebbero osservare. Tuttavia il “meccanismo” sarebbe un po’ diverso. La corrente visione della trasmissione delle forze fondamentali attraverso lo scambio di bosoni tra particelle elementari (che, intuitivamente, potrebbe dar luogo solo ad azioni repulsive, se non altro per il principio di conservazione della quantità di moto) sarebbe sostituito da azioni di spinta e controspinta generate da un campo “fisico” di massa/energia oscillante di cui le stesse particelle elementari costituiscono una “perturbazione” a sua volta fatta di onde a lunghezza d'onda inferiore. Ma quale potrebbe essere per ATLAS il “biglietto da visita” di un campo siffatto ? Per esempio uno “scattering” sempre meno ampio dei dati di rilevazione tale da consentire un’interpolazione lineare piu' o meno "omogenea" sui vari range di massa/energia. E i mediatori quantistici delle forze che fine fanno ? Beh, per dirla alla Franco Selleri : <em>“difficilmente i modelli matematici corrispondono al reale fenomeno fisico che descrivono”.</em>
<br />
<br />Stefano Gusman</span>
<br />Mariushttp://www.blogger.com/profile/13024002167476089198noreply@blogger.com7