Fråga:
QM och renormalisering (lekman)
John
2012-01-10 02:08:44 UTC
view on stackexchange narkive permalink

Jag läste Michio Kakus Beyond Einstein . Jag tror att det förklarar att när fysiker behandlar en partikel som en geometrisk punkt, slutar de med oändligheten när de beräknar styrkan i partikelns fält när du närmar dig partikeln.

Först fick jag det del rätt?

För det andra, hur (i mycket enkla termer) renormalisering försöker fixa detta i kvantmekanik? Om du kan inkludera någon typ av ordbild som skulle vara bra. Accepterat svar går till den tydligaste förklaringen.

Uppdatering

Jag kom lite längre i boken (lol) och Kaku pratar om att använda symmetri för att ta bort skillnaderna i matematiken. Jag skulle uppskatta ett svar som också innehåller detta. Tack killar!

Problemet som jag inte gillar med den här frågan är att jag inte tror att någon "lekmannsförklaring" kommer att göra rättvisa för att förklara renormalisering ... Jag menar, även att försöka förklara QM i lekmanns termer är hemskt. I huvudsak har renormalisering ingen användning av "enkla termer", men om du vill vara * väldigt * vag, kan du säga "ja, om du tar en oändlig mängd och delar den med oändligheten, det är inte nödvändigtvis oändlighet längre och kan vara ett begränsat antal "... och det är vad renormalisering" typ av gör ".
@Chris: Renormalisering kan enkelt ges en förklaring om du bara säger vad det är i moderna Wilsonian termer. Oändlighets- / oändlighetsförklaringen du ger ovan är inte bra, för det är inte sant --- de oändliga mängderna är inte särskilt intressanta eller relevanta, det sista är ett ändligt objekt.
Kunde man inte tänka på det som en skillnad mellan integraler som vi inte vill skilja på?
@r.g: Min fråga med beskrivningen är att de "divergerande integralerna" bara är divergerande vid stora k, dvs vid små gitteravstånd, och denna avvikelse återspeglar vanligtvis inte något problem att ta den lilla avståndsgränsen. Den störande och nonperturbative renormaliseringen är olika idéer, och nonperturbative renormalization är mer grundläggande. När du har en kontinuerlig kvantitet måste du definiera den som en gräns för något reglerat, som ett galler, och detta är lika sant i kalkylen som det är i kvantfältsteorin. Men folk glömmer att de gjorde det i kalkyl!
@John Vilken typ av symmetri har du i åtanke? Supersymmetri?
@MurodAbdukhakimov var det i sammanhanget av enande av de elektromagnetiska, svaga och starka krafterna i QM, före strängteori.
faktiskt visas inte renormalisering i QM, den visas bara i QFT ...
Fyra svar:
Ron Maimon
2012-01-10 22:10:23 UTC
view on stackexchange narkive permalink

Det bästa sättet att förklara renormalisering är att överväga vad som först ser ut som en fullständig omväg: Mandelbrots fraktala geometri. Mandelbrots geometri, som utvecklades på 1960- och 1970-talet, är nyckelidén bakom stora framsteg inom statistisk fysik i början av 1970-talet, pionjär av Leo Kadanoff (mestadels oberoende), men också associerad med Alexander Polyakov, Michael Fisher, Kenneth Wilson och många andra i 1970- och 1980-talet, bygger på Fenyman och Onsagers klassiska arbete, och dessa idéer ger renormaliseringsteorin sin moderna form.

Grundidén kan sammanfattas i en mening: renormalisering är analysen av matematiska objekt vars fraktal dimensioner på små avstånd skiljer sig antingen från vad du förväntar dig på grund av icke-linjära interaktioner, eller skiljer sig från början till vad du förväntar dig, så att den naiva skalningen modifieras av logaritmer.

Det tillhör verkligen ren matematik, men det utvecklades nästan uteslutande inom fysik, med Mandelbrot som undantag. ted genom en omskalning av x, är x och y relaterade av en kraftlag.

$$ x = C y ^ \ alpha $$

Där C, $ \ alpha $ är konstanter. Kraftlagar är viktiga eftersom de är skalfria, vilket betyder att när du väl väljer en skala för y bestäms skalan för x genom att ställa in koefficienten för kraftlagen till 1, men det finns ingen absolut skala, inga absoluta enheter för y . Detta illustreras bäst med exempel.

Antag att du har en pendel med längden L och en massa som svänger i slutet. Pendelns period är

$$ T = 2 \ pi \ sqrt {L \ over g} $$

Formen på denna relation ger dig ingen information om någon atomlängd skalor. Oavsett vilka enheter du väljer för L kan du hitta lämpliga enheter för T genom att ändra skalan för att göra koefficienten för relationen ordning 1.

Å andra sidan, antar att du tittar på atmosfärens ungefärliga densitet när du går upp i höjden y:

$$ \ rho (y) = C e ^ {- Ay} $$

Beroendet är exponentiellt, så det bestämmer en längdskala, 1 / A. Denna längdskala är relaterad av en kraftlag till de andra parametrarna, som densitet och tyngdacceleration, så det är inte en atomlängdsskala utan en framväxande.

Skillnaden mellan kraftlagar och andra relationer kan förstås från dimensionell analys. Koefficienten för en kraftlag blandar enheterna x och enheterna y, så det möjliggör en samtidig omskalning av båda genom att kompensera belopp. Koefficienterna i ett godtyckligt förhållande väljer en skala för variation så att de inte är skal-invarianta.

Skalningsgränser

När y har en liten diskretitetsskala, som längden på en tråd räknat i antal atomer, förväntar du dig att vid stora antal kommer p-beteendet att vara oberoende av den underliggande diskretiteten. Så att mäta beroendet av pendelns period av längden kommer att vara värdelöst för att avslöja hur stora atomer är.

För att detta ska vara sant måste informationen i y nå en skalningsgräns, beroendet av x på y måste vara oberoende av kornskalan på korta avstånd som definierar kontinuumet.

Här är några triviala exempel: låt $ \ epsilon $ vara atomstorleken och parametern y är en heltalsmultipel av atomskalan:

$$ y = n \ epsilon $$

Om x är en funktion av y som följer lagen

$$ x (y + \ epsilon) = x (y) + \ epsilon y $$

Sedan för liten $ \ epsilon $ får du den $ x (y) = {y ^ 2 \ över 2 } $, och detta är standardräkning. Om x följer lagen

$$ x (y + \ epsilon) = x (y) + \ epsilon x (y) $$

Sedan för små $ \ epsilon $, hitta $ x (y) = Ce ^ y $. I båda fallen bestäms förändringen i $ x $ i varje $ \ epsilon $ -steg av förändringen i y, och stegstorleken blir irrelevant i denna skalning.

Men antag att du är pervers och du bestämmer dig för att skala x-stegen annorlunda

$$ x (y + \ epsilon) = x (y) + \ epsilon ^ 2 x (y) $$

Sedan som $ \ epsilon \ rightarrow 0 $ får du en konstant x! Kvantiteten x slutar ändras när diskretitetsparametern går till noll. Du behöver precis rätt ström på $ \ epsilon $ för att få en icke-privat relation mellan x och y. Om du väljer fel effekt på andra hållet

$$ x (y + \ epsilon) = x (y) + \ epsilon ^ {. 5} x (y) $$

Då skulle x sprängas upp till ett ändligt värde på y som $ \ epsilon \ rightarrow 0 $. Endast en exponent, nämligen den triviella exponenten 1, ger rätt kontinuumgräns.

Detta är de klassiska räkneexemplen på mikroskopisk skalning. Det första icke-privata exemplet är när x (y) är summan av en slumpmässig kvantitet, $ \ eta (y) $, vilket är ett slumpmässigt tal mellan -1 och 1, vid varje diskret position. Då vill du ta gränsen på $ \ epsilon \ rightarrow 0 $ av summan av slumpmässiga nummer, för att få en kontinuerlig version av en slumpmässig promenad. Du försöker göra kalkylsaken:

$$ x (y + \ epsilon) = x (y) + \ epsilon \ eta (y) $$

Men detta val konvergerar till ett konstant x i gränsen för liten epsilon. Anledningen är att summan av N slumpmässiga saker bara växer som $ \ sqrt {N} $, medan termen $ \ epsilon $ undertrycker den med 1 / N. Så för att åtgärda detta behöver du en annan kraftlag på $ \ epsilon $

$$ x (y + \ epsilon) = x (y) + \ epsilon ^ {1/2} \ eta (y) $$

Detta definierar gränsen för stokastisk beräkning. Det finns ett helt matematikfält, Ito calculus, som bara studerar denna skalningslag för kontinuumgränsen. Det är viktigt inom områden som ekonomi, där slumpmässiga promenader förekommer överallt, eftersom alla råvarupriser på en effektiv marknad med begränsade fluktuationer måste vara en slumpmässig promenad.

Så när du har ett diskret system, som en datorsimulering som tar diskreta steg i tid, kan du hitta en konvergerande kontinuerlig gräns för små steg, men bara om du väljer lämplig skalningslag för de kvantiteter som förändras. Skalningslagen för fluktuerande kvantiteter skiljer sig från skalningslagen för jämnt varierande kvantiteter.

För jämna kvantiteter skalas $ \ delta x $ linjärt i $ \ delta y $ eller $ \ epsilon $, och detta är det enda fall som studerats i vanlig kalkyl. Stokastisk Ito-beräkning gör $ \ delta x $ skala som kvadratroten till $ \ delta y $, eller som $ \ sqrt {\ epsilon} $. Mandelbrots rådgivare var Paul Levy, som hade utvecklat teorin om Levy-flygningar, eller slumpmässiga promenader med kraftlagsfördelade steg, så att det finns en viss sannolikhet för stora steg som inte försvinner när du tar en skalningsgräns. I Levy-flygningar erhålls kontinuumsgränsen genom att skala $ \ delta x $ som $ \ epsilon ^ \ alpha $ där $ \ alpha $ är en kontinuerlig justerbar parameter.

Detta innebär att Mandelbrot hade en viktig ny perspektiv --- han förstod att i naturfenomen, där kontinuiteten alltid framträder på långa avstånd som en approximation till något litet och kornigt, behöver inte skalningslagarna begränsas till helkrafter eller till och med rationella krafter. Du kan ha godtyckliga skallagar som definierar olika kontinuitetsgränser. Detta beteende skulle definiera regelbundenheter i fluktuationer som du ser i naturen, som den grova formen av kustlinjer eller de ojämna formerna av berg.

Dessa idéer är utvecklade av Mandelbrot i "The Fractal Geometry of Nature", i ett sätt som är tillgängligt för alla, eftersom det inte förutsätter någon djup förkunskap om matematik.

Fraktal geometrisk skalning

Tänk på en fraktal form, ta Koch-kurvan för bestämning. Om du beräknar kurvens längd måste du ange längden på linjalen med avseende på vilken du beräknar längden. När linjalen blir liten går den totala längden på kurvan till oändligheten som en kraft, $ 1 / l ^ d $ där d är kurvens fraktala dimension.

Betydelsen av detta är inte obskyr- - formen är oregelbunden på små avstånd, så att begreppet längd inte är tillämpligt, och de vanliga skallagarna för längd för differentierbara kurvor, att antalet kopior av en linjal med längden l som passar i kurvan avviker som $ L / l $ bryts, och brott mot lagen finns i exponenten.

När du har mikroskopiskt fraktala former, ändras de skalningslagar du intuitivt förväntar dig från exemplet med differentierbara former och kvantiteter som var ursprungligen ändlig, som längden, blir oändlig. Vidare uttrycks processen för att definiera fraktalformen mest bekvämt med hjälp av det som kallas i fysik en regulator --- med användning av en fiktiv ändlig längd l som är längden på linjalen för att mäta formen och titta på kvantiteter som är stabila i gränsen $ l \ rightarrow 0 $.

Så längden på Koch-kurvan är inte meningsfull, den är oändlig, men koefficienten för uppblåsning av kraftlag som relaterar längden till Jag är ändlig och är Hausdorff-måttet på Koch-kurvan, den analoga uppfattningen till längden för en fraktalkurva.

Fraktala fluktuationer i fasövergångar

Betrakta en statistisk fluktuerande kvantitet, som vätskans densitet i termisk jämvikt. För vanliga temperaturer finns det fluktuationer i atomskalan, och dessa fluktuationer ligger i genomsnitt på makroskopisk skala, så att vätskan ser likformig ut.

Men när du ställer in trycket och temperaturen till den vätske / gaskritiska punkten, blir fluktuationerna korrelerade, så att stora makroskopiska bitar av gas-vätskehybriden har högre densitet i vissa regioner, medan de har låg densitet vid andra regioner. Detta är uppenbart experimentellt eftersom en klar vätska vid den kritiska punkten blir mjölkvit, eftersom densitetsfluktuationerna på skalans våglängd nu är betydande.

För att beskriva detta system behöver du den genomsnittliga densiteten över många volymer i atomstorlek som en funktion av position. Definiera långdistansdensitetsfunktionen $ \ phi (x) $ för att vara den genomsnittliga densiteten för vätskan vid varje punkt över en ruta med längden $ l $. Du kan skapa ett galler av storlek l, och det finns en statistisk lag som berättar hur sannolikt densiteten är att ha ett givet värde, med tanke på densiteten vid angränsande positioner. Den statistiska lagen har formen av en sannolikhetsfördelning för densiteten vid en plats x, med tanke på densiteten på närliggande platser y.

Densitetslagen kan uttryckas matematiskt enligt följande:

$$ - \ log (\ rho (x)) = \ sum_ {<y, x>} (\ phi (x) - \ phi (y)) ^ 2 + V (\ phi) $$

Detta har en enkel betydelse --- densiteten vid en punkt har ett medelvärde som bestäms av grannarnas värde, med en total dragning till något föredraget värde beskrivet av $ V (\ phi) $. Formen på $ V $ kan anses vara ett polynom (detta förklaras senare)

$$ V (\ phi) = a \ phi ^ 2 + b \ phi ^ 4 $$

där parametern b måste vara positiv. Genom att ställa in parametern a kan du nå en punkt där fluktuationerna uppträder i alla längdskalor, och vid denna tidpunkt kan gitteret göras godtyckligt litet och du hittar en kontinuumgräns om du skalar $ \ phi $ på lämpligt sätt.

Gränsen $ \ epsilon \ rightarrow 0 $, $ \ phi \ rightarrow \ epsilon ^ {\ alpha} \ phi $ kan tas så att fluktuationerna blir oberoende av gitteret. Parametern $ \ alpha $ är den fraktala dimensionen av $ \ phi $. För $ V = 0 $ beror fältets fraktaldimension bara på dimensionen och har ett värde. Men för den faktiska formen av V ändras fraktaldimensionen från det naiva värdet.

Kvantfältsteori är samma sak

Kvantfält definieras av en Feynman-väg integrerad över fält värden. De kan också förstås för att beskriva partikelfluktuationerna, men fältbilden är bäst här.

Feynman-vägintegralen säger att man måste överväga alla möjliga kvantfältfluktuationer mellan den initiala tiden och den sista tiden för att beskriva kvant-sannolikhetsamplituden går från en gång till en annan. Detta är den grundläggande formuleringen av kvantmekanik i Feynman Lagrangian-metoden.

Men det finns en enkel matematisk relation mellan Feynmans kvantmekaniska vägintegraler (åtminstone för bosoniska fält) och statistiska fördelningar. De två är relaterade med en formell metod som kallas Wick rotation, eller imaginär tidsformulering.

Wickrotationen hos vanlig kvantmekanik är Ito-beräkning av Brownian-vägar. Wick-rotation av fältteori gör varje (bosonic real-action) fältteori till ett statistiskt system, vars skalningslagar har fraktala (eller anomala) dimensioner. Fraktaldimensionerna betyder att det typiska fältet i fördelningen ser likadan ut efter omskalning av utrymme med L och fältet med en kraft av L.

Renormaliseringslogaritmer

I realistiska kvantfältsteorier i fyrdimensionell rymdtid modifieras de faktiska skallagarna endast av logaritmer. Dessa logaritmer är ett tecken på en begynnande förändring av exponenten. Anledningen är att två slumpmässiga promenader bara korsar sig marginellt i fyra dimensioner, om man tittar på två slumpmässiga promenader på ett galler som börjar vid två positioner ett fast avstånd från varandra, är sannolikheten att de kolliderar till noll som logaritmen för gitteravståndet.

En logaritm är bara gränsen för en exponent för små värden för exponenten. Om du tittar på en kraftlag med en något annan exponent

$$ x = y ^ {\ alpha + \ epsilon} = y ^ {\ alpha} y ^ \ epsilon = y ^ \ alpha e ^ {\ epsilon \ log y} = y ^ {\ alpha} (1 + \ epsilon \ log y + {\ epsilon ^ 2 \ över 2} \ log ^ 2 y + ...) $$

Den ursprungliga skala-invariansen i förhållandet mellan makt och lag verkar brytas av logaritmerna, men det är bara modifierat. Om du skalar y med ett belopp $ A $, skalar du $ x $ med $ A ^ {\ alpha + \ epsilon} $, vilket ger $ \ epsilon $ ändringar i dimensionen $ x $.

Mängderna i fyrdimensionell kvantfältsteori har oändligt modifierade dimensioner på detta sätt på oändliga avstånd där längdskalan associerad med massan av partiklarna inte längre är synlig. Dessa logaritmiska korrigeringar för skalning gör den fyrdimensionella teorin både matematiskt enklare och begreppsmässigt svårare, eftersom de nya fraktala skalningslagarna inte är lika uppenbara.

I tre dimensioner får skalära fältteorier bara avvikande dimensioner. Ett av de mer intressanta sätten att beräkna fraktaldimensionerna är att använda de kända logaritmerna i fyra dimensioner för att hitta beroendet av fraktaldimensionen på rymdens dimension, och detta ger förutsägelser för den vätskekritiska skalningen som matchar experimentdata och dator simuleringar mycket exakt.

Som vanligt gillar jag svaret, men det beror på att jag är fysiker med många års utbildning och inte en "lekman". Medan jag (och uppenbarligen du) tänker abstrakt när det gäller modellering av renormalisering i högkulturmatematiken för fraktaler och skalningslagar, kanske en utan anständig grund i kritiska system kanske inte uppskattar * varför * man till och med kan börja med ett så bisarrt komplex lösning.
Ja, lite över huvudet. Jag gillar en bildföreställning, som jag nämnde i frågan, och jag förstår vad en fraktal är, men jag förstår inte sambandet som här görs ... Fast jag uppskattar den enorma ansträngning som läggs i detta svar!
"Satt till 1"? Du menar "ordning 1" som i exemplet nedan? Använder du skalningsfri utbytbar med invariant? Vad är "beteendet hos p", perioden? Vad får dig att använda $ \ epsilon $, atomstorleken, som förskjutningsparameter (så att i sin tur den oändliga börsrelationen är relaterad till den fysiska gränsen)? Jag tappade också koll på varför kraftlagar är speciella, eftersom du också använder exp-exemplet. Är linjär $ \ delta x, \ delta y $ förhållande till tangentlinjen? Kan relationerna med icke-heltal inte integreras i funktioner? $ \ epsilon $ modifieringar? Anser du renen. förfarande här?
@Nick Kidman: Med inställningen 1 menade jag att välja enheter av x och y kodberoende så att kraftlagens koefficient är 1. Detta relaterar dimensionen x till den för y, och du kan bara göra det för en kraftlag. Uppförandet av p är ett skrivfel eller redigeringsfel. Anledningen till att jag använder $ \ epsilon $ är att det ger parametern som går till noll för att producera kontinuerligt utrymme och tid, det behöver inte vara atomstorlek, även om det ofta är, det kan också vara Planck-skalan, eller till och med skalan av en sandkorn i granulär fysik. Det är bara den plats där kontinuumsbeskrivningen bryts samman.
@genneth: Jag vet av erfarenhet att Mandelbrots bok är tillgänglig utan tidigare matematik, att de grundläggande fasövergångarna kan simuleras av vem som helst med en dator på några timmar, och de onormala skalningslagarna kan ses i systemet med egna ögon omedelbart. Papper från Kadanoff och Migdal är mer tillgängliga än Feynmans diagrammetoder för Wilson och Fisher, och mer insiktsfulla och allmänna att starta (men båda är viktiga). Det krävs en begränsad mängd matematik, men det är gymnasiekalkyl och dimensionell analys, viss programmering, inte Feynmanology.
@John: om du kan säga vad som är exakt över ditt huvud skulle det hjälpa till att klargöra svaret. Svaret är att bara notera att när du har fluktuerande mängder, ändras skalningslagarna i kalkylen, och den exakta interaktionsmodellen vid en fasövergång berättar för dig vad de nya skallagarna är. När dessa skalningslagar ligger nära en slumpmässig gång har du logaritmisk renormalisering av laddning och massa, partikelns slumpmässiga gångmodell fungerar, förutom en långsam drift av parametrar med skala, vilket är en begynnande kraftlagsförändring som förvandlas till en verklig maktlag i lägre dimensioner.
Det bör noteras att en mer fullständig beskrivning av samma idéer och exempel finns i kapitel 2 i "Djävulen i detaljerna" av Batterman.
Murod Abdukhakimov
2012-01-10 23:16:13 UTC
view on stackexchange narkive permalink

Det finns faktiskt inget behov av att betrakta partiklar som punkter. Om du tänker på partiklar som "moln" finns det ingen oändlighet både i klassiska och kvantteorier.

Till exempel, när fysiker bygger en kvantmekanisk modell av väteatomen, betraktar de elektron som ett moln av negativ laddning utsmetad runt proton. De numeriska kvantiteterna som erhålls genom att använda denna modell överensstämmer mycket med experimentet.

Men många moderna fysiker använder modeller där partiklar betraktas som punktliknande. Det finns minst två skäl till det.

Den första anledningen är att om man vill använda en modell där partikeln inte är punktlik, måste han eller hon definiera partikelstrukturen. Men ingen känner till partiklarnas interna struktur, så de kan inte definiera den att använda i modellen. Observera att i ett tidigare exempel på väteatomen har fysiker att göra med atom, inte med partikel. Fysiker kunde utveckla en sådan modell eftersom de visste något om atommens interna struktur (dvs de är nya att positivt laddat proton är i centrum av atomen, elektron smutsas runt proton, det elektriska fältet av proton var känt, etc.). Vi kan inte göra samma sak med partikeln för vi vet nästan ingenting om vad som finns inuti partikeln.

Den andra anledningen är följande: det finns en modell som fungerar mycket bra för kollisioner av partiklarna i hög energier. Denna modell används till exempel för partikelkollider som LHC. Avståndet som partikeln har rest i en sådan kolliderare är mycket stort jämfört med den storlek (om någon) som kan associeras med själva partikeln. Så det är logiskt att betrakta partiklar som punktliknande objekt i denna modell, eftersom partikelns storlek spelar NÄSTA ingen roll.

Jag skrev "NÄSTAN" för att den spelar roll när man försöker tillämpa modellen inte på ett antal mycket snabba partiklar som kolliderar med mycket höga energier utan på en partikel SJÄLV. Till exempel rör sig inte partikel i vila ett stort avstånd, och dess totala energi är inte mycket större än sin egen energi (vilket är $ E = mc ^ 2 $ som du förmodligen vet). I det här fallet finns det ingen ursäkt för att betrakta partikel som ett punktliknande objekt, och modellen misslyckas med att ge meningsfulla resultat.

Så, var oändligheter kommer ifrån? De kommer från antagandet att partiklar är punktliknande, och de förekommer både i klassiska och kvantteorier. Se vad Vladimir skrev om det för mer information.

Och det sista som är relaterat till din fråga: vad är renormalisering?

Renormalisering är följande:

  1. vid första steget betraktas inte partikeln som ett punktliknande objekt. Fysiker säger att den har storleken $ \ lambda $ och utför alla beräkningar för detta "stora" objekt. Naturligtvis visas inga oändligheter.

  2. i det andra steget skiljer fysiker de termer som beror på $ \ lambda $ ("partikelns" storlek) från de termer som gör det inte beroende av $ \ lambda $.

  3. Termerna som inte beror på $ \ lambda $ har någon oberoende fysisk betydelse och är relevanta för att beskriva vissa (men inte alla! ) partiklarnas egenskaper. De beräknas exakt.

  4. Vid nästa steg görs partikelstorleken mindre och mindre, dvs $ \ lambda $ närmar sig noll. De termer som beror på $ \ lambda $ är olika, dvs. när du närmar dig $ \ lambda $ till noll växer de oändligt. Sanningen är att dessa termer inte används för någonting utan de tappas helt enkelt. Så målet för renormaliseringsförfarandet är att separera begränsade termer från ekvationerna och bli av med andra divergerande termer.

Så genom att använda renormalisering kan vi göra modellen "fri" från avvikelser, men ändå kan vi inte använda den för att beräkna några viktiga egenskaper hos partiklarna. Till exempel kan inte partikelns massa och elektriska laddning beräknas, eftersom modellen inte ger oss några kriterier för att identifiera dessa kvantiteter. Dessutom är de partiklar som är kända för att ha olika massor (såsom elektron och muon) inte urskiljbara i termer av denna modell.

Woah! QCD kan inte renormaliseras? Någon borde nog informera Wilczek, Gross och Politzer. http://en.wikipedia.org/wiki/Asymptotic_freedom
Med undantag för den sista delen om att QCD inte kan renormaliseras, gillar jag det här svaret. (Jag är ganska säker på att alla delar av standardmodellen kan renormaliseras eller annars anses det inte vara en giltig teori?) Bortsett från det ser det ut som om de bara gör några funky matematiska knep för att trimma fettet som de inte kan hantera och arbeta med resten under antagandet att de är på rätt väg? Och hur passar symmetri in i detta?
Bortsett från påståendet att QCD inte kan renormaliseras, måste det betonas att denna idé att använda en skala för icke-kontinuitet och ta gränsen när denna skala går till noll delas av kvantfältsteori och vanlig kalkyl. Den enda skillnaden är att skalningslagen i kalkyl är trivial och den matematiska teorin utarbetades (under många århundraden) till den punkt att alla trodde att kontinuiteten var mer eller mindre förstådd. Naturligtvis är detta nonsens, och du måste gå tillbaka till samma begränsande procedurer som ger kontinuum varje gång du får olika strukturer.
@John: Japp, ganska mycket, en teori som inte kan renormaliseras anses inte vara giltig just nu, även om fysiker är öppna för tanken att hitta något sätt att få icke-renormaliserbara teorier att fungera. Allt i standardmodellen _is_ renormaliseras; tyngdkraften är den som inte är det.
Mea culpa, mina herrar. Jag visste inte att QCD kan renormaliseras. Tack för viktiga kommentarer.
@Dimension10: Varför redigerar du den här frågan? Jag tror inte att det är rätt tillvägagångssätt.
Arnold Neumaier
2012-03-04 02:39:48 UTC
view on stackexchange narkive permalink

Punktpartikelidealiseringen som leder till oändligheten avlägsnas genom att införa en liten störning (stor energibrytning = liten avståndsavstängning) i problemet som beror på energibrytningsskalan $ \ Lambda $. Således har vi en familj av modeller beroende på $ \ Lambda $ och modellens ursprungliga parametrar. Fysiken bör vara oberoende av var exakt avskärningen tillämpas, eftersom det inte borde ha betydelse hur liten partikeln är när den är tillräckligt liten.

Fysiken i en modell måste vara oberoende av de parametrar som används i den specifika modellen. I många fall av intresse kan de experimentella uppgifterna beskrivas empiriskt i termer av några fysiska nyckelparametrar, såsom grundläggande observerbara massor och laddningar. Dessa skiljer sig i allmänhet från mass- och laddningskoefficienter som förekommer i vissa modeller. För att särskilja dessa i ett allmänt sammanhang hänvisar man till de modellberoende ko ffi cienterna - såsom kvarkmassorna som nämns ovan - som bara parametrar och till de modelloberoende parametrarna som valts för den fysiska parametreringen - mätbara massor, laddningar etc. relaterade direkt för att experimentera - som renormaliserade eller klädda parametrar.

Syftet med renormalisering är att ändra parametern för $ \ Lambda $ -beroende familj av Hamiltonians på ett sådant sätt att man kan matcha fysiska parametrar på ett numeriskt robust sätt som i huvudsak är oberoende av $ \ Lambda $ (en gång det är tillräckligt stort), så att i slutet av beräkningarna kan man ta gränsen $ \ Lambda \ rightarrow \ infty $ utan svårigheter.

Hur man gör detta förklaras i elementära termer i http://www.mat.univie.ac.at/~neum/ms/ren.pdf - det enklaste exemplet är ett 2-tillståndssystem!

Andra möjligen användbara förklaringar (vissa elementära, andra mindre) finns i kapitel B5: Divergenser och renormalisering av Vanliga frågor om teoretisk fysik .

Vladimir Kalitvianski
2012-01-10 20:09:08 UTC
view on stackexchange narkive permalink

Ja, Coulomb-interaktionspotentialen för två partiklar $ \ propto 1 / r $ tenderar till oändlighet när två punktliknande partiklar närmar sig varandra, $ r $ är deras relativa avstånd. Det orsakar inte ett problem när kraften är avstötande, till exempel vid partikelkollisioner, eftersom energibesparingslagen förhindrar att kolliderande partiklar närmar sig för nära varandra. Det representerar ett problem när man betraktar en attraktiv kraft och bundna partiklar. I bundna tillstånd rör sig partiklarna bredvid varandra och så snart de strålar ut de elektromagnetiska vågorna kommer de närmare och närmare. Den utstrålade energin är skillnaden mellan två positioner, något som $ \ Delta E = q_1 q_2 (\ frac {1} {r_2} - \ frac {1} {r_1}) $, så det skiljer sig när partiklarna kommer för nära varandra. Det motsvarar inte experiment med ändliga energiutbyten och detta representerar den klassiska elektrodynamikkrisen.

I kvantmekanik ersätts partiklarna med vågor. Vågor i begränsade system har ett diskret spektrum av rätt (resonans) frekvenser. Dessa frekvenser bestämmer energispektrumet som blir diskret i QM. Det finns det så kallade marktillståndet där rörelsen fortfarande är möjlig men energin tar sitt minimum. Systemet kan inte ge bort sin energi längre om det är i marktillstånd. Tack vare en icke-trivial rörelse i detta tillstånd kan partiklarna (om vi talar om punktliknande partiklar) inte stanna permanent för nära varandra, så avståndet $ r = 0 $ kan inte nås som ett permanent tillstånd. De säger att det finns "moln" istället för banor. I atomer är molnstorleken mycket större än till och med den korrekta protonstorleken.

Renormalisering av de grundläggande konstanterna är något annorlunda och rör modifieringar ("reparation") av beräkningen resulterar i några dåligt konstruerade teorier.

Men jag känner att frågan handlar exakt om "renormalisering av de grundläggande konstanterna". Jag kanske har fel?
Nej, inte nödvändigtvis konstanterna eftersom jag inte tror att det är vad Kaku hänvisade till, utan snarare till beräkningar som involverar interaktioner mellan partiklar och fält.
Det finns flera "förståelser av renormaliseringar" i litteraturen. A har min egen leksaksmodell här: http://arxiv.org/abs/1110.3702


Denna fråga och svar översattes automatiskt från det engelska språket.Det ursprungliga innehållet finns tillgängligt på stackexchange, vilket vi tackar för cc by-sa 3.0-licensen som det distribueras under.
Loading...