Det bästa sättet att förklara renormalisering är att överväga vad som först ser ut som en fullständig omväg: Mandelbrots fraktala geometri. Mandelbrots geometri, som utvecklades på 1960- och 1970-talet, är nyckelidén bakom stora framsteg inom statistisk fysik i början av 1970-talet, pionjär av Leo Kadanoff (mestadels oberoende), men också associerad med Alexander Polyakov, Michael Fisher, Kenneth Wilson och många andra i 1970- och 1980-talet, bygger på Fenyman och Onsagers klassiska arbete, och dessa idéer ger renormaliseringsteorin sin moderna form.
Grundidén kan sammanfattas i en mening: renormalisering är analysen av matematiska objekt vars fraktal dimensioner på små avstånd skiljer sig antingen från vad du förväntar dig på grund av icke-linjära interaktioner, eller skiljer sig från början till vad du förväntar dig, så att den naiva skalningen modifieras av logaritmer.
Det tillhör verkligen ren matematik, men det utvecklades nästan uteslutande inom fysik, med Mandelbrot som undantag. ted genom en omskalning av x, är x och y relaterade av en kraftlag.
$$ x = C y ^ \ alpha $$
Där C, $ \ alpha $ är konstanter. Kraftlagar är viktiga eftersom de är skalfria, vilket betyder att när du väl väljer en skala för y bestäms skalan för x genom att ställa in koefficienten för kraftlagen till 1, men det finns ingen absolut skala, inga absoluta enheter för y . Detta illustreras bäst med exempel.
Antag att du har en pendel med längden L och en massa som svänger i slutet. Pendelns period är
$$ T = 2 \ pi \ sqrt {L \ over g} $$
Formen på denna relation ger dig ingen information om någon atomlängd skalor. Oavsett vilka enheter du väljer för L kan du hitta lämpliga enheter för T genom att ändra skalan för att göra koefficienten för relationen ordning 1.
Å andra sidan, antar att du tittar på atmosfärens ungefärliga densitet när du går upp i höjden y:
$$ \ rho (y) = C e ^ {- Ay} $$
Beroendet är exponentiellt, så det bestämmer en längdskala, 1 / A. Denna längdskala är relaterad av en kraftlag till de andra parametrarna, som densitet och tyngdacceleration, så det är inte en atomlängdsskala utan en framväxande.
Skillnaden mellan kraftlagar och andra relationer kan förstås från dimensionell analys. Koefficienten för en kraftlag blandar enheterna x och enheterna y, så det möjliggör en samtidig omskalning av båda genom att kompensera belopp. Koefficienterna i ett godtyckligt förhållande väljer en skala för variation så att de inte är skal-invarianta.
Skalningsgränser
När y har en liten diskretitetsskala, som längden på en tråd räknat i antal atomer, förväntar du dig att vid stora antal kommer p-beteendet att vara oberoende av den underliggande diskretiteten. Så att mäta beroendet av pendelns period av längden kommer att vara värdelöst för att avslöja hur stora atomer är.
För att detta ska vara sant måste informationen i y nå en skalningsgräns, beroendet av x på y måste vara oberoende av kornskalan på korta avstånd som definierar kontinuumet.
Här är några triviala exempel: låt $ \ epsilon $ vara atomstorleken och parametern y är en heltalsmultipel av atomskalan:
$$ y = n \ epsilon $$
Om x är en funktion av y som följer lagen
$$ x (y + \ epsilon) = x (y) + \ epsilon y $$
Sedan för liten $ \ epsilon $ får du den $ x (y) = {y ^ 2 \ över 2 } $, och detta är standardräkning. Om x följer lagen
$$ x (y + \ epsilon) = x (y) + \ epsilon x (y) $$
Sedan för små $ \ epsilon $, hitta $ x (y) = Ce ^ y $. I båda fallen bestäms förändringen i $ x $ i varje $ \ epsilon $ -steg av förändringen i y, och stegstorleken blir irrelevant i denna skalning.
Men antag att du är pervers och du bestämmer dig för att skala x-stegen annorlunda
$$ x (y + \ epsilon) = x (y) + \ epsilon ^ 2 x (y) $$
Sedan som $ \ epsilon \ rightarrow 0 $ får du en konstant x! Kvantiteten x slutar ändras när diskretitetsparametern går till noll. Du behöver precis rätt ström på $ \ epsilon $ för att få en icke-privat relation mellan x och y. Om du väljer fel effekt på andra hållet
$$ x (y + \ epsilon) = x (y) + \ epsilon ^ {. 5} x (y) $$
Då skulle x sprängas upp till ett ändligt värde på y som $ \ epsilon \ rightarrow 0 $. Endast en exponent, nämligen den triviella exponenten 1, ger rätt kontinuumgräns.
Detta är de klassiska räkneexemplen på mikroskopisk skalning. Det första icke-privata exemplet är när x (y) är summan av en slumpmässig kvantitet, $ \ eta (y) $, vilket är ett slumpmässigt tal mellan -1 och 1, vid varje diskret position. Då vill du ta gränsen på $ \ epsilon \ rightarrow 0 $ av summan av slumpmässiga nummer, för att få en kontinuerlig version av en slumpmässig promenad. Du försöker göra kalkylsaken:
$$ x (y + \ epsilon) = x (y) + \ epsilon \ eta (y) $$
Men detta val konvergerar till ett konstant x i gränsen för liten epsilon. Anledningen är att summan av N slumpmässiga saker bara växer som $ \ sqrt {N} $, medan termen $ \ epsilon $ undertrycker den med 1 / N. Så för att åtgärda detta behöver du en annan kraftlag på $ \ epsilon $
$$ x (y + \ epsilon) = x (y) + \ epsilon ^ {1/2} \ eta (y) $$
Detta definierar gränsen för stokastisk beräkning. Det finns ett helt matematikfält, Ito calculus, som bara studerar denna skalningslag för kontinuumgränsen. Det är viktigt inom områden som ekonomi, där slumpmässiga promenader förekommer överallt, eftersom alla råvarupriser på en effektiv marknad med begränsade fluktuationer måste vara en slumpmässig promenad.
Så när du har ett diskret system, som en datorsimulering som tar diskreta steg i tid, kan du hitta en konvergerande kontinuerlig gräns för små steg, men bara om du väljer lämplig skalningslag för de kvantiteter som förändras. Skalningslagen för fluktuerande kvantiteter skiljer sig från skalningslagen för jämnt varierande kvantiteter.
För jämna kvantiteter skalas $ \ delta x $ linjärt i $ \ delta y $ eller $ \ epsilon $, och detta är det enda fall som studerats i vanlig kalkyl. Stokastisk Ito-beräkning gör $ \ delta x $ skala som kvadratroten till $ \ delta y $, eller som $ \ sqrt {\ epsilon} $. Mandelbrots rådgivare var Paul Levy, som hade utvecklat teorin om Levy-flygningar, eller slumpmässiga promenader med kraftlagsfördelade steg, så att det finns en viss sannolikhet för stora steg som inte försvinner när du tar en skalningsgräns. I Levy-flygningar erhålls kontinuumsgränsen genom att skala $ \ delta x $ som $ \ epsilon ^ \ alpha $ där $ \ alpha $ är en kontinuerlig justerbar parameter.
Detta innebär att Mandelbrot hade en viktig ny perspektiv --- han förstod att i naturfenomen, där kontinuiteten alltid framträder på långa avstånd som en approximation till något litet och kornigt, behöver inte skalningslagarna begränsas till helkrafter eller till och med rationella krafter. Du kan ha godtyckliga skallagar som definierar olika kontinuitetsgränser. Detta beteende skulle definiera regelbundenheter i fluktuationer som du ser i naturen, som den grova formen av kustlinjer eller de ojämna formerna av berg.
Dessa idéer är utvecklade av Mandelbrot i "The Fractal Geometry of Nature", i ett sätt som är tillgängligt för alla, eftersom det inte förutsätter någon djup förkunskap om matematik.
Fraktal geometrisk skalning
Tänk på en fraktal form, ta Koch-kurvan för bestämning. Om du beräknar kurvens längd måste du ange längden på linjalen med avseende på vilken du beräknar längden. När linjalen blir liten går den totala längden på kurvan till oändligheten som en kraft, $ 1 / l ^ d $ där d är kurvens fraktala dimension.
Betydelsen av detta är inte obskyr- - formen är oregelbunden på små avstånd, så att begreppet längd inte är tillämpligt, och de vanliga skallagarna för längd för differentierbara kurvor, att antalet kopior av en linjal med längden l som passar i kurvan avviker som $ L / l $ bryts, och brott mot lagen finns i exponenten.
När du har mikroskopiskt fraktala former, ändras de skalningslagar du intuitivt förväntar dig från exemplet med differentierbara former och kvantiteter som var ursprungligen ändlig, som längden, blir oändlig. Vidare uttrycks processen för att definiera fraktalformen mest bekvämt med hjälp av det som kallas i fysik en regulator --- med användning av en fiktiv ändlig längd l som är längden på linjalen för att mäta formen och titta på kvantiteter som är stabila i gränsen $ l \ rightarrow 0 $.
Så längden på Koch-kurvan är inte meningsfull, den är oändlig, men koefficienten för uppblåsning av kraftlag som relaterar längden till Jag är ändlig och är Hausdorff-måttet på Koch-kurvan, den analoga uppfattningen till längden för en fraktalkurva.
Fraktala fluktuationer i fasövergångar
Betrakta en statistisk fluktuerande kvantitet, som vätskans densitet i termisk jämvikt. För vanliga temperaturer finns det fluktuationer i atomskalan, och dessa fluktuationer ligger i genomsnitt på makroskopisk skala, så att vätskan ser likformig ut.
Men när du ställer in trycket och temperaturen till den vätske / gaskritiska punkten, blir fluktuationerna korrelerade, så att stora makroskopiska bitar av gas-vätskehybriden har högre densitet i vissa regioner, medan de har låg densitet vid andra regioner. Detta är uppenbart experimentellt eftersom en klar vätska vid den kritiska punkten blir mjölkvit, eftersom densitetsfluktuationerna på skalans våglängd nu är betydande.
För att beskriva detta system behöver du den genomsnittliga densiteten över många volymer i atomstorlek som en funktion av position. Definiera långdistansdensitetsfunktionen $ \ phi (x) $ för att vara den genomsnittliga densiteten för vätskan vid varje punkt över en ruta med längden $ l $. Du kan skapa ett galler av storlek l, och det finns en statistisk lag som berättar hur sannolikt densiteten är att ha ett givet värde, med tanke på densiteten vid angränsande positioner. Den statistiska lagen har formen av en sannolikhetsfördelning för densiteten vid en plats x, med tanke på densiteten på närliggande platser y.
Densitetslagen kan uttryckas matematiskt enligt följande:
$$ - \ log (\ rho (x)) = \ sum_ {<y, x>} (\ phi (x) - \ phi (y)) ^ 2 + V (\ phi) $$
Detta har en enkel betydelse --- densiteten vid en punkt har ett medelvärde som bestäms av grannarnas värde, med en total dragning till något föredraget värde beskrivet av $ V (\ phi) $. Formen på $ V $ kan anses vara ett polynom (detta förklaras senare)
$$ V (\ phi) = a \ phi ^ 2 + b \ phi ^ 4 $$
där parametern b måste vara positiv. Genom att ställa in parametern a kan du nå en punkt där fluktuationerna uppträder i alla längdskalor, och vid denna tidpunkt kan gitteret göras godtyckligt litet och du hittar en kontinuumgräns om du skalar $ \ phi $ på lämpligt sätt.
Gränsen $ \ epsilon \ rightarrow 0 $, $ \ phi \ rightarrow \ epsilon ^ {\ alpha} \ phi $ kan tas så att fluktuationerna blir oberoende av gitteret. Parametern $ \ alpha $ är den fraktala dimensionen av $ \ phi $. För $ V = 0 $ beror fältets fraktaldimension bara på dimensionen och har ett värde. Men för den faktiska formen av V ändras fraktaldimensionen från det naiva värdet.
Kvantfältsteori är samma sak
Kvantfält definieras av en Feynman-väg integrerad över fält värden. De kan också förstås för att beskriva partikelfluktuationerna, men fältbilden är bäst här.
Feynman-vägintegralen säger att man måste överväga alla möjliga kvantfältfluktuationer mellan den initiala tiden och den sista tiden för att beskriva kvant-sannolikhetsamplituden går från en gång till en annan. Detta är den grundläggande formuleringen av kvantmekanik i Feynman Lagrangian-metoden.
Men det finns en enkel matematisk relation mellan Feynmans kvantmekaniska vägintegraler (åtminstone för bosoniska fält) och statistiska fördelningar. De två är relaterade med en formell metod som kallas Wick rotation, eller imaginär tidsformulering.
Wickrotationen hos vanlig kvantmekanik är Ito-beräkning av Brownian-vägar. Wick-rotation av fältteori gör varje (bosonic real-action) fältteori till ett statistiskt system, vars skalningslagar har fraktala (eller anomala) dimensioner. Fraktaldimensionerna betyder att det typiska fältet i fördelningen ser likadan ut efter omskalning av utrymme med L och fältet med en kraft av L.
Renormaliseringslogaritmer
I realistiska kvantfältsteorier i fyrdimensionell rymdtid modifieras de faktiska skallagarna endast av logaritmer. Dessa logaritmer är ett tecken på en begynnande förändring av exponenten. Anledningen är att två slumpmässiga promenader bara korsar sig marginellt i fyra dimensioner, om man tittar på två slumpmässiga promenader på ett galler som börjar vid två positioner ett fast avstånd från varandra, är sannolikheten att de kolliderar till noll som logaritmen för gitteravståndet.
En logaritm är bara gränsen för en exponent för små värden för exponenten. Om du tittar på en kraftlag med en något annan exponent
$$ x = y ^ {\ alpha + \ epsilon} = y ^ {\ alpha} y ^ \ epsilon = y ^ \ alpha e ^ {\ epsilon \ log y} = y ^ {\ alpha} (1 + \ epsilon \ log y + {\ epsilon ^ 2 \ över 2} \ log ^ 2 y + ...) $$
Den ursprungliga skala-invariansen i förhållandet mellan makt och lag verkar brytas av logaritmerna, men det är bara modifierat. Om du skalar y med ett belopp $ A $, skalar du $ x $ med $ A ^ {\ alpha + \ epsilon} $, vilket ger $ \ epsilon $ ändringar i dimensionen $ x $.
Mängderna i fyrdimensionell kvantfältsteori har oändligt modifierade dimensioner på detta sätt på oändliga avstånd där längdskalan associerad med massan av partiklarna inte längre är synlig. Dessa logaritmiska korrigeringar för skalning gör den fyrdimensionella teorin både matematiskt enklare och begreppsmässigt svårare, eftersom de nya fraktala skalningslagarna inte är lika uppenbara.
I tre dimensioner får skalära fältteorier bara avvikande dimensioner. Ett av de mer intressanta sätten att beräkna fraktaldimensionerna är att använda de kända logaritmerna i fyra dimensioner för att hitta beroendet av fraktaldimensionen på rymdens dimension, och detta ger förutsägelser för den vätskekritiska skalningen som matchar experimentdata och dator simuleringar mycket exakt.