哈勃疑难:危机, 机遇, 虚惊一场?

王少江(中国科学院理论物理研究所)

 

作为这个可观测宇宙中的一位智慧公民,一个需要知道的基本事实是,我们现在的宇宙正在膨胀。那么一个基本的问题是,我们现在的宇宙是在以多快的速度膨胀呢?虽然我们在一百年前就已经定性地知晓了这个观测事实,但是直到最近都无法在定量上达成一致的意见。这究竟是观测对理论提出的危机挑战,还是理论本身得以改进的历史机遇,抑或是观测上系统误差导致的虚惊一场 ?

 

百年征程

事情追溯到大约一百年前的二十世纪二十年代。宇宙学的理论研究发端于爱因斯坦将他的广义相对论应用于整个宇宙。由于爱因斯坦基于静态宇宙的错误信念,在爱因斯坦方程中引入了产生斥力的宇宙学常数项,以抵消物质的引力效应,因而错失了预言宇宙膨胀的重大发现。当然,宇宙学常数项后来以暗能量的形式借尸还魂以解释当前宇宙晚期加速膨胀这一观测事实,算是后话。宇宙学的观测实验发端于Edwin Hubble(如下图,于1931年摄自Johan Hagemeyer)

Studio portrait photograph of Edwin Powell Hubble (cropped).JPG

发现的哈勃定律,

v\approx H_0D ,

其中 v 是星系的退行速度,它可以由星系光谱的红移 z 通过 Fizeau-Doppler 公式得到,即

z=\frac{\lambda_o-\lambda_e}{\lambda_e}=\sqrt{\frac{1+v/c}{1-v/c}}-1\approx\frac{v}{c} .

D 是星系到我们的固有距离,它可以由星系的光度距离近似,

D\approx\frac{c}{H_0}\left[z+\frac12(1-q_0)z^2+\cdots\right]

最后被称为哈勃常数的正比例常数 H_0 则可以从当年粗糙的数据中线性拟合得到(如下图,取自哈勃1929年原始论文)。  

国际天文联盟(IAU:International Astronomical Union)曾在2018年10月26日投票将哈勃定律改名为 Hubble–Lemaître 定律,以纪念比利时天文学家 Georges Lemaître(如下图)。

Georges Lemaître 1930s.jpg

他在1927年的一篇法语论文中重新推导了 Friedmann 方程(描述膨胀宇宙的爱因斯坦方程),并从理论上发现了遥远星系的红移正比于它的距离,而且还用当时的观测数据估算了该正比例常数。哈勃和 Lemaître 在1928年7月 Leiden 举行的第三届IAU大会上曾经交换过河外星系的红移和距离之间的关系。在随后的1929年哈勃发表了他那篇载入史册的观测宇宙学的发端论文,并在之后的1931年和他的合作者 Humason 采用了最新的星系退行速度的数据。自此之后,宇宙学膨胀被广泛地称作哈勃膨胀。在1931年,应英国皇家天文学会月刊的邀请, Lemaître 将他1927年法语原始论文翻译成英语,但是他有意删掉了推导宇宙膨胀律的那个章节,认为无此必要。这段故事可以参看IAU的会议记录文件【https://www.iau.org/static/archives/announcements/pdf/ann18029e.pdf】。

现在我们知道,Hubble–Lemaître 定律只是一个更加基本的关系在我们现在这个时刻的体现。事实上,在一个由 Friedmann–Lemaître–Robertson–Walker 宇宙学度规描述的膨胀宇宙中,某个时刻某段固有距离 d_p(那个时刻的尺度因子 a(t) 与那个时刻那段固有距离对应的共动距离 d_c 的乘积)对应的速度 v_p(t)

v_p(t)\equiv\dot{d}_p(t)\equiv\dot{a}(t)d_c=H(t)d_p(t)

正比于该时刻这段固有距离 d_p(t),比例系数 H(t) 称为哈勃参数,它是一个随时间演化的物理量,反映的是宇宙背景的膨胀速度。对于一个膨胀的宇宙,H(t) 随时间是减小的,因而在低红移端(近距离)星系的本动速度有可能掩盖宇宙背景的膨胀速度,然而在近低红移端(不太远的距离)固有距离不能简单地采用光度距离泰勒展开的线性项,因此将 v_p(t=0)=H_0 d_p(t=0) 写成 Hubble–Lemaître 定律 v=H_0D 或者 v=cz 的形式仅在一小段低红移(0.001\ll z\ll 1)上成立。

利用 Hubble–Lemaître 定律对哈勃常数的估算,在之后的半个世纪内仅能在量级上给出估计,直到最近的半个世纪才将哈勃常数确定在 50km/s/Mpc ~ 100km/s/Mpc 之间,并且直到最近二十年才将误差逐步减小到百分之几的程度(如下图)。

距离阶梯

那么对哈勃常数的测量为什么存在如此大的不确定性呢?这需要从天文学上对宇宙学尺度的距离的测量说起。首先,我们举一个生活中的例子:你看到夜晚道路的远方站着一个人,他旁边的那盏路灯的光强是离你最近的那盏路灯的光强的四百分之一。因为每盏路灯都是同一家厂家根据同样的标准生产出来的,所以你可以在很大程度上认为每盏灯的额定功率是一样的。由于光强是按距离的平方反比衰减,因此你可以断言那个人离你的距离是离你最近的那盏路灯的距离的二十倍。这时候你只需要拿出标准的刻度卷尺实地测量一下离你最近的那盏路灯的距离即可。

 

现在,我们做如下一番替换就得到了天文学上所谓距离阶梯的测距方法:这一排路灯就是所谓 Ia 型超新星遗迹(如下图,来自HST G299),

它由一种特殊的碳氧白矮星在吸积它伴星的物质后,总质量超过其临界质量(1.44个太阳质量)时,达到点火温度重启碳聚变,从而诱发的白矮星爆炸所产生的遗迹。通过对爆发过程中光度曲线的连续监测(如下图),

确定其光极大时刻和对应的光度,从而得到光极大时刻的标准绝对星等,大致都在 M_V=-19.3 附近(V 代表可见波段),比太阳光强约五十亿倍。由于 Ia 型超新星爆发前都在临界质量附近,故而称为标准烛光(standard candle)。然而实际的情况可能更加复杂一点,因为离我们最近的那盏路灯(即某些近邻的 Ia 型超新星),我们仍然无法通过几何方法(类比自上面生活实例中的直接用刻度尺测量)准确测定其距离,因而需要其它可以作为标准烛光的天体,来定标这些近邻的 Ia 型超新星的距离。

应用最广泛的定标 Ia 超新星的标准烛光天体是造父变星,原因有三:第一,有些造父变星和某些近邻的 Ia 型超新星共享同一个宿主星系(如下图,来自HST),因而只要定出该宿主星系中哪怕一颗造父变星的距离,我们就知道了该宿主星系中那颗近邻的 Ia 型超新星的距离;

第二,造父变星作为标准烛光的基础来自其光变周期与光度的关联关系(如下图,来自NASA TESS);

第三,对于离我们最近的某些银河系内的造父变星,目前已经可以通过其它几何方法(如三角视差法)直接测距(如下图,来自ESA)。

总而言之,通过上述三级距离阶梯测距方法(如下图,来自NASA, ESA, A. Feild (STScI), and A. Riess (STScI/JHU)),

首先通过三角视差法直接测距银河系内的造父变星,然后通过造父变星的标准烛光性质外推到某些宿主星系并定标其中的 Ia 型超新星,再利用 Ia 型超新星的标准烛光性质外推到哈勃流(Hubble flow)中的其它 Ia 型超新星,最后根据哈勃流中的 Ia 型超新星的距离模数(视星等与绝对星等之差)与光度距离的关系,在假设宇宙学标准模型的情况下计算出哈勃常数(如下图,来自A. Riess)。

具体来说,从距离模数的定义出发,

m=M+25+5 \log_{10}D_L(z)=M+25-5 \log_{10}H_0+5 \log_{10}c d_L(z)

我们可以将其中的光度距离(已做重标度化以使其不依赖于 H_0)作泰勒展开,

d_L(z)\equiv\frac{H_0}{c}D_L(z)=z\left[1+\frac12(1-q_0)z-\frac16(1-q_0-3q_0^2+j_0)z^2+\cdots\right] ,

并取其中的减速参数 q_0=-0.535(此即减速参数在宇宙学标准模型中的值),jerk 参数 j_0=1,然后在已经用天文学方法定标超新星绝对星等 M_\mathrm{SN}^\mathrm{astro.} 的清况下,利用哈勃流中的超新星的视星等 m_\mathrm{SNe}^\mathrm{flow},解得哈勃常数 H_0 值。

为了减小上述计算对晚期宇宙学模型的模型依赖性,Dhawan, Brout, Scolnic, Goobar, Riess, 和 Miranda 等人在“Cosmological model insensitivity of local H0 from the Cepheid distance ladder” 【arXiv: 2001.09260】一文中没有对光度距离 d_L(z) 作泰勒展开,而是具体选取了一系列晚期宇宙学模型来直接计算 d_L(z),从而得到与这些晚期宇宙学模型依赖的 H_0 值。但是令人惊奇的是这些 H_0 值对事先选取的晚期宇宙学模型并不敏感(如下图,取自 【arXiv: 2001.09260】),其值均在74 km/s/Mpc 附近。因此,可以说距离阶梯“直接”测量的哈勃常数值在很大程度上是与晚期宇宙学模型无关的。

非距离阶梯测距

但是造父变星作为标准烛光定标 Ia 超新星也有其固有缺陷,比如多个造父变星经常聚集在星系内,并且受到星系尘埃和气体的包裹,需要极为审慎的消光处理。因此,天文学家还利用其它标准烛光天体来定标 Ia 超新星,比如红超巨星支点(Tip of Red Giant Branch)和 Mira 变星。这些定标 Ia 超新星(甚至某些 II 型超新星)的测距方法统称为距离阶梯测距法。但是,由于距离阶梯测距法利用了多重天体层层定标,可以预见累计误差会很可观。因此,天文学家还发展了另外一大类与距离阶梯无关的测距方法,比如脉泽星(Masers),表面光度扰动(Surface Brightness Fluctuations),Tully-Fisher 关系,强引力透镜时间延迟(Strong Lensing Time Delay),和引力波标准汽笛(Gravitational-Wave Standard Sirens)等。限于篇幅,这里仅简单介绍强引力透镜时间延迟和引力波标准汽笛对哈勃常数的测量。

 

强引力透镜时间延迟

作为光源的类星体,它的光线在经过一个星系时,由于引力势阱的光线偏折效应,当我们回溯到达我们的类星体光线,会发现多个类星体像(如下图,取自 https://doi.org/10.1063/PT.3.4424),

这些像在大多数情况下呈现非对称的排布,因而不用光路耗时是不同的,

\Delta t=\frac{1}{c}D_{\Delta t}\Delta\phi ,

具体来说它与时间延迟距离,

D_{\Delta t}=(1+z_\mathrm{d})\frac{D_A(z_d)D_A(z_s)}{D_A(z_s)-\frac{1+z_d}{1+z_s}D_A(z_d)} ,

和星系的费马势 \Delta\phi 有关,而费马势来自对星系质量径向分布函数的估计(如下图,取自【arXiv: 2007.02941】)。

起初质量径向分布函数被简单地假设为幂律形式,由此 TDCOSMO 实验组测得的哈勃常数值在 73 ~ 74 km/s/Mpc。但是最近 TDCOSMO 实验组改变了策略,采用另外一组没有强引力透镜现象的 SLACS 星系样本实际估算其质量径向分布函数,由此得到的哈勃常数值降至 67 km/s/Mpc 附近(如下图,取自【arXiv: 2007.02941】)。

引力波标准汽笛

致密双星系统的旋进(inspiral)和并合(merger)阶段会辐射引力波,其旋进阶段辐射的引力波波形为

h_\times=\frac{4}{D_L(z)}\left(\frac{GM_c(z)}{c^2}\right)^{5/3}\left(\frac{\pi f}{c}\right)^{2/3}\cos\iota\sin[\Phi(f)] ,

其中 D_L(z) 是光度距离, M_c(z) 是红移后的啁啾(chirp)质量,\iota 是双星系统轨道平面相对我们视线方向的倾角,\Phi(f) 是相位。将测得的旋进阶段的引力波信号与上述引力波型做模板匹配,可以直接测得光度距离 D_L。如果该引力波源系统同时还拥有电磁对应体(比如双星中有一个是中子星),且其发射的电磁波信号能够被我们观测到(即双星系统的轨道倾角小于20度),那么可知其红移 z,那么由 Hubble–Lemaître 定律 cz=H_0D_L 可以直接测得哈勃常数值 H_0(如下图,取自【arXiv: 2009.04427】)。

如果该引力波事件没有对应的电磁波信号,那么需要多台引力波探测器联网定位该引力波事件的方位。如果在该方位上正好有已知的宿主星系的红移信息,那么也可由此测得哈勃常数值。比如将美欧航空局的LISA空间引力波探测器与中国的太极引力波探测器联网,可以借助上述暗汽笛的方法,利用5年的联网观测,有望将哈勃参数的限制精度提升到1%以内。详细请见【http://www.itp.cas.cn/kxyj/kydt/202104/t20210409_5991325.html】。

 

宇宙微波背景辐射

然而,所有以上测距方法都是从我们的局域宇宙出发的视角来“直接”测量哈勃常数,另一种非直接测量哈勃常数的方法来自整个微波背景辐射面上的观测数据(WMAP卫星和Planck卫星)对宇宙学标准模型 \LambdaCDM 的全局拟合。

简单来说,在宇宙诞生后1秒钟之内,经历了重子合成(产生正反物质的不对称性)、电弱相变(标准模型粒子借助希格斯机制获得质量),QCD 相变(三夸克禁闭为重子,二夸克禁闭为介子),暗物质脱耦和中微子脱耦。这些过程的粒子物理机制还没有获得理论上的共识以及实验上的证实,因此仍属于宇宙学历史的未知部分。但是在这之后的三分钟内,其核物理过程相对来说十分清晰,依次经历了正反电子湮灭和原初核合成(形成氢氦锂等较轻的元素)。等到宇宙再经历二三十万年直至再复合时期(随着宇宙膨胀温度下降,电子和质子复合形成氢放出光子的过程压过其电离逆过程)和光子脱耦(由于再复合消耗了大量电子,使得之前通过 Thomson 散射而强烈耦合的光子和电子脱耦合),宇宙这才变得透明。然后这些最后散射面上的光子(光子最后一次 Thomson 散射时刻的空间截面)在飞行了一百三十八亿年后达到我们,成为我们观测到的微波背景辐射(CMB:Cosmic Microwave Background)。

这个微波背景辐射的功率谱是一个几近完美的黑体辐射谱,其特征温度可以被精确地测定为 2.7255 开尔文。由 CMB 卫星记录到的 CMB 光子的温度涨落与方向有关,其两点关联函数与两个方向的夹角有关,变换到球谐函数空间后,就成为了诸如 WMAP 和 Planck 等 CMB 实验组最后处理得到的角功率谱(如下图,取自 Planck2018)。

 

 

从该角功率谱出发得到哈勃常数值仍是一个高度模型依赖且崎岖的过程。大致来讲,以标准宇宙学模型 \LambdaCDM 为基础模型,它包含六个基本参数:描述原初的近尺度不变的高斯型绝热标量扰动功率谱的振幅 A_s 和标量谱指标 n_s

P_R(k)=A_s\left(\frac{k}{k_0}\right)^{n_s-1} ,

描述宇宙膨胀历史的 Friedmann 方程中的物理的重子能量密度比例 \omega_b\equiv\Omega_bh^2 和物理的暗物质能量密度比例 \omega_{cdm}\equiv\Omega_{cdm}h^2

H(a)^2=\omega_\Lambda+(\omega_b+\omega_c)a^{-3}+\omega_r(a)a^{-4} ,

其中物理的辐射能量密度比例 \omega_r\equiv\Omega_rh^2 在正负电子湮灭前为

\omega_r(a)=\frac{g(a)}{2}\left(\frac{4}{11}\right)^\frac{4}{3}\omega_\gamma ,

在正负电子湮灭后为

\omega_r(a)=\left[1+\frac{7}{8}\left(\frac{4}{11}\right)^\frac{4}{3}N_\mathrm{eff}\right]\omega_\gamma ,

其中,物理的光子能量密度比例\omega_\gamma\equiv\Omega_\gamma h^2 完全由 CMB 温度 T_0 决定,

\omega_\gamma=2.473\times10^{-5}\left(\frac{T_0}{2.7255}\right) ,

自由度数目的演化 g(a) 由粒子物理标准模型给出,而有效自由度数目 N_\mathrm{eff} 在粒子物理标准模型下的值为3.046。

目前唯一未知的量是宇宙学常数对应的能量密度比例 \omega_\Lambda\equiv\Omega_\Lambda h^2,它可以由标准宇宙学模型 \LambdaCDM 的最后两个基本参数定出:Thomson 散射光深 \tau 决定了最后散射面的红移位置  z_*,角功率谱中第一个声学峰对应的各向异性特征角尺度 \theta_*,它是声学视界在最后散射面上相对我们的角直径距离的张角,即

\theta_*\equiv \frac{r_s(z_*)}{D_A(z_*)}=\frac{\int_{z_*}^\infty\frac{\mathrm{d}z}{H(z)}c_s(z)}{\frac{c}{1+z_*}\int_0^{z_*}\frac{\mathrm{d}z}{H(z)}} ,

其中声学视界是由光子脱耦前与重子强烈耦合而形成的重子-光子流体在原初扰动下的振荡声波传播的距离,其传播声速完全由前文已知的物理的重子和光子的能量密度比例决定,

c_s^2(a)\equiv\frac{1}{3\left(1+\frac34\frac{\rho_b(a)}{\rho_\gamma(a)}\right)} .

至此,我们可以调节 \omega_\Lambda 的值使得 \theta_* 与观测值一致,然后将该 \omega_\Lambda 值带入前文的 Friedmann 方程,取现在时刻的尺度因子 a=1 即得 H_0 值。这就是从 CMB 数据用宇宙学标准模型 \LambdaCDM 全局拟合得到的哈勃常数值。

 

观测危机

然而令人惊奇的是,随着局域直接测量和全局模型拟合两方面的误差越测越小,它们对哈勃常数值出现了显著置信度的偏差,此即所谓哈勃疑难或者哈勃危机(Hubble tension)(如下图,自制,勿转,侵究,all copyright reserved)。

其中灰虚线代表局域距离阶梯测量结果,灰实线代表局域非距离阶梯测量结果,贯穿整个图表的红实线条带代表用全部Planck数据全局拟合结果。从上至下头三个红色色块分别代表用大尺度、中尺度和小尺度的 CMB-SPTpol 数据的全局拟合结果,中间三个色块分别代表几个不同的 CMB-EE 极化数据的全局拟合结果,最后三个色块是分别代表(1)与 CMB 数据无关的来自 重子声学振荡(BAO:Baryon Acoustic Oscillations)联合原初核合成(BBN:Big Bang nucleosynthesis)的全局拟合结果;(2)与 CMB 数据无关的背景伽马射线的全局拟合结果;(3)与晚期局域距离阶梯直接测量无关的反向距离阶梯(inverse distance ladder:BAO+SNe+CMB)的全局拟合结果。限于篇幅,这里仅简单介绍 BAO+BBN 和反向距离阶梯这两种测量结果。

BAO+BBN

重子声学振荡(BAO:Baryon Acoustic Oscillations)是光子脱耦前,重子与光子通过 Thomson 散射强烈耦合,形成重子-光子流体。原初扰动在这片重子-光子流体上引起的涟漪,类似水面上的声波一样在各点向外传播。等到光子脱耦后,重子物质不再对光子亦步亦趋,而是转而落入暗物质扰动增长形成的势阱中,最终一起引力坍缩为星系的大尺度结构,将声波在最后散射面(实际上是稍晚的重子拖拽时刻)上的印记永久地封印于星系的空间分布中。这个印记被成为标准尺子(standard ruler),它是重子-光子流体的声波振荡传播到最后散射面时刻的声学视界的共动尺度。通过测量我们局域宇宙中星系的位置的两点关联函数,我们可以获得早期宇宙最后散射面时刻的声学视界的尺度信息。BAO测量的特征角尺度为

\theta_\mathrm{BAO}(z)=\frac{\int_{z_D}^\infty\frac{c_s(\omega_b,z')\mathrm{d}z'}{H(z')}}{\int_0^z\frac{\mathrm{d}z'}{H(z')}}=\frac{\int_{z_D}^\infty \frac{c_s(\omega_b,z')\mathrm{d}z'}{\sqrt{\Omega_r/\Omega_m(1+z')^4+(1+z')^3}}}{\int_0^z\frac{\mathrm{d}z'}{\sqrt{(1-\Omega_m)/\Omega_m+(1+z')^3}}} ,

其中重子物质的信息未知。但是原初核合成(BBN:Big Bang nucleosynthesis)提供了宇宙中的氦和氘的含量对有效自由度数目 N_\mathrm{eff} 和物理的重子密度比例 \omega_b 的依赖关系,该关系与实际测量到的宇宙中的氦和氘的含量相对比即可得到 \omega_b。因此联合 BAO+BBN 可以直接限制 H_0-\Omega_m 的关系(如下图,取自【arXiv: 1907.11594】),

可以看到,BAO+BBN 的全局拟合结果(红色)与 CMB(紫色)相容而与局域直接测量(黄色)偏移。由于这种方法没有使用任何 CMB 的数据,因此可以比较有把握地说,哈勃常数危机并不由 CMB数据的使用直接引起。

反向距离阶梯

原则上有多种反向距离阶梯,取决于选用何种数据组合。但是无论哪种组合,反向距离阶梯的共同点是不使用局域直接测量的 H_0 值。最常用的数据组合是 \mathrm{SNe+BAO+}r_d\mathrm{(CMB-Planck)},其中 r_d(CMB-Planck) 是来自 CMB 对声学视界的 Planck 值。之所以需要 CMB 提供 r_d,是因为 BAO 并不直接测量声学视界的大小,而是测量的下列组合量(BAO 的横向和纵向特征尺度)

\frac{D_A(z)}{r_d}=\frac{\alpha}{1+\epsilon}\frac{D_{A,f}(z)}{r_{d,f}} ,

H(z)r_d=\frac{H_f(z)r_{d,f}}{\alpha(1+\epsilon)^2} ,

对事先假定的基准模型的偏移量 \alpha\epsilon,其中角直径距离需要通过均匀性假设下的对偶关系,

D_A(z)=\frac{D_L(z)}{(1+z)^2} ,

变换到光度距离才能代入到超新星的距离模数关系中。除非我们使用 Alcock-Paczynski test 将 D_A(z)/r_dH(z)r_d 乘起来消去声学视界 r_d,否则 SNe+BAO 的数据组合总是需要事先提供 r_d 值。因此,使用数据组合 SNe+BAO+r_d(CMB-Planck),对某个假定的晚期宇宙模型,可以限制得到相应的哈勃常数值。比如,George Efstathiou 在 “To H0 or not to H0 ? ”【arXiv:2103.08723】一文中,对一个晚期的幽灵(phantom)暗能量模型给出了如下限制(如下图,取自【arXiv:2103.08723】),

其中大的幽灵暗能量 \Delta(即导致大的哈勃常数值)对应小的幽灵转变红移 z_c,而大的幽灵转变红移 z_c 则对应于不足以导致大 H_0 的小 \Delta。因此,限制得到的哈勃常数值以及“绝对光度”值均不与局域直接测量值相容(如下图,取自【arXiv:2103.08723】)。

这里值得注意的是 BAO+BBN 和反向距离阶梯这两种测量,它们前者与 CMB 无关,后者与局域 H_0 测量无关,但是它们都和 CMB+\LambdaCDM 全局拟合结果相容,而与局域 H_0 测量结果存在显著置信度的偏差。然而所谓哈勃危机正是出现在CMB+\LambdaCDM 全局拟合结果和局域 H_0 测量结果之间。那么问题究竟出在哪儿?

理论机遇

科学研究的进步通常有赖于观测实验技术的进步。观测实验永远无法证实一个模型,它只能在其误差范围内,通过不断证伪其他模型,从而衬托出一个符合目前所有观测实验的模型。目前宇宙学标准模型和粒子物理标准模型(加上中微子振荡)正是一个这样的模型。然而,观测实验没有发现超出现有标准模型的反常迹象,固然令人鼓舞,却并不总是令人欣喜。理论学家总是期待超出现有标准模型的反常迹象,但是当这样的观测实验证据真的到来时,却会变得愈加小心翼翼。事实上,我们通常会从问题的直接原因出发,即观测实验是不是出错了,然后才会从现有标准模型的外围假设开始检视和测试。等到对外围的模型假设的各种可能的修改都不起作用时,我们才会逐次深入模型的核心假设。除非我们拥有超人的天才,否则我们一开始通常不会去触及模型的核心区域,毕竟不是每一次问题的核心都来自模型的核心。

系统误差

对于前文提到的哈勃常数疑难,在我们确认各种观测实验都没有出现令人难以容忍的重大差错时,我们才会将它提升到哈勃常数危机的高度。但是,令人遗憾的是,这种最简单的可能性往往也是最难检验的,特别是对于我们理论工作者来说。因此,我们将这种可能性留待最后一个章节介绍,而仅在这个章节的剩余部分,对我们的宇宙学标准模型,像剥洋葱一样层层检视它的各级理论假设。

扩展模型

首先,最外围的假设是宇宙学标准模型的参数选择,即固定了六个基本参数的的基准模型。事实上,适当放开其它几个参数,并不会对宇宙学标准模型产生重大的修正。比如,我们允许宇宙学常数项在晚期宇宙有一点点动力学(w(a)=w_0+w_a(1-a), w_a\neq0),允许在 BBN 前有一点点额外的自由度数目 (N_\mathrm{eff}>3.046),允许宇宙的空间截面有一点点曲率(\Omega_k\neq0),诸如此类(如下图,取自 【A. Rises et al. 2019】)。

很遗憾,这些小的修改,除了让模型参数的不确定度稍稍增大以外,并没有让这样的扩展模型预言的 H_0 中心值明显地偏向局域直接测量 H_0 值(如下图,取自【arXiv:2105.12312】)。

因此,我们需要审视模型的次外围假设,即宇宙学标准模型的组分构成,这将直接影响宇宙历史的具体演化。因为哈勃常数危机可以粗略的认为是来自早期宇宙的测量信息与晚期宇宙的测量信息之间的矛盾,因此对模型组分的修改也可以粗略的分为对早期宇宙和对晚期宇宙的修改。但是无论何种修改,它都应该与现有的观测数据相吻合。由于我们目前对晚期局域直接测量 H_0 仍然存有异议,因此修改后的模型至少应当符合 CMB 和 BAO的观测结果。

CMB 和BAO 本质上测量的主要是声学视界的角尺度大小 \theta_*,它是声学视界在最后散射面的大小 r_s(z_*) 与最后散射面到我们现在的角直径距离 D_A(z_*) 之比。一方面,由于 D_A(z_*) 反比于 H_0,因此为了增大 H_0,在不改变角尺度 \theta_* 大小的情况下,需要减小声学视界 r_s(z_*) 的大小。另一方面,在保持 BAO 的其中一个各向异性测量 H_0r_s=\mathrm{const.} 不变的情况下,为了增大 H_0,也需要减小声学视界的大小。

修改早期宇宙

减小声学视界的办法有两种:一种是减小声波传播的时间,另一种是直接减小声速本身。减小声波传播的时间可以通过修改光子脱耦过程中的再复合历史以使得再复合时期提前,而减小声速可以通过修改光子脱耦前的膨胀历史。

修改再复合历史可以通过修改电子和质子的再复合率,比如加入原初磁场(参看【arXiv:2004.09487】),允许非标准的再复合历史(参看【arXiv:1811.03624】),甚至是改变基本常数在早期宇宙的值(参看【arXiv:1912.03986,2007.03381】)。

而修改膨胀历史可以通过向早期宇宙中注入新的能量组分,比如暗辐射和暗能量。先来看暗辐射:由于 BBN 已经强烈地限制了 BBN 之前的有效自由度数目,因此必须在 BBN 之后才能引入暗辐射,从而不破坏 BBN 之前的有效自由度数目限制。如果引入的暗辐射是类似光子那种可以自由流动(free streaming)的辐射组分,那么它将冲刷掉小尺度的辐射扰动,从而改变 CMB 功率谱在小尺度上的 Silk 衰减尺度(Silk damping scale)(如下图,取自https://ned.ipac.caltech.edu/level5/March05/Scott/Scott4.html)。

事实上,引入自由流动的暗辐射是无法同时保持声学峰和Silk 衰减尺度都不变的。因此只能引入不能自由流动的暗辐射,比如具有强烈自相互作用的中微子(参见【arXiv:1902.00534】),但是这样又会导致的 CMB 极化特征与CMB数据并不相符(参见【arXiv:2012.07519】)。

因此我们将注意力转向引入早期暗能量:最简单的例子是轴子场(参见【arXiv:1811.04083】)。调节轴子势函数的形状,使得轴子质量远小于当时的哈勃参数,因此该轴子场将受到哈勃阻力的作用,使其在CMB之前的大部分时间都冻结在势函数的某个位置,作为有效宇宙学常数积累早期暗能量。随着宇宙膨胀,当哈勃参数下降到与轴子质量可以比拟时,轴子就会从自身的势函数上滚下来开始振荡衰减。通过选取合适的势函数形状,可以使得该振荡对应的能量密度衰减得比辐射还快,从而反过来允许我们一开始就设置更大的早期暗能量初值。对该模型的数据分析表明,早期暗能量需要在稍早于辐射物质相等时期,就达到当时总能量的大约百分之五,然后以比辐射更快的方式衰减掉。

然而这样一个简单的模型,也存在着三个致命的问题:其一,微调问题,为了达到百分之五这个比例必须小心的微调轴子场的初始值;其二,巧合问题,早期暗能量的积累和快速衰减接替发生的时刻必须稍早于辐射物质相等时期;其三,S8问题,由于引入了早期暗能量抑制了早期物质扰动的增长,因此必须同时增大物质的量以抵消该效应。但是增大的物质的量将在晚期增大最小线性尺度上的物质扰动(即S8),从而与晚期大尺度结构巡天对物质扰动的限制不相符。事实上,上述问题三的讨论也适用于几乎所有修改早期宇宙的模型(如下图,取自国家天文台赵公博研究员等人的【arXiv:2010.04158】),它们要么与星系成团的观测性质不相符,要么与星系弱引力透镜的限制不符。

修改晚期宇宙

既然修改早期宇宙的路行不通,这似乎将我们引向另一条路,即修改晚期宇宙。我们可以对晚期宇宙进行整体均匀性的修改,也可以进行局域非均匀性修改。

整体均匀性修改晚期宇宙主要分为两种:一种是替换宇宙学常数项为某种具有幽灵(phantom)行为的暗能量,它的状态方程参数(w=p/\rho 即压强与能量密度之比)可以演化到小于-1的程度;另一种是引入暗能量与暗物质之间的相互作用,使得一部分暗物质可以衰变为暗能量。前者增大晚期膨胀速率的原因是显然的,毕竟幽灵暗能量比真空能具有更大的负压。后者增大晚期膨胀速率的原因是双重的,其一是暗物质衰变为暗能量增大了暗能量的比重,从而推高哈勃膨胀速率;其二是暗物质本身的减小必须增大哈勃常数以保持物理的暗物质能量密度比例 \omega_{cdm}=\Omega_{cdm}h^2 与 CMB 限制相符。

首先,令人遗憾的是,对于幽灵暗能量,如果直接对处于哈勃流中的超新星拟合的话,那么限制得到的幽灵转变红移偏高,对增大哈勃常数也十分有限(如下图,取自【arXiv:2002.11707】)

其次,相互作用的暗能量-暗物质模型本身并不成熟,因为该相互作用项是在运动方程的水平上手动引入的唯象参数化形式,并不是直接在作用量的水平上。事实上,对于相互作用的相对论流体力学的作用量形式,我们还没有广泛的共识。当然,这并不影响我们在纯唯象的意义下研究相互作用暗能量-暗物质模型。

最后,更为遗憾的是,前文所述的反向距离阶梯的限制已经排除了几乎所有的对晚期宇宙的整体均匀性修改模型。这是因为,反向距离阶梯可以做到与晚期模型无关,甚至可以不使用 CMB 数据输入的声学视界的先验值(参见理论物理所黄庆国研究员的【arXiv:2006.16692】),而且也不使用局域直接测量的 H_0 值,但是它的限制结果却与早期宇宙的全局拟合限制相符,而与局域直接测量的 H_0 值存在显著偏差。这说明对晚期宇宙无论进行何种整体均匀性修改,哈勃常数危机依然存在。

为了能够逃脱反向距离阶梯对晚期宇宙模型修改的限制,需要打破均匀性假设。由于观测上支持宇宙学尺度的宇宙学原理(大尺度上宇宙呈现均匀且各向同性),因此只能打破局域的均匀性假设。最简单的可能性是我们生活在一个局域的空洞(local void)里(如下图,取自CosmoLSS)。

空洞是星系分布稀疏的区域,这些区域由于物质分布稀少,因而暗能量分布就会比其他区域占主导一些,从而造成局部的膨胀速率增高。虽然通过星系巡天,我们确实发现了一些局域的小空洞(如下图,取自 Wikipedia),

但是,奇怪的是,虽然从星系数据中可以发现大且深的局域空洞(KBC 空洞)的迹象(如下图,取自【arXiv:1907.11219】),

但是如果采用超新星作为背景膨胀的示踪器的话,则没有发现足够大且足够深的局域空洞的证据(如下图,取自【arXiv:1907.11219】)

其中,横轴是空洞的大小,纵轴是空洞的深度,蓝色是用星系数据得到限制结果,而绿色是用超新星得到的限制结果,两者并不相容。值得注意的是,超新星的限制结果在 1\sigma 置信度上允许 10%的物质密度超出。

我们的模型

这样,还剩下了最后一种可能性,即局域非均匀的物质密度过密区。但是,因为与空洞正好相反,那么要如何在局域非均匀的物质密度过密区实现更大的膨胀速率呢?最近,我们在 Phys. Rev. D 上以 Letter 形式发表了一篇文章(参见【arXiv:2102.02020】),提出了一种变色龙暗能量机制。

变色龙机制原本是隐藏修改引力效应的一种方法,它将一个标量场与物质密度以一种特殊的方式耦合,使得该标量场最后有效的势函数存在真空期望值。当耦合的物质密度变大时,该标量场在真空期望值附近的质量变大(二阶导数变大),从而由该标量场传导的修改引力的力程也相应变短,从而隐藏该修改引力在更大尺度上的效应,从而逃脱目前对爱因斯坦引力从毫米到太阳系尺度的直接限制。因其质量随周围与它耦合的物质密度变化而变化,故而得名变色龙场。

我们注意到另外一个事实,即当它周围的物质密度变高时,变色龙场所处真空期望值的势函数本身也相应变大,即它所对应的有效宇宙学常数也相应变大,从而推动局部物质密度过密区以更快的速度膨胀(如下图),

我们具体假设的模型是

对于一个具有top-hat 型物质密度过密区的玩具模型 ,可以计算发现,局部物质密度超出 10% 即可将哈勃常数提高到 70 km/s/Mpc,而至多 20% 的局部物质密度超出即可达到局域直接测量 H_0 值(如下图)

但是对于我们所处的局域宇宙实际的物质密度分布的估算十分困难,一部分原因是我们无法直接探测到暗物质的密度分布(当然星系的弱引力透镜分析可以一定程度上复现暗物质分布),另一部分原因是,当我们用星系来示踪总的物质分布时,对其bias因子随红移的演化目前还没有完整一致的认识。这里我们采用斯隆巡天BOSS实验组第12次发布的星系位置和权重的数据及其对应的随机模拟数据,对应的bias因子的演化抽取自对相同数据的分析(参见【arXiv:1909.06396】),最终得到的物质密度分布如下图

借助一个简单的 LTB 度规(各向同性但非均匀),我们的变色龙暗能量模型预言的局部哈勃常数的径向分布为

可以看到用南半球那部分星系数据(均匀到对应半径的壳层内)得到的哈勃常数值偏大,可以和用超新星(分别用造父变星、红超巨星和Miras校准)测量的哈勃常数值相容。十分巧合的是,大部分超新星都分布于南半球(如下图),因而用这些超新星测量的哈勃常数值反映的是南半球星系数据所处的局部哈勃常数值。

由于我们的模型预言的局部哈勃常数值与局部的物质密度超出正相关,因此可以定性地理解目前对哈勃常数的测量出现不一致的原因:

首先,由于超新星大多从恒星产生率高的星系中孕育出来的,因此它所处的局部物质密度超出天然就比较大,用超新星作为背景膨胀示踪器测量的哈勃常数值自然就会比较大;

其次,目前对于处于星系团深处的强引力透镜分析非常困难,因为星系团会对星系径向质量分布的估算影响较大,所以目前用来测量哈勃常数的七个强引力透镜时间延迟事例都是远离星系团的孤立星系,它们周围的物质密度超出天然就很小,所以测得的局部哈勃常数值自然也会偏小;

最后,由于采用了LTB度规,我们是将各个壳层内的星系数目超出做平均来得到那个壳层的局部物质密度超出,易知在越大的壳层上平均,得到的物质密度超出会越小,因此,我们模型预言了一个局部哈勃常数值随径向不断下降直至趋于背景 CMB 对应的哈勃常数值的大致趋势。无独有偶,这样的趋势也曾经在其他研究中被发现(如下图,取自【arXiv:1912.08027,2002.06044】)

虚惊一场

最后,我们回到最开始提到的需要最先检验的可能性,即局域直接测量是否真的做对了,是否还有未考虑的系统误差。以造父变星校准超新星的距离阶梯为例(如下图,来自A. Riess),

观测量是视星等

m=5\log D_L(z)+M+25 ,

其中光度距离可以写成与要测量的哈勃常数无关的形式

H_0D_L(z)=c(1+z)\int_0^z\frac{\mathrm{d}z'}{E(z')} .

对于第三级距离阶梯上的处于哈勃流(Hubble flow)的超新星,

m_\mathrm{SN}^\mathrm{flow}=5\log D_L(z_\mathrm{SN}^\mathrm{flow})+M_\mathrm{SN}+25 ,

而对于第一、二级距离阶梯交界处上的造父变星,

m_\mathrm{Ceph}^\mathrm{anch}=5\log D_L(z_\mathrm{Ceph}^\mathrm{anch})+M_\mathrm{Ceph}+25 ,

将上面两者相减,并补上处于同一宿主星系的造父变星和超新星的视星等,可以得到

m_\mathrm{SN}^\mathrm{flow}-m_\mathrm{SN}^\mathrm{host}+m_\mathrm{Ceph}^\mathrm{host}-m_\mathrm{Ceph}^\mathrm{anch}=5\log D_L(z_\mathrm{SN}^\mathrm{flow})-5\log D_L(z_\mathrm{Ceph}^\mathrm{anch}) ,

因此哈勃常数可以由下式直接计算得到,

5\log H_0=5\log[H_0D_L(z)]-5\log D_L^\mathrm{anch}+\Delta m_\mathrm{SN}-\Delta m_\mathrm{Ceph} ,

其中,等号右边第一项需要假定一个晚期宇宙的膨胀模型,第二项需要由第一级距离阶梯用几何方法直接测量,最后两项分别代表,哈勃流上的超新星与处于和造父变星共享宿主星系的超新星之间的视星等之差,以及与第一、三级距离阶梯连接的造父变星的视星等之差。由此可以估算该距离阶梯测量哈勃常数的误差,

\frac{\delta H_0}{H_0}=\frac{\delta(H_0D_L)}{(H_0D_L)}-\frac{\delta D_L^\mathrm{anch}}{D_L^\mathrm{anch}}+\frac{\ln10}{5}[\delta(\Delta m_\mathrm{SN})-\delta(\Delta m_\mathrm{Ceph})] ,

其中,等号右边第一项来自模型选取的误差,第二项来自几何测距的误差,最重要的是第三项,它来自包裹超新星和造父变星及其所处星系和星际间的尘埃和气体所产生的各种消光误差。易知 10% 的消光误差将会导致4.6%的哈勃常数值变动。

消光处理方法主要有两种,一种是 Wesenheit 星等,m_\mathrm{H}^\mathrm{W}\equiv m_\mathrm{H}-R_\mathrm{W}(\mathrm{V-I}),另一种是由 Follin 和 Knox 在2018年提出的 m_\mathrm{H}^\mathrm{W}\equiv m_\mathrm{H}-R_\mathrm{E}\hat{E}(\mathrm{V-I}),其中系数 R_\mathrm{W}R_\mathrm{E} 通常被固定为常数0.386。由数据分析也可以检验,即使在数据分析中允许 R_\mathrm{W}R_\mathrm{E} 为常数在某个先验区间内拟合,最后对哈勃常数的贡献也只有0.5 km/s/Mpc(参见【arXiv:1604.01424,1707.01175】)。但是如果对每一个造父变星单独做消光处理,并且假定 R_\mathrm{W}R_\mathrm{E} 不是一个全局常数(如下图,取自【arXiv:2105.11461】),

那么由此得到的哈勃常数值将会显著降低(如下图,取自【arXiv:2105.11461】)

目前这个工作还处于同行评议过程中,最终它的有效性还有待其他研究组复现确认。

或许整个哈勃常数危机终是虚惊一场,于是我们再一次回到了多年前的原点再次出发。

 

致谢:本文整理自笔者2021年6月4日在清华大学物理系所作的报告(略有删节缩减)。感谢鲜于中之老师的邀请和现场老师及同学们的富有见解的讨论。

Semiclassical vacuum decay

【Advertisement】The occurrence of semiclassical vacuum decay arXiv:1909.11196 Phys.Rev.D100 (2019) 096019

【广告】半经典真空衰变的发生 arXiv:1909.11196 Phys.Rev.D100 (2019) 096019

Quantum tunnelling in non-relativistic quantum mechanics of a single particle is a distinguishing feature from the classical mechanics where surmounting a potential barrier requires large enough energy instead of quantum mechanically penetrating the potential barrier with lower energy.

单粒子的非相对论量子力学里的量子隧穿是其有别于经典力学的显著特征:在经典力学中逾越一个势垒需要足够大的能量,而在量子力学中即使以较低的能量也能量子地隧穿势垒。

This feature persists when generalized into the case of relativistic field theory with multiple potential minimums, one of which is absolute minimum in both classical and (perturbative) quantum sense, while the rest of which is still classically stable but metastable by barrier penetration in quantum field theory.

这个特征在推广到拥有多个势能极小值的相对论性场论的时候依然得以保持。这些极小值中有一个是全局最小值,无论在经典抑或微扰量子论意义上。其它极小值在经典意义上可以是稳定的,但在量子场论的势垒隧穿的意义下却是亚稳的。

Vacuum decay in field theory proceeds via sudden nucleations of true vacuum bubbles in the false vacuum environment, which is essentially a quantum phenomenon without classical analog. The decay rate is estimated by Euclidean instanton as an analog to the WKB approximation in nonrelativistic quantum mechanics.

场论中的真空隧穿是通过假真空环境下真真空泡泡的突然成核的方式进行的,这在本质上是一个没有经典对应的量子现象。作为非相对论量子力学的WKB近似的对应,该衰变率由欧几里得瞬子估计得到。

Recently, semiclassical vacuum decay was found in Phys. Rev. Lett. 123 no. 3, (2019) that vacuum decay in field theory could proceed via classical evolution of the equation of motion for some initial configurations of false vacuum fluctuations. In particular, flyover vacuum decay was suggested in arXiv:1906.09657 that, a sufficiently large local initial fluctuation in field velocity could carry the field value directly flying over the potential barrier.

最近, Phys. Rev. Lett. 123 no. 3, (2019)  发现了半经典的真空衰变,即场论中的真空衰变可以从一些初始的假真空扰动经由经典运动方程进行。特别地, arXiv:1906.09657  发现了所谓飞掠式的真空衰变,即一个足够大的场速度的局部初始扰动可以提携场值飞掠势垒。

In our paper, we found that condition for semiclassical vacuum decay is rather loose, even allowing for the dubbed pop-up vacuum decay, where the semiclassical vacuum decay could still occur even if the initial energy density is everywhere insufficient to classically overcome the potential barrier.

在我们的文章中,我们发现半经典真空衰变的发生条件十分宽松,甚至允许所谓冒泡式的真空衰变,即半经典真空衰变甚至可以在初始能量密度处处不足以经典地克服势垒的情况下发生。

 

polar

gif : The time evolution of field profile for the last example of Fig.4 in the mentioned paper. The initial profile for field velocity is everywhere below the threshold for a classical surmounting over the potential barrier, however, after gathering energy through the gradient term in the equation of motion, a true vacuum bubble (red) is eventually formed out of the false vacuum background (blue), and then expands as usual but with oscillating feature inside the bubble.

动图:所提及文章的图4的最后一个例子的场构型的时间演化。场速度的初始构型处处低于经典翻越势垒的阈值,然而,在通过运动方程中的梯度项收集能量后,一个真空空泡泡(红色)最终从假真空背景(蓝色)中形成,并随后膨胀如常却伴随着泡泡内部的振荡。

It is worth noting that, the semiclassical vacuum decay is not only entirely motivated from the numerical simulations [ Phys.Rev. D100 (2019) 065016 , JHEP 1910 (2019) 174 , Phys.Rev.Lett. 123 (2019) 031601 ], but also from some theoretical considerations [ JHEP 1807 (2018) 014 , Phys.Rev. D100 (2019) 016011 ] and even experimential (cold atom) interest [ EPL 110 (2015) 56001 , J.Phys. B50 (2017) 024003].

值得注意的是,半经典真空衰变不只全出于数值模拟 [ Phys.Rev. D100 (2019) 065016 , JHEP 1910 (2019) 174 , Phys.Rev.Lett. 123 (2019) 031601 ] 的动机,还有来自理论上的考量 [ JHEP 1807 (2018) 014 , Phys.Rev. D100 (2019) 016011 ],甚至是实验(冷原子)上的兴趣[ EPL 110 (2015) 56001 , J.Phys. B50 (2017) 024003]。

Renormalization group improvement

【Note】Tommi Markkanen, Arttu Rajantie, Stephen Stopyra, Cosmological Aspects of Higgs Vacuum MetastabilityarXiv: 1809.06923

我们知道,场在量子化后,其经典势将获得一个量子修正,从而变成有效势

As we known, the classical potential of a field after quantization receives quantum corrections and thus becomes the effective potential

V_\mathrm{eff}(\phi; g_i)=V_\mathrm{cl}(\phi(\mu); g_i(\mu))+\delta V(\phi(\mu); g_i(\mu), \mu)

其中 \mu 即所谓重整化能标,跑动耦合参数 g_i(\mu) 对重整化能标的依赖由各自的贝塔函数 \beta_{g_i}=\mu\frac{\partial g_i}{\partial\mu} 给出,量子场的重整化一点函数与裸场的关系 \phi_\mathrm{bare}=\sqrt{Z(\mu)}\phi(\mu) 则由场重整化因子 Z(\mu) 给出,而场重整化因子则由反常量纲 \gamma=\mu\frac{\partial\sqrt{Z}}{\partial\mu} 给出。

where \mu is the so-called renormalization scale, and the dependences of running coupling parameters g_i(\mu) on the renormalization scale are given by the corresponding beta function \beta_{g_i}=\mu\frac{\partial g_i}{\partial\mu}, and the renormalized one-point function of a quantized field is related to the bare field \phi_\mathrm{bare}=\sqrt{Z(\mu)}\phi(\mu) by the field-renormalization-factor Z(\mu) determined by the anomalous dimension \gamma=\mu\frac{\partial\sqrt{Z}}{\partial\mu}.

包含所有阶圈图量子修正 \delta V_1, \delta V_2, \cdots 的完整的有效势,其本身并不依赖于重整化能标的选取,即所谓 Callan-Symazik 方程

The full effective potential including all orders of loop-diagram quantum-corrections \delta V_1, \delta V_2, \cdots does not depend on the choice of renormalization scale, leading to so-called Callan-Symazik equation

\mu\frac{\mathrm{d}}{\mathrm{d}}V_\mathrm{eff}(\phi; g_i)=\left(\mu\frac{\partial}{\partial\mu}+\beta_{g_i}\frac{\partial}{\partial g_i}-\gamma\phi\frac{\partial}{\partial\phi}\right)V_\mathrm{eff}(\phi; g_i)=0

如果存在重整化能标的某种选取函数 \mu=\mu^*(\phi),使得总的量子修正 \delta V(\phi(\mu^*); g_i(\mu^*), \mu^*(\phi)) 为零, 那么我们就得到了一个经过重整化群提升的有效势

If there is such a choice of function for the renormalization scale \mu=\mu^*(\phi) so that the total quantum correction \delta V(\phi(\mu^*); g_i(\mu^*), \mu^*(\phi)) is vanished, then we have a renormalization-group (RG) improved effective potential

V_\mathrm{eff}^\mathrm{RGI}(\phi; g_i)=V_\mathrm{cl}(\phi(\mu^*(\phi)); g_i(\mu^*(\phi)))

但是实际计算一般只能包含有限阶圈图的量子修正,比如一圈修正 \delta V_1 即所谓 Coleman-Weinberg 势, 此时有效势将明显依赖重整化能标的选取,并影响微扰展开的有效性和精确度。那么一个重要的问题是如何选取重整化能标。

However, the practical calculations normally could only contain finite orders of loop-diagram quantum-corrections, for example, one-loop correction \delta V_1 is the dubbed Coleman-Weinberg potential, and the corresponding effective potential would explicitly depend on the choice of renormalization scale and impact the effectiveness and precision of perturbative expansion. Then an important question is how to choose  the renormalization scale.

首先我们可以退而求其次,要求重整化能标的某种选取函数 \mu=\mu^*_1(\phi) 使得 \delta V_1 为零,此时有效势由经过重整化群提升的经典势

Firstly, we could be conservative by requiring some function form \mu=\mu^*_1(\phi) for the renormalization scale so that \delta V_1 is vanished, thus the corresponding effective potential is given by the RG-improved classical potential

V^\mathrm{classical}_\mathrm{RGI-eff}(\phi(\mu^*_1);  g_i(\mu^*_1))=V_\mathrm{cl}(\phi(\mu^*_1); g_i(\mu^*_1))

给出。然而,由 \delta V_1 为零的条件出发通常无法显式求解该重整化能标的选取函数,即使侥幸能显式求解,该选取函数的形式也将颇为复杂。

Nevertheless, starting from the condition of a vanishing \delta V_1 usually could not solve for an explicit function form of renormalization scale. Even such a explicit solution is obtained, it would be considerably complicated.

因此我们再次退而求其次,要求 \delta V_1 虽然不为零但是其对数项尽可能的小,比如我们可以选取重整化群能标为 \mu^{\#}_1\propto\phi,此时有效势是由经过重整化群提升的一圈修正有效势

Therefore, we can be even more conservative by requiring \delta V_1 to be nonzero but as small as possible for its logarithmic part, for example, we could choose the renormalization scale as \mu^{\#}_1\propto\phi, and the corresponding effective potential is given by the RG-improved 1-loop-level effective potential

V_\mathrm{RGI-eff}^\mathrm{1-loop}(\phi(\mu^{\#}_1); g_i(\mu^{\#}_1), \mu^{\#}_1)=V_\mathrm{cl}(\phi(\mu^{\#}_1); g_i(\mu^{\#}_1))+\delta V_1(\phi(\mu^{\#}_1); g_i(\mu^{\#}_1), \mu^{\#}_1)

给出。甚至我们还可以再大胆一些,干脆把上式中的一圈修正项丢掉,从而得到经过重整化群提升的树图阶有效势

We could be even bolder by throwing away the whole 1-loop corrections and obtain the RG-improved tree-level effective potential

V_\mathrm{RGI-eff}^\mathrm{tree}(\phi(\mu^{\#}_1); g_i(\mu^{\#}_1))=V_\mathrm{cl}(\phi(\mu^{\#}_1); g_i(\mu^{\#}_1))