计数
(kn)=kn(k−1n−1)
k=0∑nk(kn)=n2n−1
k=0∑m(nn+k)=(n+1n+m+1)
卡特兰数 Cn=(n2n)−(n−12n) 若干实际意义,不必多说
容斥原理:不必多说
若序列长度 >st ,则要么存在长为 s+1 的上升子序列,要么存在长为 t+1 的下降子序列
生成函数
对于数列 {an} 可以定义其生成函数为 A(x)=n=0∑∞anxn 。
性质:任意 Q(x)P(x) 都能写成 ∑(1−αix)kici+R(x) ,其中 P(x),Q(x),R(x) 都是项数有限的多项式。
我们考察斐波那契数列的生成函数。因为 F(x)=1+xF(x)+x2F(x) ,所以可以解出 F(x)=1−x−x21 。
令 1−x−x2=(1−α)(1−β) ,其中 α,β=(1±5)/2 ,我们可以解出 F(x)=51(1−αxα−1−βxβ) ,于是 fn=51(αn+1−βn+1) 。
我们考察划分数的生成函数。发现 A(x)=k=1∏∞1−xk1 。(OIer:我记得有个东西叫五边形数)
两个重要的生成函数:ex 是数列 0!1,1!1,2!1… 的生成函数。ln(1−x1) 是 0,1,21,31,… 的生成函数。
指数生成函数
A~(x)=n=0∑∞n!1anxn 。
例:考察长度为 n 的排列的 EGF,有 S(x)=1−x1 。考察长度为 n 的轮换的 EGF,有 C(x)=ln(1−x1) 。
发现 S(x)=eC(x) ,它的组合意义是枚举排列的轮换个数。(OIer:求 n 个点的无向连通图个数)
一些例子
考察卡特兰数的生成函数。有 C(x)=xC2(x)+1 。
可以解出 C(x)=2x1−1−4x 。
广义的二项式定理:(1+x)α=n=0∑∞n!αnxn 。
我们可以计算 (1−4x)1/2=n=0∑∞n!(1/2)n(−4x)n=−n=0∑∞n!1∗3∗⋯∗(2n−3)(2x)n=−2n=0∑∞(n−1)!n!(2n−2)!xn 。所以进一步能算出 [xn]C(x)=(n+1)!n!(2n)!=n+11(n2n) 。
考察 n 个点的有标号有根树个数。考虑其 EGF,有 T~(x)=xeT~(x) 。
Burnside & Polya
我们先回顾一下群作用 G×X→X 的一些记号:
orbit(x)=Gx={g∘x∣g∈G} 。
StabG(x)={g∣g∘x=x}
xg={x∣g∘x=x}
X/G={Gx∣x∈X} (也就是轨道个数)
burnside 引理:∣X/G∣=∣G∣1g∈G∑∣xg∣ 。
怎么证明呢?有 ∣X/G∣=x∈X∑∣Gx∣1=x∈X∑∣G∣Stab(x)=∣G∣1x,g∑[g∘x=x]=∣G∣1g∈G∑∣xg∣ 。
polya 计数:在 burnside 的基础上做进一步拓展。设 F={f:X→C} ,如果已经有群作用 G×X→X ,然后定义 G×F→F 满足 g×f=f∘g ,其中我们把 g 看做 X→X 的置换。那么 ∣F/G∣=∣G∣1g∑∣Fg∣=∣G∣1g∑∣C∣c(g) ,其中 c(g) 表示 g 的轮换个数。
例:考虑 n 个点的项链,每个点能染成 C 种颜色之一,求染色方案数,其中认为旋转后相同的方案是相同的。
不难算出就是 n1g∈Zn∑Cgcd(g,n) 。可以进一步化成 n1d∣n∑φ(dn)Cd 。
进一步的我们可以做以下拓展:我们之前用 ∣C∣ 个颜色对小球染色。现在比方说我们用了 3 种颜色,假设我想对所有 i+j+k=n 算出第一种颜色用 i 次,第二种用 j 次,第三种用 k 次的方案数,怎么求?
我们设 ci(g) 是 g 长度为 i 的轮换个数。
那么只需提取 ∣G∣1g∑Z1c1(g)Z2c2(g)… 的相应系数即可,其中 Zi=xi+yi+zi 。
然后我们再看一些例子。求 G 的共轭类个数?考虑群作用 G×G→G 满足 g∘x=gxg−1 ,那么共轭类个数就是这个作用的轨道个数,由 burnside,有 ∣G∣1g∑CG(g) 。
概率
我们研究概率空间 (Ω,P) 。其中 Ω 是样本空间,P 是 Ω→R 的函数满足:
∀w∈Ω,P(w)≥0 以及 w∈Ω∑P(w)=1 。
我们称一个 事件 是 Ω 的子集,即 A⊆Ω 。令 P(A)=w∈A∑P(w) 。也记作 Pr[A] 。
令 Pr[B∣A]=Pr[A]Pr[A∩B] 表示条件概率。
有贝叶斯定理:Pr[B∣A]=Pr[A]Pr[B]Pr[A∣B] 。
定义 事件 A,B 独立:Pr[A∩B]=Pr[A]Pr[B] 。
定义随机变量:X:Ω→S ,设 P(x)=Pr[X=x]=X(w)=x∑P(w) ,这被称为概率函数。
一些常见分布
定义 分布:对随机变量 X ,设 PX(x)=Pr[X=x] 。
联合分布:对随机变量 X,Y ,设 PXY(x,y)=Pr[X=x∧Y=y] 。
条件分布 :PY∣X(y∣x)=Pr[Y=y∣X=x] 。
显然 PY∣X(y∣x)=PX(x)PXY(x,y) 。
现在我们定义一些常见的分布。
伯努利分布 Bern(p) 形如 {1−ppx=0x=1
二项式分布 Binom(n,p) 形如 (xn)px(1−p)n−x
几何分布 Geom(p) 形如 p(1−p)x−1
负二项分布 NB(r,p) 形如 (xx+r−1)pr(1−p)x
(组合意义是以 p 概率抽 1 ,若干次后抽出 r 个 1)
泊松分布 Poisson(λ) 形如 x!e−λλx 。
(可以看做 n→∞ 时的 Binom(n,nλ))
期望,方差
我们定义 E[X]=x∑PX(x)x=w∑P(w)X(w)
例题:设 X∼Geom(p) ,求 E[X] 。根据实际意义,我们有 E[X]=E[X−1∣X>1] 。而 E[X−1∣X>1]=x=2∑∞(x−1)Pr[X=x∣X>1]=x=2∑∞(x−1)1−pPr[X=x]=x=0∑∞1−p(x−1)Px(x)=1−pE[X]−1 ,于是 E[X]=p1 。
定义 Var[X]=E[X2]−E[X]2=E[(X−E[X])2] 。定义 Cov[X,Y]=E[XY]−E[X]E[Y]=E[(X−E[X])(Y−E[Y])] 。
对于两个独立随机变量 X,Y ,我们有 E[XY]=E[X]E[Y] 。
有 Var[X+Y]=E[(X−E[X]+Y−E[Y])2]=Var[X]+Var[Y]+2Cov[X,Y]=Var[x]+Var[y] 。
概率生成函数(PGF)
GX(z)=x∑PX(x)zx=E[zX] 。
若 X,Y 是独立分布,那么 GX+Y(z)=GX(z)GY(z)
你发现 GX 有一些良好性质,比如 G′X(1)=E[x],G′′X(1)+GX′(1)=E[X2] 。
例:考察掷硬币,第一次连续两次正面朝上的概率。考虑其 PGF,有 G(z)=p2z2+(1−p)zG(z)+(1−p)pz2G(z) 。
我们考察 GX(ez)=E[ezX] 。其 n 阶导代入 z=0 可得 E[Xn] 。
熵
考虑随机变量 X 遵从概率分布 Px ,我们设 H[X]=x∑PX(x)logPx(x)1 。也可以看做是 E[logPX(X)1]
比如说设 X∼Bern(21) ,我们有 H(X)=1log2 。
令 ∣X∣={x∣PX(x)>0} ,不难证明 0≤H(X)≤log∣X∣
联合熵 对随机变量 X,Y ,设 H[X,Y]=x,y∑PXY(x,y)logPXY(x,y)1
条件熵 对随机变量 X,Y ,H[Y∣X]=x∑H[Y∣X=x]⋅Pr[X=x] 。
我们推一下式子:H[Y∣X]=x∑y∑PY∣X(y∣x)logPY∣X(y∣x)1Px(X)=x,y∑Pxy(x,y)logPY∣X(y,x)1=E[logPY∣X(Y∣X)1]
我们有 H[X,Y]=H[X]+H[Y∣X] ,因为 E[logPXY(X,Y)1]=E[logPX(X)1]+E[logPY∣X(Y∣X)1]
互信息
我们有 H[X∣Y]≤H[X] 。
证明:
因为 H[X]−H[X∣Y]=x∑Px(x)logPx(x)1−x,y∑PX∣Y(x∣y)logPX∣Y(x∣y)1=x,y∑PXY(x,y)logPX(x)PXY(x∣y)=x,y∑PXY(x,y)logPX(x)PY(y)PXY(x,y)
到这里,可以看成有两个长为 ∣X∣⋅∣Y∣ 的序列 a,b ,上述和式为 i∑ailogbiai ,∑a 和 ∑b 都是固定的,求这个式子下界。经过系列数学推导,可以得到它大于等于 (∑a)log∑b∑a ,回到之前问题,即有 H[X]≥H[X∣Y] 了。
定义互信息为 I(X;Y)=H[X]−H[X∣Y]=H[Y]−H[Y∣X] 。
data-processing 不等式 :I(X;Y)≥I(X;Z) ,其中 PY=PXPY∣X,PZ=PYPZ∣Y
KL散度
D(P∣∣Q)=x∑P(x)logQ(x)P(x) 可以看做 P 偏离 Q 的程度
(注意 P,Q 是两个概率分布)
我们有 D(P∣∣Q)≥0 ,因为设 D(P∣∣Q)=Ex∼Q[Q(x)P(x)logQ(x)P(x)]=Ex∼Q[f(Q(x)P(x))]≥f(Ex∼Q[Q(x)P(x)])=f(1)=0 ,其中 f(x)=xlogx
我们有 D(P∣∣Unif(Ω))=log∣Ω∣−H(P) 这很好证明
现在考虑 PXY,QXY 。
我们证明 D(PXY∣∣QXY)=D(PX∣∣QX)+D(PY∣X∣∣QY∣X∣PX)
因为 EX,Y∼PXY[logQXY(X,Y)PXY(X,Y)]=EX,Y∼PXY[logQX(X)PX(X)+logQY∣X(Y∣X)PY∣X(Y∣X)]
同理我们有 D(PX1X2…Xn∣∣QX1X2…Xn)=i=1∑nD(PXi∣X1…Xi−1∣∣QXi∣X1…Xi−1∣PX1X2…Xi−1)
集中不等式
马尔科夫不等式 (Markov Bound)
对于在 [0,+∞) 上的随机变量 X
P[X≥αE[X]]≤α1
证明:首先有 ∫0∞P1[X≥x]dx=E[X] 。
这是因为 ∫0∞P1[X≥x]dx=∫0∞w∑P(w)[X(w)≥x]dx=w∑P(w)∫0∞[X(w)≥x]dx=w∑P(w)X(w)=E[X] 。
切比雪夫不等式 (Chebyshev’s Bound/Inequality)
对随机变量 X ,设 Var(X)=Δ2 。
Pr[∣X−E[X]∣≥αΔ]≤α21 。
我们可以由马尔科夫不等式推出来:Pr[∣X−E[X]∣≥αΔ]=Pr[(X−E[X])2≥α2Δ2] 。而 Δ2=E[(X−E[X])2] ,那就有 Pr[(X−E[X])2≥α2Δ2]≤α21
切尔诺夫不等式 (Chernoff Bound)
对随机变量 X ,Pr(X≥a)=Pr(etX≥eta)≤etαE[etX] ,其中 t 是任意一个 >0 的实数。
例子:设 X1,…,Xn∼Bern(p) 且互相独立,估计 Pr[i∑Xi≥qn] ,其中 q>p 。
利用 chernoff bound ,它小于等于 etqnE[et∑Xi]=(etqpet+(1−p))n
现在我们希望寻找 etqpet+(1−p) 的最小值,把它对 t 求导并找零点,发现零点满足 et=p(1−q)q(1−p) ,代入上面式子即可得到一个很好的界:(1−q1−p)1−q(qp)q 的 n 次方。
但同时我们发现 (1−q1−p)1−q(qp)q 有些眼熟,它等于 exp(qlogqp+(1−q)log1−q1−p)=exp(−d(q∣∣p)) 。于是最后的结果是 exp(−d(q∣∣p)n) 。
更进一步,之前的作业我们证明过 d(q∣∣p)≤2(p−q)2 ,于是它小于等于 exp(−2(p−q)2n) 。
斯特林公式
对 n! 的估计。我们有 n! 约为 2πn(en)n 。还有另一个更严谨的式子:lnn!=nlnn−n+2lnn+12n1+O(n31)
Sanov Bound
对于 X1,X2,…,Xn∼Bern(p) ,有 Pr[∑Xi=qn]∈[n+11exp(−nd(q∣∣p)),exp(−nd(q∣∣p))] 。
(n+1)L+11exp(nH(Q))≤(s1,s2,…sLn)≤exp(nH(Q)) ,其中 Q 满足 Pr[Q=i]=nsi 。
离散傅里叶变换
Discrete Fourier Transform,简称 DFT。
它是针对 G→C 的函数(向量?)做变换的技术,其中 G 是某个有限阿贝尔群。我们知道它是和 Zn1×Zn2×…Znk 同构的。
对于 a∈Zn1×Zn2×…Znk ,设 Xa:G→C 满足 Xa(x)=wn1a1x1wn2a2x2…wnkakxk ,其中 wd=ed2πi 。
首先发现 Xa 有良好性质:我们设 Xa⋅Xb 表示点值诸位相乘,那么 XaXb=Xa+b ,Xa/Xb=Xa−b 。其次,你发现单个 Xa 其实构成了同态。
注意到 x∑Xa(x)=(x1,x2,…,xk)∈G∑j∏wnjajxj=j∏xj∈Znj∑wnjajxj=j∏nj⋅[aj=0]=∣G∣⋅[a=0] 。
于是 Xa 的全体可以看成一组正交基,因为 ⟨Xa,Xb⟩=x∑Xa−b(x)=∣G∣⋅[a=b]
设某个 G→C 的函数能写成 f=b∈G∑f^(b)Xb ,我们怎么求出 f^(b) 呢?它都是正交基了,只需考察 ⟨f,Xb⟩=a∑⟨f^(a)Xa,Xb⟩=⟨f^(b)Xb,Xb⟩=∣G∣⋅f^(b) ,这样就求出 f^(b) 了!我们称 f^ 是傅里叶系数。由 f^ 反过来求 f 就很容易了。其实还能证明:f(x)=⟨f^,X−x⟩
现在考察两个函数 f,g 做卷积,也就是 (f∗g)(x)=y∑f(y)g(x−y)
考察 f∗g(a) ,我们有 f∗g(a)=n1⟨f∗g,Xa⟩=n1y+z=x∑f(y)g(z)Xa(x)=n1y∑z∑f(y)g(z)Xa(y)Xa(z)=n1(y∑f(y)Xa(y))(z∑g(z)Xa(z))=n⋅f^(a)⋅g^(a)
于是函数做卷积可以转化成:傅里叶变换后将点值相乘
我们来举一个傅里叶变换产生效果的例子:
设 PX,PY 都是 G→R 的分布且二者独立,设 X,Y∼PX,PY ,求 X+Y 遵从什么分布。那其实就是对两个密度函数做卷积:PX+Y=PX∗PY
同理,设独立同分布的变量 X1,X2,…,Xt∼PX ,那么 PX1+X2+⋯+Xt=nt−1(P^X)t
通信
我们先定义一些类似 H[X] 的东西。
H(X)=E[logP(X)1],Hmin(X)=logxmaxP(x)1,Hmax(X)=log∣X∣,H2(X)=log(x∑P2(x)1)
无损压缩 (lossless compression) 考虑对于一个随机变量 X∼P 做以下过程:通过编码过程 E (Compressor) 得到一个 01 字符串,再通过解码过程 D (Decompressor)得到 X^ 。
假如我们希望 D,E 这两个函数满足 D(E(x))=x ,并且 E[len(E(X))] 最小。那显然,设 X 的 support 是 {x1,x2,…}
且满足 P(xi)≥P(xi+1) ,那么 E(x1)=∅,E(x2)=0,E(x3)=1,E(x4)=00,… 就是最优的。为了方便,我们在每个串前面接上一个 ‘1’ ,这样 E(xi) 就成了二进制数且 E(xi)=i 。
记 L(X)=len(E(X)) 。可以证明 E[L(X)]≤H[X] ,这是因为 P(xi)≤i1 ,所以 E[L(X)]=i∑P(xi)[log2i]≤i∑P(xi)log2i≤i∑P(Xi)logP(Xi)1=H[X]
其实有 H[X]−H[L]≤E[L(X)]≤H[X] ,其中 L 是随机变量满足 L=L(X)
接下来我们先介绍 唯一可译码 (Uniquely Decodable Code) ,就是说任何编码消息序列,只有一种方式能将其分割成原始的码字序列。
比如说摩尔斯编码就不是唯一可译码。
现在介绍前缀码 (prefix code) 的概念:f:A→{0,1}∗ 满足对任意 x=y,f(x) 不是 f(y) 的前缀。
前缀码的好处:我们其实通过 f 拓展到 f∗:A∗→{0,1}∗ ,让 f(a1a2…an)=f(a1)f(a2)…f(an) 即可。
如果有一个给定的函数 L:A→N ,那么存在一个前缀码 f 使得 ∣f(xi)∣=L(xi) 的充要条件是 i∑2−L(xi)≤1 。
最好的前缀码:哈夫曼编码(huffman code)。无需多言。
在哈夫曼编码下,我们有 H[X]≤E[L(X)]≤H[X]+1 。
我们来证一下 E[L(X)]≤H[X]+1 ,这是因为我们能找另一个前缀码满足 L(x)=⌈log2P(x)1⌉ ,我们容易它满足 ∑2−L(x)≤1 且 E[L(X)]≤H[X]+1 ,于是哈夫曼编码也满足 E[L(X)]≤H[X]+1 。
哈夫曼编码 ⊆ 前缀码 ⊆ 唯一可译码 ⊆ 无损压缩
接下来介绍 几乎无损压缩 (Almost loseless compression) 。
就是说压缩的函数不一定是单射,但是 Pr[D(E(X))=X]≥1−small ,也就是说解码得到的结果大概率正确。
我们有结论;任意 δ>0 ,存在编码方案使得 L≤n(δ+H(x)) ,且 n→∞limPr[D(E(X))=X]=0 。
另一个结论:若 L<n(H(X)−δ),那么错误概率趋于 1 。
信道编码
(Channel Encoding)
考虑以下过程:小 A 想将字符串 W∈{0,1}n 传给小 B 。会先做 encode 得到 X ,传输过程中会经过一个 channel 得到 Y ,可以抽象成 PY∣X 。(也就是说传输过程有噪声)小 B 再将 Y 解码得到 W^ 。
(channel = kernel = conditional probability)
例:考虑 Binary Erase Channel ,有 PY∣X(b∣b)=1−ϵ,PY∣X(⊥∣b)=ϵ 。
此时设 W=w1w2… ,如果编码成 w1w1w1w2w2w2… 则此时 Pr[wi=wi]≥1−ϵ3
接下来对于 Channel 我们定义 Capcieity :PX,(X,Y)∼PXPY∣XmaxI(X,Y)
现在考虑将 W∈{0,1}n 编码成 X∈{0,1}L ,通过 (PY∣X)L 得到 Y∈{0,1}L ,解码得到 W 的过程。
可以证明 I(X;Y)≤L⋅C 且 I(W;W)≤I(X;Y)
设 ϵ=wmaxPr[W=W∣W=w] ,有 n≤1−ϵL⋅C+h(ϵ)
另一个话题
考虑 [L,d,p]−Code ,即选择 Code⊆ZpL ,使得 ∀c,c′∈Code ,c=c′⇒Hamming(c,c′)≥d
。。。?ohno,后面的内容我掉线了
马尔科夫链
考虑系列随机变量 X0,X1,X2,X3 ,其中 Xi 只和 Xi−1 相关
也就是说它们的联合分布形如 PX0PX1∣X0PX2∣X1… ,这被称为马尔科夫链
时齐(time-homogeneous):我们很关心 P=PX1∣X0=PX2∣X1=… 的情况,后面我们就只讨论这种情况了(这暗含着 X0,X1,X2… 对应的空间相同,我们记为 Ω,P 其实就是 Ω×Ω→[0,1] 的函数)
所以 P 其实也可以看成一个矩阵,我们称为 stochastic matrix。这个矩阵每个元素非负,且每行的 sum 等于 1 。
假如 Xt∼μ ,那么 Xt+1∼μP 。
上述过程可以自然的看做在一个图上做随机游走。(Random walk on cycle)
关于 P 可以定义 稳态分布 (stationary distribution) 。即满足 πP=π 的分布
定义 不可约 (irreducible):一个马尔科夫链被认为不可约,当且仅当它对应的图是强联通的。更严谨的,定义 xRy 当且仅当 ∃t 使得 Pt(x,y)>0 ,那么 ∀x,y∈ΩxRy
可以证明 有限且不可约的马尔科夫链 存在稳态分布。这个构造是 π(x)=E[τx+]1 。
现在对马尔科夫链定义 Hiting time τx=min{t≥0,Xt=x} ,当然如果不存在 Xt=x 则记为 +∞ 。定义 Return Time τx+ 表示 min{t>0,Xt=x} 。
定理:对于有限且不可约的马尔科夫链,∀x,y∈Ω 都有 Ex[τy]<∞ 且 Ex[τx+]<∞ ,感性理解就是从一个点出发第一次游走到某个点的期望时间有限,游走回起点的期望时间有限。
注意这里的记号:Prx 表示从 x 出发做游走时 X0X1X2… 的分布,也就是说 Pr[X0=y]=δx,y 。同理也就有 Ex 。
定理:有限且不可约的马尔科夫链,不仅有稳态分布,而且这个稳态分布是唯一的!
证明:这等价于说明 π(P−I)=0 的解空间维数为 1 ,因为 P−I 是方阵,其实也就是证 (P−I)π=0 的解空间为 1 。
接下来定义 和谐(Harmonic)
函数 h 在 x 上是和谐的,当且仅当 h(x)=y∑P(x,y)h(y) ,也就是 h(x)=(Ph)(x) ,也就是 Ex[h(X1)]=h(x) 。定义 h 是和谐的,当且仅当它在每个点都和谐,也就是 h=Ph 。
定理:和谐函数一定是常数函数。这样我们就证明了 (P−I)π=0 的解空间确为 1 。
接下来定义 非周期性 (aperiodic) ,我们首先定义 x 上的周期:gcd({t∣Pt(x,x)>0}) 。然后说这个马尔科夫链是非周期的,当且仅当每个点的周期都是 1 。
定义收敛 (convergence):t→+∞limμPt=π ,其中 π 是那个稳态分布。
定理:有限+不可约+非周期性 ⇒ 收敛
总结一下:
有限 ⇒ 存在稳态分布
有限+不可约 ⇒ 存在唯一稳态分布
有限+不可约+非周期性 ⇒ 收敛
定义混合时间
tmix(ϵ)=min{t:d(t)≤ϵ}
其中 d(t)=μsupΔπ(μPt,π) 。
图论
考虑无向图的拉普拉斯矩阵 L=D−A ,其中 A 是邻接矩阵,D 是度矩阵。
矩阵树定理:设 L−1 是 L 去掉第一行第一列得到的矩阵,则生成树个数为 det(L−1) 。
欧拉定理:联通平面图满足 d−e+f=2 ,其中 d,e,f 表示点数,边数,面数
定理:图上随机游走对应的马尔科夫核是 D−1A
对于向量 f ,我们有 (Lf)(u)=(u,v)∈E∑(f(u)−f(v))
于是 fTLf=i∑f(i)j∼i∑(f(i)−f(j))=(i,j)∈E∑(f(i)−f(j))2 ,这说明 L 是半正定的。
然后我们可以研究 L 的特征值。设 λ1≤λ2≤…
定理:联通块数量等于 λ=0 的特征值个数。
我们可以通过 λ2 来“感受”图的连通性强弱,这是一套比较复杂的理论。
然后可以再考察 A 的特征值,首先对于正则图,A 和 L 的特征值能互相转化。然后设 μ1≥μ2≥…μn
定理:darg≤μ1≤dmax
定理:μ1=μ2⇔ 图不联通 μ1+μn=0 ⇔ 图是二分图
概率方法
对于向量 v1,v2,…,vn∈{−1,1}L ,怎么证明 ∃a1,a2,…,an∈{−1,1} 使得 ∣∑aivi∣≥nl ?
只需考虑纯随机 ai ,然后考察 E(∣∑aivi∣2) ,这恰为 nl 。
看来概率方法很有用
第二矩方法 (2nd Moment Method)
Pr[∣X−E(X)∣≥λVar(X)]≤λ−2
例子:证明 (n2n)22n=O(n) 。
这是因为考虑 X1,X2,…,Xn∼Bern(21) ,则 22n(n2n)=Pr[∑Xi=n] 。
同时因为 Var[∑Xi=n]=2n ,所以 Pr[∣∑Xi−n∣≥α]≤2α2n ,那 Pr[∣∑Xi−n∣≥n]≤21 。
则 Pr[∑Xi=n]≥2n+11Pr[∣∑Xi−n∣≤n]≥2(2n+1)1
另一个例子:设 v(x) 是 x 的不同质因子个数,证明:对于任意 n ,在 x∈{1,2,…,n} 中使得 ∣v(x)−lnlnn∣>λlnlnn 的 x 个数是 O(λ−2)
为了证明这个事情,我们设 X∼Unif({1,2,…,n}) ,同时设 Xp=[p∣X] 。
那么 v(X)=p∑Xp
同时显然地,v(X)−10<p<n1/10∑≤v(X)
有 E[p<n1/10∑Xp]=p<n−10∑p1−O(n1)=lnlnn+O(1) 。
Var[p<n1/10∑Xp] 经过一些分析,亦为 lnlnn+O(1) 。
阈值函数 (Threshold Function)
考虑随机图 G(n,m) 。对于任意针对图的谓词 P (且 P 满足单调性)我们希望找到阈值函数 m∗ :若函数 m 满足 m(n)>(1+ϵ)m∗(n) ,则 n→+∞limG∼(n,m(n))Pr[G∈P]=1 ;若 m(n)<(1−ϵ)m∗(n) ,则 n→+∞limG∼(n,m(n))Pr[G∈P]=0 。
比如说 P 表示连通性的话,有 m∗(n)=21nlnn
Lovasz Local Lemma
考虑若干事件 A1,A2,…,An
我们希望判断它们是否都不发生,即 Pr[¬A1,…,¬An]>0 。
如果能构造一个图(Dependency graph) G=(V,E) ,其中一个顶点代表一个事件,E 满足:Ai 和 {Aj}(i,j)∈/E 独立
那么设 p=maxPr[Ai],d 是 G 的最大度数。
定理:e⋅p⋅d<1⇒Pr[¬A1,…,¬An]>0
例:考虑在 d-regular 图上做边染色,我们想知道是否存在一个方案,使得不存在一个三元环颜色相同。
那不希望发生的事件都形如 Auvw 表示 u,v,w 这个三元环同色
发现两个事件相关当且仅当有公共边,所以 max degree ≤3(d−1)
同时 p=c21 ,其中 c 是颜色个数。所以说只要 c2e⋅3(d−1)<1 ,也即 c>3e(d−1) ,就存在这么一组解了