🧠 Problem Set 8 — 知识总结(精华版)
1️⃣ Heteroscedastic Regression(异方差线性回归)
🔹 模型
Y=Xβ+ε,ε∼N(0,Σ), Σ 已知且可逆.
🔹 Generalized Least Squares (GLS)
考虑最小化
Q(β)=(Y−Xβ)′Σ−1(Y−Xβ).
与极大似然等价(因为正态分布)。
🔹 GLS 显式解
β^=(X′Σ−1X)−1X′Σ−1Y.
🔹 唯一性条件
X′Σ−1X 必须可逆⟺rank(X)=p.
🔹 特殊情况:同方差(OLS)
若 Σ=σ2I,
β^GLS=β^OLS.
🔹 分布
β^∼N(β, (X′Σ−1X)−1).
🔹 性质
- 无偏:E(β^)=β
- 方差:Var(β^)=(X′Σ−1X)−1
- 二次风险:trace((X′Σ−1X)−1)
2️⃣ Linear Regression with Random Design(随机设计)
🔹 模型
Yi=Xi′β+εi.
假设:
- Xi 随机(有密度 (g))
- 条件密度 fx(y)
- εi 满足 E(εi)=0, cov(Xi,εi)=0
⭐ 2.1 似然
L(β,f,g)=i∏fXi(yi−Xi′β)⋅g(Xi).
注意:对 (\beta) 极大化时,不依赖 g。
⭐ 2.2 高斯误差 + 独立性(经典回归)
若
εi∼N(0,σ2),εi⊥Xi,
则
fx(y)=2πσ21e−(y−x′β)2/(2σ2).
🔹 MLE = OLS
β^=(X′X)−1X′Y.
🔹 条件正态分布
给定 (X),
β^∣X∼N(β, σ2(X′X)−1).
🔹 (\sigma^2) 的 MLE
σ^MLE2=n1∑(yi−Xi′β^)2.
🔹 无偏估计
σ^2=n−p1∑(yi−Xi′β^)2.
🔹 分布
σ2(n−p)σ^2∼χ,n−p2(给定 X).
⭐ 2.3 Simple Linear Regression(带截距的简单回归)
设 (X_i=(1,X_i)),模型
Yi=a+bXi+εi.
🔹 OLS
b^=SxxSxy,a^=Yˉ−b^,Xˉ.
🔹 一致性
由 LLN,
Sxx/n→Var(X),Sxy/n→Var(X),b,
因此 b^→b, a^→a。
🔹 渐近正态性
n(β^−β)dN(0, σ2Q−1),Q=E(XX′)
🔹 检验 (b>0)
取统计量:
T=se(b^)b^.
检验:
T>z1−α.
为渐近水平 ≤ α 的单边检验。
3️⃣ Logistic Regression(逻辑回归)
🔹 模型(logit link)
logP(Y=0∣X)P(Y=1∣X)=X′β.
🔹 条件概率
P(Y=1∣X)=1+eX′βeX′β,P(Y=0∣X)=1+eX′β1.
🔹 似然
数据独立:
L(β,f)=i=1∏npiYi(1−pi)1−Yi⋅f(Xi),pi=p(Xi;β).
🔹 MLE 不依赖 f
因为 f(Xi) 中没有 β,所以求 MLE 时可直接忽略。
🔹 求解方式
无闭式解,通常用
- Newton-Raphson
- Fisher scoring
- Iteratively Reweighted Least Squares (IRLS)
🌟 全作业核心关系图(极速复习)
1. GLS 是加权最小二乘 = 正态模型下的 MLE
2. 随机设计线性回归:OLS 仍是 MLE(若噪声高斯且独立)
3. Logistic 回归的 MLE 不依赖于 X 的密度
4. OLS 的估计量与 σ² 的估计量具有 χ² 分布性质
5. 渐近理论:一致性 + CLT → 正态极限 → 假设检验