【回归离差平方和】在统计学中,回归分析是一种用于研究变量之间关系的常用方法。在回归模型中,回归离差平方和(Sum of Squares for Regression,简称SSR)是一个重要的统计量,它反映了模型对因变量变异的解释程度。本文将对回归离差平方和进行简要总结,并通过表格形式展示其相关概念与计算方式。
一、回归离差平方和的定义
回归离差平方和是指在回归模型中,由自变量对因变量变化所解释的部分的总平方和。它衡量了模型能够解释的因变量变异部分,是评估模型拟合效果的重要指标之一。
公式如下:
$$
SSR = \sum_{i=1}^{n} (\hat{y}_i - \bar{y})^2
$$
其中:
- $\hat{y}_i$ 是第 $i$ 个观测值的预测值;
- $\bar{y}$ 是因变量的平均值;
- $n$ 是样本数量。
二、回归离差平方和的意义
1. 反映模型解释能力:SSR 越大,说明模型对因变量的解释能力越强。
2. 与总离差平方和对比:结合总离差平方和(SST)和残差平方和(SSE),可以计算出决定系数 $R^2$,从而判断模型的拟合优度。
3. 用于模型比较:在多个回归模型中,可以通过比较各模型的 SSR 来选择更优的模型。
三、相关概念与公式对比
| 概念名称 | 公式表达 | 含义说明 |
| 总离差平方和 (SST) | $SST = \sum_{i=1}^{n} (y_i - \bar{y})^2$ | 反映因变量总体的变异程度,即所有数据点与均值之间的差异总和。 |
| 回归离差平方和 (SSR) | $SSR = \sum_{i=1}^{n} (\hat{y}_i - \bar{y})^2$ | 表示模型能够解释的因变量变异部分,即自变量对因变量变化的贡献。 |
| 残差平方和 (SSE) | $SSE = \sum_{i=1}^{n} (y_i - \hat{y}_i)^2$ | 表示模型未能解释的因变量变异部分,即误差项的总平方和。 |
| 决定系数 (R²) | $R^2 = \frac{SSR}{SST}$ | 衡量模型对因变量变异的解释比例,取值范围为 [0,1],越接近 1 表示拟合越好。 |
四、总结
回归离差平方和是回归分析中的核心指标之一,它直接反映了模型对因变量变化的解释能力。通过与总离差平方和和残差平方和的对比,可以进一步评估模型的拟合效果。在实际应用中,合理利用这些统计量有助于提升模型的准确性和实用性。
注:以上内容为原创总结,旨在帮助理解回归离差平方和的概念与应用。


