调整后的r方取值范围

调整后的r方取值范围,第1张

第一:R方(R-squared)

定义:衡量模型拟合度的一个量,是一个比例形式,被解释方差/总方差。

公式:R-squared = SSR/TSS

=1 - RSS/TSS

其中:TSS是执行回归分析前,响应变量固有的方差。

RSS残差平方和就是,回归模型不能解释的方差。

SSR回归模型可以解释的方差。

综上,R-squared 比列值区间在【0,1】

第二:线性回归模型下,R方和相关系数

相关系数公式

我们知道,相关系数衡量两个变量【预测变量X,响应变量Y】之间的"距离"。

1、一元线性回归

R方在一元线性回归模型中,衡量【响应变量X和预测变量Y】的线性关系。

R方=cor(X,Y)^2

但是在多元线性回归模型中,因为涉及多个预测变量,所有R方就是衡量响应变量和多个预测变量之间的关系。

而相关系数,只是衡量一对变量之间的关系,所有就不能推广了。

2、多元线性回归模型

R平方=cov(y,yi)^2

其中相关系数的两个变量变成,响应值和线性回归的预测值了。当然一元线性也同样适用了。

第三:调整R方(Adjusted R-Square)

另一个公式 R-squared = 1- (RSS/(n-p-1)) / (TSS/(n-1))

因为在模型中,增加多个变量,即使事实上无关的变量,也会小幅度条R平方的值,当时其是无意义,所有我们调整了下,降低R平方的值。

简单地说就是,用r square的时候,不断添加变量能让模型的效果提升,而这种提升是虚假的。

利用adjusted r square,能对添加的非显著变量给出惩罚,也就是说随意添加一个变量不一定能让模型拟合度上升

R²是指拟合优度,是回归直线对观测值的拟合程度。

表达式:R2=SSR/SST=1-SSE/SST

其中:SST=SSR+SSE,SST(total sum of squares)为总平方和,SSR(regression sum of squares)为回归平方和,SSE(error sum of squares) 为残差平方和。

回归平方和:SSR(Sum of Squares forregression) = ESS (explained sum of squares)

残差平方和:SSE(Sum of Squares for Error) = RSS(residual sum of squares)

总离差平方和:SST(Sum of Squares fortotal) = TSS(total sum of squares)

SSE+SSR=SST RSS+ESS=TSS

r方的统计学

在统计学中对变量进行线行回归分析,采用最小二乘法进行参数估计时,R平方为回归平方和与总离差平方和的比值,表示总离差平方和中可以由回归平方和解释的比例,这一比例越大越好。

模型越精确,回归效果越显著。R平方介于0~1之间,越接近1,回归拟合效果越好,一般认为超过0.8的模型拟合优度比较高。


欢迎分享,转载请注明来源:夏雨云

原文地址:https://www.xiayuyun.com/zonghe/437178.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-05-29
下一篇2023-05-29

发表评论

登录后才能评论

评论列表(0条)

    保存