“ML_for_Hackers”[1]

来源:转载

今天主要内容是线性回归的介绍

原则:在进行任何正式分析之前,先要对数据进行可视化分析,看看直观效果。

当没有任何其他附加信息的情况下,对一个变量的最佳假设也是最基本的假设,就是其均值。(前提是使用平方误差作为衡量准则时)

第二层信息就是可以被利用的二元或多元区分型的信息,这类信息可以辅助我们的预测。

第三层,也就是要讨论的线性回归。为的是充分利用非二元区分性的输入或者一次使用多重信息。

ggplot(top.1000.sites,aes(x=log(PageViews),y=log(UniqueVisitors))) + geom_point() + geom_smooth(method='lm',se=FALSE)

 这句是调用lm线性回归模型可视化的典型语句。另外还要注意,当数据信息的可视化很糟糕的时候,考虑使用log。

另一种方式:

lm.fit <- lm(log(PageViews) ~ log(UniqueVisitors),data=top.1000.sites)

这种方式可以在后续使用summary函数查看详细回归参数。

t-value;Multiple R-squared;几个参数的含义还要详细研究。

验证模型效果的黄金标准是:它在未知数据上的预测能力,而不是在用于拟合它的数据上的效果。

另外,可以通过单因子的lm和summary中的R值来分离性地观察其对总方差的解释比例,就可以看出哪个因子更加重要。

相关性:仅仅告诉你两个变量之间有关系,并不能告诉你任何因果关系。计算相关性,需要进行刻度变换,运用scale函数。

 

分享给朋友:
您可能感兴趣的文章:
随机阅读: