一、含义不同
mean表示都是平均数。
SEM是standard error of mean是平均数的抽样误差,反应平均数的抽样准确性。
SD全称standard deviation标准差,又常称均方差,是离均差平方的算术平均数的平方根,用σ表示。
二、用法不同
SEM计估计值的准确性无法度量,但可以用统计方法来测量。
测试的误差来源包括系统误差和采样误差,这些误差很容易克服,采样误差是由许多无法控制的内部和外部因素引起的,这些因素都是偶然的,即使在测试中非常小心也很难消除,但可以通过增加重复次数来减少。
小样本(n≤30)取平均值±标准差,大样本(n>30)取平均值±标准差。
三、类型不同
标准差是方差的算术平方根。标准差可以反映数据集的离散程度。如果平均值相同,则标准差可能不相同。
标准误差是用样品的标准偏差除以样品容量的平方根来计算的,标准误差受样本量影响较大,样本量越大,标准误差越小,抽样误差越小,说明样本能够更好地代表种群。
error bar用SD和SEM都可以,自己统一就好,操作方法如下:
1、首先打开Origin作图软件,输入所需分析的数据。
2、先选中三列数据,在主菜单找到“Statistics”并点击,然后依次选择“Descriptive Statistics”→“Statistics on Rows”。
3、在弹出的Statistics on Rows对话框中,将“Mean(平均值)”和“Standard Deviation(标准差)”打勾选中,然后点击下方的“OK”。
4、完成后即可发现工作区多了两列数据。
5、在左下角选取所要作图的样式,即得到了各个学科的平均成绩,以及用误差棒表示的偏差情况,误差棒越长,说明各同学于本学科的成绩范围波动越大。
标准差,缩写为S.D., SD, 或者 s (就是为了把人给弄晕?),是描述数据点在均值(mean)周围聚集程度的指标。
如果把单个数据点称为“ X i ,” 因此 “ X 1 ” 是第一个值,“ X 2 ” 是第二个值,以此类推。均值称为“ M ”。初看上去Σ( X i - M )就可以作为描述数据点散布情况的指标,也就是把每个 X i 与 M 的偏差求和。换句话讲,是(单个数据点—数据点的平均)的总和。
看上去挺有逻辑性的,但是它有两个缺点。
第一个困难是:上述定义的结果永远是0。根据定义,高出均值的和永远等于低于均值的和,因此它们相互抵消。可以取差值的绝对值来解决(也就是说,忽略负值的符号),但是由于各种神秘兮兮的原因,统计学家不喜欢绝对值。另外一个剔除负号的方法是取平方,因为任何数的平方肯定是正的。所以,我们就有Σ( X i - M ) 2 。
另外一个问题是当我们增加数据点后此等式的结果会随之增大。比如我们手头有25个值的样本,根据前面公式计算出SD是10。如果再加25个一模一样的样本,直觉上50个大样本的数据点分布情况应该不变。但是我们的公式会产生更大的SD值。好在我们可以通过除以数据点数量 N 来弥补这个漏洞。所以等式就变成Σ( X i - M ) 2 / N .
根据墨菲定律,我们解决了两个问题,就会随之产生两个新问题。
第一个问题(或者我们应该称为第三个问题,这样能与前面的相衔接)是用平方表达偏差。假设我们测量自闭症儿童的IQ。也许会发现IQ均值是75, 散布程度是100 个IQ点平方。这IQ点平方又是什么东西?不过这容易处理:用结果的平方根替代,这样结果就与原来的测量单位一致。所以上面的例子中的散布程度就是10个IQ点,变得更加容易理解。
最后一个问题是目前的公式是一个有偏估计,也就是说,结果总是高于或者低于真实的值。解释稍微有点复杂,先要绕个弯。在多数情况下,我们做研究的时候,更感兴趣样本来自的总体(population)。比如,我们探查有年轻男性精神分裂症患者的家庭中的外现情绪(expressed emotion,EE)水平时,我们的兴趣点是所有满足此条件的家庭(总体),而不单单是哪些受研究的家庭。我们的工作便是从样本中估计出总体的均值(mean)和SD。因为研究使用的只是样本,所以这些估计会与总体的值未知程度的偏差。理想情况下,计算SD的时候我们应当知道每个家庭的分值(score)偏离总体均值的程度,但是我们手头只有样本的均值。
根据定义,分值样本偏离样本均值的程度要小于偏离其他值,因此使用样本均值减去分值得到的结果总是比用总体均值(还不知道)减去分值要小,公式产生的结果也就偏小(当然N很大的时候,这个偏差就可以忽略)。为了纠正这个问题,我们会用N-1除,而不是N。总之,最后我们得到了修正的标准差的(估计)公式(称为样本标准差):
顺带一下,不要直接使用此公式计算SD,会产生很多舍入误差(rounding error)。统计学书一般会提供另外一个等同的公式,能获得更加精确的值。
现在我们完成了所有推导工作,这意味着什么呢?
假设数据是正态分布的,一旦知道了均值和SD,我们便知道了分值分布的所有情况。对于任一个正态分布,大概2/3(精确的是68.2%)的分值会落在均值-1 SD和均值+1 SD之间,95.4%的在均值-2 SD 和均值+2 SD之间。比如,大部分研究生或者职业院校的入学考试(GRE,MCAT,LSAT和其他折磨人的手段)的分数分布(正态)就设计成均值500,SD 100。这意味68%的人得分在400到600之间,略超过95%的人在300到700之间。使用正态曲线的概率表,我们就能准确指出低于或者高于某个分数的比例是多少。相反的,如果我们想让5%的人淘汰掉,如果知道当年测试的均值和SD,依靠概率表,我们就能准确划出最低分数线。
总结一下,SD告诉我们分值围绕均值的分布情况。现在我们转向标准误差(standard error)。
前面我提到过大部分研究的目的是估计某个总体(population)的参数,比如均值和SD(标准方差)。一旦有了估计值,另外一个问题随之而来:这个估计的精确程度如何?这问题看上去无解。我们实际上不知道确切的总体参数值,所以怎么能评价估计值的接近程度呢?挺符合逻辑的推理。但是以前的统计学家们没有被吓倒,我们也不会。我们可以求助于概率:(问题转化成)真实总体均值处于某个范围内的概率有多大?(格言:统计意味着你不需要把话给说绝了。)
回答这个疑问的一种方法重复研究(实验)几百次,获得很多均值估计。然后取这些均值估计的均值,同时也得出它的标准方差(估计)。然后用前面提到的概率表,我们可估计出一个范围,包括90%或者95%的这些均值估计。如果每个样本是随机的,我们就可以安心地说真实的(总体)均值90%或者95%会落在这个范围内。我们给这些均值估计的标准差取一个新名字:均值的标准误差(the standard error of the mean),缩写是SEM,或者,如果不存在混淆,直接用 SE 代表。
但是首先得处理一个小纰漏:重复研究(实验)几百次。现今做一次研究已经很困难了,不要说几百次了(即使你能花费整个余生来做这些实验)。好在一向给力的统计学家们已经想出了基于单项研究(实验)确定 SE 的方法。让我们先从直观的角度来讲:是哪些因素影响了我们对估计精确性的判断?一个明显的因素是研究的规模。样本规模 N 越大,反常数据对结果的影响就越小,我们的估计就越接近总体的均值。所以, N 应该出现在计算 SE 公式的分母中:因为 N 越大, SE 越小。类似的,第二因素是:数据的波动越小,我们越相信均值估计能精确反映它们。所以, SD 应该出现在计算公式的分子上: SD 越大, SE 越大。因此我们得出以下公式:
(为什么不是 N ? 因为实际是我们是在用 N 除方差 SD 2 ,我们实际不想再用平方值,所以就又采用平方根了。)
所以, SD 实际上反映的是数据点的波动情况,而 SE 则是均值的波动情况。
前面一节,针对 SE ,我们提到了某个值范围。我们有95%或者99%的信心认为真实值就处在当中。我们称这个值范围为“置信区间”,缩写是CI。让我们看看它是如何计算的。看正态分布表,你会发现95%的区域处在-1.96 SD 和+1.96 SD 之间。回顾到前面的GRE和MCAT的例子,分数均值是500, SD是100,这样95%的分数处在304和696之间。如何得到这两个值呢?首先,我们把 S D乘上1.96,然后从均值中减去这部分,便得到下限304。如果加到均值上我们便得到上限696。CI也是这样计算的,不同的地方是我们用 SE 替代 SD 。所以计算95%的CI的公式是: 95%CI= 均值± ( 1.96 x SE )。
好了,现在我们有 SD , SE 和CI。问题也随之而来:什么时候用?选择哪个指标呢?很明显,当我们描述研究结果时, SD 是必须报告的。根据 SD 和样本大小,读者很快就能获知 SE 和任意的 CI 。如果我们再添加上SE和CI,是不是有重复之嫌?回答是:“YES”和“NO”兼有。
本质上,我们是想告之读者通常数据在不同样本上是存在波动的。某一次研究上获得的数据不会与另外一次重复研究的结果一模一样。我们想告之的是期望的差异到底有多大:可能波动存在,但是没有大到会修改结论,或者波动足够大,下次重复研究可能会得出相反的结论。
某种程度上来讲,这就是检验的显著程度,P level 越低,结果的偶然性就越低,下次能重复出类似结果的可能性越高。但是显著性检验,通常是黑白分明的:结果要么是显著的,要么不是。如果两个实验组的均值差别只是勉强通过了P <0.05的红线,也经常被当成一个很稳定的结果。如果我们在图表中加上CI,读者就很容易确定样本和样本间的数据波动会有多大,但是我们选择哪个CI呢?
我们会在图表上加上error bar(误差条,很难听),通常等同于1个 SE 。好处是不用选择SE或者CI了(它们指向的是一样的东西),也无过多的计算。不幸的这种方法传递了很少有用信息。一个error bar (-1 SE,+1 SE )等同于68%的CI;代表我们有68%的信心真的均值(或者2个实验组的均值的差别)会落在这个范围内。糟糕的是,我们习惯用95%,99% 而不是68%。所以让忘记加上 SE 吧,传递的信息量太少了,它的主要用途是计算CI。
那么把error bar加长吧,用2个 SE 如何?这好像有点意思,2是1.96的不错估计。有两方面的好处。首先这个方法能显示95%的CI,比68%更有意义。其次能让我们用眼睛检验差别的显著性(至少在2个实验组的情况下是如此)。如果下面bar的顶部和上面bar的底部没有重叠,两个实验组的差异必定是显著的(5%的显著水平)。因此我们会说,这2个组间存在显著差别。如果我们做t-test,结果会验证这个发现。这种方法对超过2个组的情况就不那么精确了。因为需要多次比较(比如,组1和组2,组2和组3,组1和组3),但是至少能给出差别的粗略指示。在表格中展示CI的时候,你应该给出确切的数值(乘以1.96而不是2)。
SD 反映的是数据点围绕均值的分布状况,是数据报告中必须有的指标。 SE 则反映了均值波动的情况,是研究重复多次后,期望得到的差异程度。 SE 自身不传递很多有用的信息,主要功能是计算95%和99%的CI。 CI是显著性检验的补充,反映的是真实的均值或者均值差别的范围。
一些期刊已把显著性检验抛弃了,CI取而代之。这可能走过头了。因为这两种方法各有优点,也均会被误用。比如,一项小样本研究可能发现控制组和实验组间的差别显著(0.05的显著水平)。如果在结果展示加上CI,读者会很容易看到CI十分宽,说明对差别的估计是很粗糙的。与之相反,大量鼓吹的被二手烟影响的人数,实际上不是一个均值估计。最好的估计是0,它有很宽的CI,报道的却只是CI的上限。
总之, SD 、显著性检验,95%或者99% 的CI,均应该加在报告中 ,有利于读者理解研究结果。它们均有信息量,能相互补充,而不是替代。相反,“ 裸”的 SE 的并不能告诉我们什么信息**,多占据了一些篇幅和空间而已。
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)