主题:【原创】似乎发现了一个可以让统计方法为己所用方法 -- 艾蒳香
今天在《应用多元统计分析》里面看到了这样的一个例题:
(数据略)
这是一道非常简单的题目,所以今天并不是说题目本身,而是它最后的结果让我犯了嘀咕:
如果假定X服从正态分布,那么可以计算得到p值为0.06493(只比最低限度α=0.05大了一点点),而犯第二类错误的概率为β=0.3616。以上结果的意思是说:如果认为原假设μ=μ0成立,那么检验统计量大于临界值的概率仍然“高达”0.06493,超过了显著水平α=0.05,所以我们认为这不是一个小概率事件,从而接受了原假设。但是另一方面,β=0.3616则表示如果原假设不成立,实际上μ与μ0根本就不相等,我们仍然接受原假设,误以为μ=μ0的概率则有0.3616(它是前面的0.06493的将近60倍!)。所以在这里我们认为0.06493是一个很大的概率,却对比它大将近60倍的0.3616视而不见;换句话说,这个假设检验表示我们冒着每做三次检验就会出一次错的风险,去选择相信一件概率只有0.06的事件的发生是完全正常的。
这种现象的出现,与现行假设检验比较常用的基本原则:Neyman-Pearson原则是有很大关系的。这个原则要求人们在做假设检验时首先控制发生第一类错误的概率,在保证了第一类错误的概率较小的情况下才会考虑第二类错误——换句话说,就是宁肯去接受一个事实上不成立的假设,也坚决不能去拒绝一个正确的假设(夸张地说,这倒有点“宁肯放过一千,绝不错杀一个”的味道)。从上面的例子就可以看出,在Neyman-Pearson原则之下,原假设受到的保护有多么大。而这个Neyman-Pearson原则也仅仅只是一条人为的规定,相对于建造在定理体系上的估计方法来说,由于假设检验中类似的人为原则的加入,便使得假设检验变得仿佛不再是那么纯粹了。(即便是一条不显然的公理都会引起数学上的巨大纷争,更莫说一条纯粹的人为规定了。)
当然,统计学本身并没有什么对与错之分,事实上,如果你愿意,也可以让α=49.9999,估计这样原假设被保护的再严,也是来一个消灭一个,甚至于说换用其他的更为复杂原则。但是统计学毕竟是要与实际结合的,由于现在许多统计应用中都以Neyman-Pearson原则为依据,这样有可能出现这样的问题:
由于Neyman-Pearson原则对原假设保护周密,那么我们可以玩一个花样,把原来的原假设与备择假设换一个位置。举例来说,如果原来是要检验H0:μ≥μ0←→H1:μ<μ0,现在我们把它改成H0:μ≤μ0←→H1:μ>μ0。这样就会产生一个戏剧化的结果:对于同一组样本,不同的人采用不同的假设,就会得到截然相反的结果。套用到实际中,就有可能会出现这样的一种情况——
甲和乙是两位社会学家,甲认为中国人过的比美国人幸福,而乙则坚持说美国人过得比中国人幸福。正好现在有人在中国人与美国人之中做了一个调查,最终搜集到了一些中国人和一些美国人对“你认为自己的生活幸福吗?”这个问题的回答,虽然样本量不是很大。甲和乙看到调查结果之后,觉得很高兴,于是赶紧动手对调查结果做了假设检验。由于两人的观点不同,所以他们做的假设正好相反,甲的假设是H0:中国人比美国人幸福;乙的假设则是H0:美国人比中国人幸福。由于调查的样本量不是很大,所以甲教授检验之后发现,没有证据表明中国人不比美国人幸福,所以接受原假设,认为中国人的确是比美国人幸福;而乙教授做了检验之后,发现也没有证据表明美国人不比中国人幸福,所以也接受了他的原假设,认为美国人比中国人幸福。于是两位教授各自写了一篇论文,引用了同样的调查结果,使用了同样的统计方法,却得到了截然相反的结论;至于究竟哪国人更幸福,最终还是取决于两位教授自己原本的立场。
本帖一共被 1 帖 引用 (帖内工具实现)
- 相关回复 上下关系8
🙂【原创】似乎发现了一个可以让统计方法为己所用方法
🙂最后一个例子的解释有问题 2 frnkl 字425 2010-03-18 19:01:40
🙂科学和统计学的缺陷 心文连博 字955 2010-03-18 18:21:19
🙂楼主文末举的例子我原来看到过 月桂 字172 2010-03-17 08:54:54
🙂楼主文末举的例子中是研究者错误使用了统计检验 frnkl 字132 2010-03-18 19:14:16
🙂我想能够实用就可以! 青青树叶 字0 2010-03-12 18:06:00
🙂嗯,小赵河友已经说得很好了~ 1 肖邦 字264 2009-10-14 12:10:14
🙂楼主可是某一小众论坛上的同名ID拥有者? 前世不修 字50 2009-10-14 11:25:22