假设检验(Hypothesis Testing)是用来判断样本与样本,样本与总体的差异是由抽样误差引起还是本质差别造成的统计推断方法,也是日常工作生活中比较常见的一种统计推理方法。
我们在进行假设检验的时候,不可避免的会出现错误。
如果原假设为真时被拒绝了,则发生了第I错误; 如果原假设不真时却未被拒绝,则发生了第II类错误。 这两类错误的概率则被称为α风险和β风险。
α风险和β风险看似很抽象,但实际上在我们日常的生活和工作中会经常涉及,产品质量检测就是一个常见的、典型的假设检验的例子,它也会不可避免地出现这两类错误假设检验在我们的日常生活和工作中会经常涉及,比如我们常见的产品质量检测,就是一个典型的假设检验的例子,因此不可避免的将出现两类错误。
下图就是一个对比说明
图:产品检测中的两类错误
一般而言,α风险和β风险是一对相互矛盾的变量,它们之间的关系就像跷跷板一样: 当α风险变大时,β风险就会变小; 而当α风险变小时,β风险就会变大。
要想搞清楚α风险和β风险,我们需要首先构建一个假设检验,例如我们现在有一组样本量为32的数组,通过基本数据分析,得到如下的基本统计量:
图:样本数据的基本统计量
接下来,我们对这组数组进行均值的假设检验。
如下图所示,我们进行均值检验时,一般会指定置信区间,即指定了α风险的概率,在这个基础上去验证原假设的。例如,假设均值为125,置信区间为95%,即α=0.05下,H0:均值=125。 我们可以计算当前假设值的分布中的拒绝值的位置,即α=0.05的点的位置,从而判断原假设是否通过。
通过下图我们可以看到,在当前的样本情况下,我们假设均值为125,P值仅为0.0055,即原假设只有0.5%的概率成立,远远小于常规的α=0.05的标准,因此基于这组样本,我们判断现有数据的总体均值不为125。
图:均值假设检验之α风险
搞清楚α风险之后,我们再来看看什么是β风险。还是刚才的样本数值,我们确定α=0.05,此时的β风险情况如下:
图:均值假设检验之β风险
通过上面这张交互式的图形,可以看到,当我们减小α值时,β值会随着变大;而当我们加大α值时,β值会随着变小。(想起前面说的翘翘板了吧?)
而且,除了α值之外,样本数量的变化和样本标准差的变化也会对β值产生变化。
例如,当样本数量变大时,所有样本均值的标准差就会变小,从而整个估计均值的分布将会更加狭长,从而β值就会愈加减小,就像下面这张图形所示一样:
图:样本量同β风险的变化
如果说大家对这个概念还有一些生疏,那接下来我们就用一个生活中喜闻乐见的事情再来加深理解。
来,就拿我们谈恋爱为例。生活中,每个人都希望找到一个真爱自己的人。
这么说是不是感觉非常简单易懂?
实际上,在选择真爱这件事情上,知易行难。我们相信大家去判断一个人是否是自己的真爱,一定是需要慎重考虑的,特别需要看这个人在一段时间内对自己的行为。
时间越长,事情越多,我们越能更清楚地认识这个人,也能更好地做出正确的判断,这就是样本数越大,误差越小,功效越高。
另外,想要说明的一点是,判断一个人爱你与否,和我们在比较样本差异多少才是样本存在差异一样,都是非常主观的行为。一件事在有些人看来是不爱你的表现,有些人则不这样认为,这些都是影响我们判断的因素。与此同时,这些差异同样本数量也是存在一定的关系。关于这些问题,我们将在另外一篇文章中与大家详细探讨。
希望今天的分享对那些有困惑的小伙伴可以有所启发,有所收获。
更多精彩文章及统计技巧,敬请关注JMP官方微信公众号:
|