跳转到内容

统计/预备知识

来自维基教科书,开放世界中的开放书籍

本章讨论了一些与统计学相关的预备知识,这些知识将用于高级部分的后续章节。

经验分布

[编辑 | 编辑源代码]

定义。 (随机样本) 假设 是一个随机变量,它来自一个随机实验,具有特定的分布。重复这个随机实验 次,我们获得了 独立同分布 (iid) 随机变量,用 表示,与这 个结果相关。它们被称为样本大小为 的分布的 随机样本

备注。

  • 我们通常将底层分布称为 总体
  • 通常,计算机 对进行此类实验并重复多次很有用。
  • 特别是,一种称为 R 的编程语言通常用于计算统计学。你可以查看维基教科书 R 编程,以了解有关它的更多信息。
  • 因此,本节中讨论的内容(以及有关重抽样的部分)与计算统计学非常相关。

由于所有这些 个随机变量都遵循与 相同的 cdf,我们可以预期它们的分布应该与 的分布有些相似,实际上,这是正确的。在展示这是如何实现之前,我们需要更精确地定义“这些 个随机变量的分布”,如下所示

定义。 (经验分布) 经验分布 的 cdf,即经验 cdf,随机样本 ,用 表示,为 .

备注。

  • 是指示函数,当 为真时值为 1,否则为 0。
  • 我们可以看到 将概率(或“质量”) 分配给每个 ,这确实是一个有效的累积分布函数。
  • 这是因为对于每个 ,如果它小于或等于 ,那么和中相应的指示函数为 1,因此累积分布函数贡献了 ""。
  • 为了更清楚地理解这一点,请考虑以下示例。
  • 我们可以将 解释为事件 相对频率。回想一下,事件概率的频率论定义是事件的“长期”相对频率(即在重复随机实验 无限 次后事件的相对频率)。因此,我们直观地预期 很大时。

示例。 从一个未知分布中抽取大小为 5 的随机样本,得到以下数字

-1.4, 2.3, 0.8, 1.9, -1.6

(a) 求经验累积分布函数。

(b) 令 是一个(离散的)随机变量,其累积分布函数与 (a) 中的经验累积分布函数完全相同。证明 的概率质量函数(称为 经验概率质量函数)为

(a) 首先,我们将样本数据按升序排列,以便我们更方便地找到经验累积分布函数

-1.6, -1.4, 0.8, 1.9, 2.3

经验累积分布函数由以下公式给出: 解释

  • 对样本数据进行排序后,我们将每个数字视为随机样本的观测值:.
  • 然后,当时,没有一个 小于或等于 。因此,所有相关的指示函数都为零,经验累积分布函数的值也为零。
  • 时,只有 ,因此只有指示函数 在这种情况下,所有其他指示函数都为零。因此,该值为 .
  • 类似地,当 时,只有 ,因此只有指示函数 在这种情况下,所有其他指示函数均为零。因此,该值为
  • ...
  • 时,所有 。因此,所有指示函数均为一,因此经验 cdf 的值为

(b)

证明。 首先,请注意 的 cdf 为

然后,我们观察到当 时,,并且 (从经验累积分布函数得出)。因此, 在这种情况下。类似地,当 时,,并且 。因此, 在这种情况下也是如此。用类似的论证,我们可以证明 时也是如此。


备注。

  • 从 (b) 中观察到 的支持正好包含样本数据中的数字,这些数字是随机样本 的实现。这表明概率 被“分配”给每个

定理。(格利文科-坎泰利定理)当 时, 几乎必然(a.s.)。

备注。

  • 代表集合的上确界(满足一些技术要求),即集合的最小上界,也就是大于或等于集合中所有其他元素的最小元素。
  • 的含义是包含 上的所有值的集合的最小上界。
  • 上确界类似于最大值的概念(实际上,如果最大值存在,则最大值与上确界相同),但它们之间的一个区别是,有时上确界存在而最大值不存在。
  • 例如,集合(或区间) 的上确界是 1(直观上)。但是,集合 的最大值(即集合中的最大元素)不存在(注意 1 不包含在这个集合中)[1]
  • 术语“几乎必然”意味着这发生的概率为 1。将此称为“几乎必然”而不是“必然”的原因涉及对测度论的一些理解,因此此处省略。
  • 粗略地说,从这个定理中,我们知道 的一个好的估计,当 很大时,是 的一个更好的估计(或“更接近”),对于每一个实现 (它们都是实数),因为绝对差的最小上界已经趋于零,然后我们直观上会期望 每一个 这样的绝对差也趋于零。
  • 这个定理有时被称为 统计学基本定理,表明它在统计学中的重要性。

我们已经提到了如何近似 cdf,现在我们想估计 pdf/pmf。让我们首先讨论如何估计 pmf。

对于离散随机变量 ,从经验 cdf 中,我们知道每个 都被“分配”了概率 。此外,考虑到前面的例子,经验 pmf 是 .

备注。

  • 经验 pmf 显示了 出现的相对频率,因此可以近似估计 出现的概率,即 出现的长期相对频率。

为了讨论连续随机变量的 pdf 估计,我们首先需要定义 类间隔

定义。 (类间隔)首先,选择一个整数 和一个实数序列 ,使得 。那么,类间隔

对于连续随机变量 ,构建 的类别区间,这些区间是非重叠的,并对区间 进行划分,其中 是样本中的最小值和最大值。然后,pdf 很接近,即每个类别区间的长度很小。(尽管上述类别区间的并集是 ,因此值 不包含在区间内,但这并不重要,因为 pdf 在 的值不会影响概率的计算。)这里,,而

由于 是事件 的相对频率,我们可以将上面的表达式改写为 ,其中 被称为 相对频率直方图

由于构建类别区间的可能方法很多,所以 的值即使在相同的 时也会有所不同。当 并且每个类别区间的长度很 时,我们期望 (理论 pdf)的良好估计。

与相对频率直方图相关的某些属性如下

命题.(相对频率直方图的属性)

(i)

(ii) 由 轴所包围的总面积为 1,即 [2];

(iii) 事件 是某些类间距的并集,其概率为 .

证明。

(i) 由于指示函数是非负的(其值要么是 0 要么是 1), 为正数,并且 ,因此 为正数,根据定义,我们有

(ii) Here, is and is .

(iii) 我们可以在类似于 (ii) 的方式中“拆分”积分,然后最终积分等于 ,并且它可以近似 ,因为它是在 次试验中事件 发生的相对频率。

期望

[edit | edit source]

在本节中,我们将讨论一些关于期望的结果,这些结果涉及某种不等式。设 为常数。此外,设 的样本空间。

命题。 是一个离散或连续随机变量。如果 ,那么 .

证明。 假设 .

情况 1: 是离散的。

根据期望的定义,。然后,我们有 ,因为条件 .

情况 2: 是连续的。

类似地,我们有 ,因为条件 .

备注。

  • 我们可以互换 “” 和 “” 而不影响结果。这可以从证明中看到。

命题。 (马尔可夫不等式)假设 是有限的。令 为一个连续的非负随机变量。那么,对于每个正数

证明。 如所愿。

推论。 (切比雪夫不等式)假设 是有限的。那么,对于每个正数

证明。 首先,观察到 是一个非负随机变量。那么,根据马尔可夫不等式,对于每个 (正) ,我们有 ,因为 是正数。

命题。 (詹森不等式) 令 为一个连续随机变量。如果 是一个凸函数,则 .

证明。 为函数 处的切线。那么,由于 是凸函数,我们有 对每个 (非正式地说,我们可以从图形上观察到这一点)。因此,我们有 如所愿。

定理。 (柯西-施瓦茨不等式)假设 是有限的。那么,

证明: 由于 ,我们必须有 .

示例. (协方差不等式)使用期望的柯西-施瓦茨不等式(上面的定理)来证明 协方差不等式(有时简单地称为柯西-施瓦茨不等式):(假设协方差和方差存在)。

证明.。然后, 是有限的。因此,根据柯西-施瓦茨不等式,


在讨论收敛之前,我们将定义一些稍后会用到的术语。

定义. (统计学)统计量 是随机样本的函数。

备注。

  • 随机样本包含 是样本量)个随机变量
  • 两个重要统计量样本均值 样本方差
  • 在许多其他地方, 用于表示,即无偏样本方差。事实上,这里的有偏的(我们将在下一章讨论“(无)偏”的含义)。警告: 我们应该注意定义上的这种差异。
  • 都是随机变量,因为它们都包含随机变量。

特定样本中,例如 ,我们观察到它们样本均值 和 样本方差确定值。 然而,每个值只是各自随机变量一次实现。我们应该注意这些确定值(不是随机变量)和统计量(随机变量)之间的区别。

为了更直观地解释样本均值 和 样本方差 的定义,请考虑以下情况。

回顾一下,经验累积分布函数 将概率 分配给每个随机样本 。因此,根据均值和方差的定义,随机变量(比如 )的 均值,其累积分布函数为 (因此对应的概率质量函数为 )是 。类似地,方差。换句话说,经验分布(对应于 随机样本)的 均值方差 分别是 样本均值 样本方差 ,这很自然,对吧?

备注。

  • 这里,我们使用 “” 而不是表达式中常见的 “”,而且均值和方差也是随机变量。这是因为经验累积分布函数的样本空间由随机变量 组成,而不是确定的值

此外,请记住经验累积分布函数 很大时,可以很好地近似 的累积分布函数 。 由于 是具有累积分布函数 的随机变量的均值和方差,因此很自然地期望 可以很好地近似 的均值和方差。

概率收敛

[编辑 | 编辑源代码]

定义。(概率收敛)令 是一个 序列 随机变量。 序列 概率收敛 到一个随机变量 ,如果对于每个 时。 如果是这样,为了简单起见,我们将此写为

备注。

  • 我们可以将此定义与 确定性 序列 的收敛定义进行比较
时,对于任意 ,存在一个正整数 (它是 的函数),使得当 时, 成立(一定成立)。
  • 为了比较,我们可以将上述定义改写为:
时,对于任意 ,存在一个正整数 (它是 的函数),使得当 时, 的概率非常接近于 1(但该事件不一定会发生)。
  • 指定了收敛的**精度**。如果需要更高的精度,则 将被设置为更小的(正)值。当 足够大时,定义中的概率非常接近于零(我们说在这种情况下的收敛以一定的精度(取决于 的值)“实现”)。

以下定理,即**大数定律**,是一个与概率收敛相关的重要的定理。

定理. (弱大数定律 (弱LLN)) 令 为一 序列独立 随机变量,具有相同的有限均值 和相同的有限方差 。那么,当 时,

证明. 我们使用 来表示

根据定义,当 时, 等价于当 时,

根据切比雪夫不等式,我们有

由于 独立 的(因此它们的函数也是独立的),期望在独立性下是可乘的, 因此,概率 小于或等于 一个随着 趋于 0 的表达式。由于概率是非负的(),因此该概率也随着 趋于 0。

备注。

  • 此外,还有 大数定律,它与 几乎必然收敛 相关(比概率收敛更强,即蕴含概率收敛)。

概率收敛还有一些性质,可以帮助我们确定一个复杂表达式收敛于什么。

命题。 (概率收敛的性质)如果 ,则

  • (线性性) 其中 为常数;
  • (乘法性)
  • 只要
  • (连续映射定理)如果 是一个连续函数,则 (以及 )

证明。 简要说明: 假设 。连续映射定理首先被证明,以便我们可以在证明其他性质时使用它(这里省略了证明)。此外,可以证明 (概率联合收敛,定义类似,只是随机变量变成了有序对,所以对 "" 的解释变成了笛卡尔坐标系中两个点之间的 距离,这两个点由有序对表示)

然后,我们定义 ,分别地,其中这些函数都是连续的,而 是常数。然后,利用这些函数中的每一个来应用连续映射定理,得到了前三个结果。

分布收敛

[edit | edit source]

定义。 (分布收敛) 令 是一个 序列 随机变量。当 对每一个 连续时,该序列 在分布上收敛 到一个随机变量 ,其中 分别是 的累积分布函数。在这种情况下,我们简单地写成

备注。

  • 要求 是连续的,是为了使分布收敛即使在一些 不连续的点上累积分布函数的收敛失败时仍然成立。
  • 我们也可以将定义表达为 ,这与 时的含义相同。
  • 可以证明,概率收敛意味着分布收敛。也就是说,如果 ,那么 ,但反过来只有当极限 "" 为常数时才成立,即如果 ,那么 ,其中 为常数。

统计学中一个与分布收敛密切相关的非常重要的定理是 中心极限定理

定理。 (中心极限定理 (CLT)) 令 是具有相同有限均值 和方差 的独立随机变量序列。那么,当 时,,其中 服从标准正态分布,.

证明。 可以在 Probability/Transformation of Random Variables#Central limit theorem 中找到一个(冗长的)证明。

分布收敛有一些性质,但它们与概率收敛的性质略有不同。这些性质由 Slutsky 定理 以及连续映射定理给出。

定理。 (连续映射定理) 如果 ,则 ,只要 是一个连续函数。

证明。 省略。

定理。 (Slutsky 定理) 如果 其中 是一个常数,那么

  • ;
  • ;
  • 假设 .

证明: 简要思路:假设 并且 。然后可以证明 (联合分布收敛,其定义类似,只是累积分布函数变成了有序对的联合累积分布函数)。之后,我们定义 以及 分别,其中每个函数都是连续的,然后使用每个函数应用连续映射定理,就可以得到我们想要的三个结果。

备注。

  • 注意,假设中提到的是 ,而不是 .

重采样

[编辑 | 编辑源代码]

通过 重采样,我们指的是基于现有样本创建新的样本。现在,让我们考虑以下内容,以概述重采样的过程。

假设 是一个来自随机变量 分布的 随机样本,其累积分布函数为 。令 是随机样本 的一个相应的 实现。基于这个实现,我们也有经验累积分布函数的 实现 [3]。由于这是一个经验累积分布函数的实现,根据 Glivenko-Cantelli 定理,当 很大时 [4],它可以很好地估计累积分布函数 。换句话说,如果我们将具有与经验累积分布函数 实现 相同的概率密度函数的随机变量表示为 ,则当 很大时, 具有相似的分布。

请注意,经验累积分布函数(CDF)的实现是一个 离散 CDF(因为其支撑集 是可数的)。现在,我们从随机变量 的分布中抽取一个 随机样本(称为引导(或重抽样)随机样本),样本大小为 (称为 引导样本大小 ( 来自于从 抽样,因此从 中抽样的行为被称为 重抽样)。

然后, 的相对频率直方图应该接近于 的经验概率质量函数(PMF)的对应 实现(从 的经验 CDF 的实现中找到),它又接近于 的 PDF 。这意味着 的相对频率直方图接近于 的 PDF

特别地,由于 的累积分布函数,,为 [5] 中的每一个值分配概率 的概率质量函数为 。请注意,这个概率质量函数非常简单,因此可以简化与其相关的计算。例如,在以下内容中,我们想知道 的分布,而这个简单的概率质量函数可以使得到的分布也相当简单。

注: 在自举方法中涉及的事物(“自举”的事物)在其表示法中通常会添加一个额外的“*”。

在下文中,我们将讨论上面提到的自举方法(或 重采样)的一个应用,即使用自举方法来 近似 统计量 (函数的输入是随机变量, 是一个函数)的分布。近似而不是精确地找到分布的原因是后者通常不可行(或者可能过于复杂)。

To do this, consider the "bootstrapped statistic" and the statistic . is the bootstrap random sample (with bootstrap sample size ) from the distribution of and is the random sample from the distribution of . When is large, since the distribution of is similar to that of , the bootstrap random sample and the random sample are also similar. It follows that and are similar as well, or to be more precise, the distributions of and are close. As a result, we can utilize the distribution of (which is easier to find and simpler, since the pmf of is simple as in above) to approximate the distribution of . A procedure to do this is as follows

  1. 自举随机样本 中生成 自举实现 ,它来自 的分布。
  2. 计算自举统计量 的一个实现,
  3. 重复步骤 1 到 2 次,以获得 的实现序列:.
  4. 绘制 个实现 的相对频率直方图。

这个 个实现的直方图(它是从 中抽取的样本大小为 的随机样本的实现)接近 的 pmf [6],因此接近 的 pmf。

  1. 直观地说,给定最大值的候选值,我们总是可以为它添加“一点”,以得到更大的候选值。因此,该集合中不存在“最大”元素。
  2. 这是因为
  3. 这不同于经验 cdf
  4. 对于 Glivenko-Cantelli 定理,经验 cdf 是 cdf 的一个很好的估计,无论随机样本的实际值(实现)是什么,即对于经验 cdf 的每个实现,当 很大时,它是 cdf 的一个很好的估计。
  5. 也就是说,对于随机样本 的一个实现,例如 等于 (对应于 的实现),概率分别为
  6. 原因类似于上面提到的:直方图应该接近 的概率质量函数,因为与直方图对应的累积分布函数(即随机样本 的经验累积分布函数的实现)接近 的累积分布函数。
华夏公益教科书