设 是不同的实数,并考虑矩阵

证明 可以表示为

其中列向量 生成一个多项式

满足

您可以引用您了解的任何关于多项式插值的知识来证明 是非奇异的。
|
我们想要证明

或者等价地,
th,
th
的项是
当
,并且是
当
,也就是说

首先注意到

同样地,注意到

因此,

令 为一个实数矩阵,阶数为 ,特征值为 ,以及 个线性无关的特征向量 . 假设您想找到一个特征向量 ,它对应于特征值 ,并且您已知 使得

指定一个数值算法,用于找到 ,并给出该算法的收敛证明,证明它在适当的情况下是收敛的。
|
令

然后,

这表明

因为移动特征值和矩阵求逆不会影响特征向量,

假设对于所有
,
。生成
以找到
。从任意
开始,满足
。
For
(Rayleigh quotient)
End
如果对于所有
,
,那么
将被
支配。
因为
线性无关,它们构成
的基底。因此,

根据特征向量的定义,

为了找到
的一般形式,即第 k 步的近似特征向量,可以观察算法中的几个步骤。

根据归纳法,

因此,

比较加权
和
,

因为假设
。
上述表达式在
趋于
,因为对于所有
,都有
。因此,随着
的增长,
与
平行。因为
,因此必然有
。
假设 A 是一个上三角非奇异矩阵。证明当使用雅克比迭代和高斯-赛德尔迭代求解 时,它们会在有限步内收敛。
|
令
,其中
是一个对角矩阵,
是一个下三角矩阵,其对角线为零,而
也是一个上三角矩阵,其对角线也为零。
雅克比迭代可以通过将
代入
中,并求解
,即
假设条件下,由于
,迭代公式为

类似地,将
代入,将
分组,并解出
,即
由于假设条件下
,雅可比迭代和高斯-赛德尔迭代的公式相同。

雅可比迭代和高斯-赛德尔迭代是将矩阵
分解成
、
和
:分别是对角矩阵、上三角矩阵(对角线以上部分)和下三角矩阵(对角线以下部分)。它们的迭代过程如下:
(高斯-赛德尔)
(雅可比方法)
在本例中,
为上三角矩阵,因此
为零矩阵。因此,高斯-赛德尔方法和雅可比方法具有以下相同的形式

此外,
可以写成

从
中减去
,我们得到
在我们这个问题中,
是对角矩阵,
是上三角矩阵,对角线上为零。注意,积
也是上三角矩阵,对角线上为零。
令
,

此外,令
为相关矩阵

其中
是
,
是
,并且
是
.
最后,乘积
(称为 (1))是

这里
的结构与
几乎完全相同,只是它的对角元素为零。
此时,在
步(起始矩阵的大小)时,收敛应该是显而易见的,因为
仅仅是
,其中
,每次
被
乘以,第 k 个上对角线被清零(其中 k=0 表示对角线本身)。经过
次应用
后,结果将是大小为
的零矩阵。
简而言之,
是大小为
的零矩阵。
因此,
,也就是说,当
为上三角矩阵时,用于求解
的雅可比和高斯-赛德尔方法在
步内收敛。


-
- R = ( 0 ∗ ∗ ∗ 0 0 ∗ ∗ 0 0 0 ∗ 0 0 0 0 ) {\displaystyle R={\begin{pmatrix}0&*&*&*\\0&0&*&*\\0&0&0&*\\0&0&0&0\\\end{pmatrix}}}

- R 2 = ( 0 ∗ ∗ ∗ 0 0 ∗ ∗ 0 0 0 ∗ 0 0 0 0 ) ( 0 ∗ ∗ ∗ 0 0 ∗ ∗ 0 0 0 ∗ 0 0 0 0 ) = ( 0 0 ∗ ∗ 0 0 0 ∗ 0 0 0 0 0 0 0 0 ) {\displaystyle R^{2}={\begin{pmatrix}0&*&*&*\\0&0&*&*\\0&0&0&*\\0&0&0&0\\\end{pmatrix}}{\begin{pmatrix}0&*&*&*\\0&0&*&*\\0&0&0&*\\0&0&0&0\\\end{pmatrix}}={\begin{pmatrix}0&0&*&*\\0&0&0&*\\0&0&0&0\\0&0&0&0\\\end{pmatrix}}}

- R 3 = ( 0 ∗ ∗ ∗ 0 0 ∗ ∗ 0 0 0 ∗ 0 0 0 0 ) ( 0 0 ∗ ∗ 0 0 0 ∗ 0 0 0 0 0 0 0 0 ) = ( 0 0 0 ∗ 0 0 0 0 0 0 0 0 0 0 0 0 ) {\displaystyle R^{3}={\begin{pmatrix}0&*&*&*\\0&0&*&*\\0&0&0&*\\0&0&0&0\\\end{pmatrix}}{\begin{pmatrix}0&0&*&*\\0&0&0&*\\0&0&0&0\\0&0&0&0\\\end{pmatrix}}={\begin{pmatrix}0&0&0&*\\0&0&0&0\\0&0&0&0\\0&0&0&0\\\end{pmatrix}}}

- R 4 = ( 0 ∗ ∗ ∗ 0 0 ∗ ∗ 0 0 0 ∗ 0 0 0 0 ) ( 0 0 0 ∗ 0 0 0 0 0 0 0 0 0 0 0 0 ) = ( 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ) {\displaystyle R^{4}={\begin{pmatrix}0&*&*&*\\0&0&*&*\\0&0&0&*\\0&0&0&0\\\end{pmatrix}}{\begin{pmatrix}0&0&0&*\\0&0&0&0\\0&0&0&0\\0&0&0&0\\\end{pmatrix}}={\begin{pmatrix}0&0&0&0\\0&0&0&0\\0&0&0&0\\0&0&0&0\\\end{pmatrix}}}
