此练习推荐给所有读者。
问题 1
将向量投影到 M {\displaystyle M} 沿 N {\displaystyle N} .
( 3 − 2 ) , M = { ( x y ) | x + y = 0 } , N = { ( x y ) | − x − 2 y = 0 } {\displaystyle {\begin{pmatrix}3\\-2\end{pmatrix}},\quad M=\{{\begin{pmatrix}x\\y\end{pmatrix}}\,{\big |}\,x+y=0\},\quad N=\{{\begin{pmatrix}x\\y\end{pmatrix}}\,{\big |}\,-x-2y=0\}}
( 1 2 ) , M = { ( x y ) | x − y = 0 } , N = { ( x y ) | 2 x + y = 0 } {\displaystyle {\begin{pmatrix}1\\2\end{pmatrix}},\quad M=\{{\begin{pmatrix}x\\y\end{pmatrix}}\,{\big |}\,x-y=0\},\quad N=\{{\begin{pmatrix}x\\y\end{pmatrix}}\,{\big |}\,2x+y=0\}}
( 3 0 1 ) , M = { ( x y z ) | x + y = 0 } , N = { c ⋅ ( 1 0 1 ) | c ∈ R } {\displaystyle {\begin{pmatrix}3\\0\\1\end{pmatrix}},\quad M=\{{\begin{pmatrix}x\\y\\z\end{pmatrix}}\,{\big |}\,x+y=0\},\quad N=\{c\cdot {\begin{pmatrix}1\\0\\1\end{pmatrix}}\,{\big |}\,c\in \mathbb {R} \}}
答案
当子空间的基 B M = ⟨ ( 1 − 1 ) ⟩ B N = ⟨ ( 2 − 1 ) ⟩ {\displaystyle B_{M}=\langle {\begin{pmatrix}1\\-1\end{pmatrix}}\rangle \qquad B_{N}=\langle {\begin{pmatrix}2\\-1\end{pmatrix}}\rangle } 被连接起来 B = B M ⌢ B N = ⟨ ( 1 − 1 ) , ( 2 − 1 ) ⟩ {\displaystyle B=B_{M}\!{\mathbin {{}^{\frown }}}\!B_{N}=\langle {\begin{pmatrix}1\\-1\end{pmatrix}},{\begin{pmatrix}2\\-1\end{pmatrix}}\rangle } 并且给定向量表示为 ( 3 − 2 ) = 1 ⋅ ( 1 − 1 ) + 1 ⋅ ( 2 − 1 ) {\displaystyle {\begin{pmatrix}3\\-2\end{pmatrix}}=1\cdot {\begin{pmatrix}1\\-1\end{pmatrix}}+1\cdot {\begin{pmatrix}2\\-1\end{pmatrix}}} 那么答案来自保留 M {\displaystyle M} 部分并丢弃 N {\displaystyle N} 部分。 proj M , N ( ( 3 − 2 ) ) = ( 1 − 1 ) {\displaystyle {\mbox{proj}}_{M,N}({\begin{pmatrix}3\\-2\end{pmatrix}})={\begin{pmatrix}1\\-1\end{pmatrix}}}
当基底 B M = ⟨ ( 1 1 ) ⟩ B N ⟨ ( 1 − 2 ) ⟩ {\displaystyle B_{M}=\langle {\begin{pmatrix}1\\1\end{pmatrix}}\rangle \qquad B_{N}\langle {\begin{pmatrix}1\\-2\end{pmatrix}}\rangle } 被连接起来,并且向量表示为 ( 1 2 ) = ( 4 / 3 ) ⋅ ( 1 1 ) − ( 1 / 3 ) ⋅ ( 1 − 2 ) {\displaystyle {\begin{pmatrix}1\\2\end{pmatrix}}=(4/3)\cdot {\begin{pmatrix}1\\1\end{pmatrix}}-(1/3)\cdot {\begin{pmatrix}1\\-2\end{pmatrix}}} 那么,只保留 M {\displaystyle M} 部分,得到这个答案。 proj M , N ( ( 1 2 ) ) = ( 4 / 3 4 / 3 ) {\displaystyle {\mbox{proj}}_{M,N}({\begin{pmatrix}1\\2\end{pmatrix}})={\begin{pmatrix}4/3\\4/3\end{pmatrix}}}
对于这些基底 B M = ⟨ ( 1 − 1 0 ) , ( 0 0 1 ) ⟩ B N = ⟨ ( 1 0 1 ) ⟩ {\displaystyle B_{M}=\langle {\begin{pmatrix}1\\-1\\0\end{pmatrix}},{\begin{pmatrix}0\\0\\1\end{pmatrix}}\rangle \qquad B_{N}=\langle {\begin{pmatrix}1\\0\\1\end{pmatrix}}\rangle } 相对于连接的表示是这个。 ( 3 0 1 ) = 0 ⋅ ( 1 − 1 0 ) − 2 ⋅ ( 0 0 1 ) + 3 ⋅ ( 1 0 1 ) {\displaystyle {\begin{pmatrix}3\\0\\1\end{pmatrix}}=0\cdot {\begin{pmatrix}1\\-1\\0\end{pmatrix}}-2\cdot {\begin{pmatrix}0\\0\\1\end{pmatrix}}+3\cdot {\begin{pmatrix}1\\0\\1\end{pmatrix}}} 因此投影是这个。 proj M , N ( ( 3 0 1 ) ) = ( 0 0 − 2 ) {\displaystyle {\mbox{proj}}_{M,N}({\begin{pmatrix}3\\0\\1\end{pmatrix}})={\begin{pmatrix}0\\0\\-2\end{pmatrix}}}
此练习推荐给所有读者。
问题 2
求 M ⊥ {\displaystyle M^{\perp }} .
M = { ( x y ) | x + y = 0 } {\displaystyle M=\{{\begin{pmatrix}x\\y\end{pmatrix}}\,{\big |}\,x+y=0\}}
M = { ( x y ) | − 2 x + 3 y = 0 } {\displaystyle M=\{{\begin{pmatrix}x\\y\end{pmatrix}}\,{\big |}\,-2x+3y=0\}}
M = { ( x y ) | x − y = 0 } {\displaystyle M=\{{\begin{pmatrix}x\\y\end{pmatrix}}\,{\big |}\,x-y=0\}}
M = { 0 → } {\displaystyle M=\{{\vec {0}}\,\}}
M = { ( x y ) | x = 0 } {\displaystyle M=\{{\begin{pmatrix}x\\y\end{pmatrix}}\,{\big |}\,x=0\}}
M = { ( x y z ) | − x + 3 y + z = 0 } {\displaystyle M=\{{\begin{pmatrix}x\\y\\z\end{pmatrix}}\,{\big |}\,-x+3y+z=0\}}
M = { ( x y z ) | x = 0 and y + z = 0 } {\displaystyle M=\{{\begin{pmatrix}x\\y\\z\end{pmatrix}}\,{\big |}\,x=0{\text{ and }}y+z=0\}}
答案
如同在示例 3.5 中,我们可以通过仅仅找出垂直于 M {\displaystyle M} 基底的所有向量空间来简化计算。
参数化得到 M = { c ⋅ ( − 1 1 ) | c ∈ R } {\displaystyle M=\{c\cdot {\begin{pmatrix}-1\\1\end{pmatrix}}\,{\big |}\,c\in \mathbb {R} \}} 得出 M ⊥ { ( u v ) | 0 = ( u v ) ⋅ ( − 1 1 ) } = { ( u v ) | 0 = − u + v } {\displaystyle M^{\perp }\{{\begin{pmatrix}u\\v\end{pmatrix}}\,{\big |}\,0={\begin{pmatrix}u\\v\end{pmatrix}}\cdot {\begin{pmatrix}-1\\1\end{pmatrix}}\}=\{{\begin{pmatrix}u\\v\end{pmatrix}}\,{\big |}\,0=-u+v\}} 对这个单方程线性系统进行参数化得到以下描述。 M ⊥ = { k ⋅ ( 1 1 ) | k ∈ R } {\displaystyle M^{\perp }=\{k\cdot {\begin{pmatrix}1\\1\end{pmatrix}}\,{\big |}\,k\in \mathbb {R} \}}
如先前部分的答案所示, M {\displaystyle M} 可以描述为一个跨度 M = { c ⋅ ( 3 / 2 1 ) | c ∈ R } B M = ⟨ ( 3 / 2 1 ) ⟩ {\displaystyle M=\{c\cdot {\begin{pmatrix}3/2\\1\end{pmatrix}}\,{\big |}\,c\in \mathbb {R} \}\qquad B_{M}=\langle {\begin{pmatrix}3/2\\1\end{pmatrix}}\rangle } 然后 M ⊥ {\displaystyle M^{\perp }} 是垂直于此基中一个向量的向量集合。 M ⊥ = { ( u v ) | ( 3 / 2 ) ⋅ u + 1 ⋅ v = 0 } = { k ⋅ ( − 2 / 3 1 ) | k ∈ R } {\displaystyle M^{\perp }=\{{\begin{pmatrix}u\\v\end{pmatrix}}\,{\big |}\,(3/2)\cdot u+1\cdot v=0\}=\{k\cdot {\begin{pmatrix}-2/3\\1\end{pmatrix}}\,{\big |}\,k\in \mathbb {R} \}}
对 M {\displaystyle M} 描述中的线性要求进行参数化,得到此基。 M = { c ⋅ ( 1 1 ) | c ∈ R } B M = ⟨ ( 1 1 ) ⟩ {\displaystyle M=\{c\cdot {\begin{pmatrix}1\\1\end{pmatrix}}\,{\big |}\,c\in \mathbb {R} \}\qquad B_{M}=\langle {\begin{pmatrix}1\\1\end{pmatrix}}\rangle } 现在, M ⊥ {\displaystyle M^{\perp }} 是垂直于( B M {\displaystyle B_{M}} 中的)一个向量的向量集合。 M ⊥ = { ( u v ) | u + v = 0 } = { k ⋅ ( − 1 1 ) | k ∈ R } {\displaystyle M^{\perp }=\{{\begin{pmatrix}u\\v\end{pmatrix}}\,{\big |}\,u+v=0\}=\{k\cdot {\begin{pmatrix}-1\\1\end{pmatrix}}\,{\big |}\,k\in \mathbb {R} \}} (顺便说一下,这个答案与这个问题中的第一项一致。) 空间中的每个向量都垂直于零向量,所以 M ⊥ = R n {\displaystyle M^{\perp }=\mathbb {R} ^{n}} . 对 M {\displaystyle M} 的适当描述和基是常规的。 M = { y ⋅ ( 0 1 ) | y ∈ R } B M = ⟨ ( 0 1 ) ⟩ {\displaystyle M=\{y\cdot {\begin{pmatrix}0\\1\end{pmatrix}}\,{\big |}\,y\in \mathbb {R} \}\qquad B_{M}=\langle {\begin{pmatrix}0\\1\end{pmatrix}}\rangle } 那么 M ⊥ = { ( u v ) | 0 ⋅ u + 1 ⋅ v = 0 } = { k ⋅ ( 1 0 ) | k ∈ R } {\displaystyle M^{\perp }=\{{\begin{pmatrix}u\\v\end{pmatrix}}\,{\big |}\,0\cdot u+1\cdot v=0\}=\{k\cdot {\begin{pmatrix}1\\0\end{pmatrix}}\,{\big |}\,k\in \mathbb {R} \}} 因此 ( y -axis ) ⊥ = x -axis {\displaystyle (y{\text{-axis}})^{\perp }=x{\text{-axis}}} . 使用参数方程很容易找到 M {\displaystyle M} 的描述。 M = { c ⋅ ( 3 1 0 ) + d ⋅ ( 1 0 1 ) | c , d ∈ R } B M = ⟨ ( 3 1 0 ) , ( 1 0 1 ) ⟩ {\displaystyle M=\{c\cdot {\begin{pmatrix}3\\1\\0\end{pmatrix}}+d\cdot {\begin{pmatrix}1\\0\\1\end{pmatrix}}\,{\big |}\,c,d\in \mathbb {R} \}\qquad B_{M}=\langle {\begin{pmatrix}3\\1\\0\end{pmatrix}},{\begin{pmatrix}1\\0\\1\end{pmatrix}}\rangle } 找到 M ⊥ {\displaystyle M^{\perp }} 只需解一个包含两个方程的线性方程组 3 u + v = 0 u + w = 0 → − ( 1 / 3 ) ρ 1 + ρ 2 3 u + v = 0 − ( 1 / 3 ) v + w = 0 {\displaystyle {\begin{array}{*{3}{rc}r}3u&+&v&&&=&0\\u&&&+&w&=&0\end{array}}\;{\xrightarrow[{}]{-(1/3)\rho _{1}+\rho _{2}}}\;{\begin{array}{*{3}{rc}r}3u&+&v&&&=&0\\&&-(1/3)v&+&w&=&0\end{array}}} 并使用参数方程表示。 M ⊥ = { k ⋅ ( − 1 3 1 ) | k ∈ R } {\displaystyle M^{\perp }=\{k\cdot {\begin{pmatrix}-1\\3\\1\end{pmatrix}}\,{\big |}\,k\in \mathbb {R} \}}
这里, M {\displaystyle M} 是一个一维向量空间。 M = { c ⋅ ( 0 − 1 1 ) | c ∈ R } B M = ⟨ ( 0 − 1 1 ) ⟩ {\displaystyle M=\{c\cdot {\begin{pmatrix}0\\-1\\1\end{pmatrix}}\,{\big |}\,c\in \mathbb {R} \}\qquad B_{M}=\langle {\begin{pmatrix}0\\-1\\1\end{pmatrix}}\rangle } 因此, M ⊥ {\displaystyle M^{\perp }} 是二维的。 M ⊥ = { ( u v w ) | 0 ⋅ u − 1 ⋅ v + 1 ⋅ w = 0 } = { j ⋅ ( 1 0 0 ) + k ⋅ ( 0 1 1 ) | j , k ∈ R } {\displaystyle M^{\perp }=\{{\begin{pmatrix}u\\v\\w\end{pmatrix}}\,{\big |}\,0\cdot u-1\cdot v+1\cdot w=0\}=\{j\cdot {\begin{pmatrix}1\\0\\0\end{pmatrix}}+k\cdot {\begin{pmatrix}0\\1\\1\end{pmatrix}}\,{\big |}\,j,k\in \mathbb {R} \}}
此练习推荐给所有读者。
问题 4
我们有三种方法可以找到向量在直线上的正交投影,第一种方法是本节第一小节中给出的定义 1.1 方法,第二种方法是通过示例 3.2 和3.3 使用空间基底表示向量,然后保留 M {\displaystyle M} 部分,第三种方法是定理 3.8 。对于这些情况,请使用所有三种方法。
v → = ( 1 − 3 ) , M = { ( x y ) | x + y = 0 } {\displaystyle {\vec {v}}={\begin{pmatrix}1\\-3\end{pmatrix}},\quad M=\{{\begin{pmatrix}x\\y\end{pmatrix}}\,{\big |}\,x+y=0\}}
v → = ( 0 1 2 ) , M = { ( x y z ) | x + z = 0 and y = 0 } {\displaystyle {\vec {v}}={\begin{pmatrix}0\\1\\2\end{pmatrix}},\quad M=\{{\begin{pmatrix}x\\y\\z\end{pmatrix}}\,{\big |}\,x+z=0{\text{ and }}y=0\}}
答案
参数化给出以下结果。 M = { c ⋅ ( − 1 1 ) | c ∈ R } {\displaystyle M=\{c\cdot {\begin{pmatrix}-1\\1\end{pmatrix}}\,{\big |}\,c\in \mathbb {R} \}} 对于第一种方法,我们取跨越直线 M {\displaystyle M} 的向量为 s → = ( − 1 1 ) {\displaystyle {\vec {s}}={\begin{pmatrix}-1\\1\end{pmatrix}}} 然后定义 1.1 公式给出以下结果。 proj [ s → ] ( ( 1 − 3 ) ) = ( 1 − 3 ) ⋅ ( − 1 1 ) ( − 1 1 ) ⋅ ( − 1 1 ) ⋅ ( − 1 1 ) = − 4 2 ⋅ ( − 1 1 ) = ( 2 − 2 ) {\displaystyle {\mbox{proj}}_{[{\vec {s}}\,]}({\begin{pmatrix}1\\-3\end{pmatrix}})={\frac {{\begin{pmatrix}1\\-3\end{pmatrix}}\cdot {\begin{pmatrix}-1\\1\end{pmatrix}}}{{\begin{pmatrix}-1\\1\end{pmatrix}}\cdot {\begin{pmatrix}-1\\1\end{pmatrix}}}}\cdot {\begin{pmatrix}-1\\1\end{pmatrix}}={\frac {-4}{2}}\cdot {\begin{pmatrix}-1\\1\end{pmatrix}}={\begin{pmatrix}2\\-2\end{pmatrix}}} 第二种方法,我们固定 B M = ⟨ ( − 1 1 ) ⟩ {\displaystyle B_{M}=\langle {\begin{pmatrix}-1\\1\end{pmatrix}}\rangle } 因此(如 示例 3.5 和 3.6 中,我们只需找到垂直于基底中所有向量的向量) M ⊥ = { ( u v ) | − 1 ⋅ u + 1 ⋅ v = 0 } = { k ⋅ ( 1 1 ) | k ∈ R } B M ⊥ = ⟨ ( 1 1 ) ⟩ {\displaystyle M^{\perp }=\{{\begin{pmatrix}u\\v\end{pmatrix}}\,{\big |}\,-1\cdot u+1\cdot v=0\}=\{k\cdot {\begin{pmatrix}1\\1\end{pmatrix}}\,{\big |}\,k\in \mathbb {R} \}\qquad B_{M^{\perp }}=\langle {\begin{pmatrix}1\\1\end{pmatrix}}\rangle } 用拼接的方式表示该向量。 ( 1 − 3 ) = − 2 ⋅ ( − 1 1 ) − 1 ⋅ ( 1 1 ) {\displaystyle {\begin{pmatrix}1\\-3\end{pmatrix}}=-2\cdot {\begin{pmatrix}-1\\1\end{pmatrix}}-1\cdot {\begin{pmatrix}1\\1\end{pmatrix}}} 保留 M {\displaystyle M} 部分即可得到答案。 proj M , M ⊥ ( ( 1 − 3 ) ) = ( 2 − 2 ) {\displaystyle {\mbox{proj}}_{M,M^{\perp }}({\begin{pmatrix}1\\-3\end{pmatrix}})={\begin{pmatrix}2\\-2\end{pmatrix}}} 第三部分也是简单的计算(中间有一个 1 × 1 {\displaystyle 1\!\times \!1} 矩阵,其逆也是 1 × 1 {\displaystyle 1\!\times \!1} ) A ( A t r a n s A ) − 1 A t r a n s = ( − 1 1 ) ( ( − 1 1 ) ( − 1 1 ) ) − 1 ( − 1 1 ) = ( − 1 1 ) ( 2 ) − 1 ( − 1 1 ) {\displaystyle A\left({{A}^{\rm {trans}}}A\right)^{-1}{{A}^{\rm {trans}}}={\begin{pmatrix}-1\\1\end{pmatrix}}\left({\begin{pmatrix}-1&1\end{pmatrix}}{\begin{pmatrix}-1\\1\end{pmatrix}}\right)^{-1}{\begin{pmatrix}-1&1\end{pmatrix}}={\begin{pmatrix}-1\\1\end{pmatrix}}{\begin{pmatrix}2\end{pmatrix}}^{-1}{\begin{pmatrix}-1&1\end{pmatrix}}}
= ( − 1 1 ) ( 1 / 2 ) ( − 1 1 ) = ( − 1 1 ) ( − 1 / 2 1 / 2 ) = ( 1 / 2 − 1 / 2 − 1 / 2 1 / 2 ) {\displaystyle ={\begin{pmatrix}-1\\1\end{pmatrix}}{\begin{pmatrix}1/2\end{pmatrix}}{\begin{pmatrix}-1&1\end{pmatrix}}={\begin{pmatrix}-1\\1\end{pmatrix}}{\begin{pmatrix}-1/2&1/2\end{pmatrix}}={\begin{pmatrix}1/2&-1/2\\-1/2&1/2\end{pmatrix}}} 当然,这会得到相同的结果。 proj M ( ( 1 − 3 ) ) = ( 1 / 2 − 1 / 2 − 1 / 2 1 / 2 ) ( 1 − 3 ) = ( 2 − 2 ) {\displaystyle {\mbox{proj}}_{M}({\begin{pmatrix}1\\-3\end{pmatrix}})={\begin{pmatrix}1/2&-1/2\\-1/2&1/2\end{pmatrix}}{\begin{pmatrix}1\\-3\end{pmatrix}}={\begin{pmatrix}2\\-2\end{pmatrix}}}
参数化给出以下结果。 M = { c ⋅ ( − 1 0 1 ) | c ∈ R } {\displaystyle M=\{c\cdot {\begin{pmatrix}-1\\0\\1\end{pmatrix}}\,{\big |}\,c\in \mathbb {R} \}} 由此,第一个方法的公式给出以下结果。 ( 0 1 2 ) ⋅ ( − 1 0 1 ) ( − 1 0 1 ) ⋅ ( − 1 0 1 ) ⋅ ( − 1 0 1 ) = 2 2 ⋅ ( − 1 0 1 ) = ( − 1 0 1 ) {\displaystyle {\frac {{\begin{pmatrix}0\\1\\2\end{pmatrix}}\cdot {\begin{pmatrix}-1\\0\\1\end{pmatrix}}}{{\begin{pmatrix}-1\\0\\1\end{pmatrix}}\cdot {\begin{pmatrix}-1\\0\\1\end{pmatrix}}}}\cdot {\begin{pmatrix}-1\\0\\1\end{pmatrix}}={\frac {2}{2}}\cdot {\begin{pmatrix}-1\\0\\1\end{pmatrix}}={\begin{pmatrix}-1\\0\\1\end{pmatrix}}} 为了用第二种方法进行,我们需要找到 M ⊥ {\displaystyle M^{\perp }} , M ⊥ = { ( u v w ) | − u + w = 0 } = { j ⋅ ( 1 0 1 ) + k ⋅ ( 0 1 0 ) | j , k ∈ R } {\displaystyle M^{\perp }=\{{\begin{pmatrix}u\\v\\w\end{pmatrix}}\,{\big |}\,-u+w=0\}=\{j\cdot {\begin{pmatrix}1\\0\\1\end{pmatrix}}+k\cdot {\begin{pmatrix}0\\1\\0\end{pmatrix}}\,{\big |}\,j,k\in \mathbb {R} \}} 找到给定向量关于基 B M {\displaystyle B_{M}} 和 B M ⊥ {\displaystyle B_{M^{\perp }}} 连接后的表示 ( 0 1 2 ) = 1 ⋅ ( − 1 0 1 ) + 1 ⋅ ( 1 0 1 ) + 1 ⋅ ( 0 1 0 ) {\displaystyle {\begin{pmatrix}0\\1\\2\end{pmatrix}}=1\cdot {\begin{pmatrix}-1\\0\\1\end{pmatrix}}+1\cdot {\begin{pmatrix}1\\0\\1\end{pmatrix}}+1\cdot {\begin{pmatrix}0\\1\\0\end{pmatrix}}} 并只保留 M {\displaystyle M} 部分。 proj M ( ( 0 1 2 ) ) = 1 ⋅ ( − 1 0 1 ) = ( − 1 0 1 ) {\displaystyle {\mbox{proj}}_{M}({\begin{pmatrix}0\\1\\2\end{pmatrix}})=1\cdot {\begin{pmatrix}-1\\0\\1\end{pmatrix}}={\begin{pmatrix}-1\\0\\1\end{pmatrix}}} 最后,对于第三种方法,矩阵计算 A ( A t r a n s A ) − 1 A t r a n s = ( − 1 0 1 ) ( ( − 1 0 1 ) ( − 1 0 1 ) ) − 1 ( − 1 0 1 ) = ( − 1 0 1 ) ( 2 ) − 1 ( − 1 0 1 ) {\displaystyle A\left({{A}^{\rm {trans}}}A\right)^{-1}{{A}^{\rm {trans}}}={\begin{pmatrix}-1\\0\\1\end{pmatrix}}{\bigl (}{\begin{pmatrix}-1&0&1\end{pmatrix}}{\begin{pmatrix}-1\\0\\1\end{pmatrix}}{\bigr )}^{-1}{\begin{pmatrix}-1&0&1\end{pmatrix}}={\begin{pmatrix}-1\\0\\1\end{pmatrix}}{\begin{pmatrix}2\end{pmatrix}}^{-1}{\begin{pmatrix}-1&0&1\end{pmatrix}}}
= ( − 1 0 1 ) ( 1 / 2 ) ( − 1 0 1 ) = ( − 1 0 1 ) ( − 1 / 2 0 1 / 2 ) = ( 1 / 2 0 − 1 / 2 0 0 0 − 1 / 2 0 1 / 2 ) {\displaystyle ={\begin{pmatrix}-1\\0\\1\end{pmatrix}}{\begin{pmatrix}1/2\end{pmatrix}}{\begin{pmatrix}-1&0&1\end{pmatrix}}={\begin{pmatrix}-1\\0\\1\end{pmatrix}}{\begin{pmatrix}-1/2&0&1/2\end{pmatrix}}={\begin{pmatrix}1/2&0&-1/2\\0&0&0\\-1/2&0&1/2\end{pmatrix}}} 然后是矩阵-向量乘法 proj M ( ( 0 1 2 ) ) ( 1 / 2 0 − 1 / 2 0 0 0 − 1 / 2 0 1 / 2 ) ( 0 1 2 ) = ( − 1 0 1 ) {\displaystyle {\mbox{proj}}_{M}({\begin{pmatrix}0\\1\\2\end{pmatrix}}){\begin{pmatrix}1/2&0&-1/2\\0&0&0\\-1/2&0&1/2\end{pmatrix}}{\begin{pmatrix}0\\1\\2\end{pmatrix}}={\begin{pmatrix}-1\\0\\1\end{pmatrix}}} 得到答案。
问题 5
验证 定义 3.1 中的投影操作是定义良好的。也就是说,在 示例 3.2 和 3.3 中,答案是否依赖于所选基?
答案
不,将向量分解为 v → = m → + n → {\displaystyle {\vec {v}}={\vec {m}}+{\vec {n}}} 的形式,其中 m → ∈ M {\displaystyle {\vec {m}}\in M} 且 n → ∈ N {\displaystyle {\vec {n}}\in N} ,不依赖于子空间所选的基。在直接和这一节中已经证明了这一点。
问题 6
什么是到零子空间的正交投影?
答案
向量到子空间的正交投影是该子空间中的一个元素。由于零子空间只有一个元素,即 0 → {\displaystyle {\vec {0}}} ,所以任何向量的投影必须等于 0 → {\displaystyle {\vec {0}}} 。
此练习推荐给所有读者。
此练习推荐给所有读者。
问题 10
证明如果一个向量垂直于一个集合中的每个向量,那么它也垂直于该集合的生成空间中的每个向量。
答案
设 v → {\displaystyle {\vec {v}}} 垂直于每个 w → ∈ S {\displaystyle {\vec {w}}\in S} 。然后 v → ⋅ ( c 1 w → 1 + ⋯ + c n w → n ) = v → ⋅ ( c 1 w → 1 ) + ⋯ + v → ⋅ ( c n ⋅ w → n ) = c 1 ( v → ⋅ w → 1 ) + ⋯ + c n ( v → ⋅ w → n ) = c 1 ⋅ 0 + ⋯ + c n ⋅ 0 = 0 {\displaystyle {\vec {v}}\cdot (c_{1}{\vec {w}}_{1}+\dots +c_{n}{\vec {w}}_{n})={\vec {v}}\cdot (c_{1}{\vec {w}}_{1})+\dots +{\vec {v}}\cdot (c_{n}\cdot {\vec {w}}_{n})=c_{1}({\vec {v}}\cdot {\vec {w}}_{1})+\dots +c_{n}({\vec {v}}\cdot {\vec {w}}_{n})=c_{1}\cdot 0+\dots +c_{n}\cdot 0=0} .
问题 11
判断对错:子空间与其正交补集的交集是平凡的。
答案
正确;唯一与自身正交的向量是零向量。
问题 12
证明正交补集的维数之和等于整个空间的维数。
答案
这直接来自 引理 3.7 中的陈述,即空间是这两个空间的直和。
此练习推荐给所有读者。
此练习推荐给所有读者。
问题 14
设 M , N {\displaystyle M,N} 是 R n {\displaystyle \mathbb {R} ^{n}} 的子空间。正交算子作用于子空间;我们可以询问它如何与其他此类运算交互。
证明两次正交运算抵消: ( M ⊥ ) ⊥ = M {\displaystyle (M^{\perp })^{\perp }=M} . 证明 M ⊆ N {\displaystyle M\subseteq N} 意味着 N ⊥ ⊆ M ⊥ {\displaystyle N^{\perp }\subseteq M^{\perp }} . 证明 ( M + N ) ⊥ = M ⊥ ∩ N ⊥ {\displaystyle (M+N)^{\perp }=M^{\perp }\cap N^{\perp }} .
答案
我们将证明这些集合是相互包含的, M ⊆ ( M ⊥ ) ⊥ {\displaystyle M\subseteq (M^{\perp })^{\perp }} 以及 ( M ⊥ ) ⊥ ⊆ M {\displaystyle (M^{\perp })^{\perp }\subseteq M} 。对于第一个,如果 m → ∈ M {\displaystyle {\vec {m}}\in M} ,那么根据perp运算的定义, m → {\displaystyle {\vec {m}}} 与每个 v → ∈ M ⊥ {\displaystyle {\vec {v}}\in M^{\perp }} 垂直,因此(再次根据perp运算的定义) m → ∈ ( M ⊥ ) ⊥ {\displaystyle {\vec {m}}\in (M^{\perp })^{\perp }} 。对于另一个方向,考虑 v → ∈ ( M ⊥ ) ⊥ {\displaystyle {\vec {v}}\in (M^{\perp })^{\perp }} 。引理 3.7 的证明表明 R n = M ⊕ M ⊥ {\displaystyle \mathbb {R} ^{n}=M\oplus M^{\perp }} ,并且我们可以为空间 ⟨ κ → 1 , … , κ → k , κ → k + 1 , … , κ → n ⟩ {\displaystyle \langle {\vec {\kappa }}_{1},\dots ,{\vec {\kappa }}_{k},{\vec {\kappa }}_{k+1},\dots ,{\vec {\kappa }}_{n}\rangle } 提供一个正交基,其中前半部分 ⟨ κ → 1 , … , κ → k ⟩ {\displaystyle \langle {\vec {\kappa }}_{1},\dots ,{\vec {\kappa }}_{k}\rangle } 是 M {\displaystyle M} 的基,后半部分是 M ⊥ {\displaystyle M^{\perp }} 的基。该证明还检查了空间中的每个向量都是其在这些基向量所跨越的直线上的正交投影之和。 v → = proj [ κ → 1 ] ( v → ) + ⋯ + proj [ κ → n ] ( v → ) {\displaystyle {\vec {v}}={\mbox{proj}}_{[{\vec {\kappa }}_{1}]}({{\vec {v}}\,})+\dots +{\mbox{proj}}_{[{\vec {\kappa }}_{n}]}({{\vec {v}}\,})} 因为 v → ∈ ( M ⊥ ) ⊥ {\displaystyle {\vec {v}}\in (M^{\perp })^{\perp }} ,它垂直于 M ⊥ {\displaystyle M^{\perp }} 中的每个向量,因此第二部分的投影都为零。 因此 v → = proj [ κ → 1 ] ( v → ) + ⋯ + proj [ κ → k ] ( v → ) {\displaystyle {\vec {v}}={\mbox{proj}}_{[{\vec {\kappa }}_{1}]}({{\vec {v}}\,})+\dots +{\mbox{proj}}_{[{\vec {\kappa }}_{k}]}({{\vec {v}}\,})} ,它是来自 M {\displaystyle M} 的向量的线性组合,所以 v → ∈ M {\displaystyle {\vec {v}}\in M} 。(备注 。这里有一个更巧妙的方法来处理第二部分:将空间写成 M ⊕ M ⊥ {\displaystyle M\oplus M^{\perp }} 以及 M ⊥ ⊕ ( M ⊥ ) ⊥ {\displaystyle M^{\perp }\oplus (M^{\perp })^{\perp }} 。因为上半部分表明了 M ⊆ ( M ⊥ ) ⊥ {\displaystyle M\subseteq (M^{\perp })^{\perp }} 并且前面的句子表明了两个子空间 M {\displaystyle M} 和 ( M ⊥ ) ⊥ {\displaystyle (M^{\perp })^{\perp }} 的维数相等,我们可以得出结论 M {\displaystyle M} 等于 ( M ⊥ ) ⊥ {\displaystyle (M^{\perp })^{\perp }} 。) 因为 M ⊆ N {\displaystyle M\subseteq N} ,任何一个与 N {\displaystyle N} 中所有向量垂直的向量 v → {\displaystyle {\vec {v}}} ,也与 M {\displaystyle M} 中所有向量垂直。但是这句话只是说 N ⊥ ⊆ M ⊥ {\displaystyle N^{\perp }\subseteq M^{\perp }} . 我们将再次通过互相包含来证明集合相等。第一个方向很简单;任何垂直于 v → {\displaystyle {\vec {v}}} 中每个向量的 M + N = { m → + n → | m → ∈ M , n → ∈ N } {\displaystyle M+N=\{{\vec {m}}+{\vec {n}}\,{\big |}\,{\vec {m}}\in M,\,{\vec {n}}\in N\}} 的向量,也垂直于形式为 m → + 0 → {\displaystyle {\vec {m}}+{\vec {0}}} 的每个向量(即, M {\displaystyle M} 中的每个向量)以及形式为 0 → + n → {\displaystyle {\vec {0}}+{\vec {n}}} 的每个向量( N {\displaystyle N} 中的每个向量),所以 ( M + N ) ⊥ ⊆ M ⊥ ∩ N ⊥ {\displaystyle (M+N)^{\perp }\subseteq M^{\perp }\cap N^{\perp }} 。第二个方向也是常规的;任何向量 v → ∈ M ⊥ ∩ N ⊥ {\displaystyle {\vec {v}}\in M^{\perp }\cap N^{\perp }} 垂直于形式为 c m → + d n → {\displaystyle c{\vec {m}}+d{\vec {n}}} 的任何向量,因为 v → ⋅ ( c m → + d n → ) = c ⋅ ( v → ⋅ m → ) + d ⋅ ( v → ⋅ n → ) = c ⋅ 0 + d ⋅ 0 = 0 {\displaystyle {\vec {v}}\cdot (c{\vec {m}}+d{\vec {n}})=c\cdot ({\vec {v}}\cdot {\vec {m}})+d\cdot ({\vec {v}}\cdot {\vec {n}})=c\cdot 0+d\cdot 0=0} 。
此练习推荐给所有读者。
问题 15
本小节中的材料使我们能够表达线性映射的范围空间和零空间之间尚未见过的几何关系。
表示 f : R 3 → R {\displaystyle f:\mathbb {R} ^{3}\to \mathbb {R} } 由以下给出 ( v 1 v 2 v 3 ) ↦ 1 v 1 + 2 v 2 + 3 v 3 {\displaystyle {\begin{pmatrix}v_{1}\\v_{2}\\v_{3}\end{pmatrix}}\mapsto 1v_{1}+2v_{2}+3v_{3}} 关于标准基并证明 ( 1 2 3 ) {\displaystyle {\begin{pmatrix}1\\2\\3\end{pmatrix}}} 是零空间的正交补中的一个成员。证明 N ( f ) ⊥ {\displaystyle {\mathcal {N}}(f)^{\perp }} 等于此向量的生成空间。 将其推广到适用于任何 f : R n → R {\displaystyle f:\mathbb {R} ^{n}\to \mathbb {R} } 。 表示 f : R 3 → R 2 {\displaystyle f:\mathbb {R} ^{3}\to \mathbb {R} ^{2}} ( v 1 v 2 v 3 ) ↦ ( 1 v 1 + 2 v 2 + 3 v 3 4 v 1 + 5 v 2 + 6 v 3 ) {\displaystyle {\begin{pmatrix}v_{1}\\v_{2}\\v_{3}\end{pmatrix}}\mapsto {\begin{pmatrix}1v_{1}+2v_{2}+3v_{3}\\4v_{1}+5v_{2}+6v_{3}\end{pmatrix}}} 关于标准基并证明 ( 1 2 3 ) , ( 4 5 6 ) {\displaystyle {\begin{pmatrix}1\\2\\3\end{pmatrix}},\;{\begin{pmatrix}4\\5\\6\end{pmatrix}}} 都是零空间正交补的成员。证明 N ( f ) ⊥ {\displaystyle {\mathcal {N}}(f)^{\perp }} 是这两个向量的生成空间。(提示:参见问题 14 的第三项。) 将其推广到适用于任何 f : R n → R m {\displaystyle f:\mathbb {R} ^{n}\to \mathbb {R} ^{m}} 。
这个结果及其相关结果被称为线性代数的基本定理(参见Strang 1993 )。
答案
表示 ( v 1 v 2 v 3 ) ⟼ f 1 v 1 + 2 v 2 + 3 v 3 {\displaystyle {\begin{pmatrix}v_{1}\\v_{2}\\v_{3}\end{pmatrix}}{\stackrel {f}{\longmapsto }}1v_{1}+2v_{2}+3v_{3}} 是这个。 R e p E 3 , E 1 ( f ) = ( 1 2 3 ) {\displaystyle {\rm {Rep}}_{{\mathcal {E}}_{3},{\mathcal {E}}_{1}}(f)={\begin{pmatrix}1&2&3\end{pmatrix}}} 根据 f {\displaystyle f} 的定义 N ( f ) = { ( v 1 v 2 v 3 ) | 1 v 1 + 2 v 2 + 3 v 3 = 0 } = { ( v 1 v 2 v 3 ) | ( 1 2 3 ) ⋅ ( v 1 v 2 v 3 ) = 0 } {\displaystyle {\mathcal {N}}(f)=\{{\begin{pmatrix}v_{1}\\v_{2}\\v_{3}\end{pmatrix}}\,{\big |}\,1v_{1}+2v_{2}+3v_{3}=0\}=\{{\begin{pmatrix}v_{1}\\v_{2}\\v_{3}\end{pmatrix}}\,{\big |}\,{\begin{pmatrix}1\\2\\3\end{pmatrix}}\cdot {\begin{pmatrix}v_{1}\\v_{2}\\v_{3}\end{pmatrix}}=0\}} 第二个描述恰好表达了这一点。 N ( f ) ⊥ = [ { ( 1 2 3 ) } ] {\displaystyle {\mathcal {N}}(f)^{\perp }=[\{{\begin{pmatrix}1\\2\\3\end{pmatrix}}\}]}
推广到任何 f : R n → R {\displaystyle f:\mathbb {R} ^{n}\to \mathbb {R} } ,都存在一个向量 h → {\displaystyle {\vec {h}}} ,使得 ( v 1 ⋮ v n ) ⟼ f h 1 v 1 + ⋯ + h n v n {\displaystyle {\begin{pmatrix}v_{1}\\\vdots \\v_{n}\end{pmatrix}}{\stackrel {f}{\longmapsto }}h_{1}v_{1}+\dots +h_{n}v_{n}} 并且 h → ∈ N ( f ) ⊥ {\displaystyle {\vec {h}}\in {\mathcal {N}}(f)^{\perp }} 。我们可以像上一项中一样,用标准基表示 f {\displaystyle f} ,并取 h → {\displaystyle {\vec {h}}} 为该矩阵表示的一行的转置得到的列向量来证明这一点。 当然, R e p E 3 , E 2 ( f ) = ( 1 2 3 4 5 6 ) {\displaystyle {\rm {Rep}}_{{\mathcal {E}}_{3},{\mathcal {E}}_{2}}(f)={\begin{pmatrix}1&2&3\\4&5&6\end{pmatrix}}} 所以零空间就是这个集合。 N ( f ) { ( v 1 v 2 v 3 ) | ( 1 2 3 4 5 6 ) ( v 1 v 2 v 3 ) = ( 0 0 ) } {\displaystyle {\mathcal {N}}(f)\{{\begin{pmatrix}v_{1}\\v_{2}\\v_{3}\end{pmatrix}}\,{\big |}\,\;{\begin{pmatrix}1&2&3\\4&5&6\end{pmatrix}}{\begin{pmatrix}v_{1}\\v_{2}\\v_{3}\end{pmatrix}}={\begin{pmatrix}0\\0\end{pmatrix}}\;\}} 该描述清楚地表明 ( 1 2 3 ) , ( 4 5 6 ) ∈ N ( f ) ⊥ {\displaystyle {\begin{pmatrix}1\\2\\3\end{pmatrix}},\,{\begin{pmatrix}4\\5\\6\end{pmatrix}}\in {\mathcal {N}}(f)^{\perp }} 并且由于 N ( f ) ⊥ {\displaystyle {\mathcal {N}}(f)^{\perp }} 是 R n {\displaystyle \mathbb {R} ^{n}} 的子空间,这两个向量的跨度是零空间的正交补的子空间。为了证明这种包含关系是一个等式,我们取 M = [ { ( 1 2 3 ) } ] N = [ { ( 4 5 6 ) } ] {\displaystyle M=[\{{\begin{pmatrix}1\\2\\3\end{pmatrix}}\}]\qquad N=[\{{\begin{pmatrix}4\\5\\6\end{pmatrix}}\}]} 在 问题 14 的第三项中,如提示中所建议的那样。 如上所述,从具体情况推广到一般情况很容易:对于任何 f : R n → R m {\displaystyle f:\mathbb {R} ^{n}\to \mathbb {R} ^{m}} ,矩阵 H {\displaystyle H} 关于标准基表示映射的动作 ( v 1 ⋮ v n ) ⟼ f ( h 1 , 1 v 1 + h 1 , 2 v 2 + ⋯ + h 1 , n v n ⋮ h m , 1 v 1 + h m , 2 v 2 + ⋯ + h m , n v n ) {\displaystyle {\begin{pmatrix}v_{1}\\\vdots \\v_{n}\end{pmatrix}}{\stackrel {f}{\longmapsto }}{\begin{pmatrix}h_{1,1}v_{1}+h_{1,2}v_{2}+\dots +h_{1,n}v_{n}\\\vdots \\h_{m,1}v_{1}+h_{m,2}v_{2}+\dots +h_{m,n}v_{n}\end{pmatrix}}} 并且对零空间的描述表明,在转置 m {\displaystyle m} 行的 H {\displaystyle H} h → 1 = ( h 1 , 1 h 1 , 2 ⋮ h 1 , n ) , … h → m = ( h m , 1 h m , 2 ⋮ h m , n ) {\displaystyle {\vec {h}}_{1}={\begin{pmatrix}h_{1,1}\\h_{1,2}\\\vdots \\h_{1,n}\end{pmatrix}},\dots {\vec {h}}_{m}={\begin{pmatrix}h_{m,1}\\h_{m,2}\\\vdots \\h_{m,n}\end{pmatrix}}} 我们有 N ( f ) ⊥ = [ { h → 1 , … , h → m } ] {\displaystyle {\mathcal {N}}(f)^{\perp }=[\{{\vec {h}}_{1},\dots ,{\vec {h}}_{m}\}]} 。 (在 (Strang 1993 ) 中,此空间被描述为 H {\displaystyle H} 行空间的转置。)
问题 16
定义投影 为线性变换 t : V → V {\displaystyle t:V\to V} ,具有以下性质:重复投影不会比单独投影做更多事情: ( t ∘ t ) ( v → ) = t ( v → ) {\displaystyle (t\circ t)\,({\vec {v}})=t({\vec {v}})} ,对于所有 v → ∈ V {\displaystyle {\vec {v}}\in V} 都成立。
证明:将向量正交投影到直线上,具有该性质。 证明:将向量投影到子空间上,具有该性质。 证明:对于任何这样的 t {\displaystyle t} ,都存在一个基底 B = ⟨ β → 1 , … , β → n ⟩ {\displaystyle B=\langle {\vec {\beta }}_{1},\ldots ,{\vec {\beta }}_{n}\rangle } ,对于 V {\displaystyle V} ,使得 t ( β → i ) = { β → i i = 1 , 2 , … , r 0 → i = r + 1 , r + 2 , … , n {\displaystyle t({\vec {\beta }}_{i})={\begin{cases}{\vec {\beta }}_{i}&i=1,2,\dots ,\,r\\{\vec {0}}&i=r+1,r+2,\dots ,\,n\end{cases}}} 其中 r {\displaystyle r} 是 t {\displaystyle t} 的秩。 由此推断,每个投影都是沿子空间的投影。 同样可以推断,每个投影都有一个表示形式 R e p B , B ( t ) = ( I Z Z Z ) {\displaystyle {\rm {Rep}}_{B,B}(t)=\left({\begin{array}{c|c}I&Z\\\hline Z&Z\end{array}}\right)} ,以分块部分单位矩阵的形式。
答案
首先要注意,如果一个向量 v → {\displaystyle {\vec {v}}} 已经在直线上,那么正交投影将得到 v → {\displaystyle {\vec {v}}} 本身。验证这一点的一种方法是将投影公式应用于由向量 s → {\displaystyle {\vec {s}}} 张成的直线上,即 ( v → ⋅ s → / s → ⋅ s → ) ⋅ s → {\displaystyle ({\vec {v}}\cdot {\vec {s}}/{\vec {s}}\cdot {\vec {s}})\cdot {\vec {s}}} 。将直线视为 { k ⋅ v → | k ∈ R } {\displaystyle \{k\cdot {\vec {v}}\,{\big |}\,k\in \mathbb {R} \}} ( v → = 0 → {\displaystyle {\vec {v}}={\vec {0}}} 的情况是单独的,但很容易处理)得到 ( v → ⋅ v → / v → ⋅ v → ) ⋅ v → {\displaystyle ({\vec {v}}\cdot {\vec {v}}/{\vec {v}}\cdot {\vec {v}})\cdot {\vec {v}}} ,简化为 v → {\displaystyle {\vec {v}}} ,如预期的那样。现在,这回答了这个问题,因为在将向量投影到直线上一次后,结果 proj ℓ ( v → ) {\displaystyle {\mbox{proj}}_{\ell }({\vec {v}})} 就在那条直线上。前一段说明,再次投影到同一条直线上将没有任何影响。 这里的论点与上一项中的论点类似。对于 V = M ⊕ N {\displaystyle V=M\oplus N} , v → = m → + n → {\displaystyle {\vec {v}}={\vec {m}}+{\vec {n}}} 的投影是 proj M , N ( v → ) = m → {\displaystyle {\mbox{proj}}_{M,N}({{\vec {v}}\,})={\vec {m}}} 。现在重复投影将得到 proj M , N ( m → ) = m → {\displaystyle {\mbox{proj}}_{M,N}({\vec {m}})={\vec {m}}} ,如预期的那样,因为将 M {\displaystyle M} 的成员分解为 M {\displaystyle M} 的成员和 N {\displaystyle N} 的成员的和是 m → = m → + 0 → {\displaystyle {\vec {m}}={\vec {m}}+{\vec {0}}} 。因此,沿着 N {\displaystyle N} 到 M {\displaystyle M} 上进行两次投影的效果与进行一次投影相同。 As suggested by the prior items, the condition gives that t {\displaystyle t} leaves vectors in the rangespace unchanged, and hints that we should take β → 1 {\displaystyle {\vec {\beta }}_{1}} , ..., β → r {\displaystyle {\vec {\beta }}_{r}} to be basis vectors for the range, that is, that we should take the range space of t {\displaystyle t} for M {\displaystyle M} (so that dim ( M ) = r {\displaystyle \dim(M)=r} ). As for the complement, we write N {\displaystyle N} for the nullspace of t {\displaystyle t} and we will show that V = M ⊕ N {\displaystyle V=M\oplus N} . To show this, we can show that their intersection is trivial M ∩ N = { 0 → } {\displaystyle M\cap N=\{{\vec {0}}\}} and that they sum to the entire space M + N = V {\displaystyle M+N=V} . For the first, if a vector m → {\displaystyle {\vec {m}}} is in the rangespace then there is a v → ∈ V {\displaystyle {\vec {v}}\in V} with t ( v → ) = m → {\displaystyle t({\vec {v}})={\vec {m}}} , and the condition on t {\displaystyle t} gives that t ( m → ) = ( t ∘ t ) ( v → ) = t ( v → ) = m → {\displaystyle t({\vec {m}})=(t\circ t)\,({\vec {v}})=t({\vec {v}})={\vec {m}}} , while if that same vector is also in the nullspace then t ( m → ) = 0 → {\displaystyle t({\vec {m}})={\vec {0}}} and so the intersection of the rangespace and nullspace is trivial. For the second, to write an arbitrary v → {\displaystyle {\vec {v}}} as the sum of a vector from the rangespace and a vector from the nullspace, the fact that the condition t ( v → ) = t ( t ( v → ) ) {\displaystyle t({\vec {v}})=t(t({\vec {v}}))} can be rewritten as t ( v → − t ( v → ) ) = 0 → {\displaystyle t({\vec {v}}-t({\vec {v}}))={\vec {0}}} suggests taking v → = t ( v → ) + ( v → − t ( v → ) ) {\displaystyle {\vec {v}}=t({\vec {v}})+({\vec {v}}-t({\vec {v}}))} . So we are finished on taking a basis B = ⟨ β → 1 , … , β → n ⟩ {\displaystyle B=\langle {\vec {\beta }}_{1},\ldots ,{\vec {\beta }}_{n}\rangle } for V {\displaystyle V} where ⟨ β → 1 , … , β → r ⟩ {\displaystyle \langle {\vec {\beta }}_{1},\ldots ,{\vec {\beta }}_{r}\rangle } is a basis for the rangespace M {\displaystyle M} and ⟨ β → r + 1 , … , β → n ⟩ {\displaystyle \langle {\vec {\beta }}_{r+1},\ldots ,{\vec {\beta }}_{n}\rangle } is a basis for the nullspace N {\displaystyle N} . 每个投影(在本练习中定义)都是投影到其值域并沿着其零空间进行投影。 这也直接来自第三项。
Strang, Gilbert (1993), "线性代数基本定理", 美国数学月刊 , 美国数学学会: 848–855 .
Strang, Gilbert (1980), 线性代数及其应用 (第 2 版), Hartcourt Brace Javanovich