线性代数

阅读数:330 评论数:0

跳转到新版页面

分类

数学

正文

一、行列式

行列式是一个定义在方阵上的标量值函数,它将一个方阵映射到一个实数或复数。行列式在数学中有着广泛的应用,特别是在线性代数、向量空间和解析几何中。它可以用于判断一个矩阵是否可逆(如果行列式非零,则矩阵可逆),在变换中的面积或体积扩大比例,以及解线性方程组。

以下是一些最重要的含义:

  • **几何解释**:对于一个实数矩阵,行列式可以表示由矩阵的列(或行)向量所张成的平行多面体的体积(在二维中是面积,三维中是体积)。行列式的绝对值告诉我们这个几何体的大小,而行列式的符号(正或负)提供了向量排列的定向信息(即它们是按照右手定则还是左手定则排列的)。
  • **线性变换**:当一个矩阵被视为线性变换时,其行列式代表了这个变换对体积的缩放因子。如果行列式为1,那么这个变换保持体积不变;如果行列式为0,那么变换将空间压缩到更低的维度,从而体积变为0;如果行列式为负,那么除了体积缩放之外,还发生了镜像反转。
  • **解的存在性**:在线性代数中,一个方程组 $A\vec{x} = \vec{b}$(其中$A$是系数矩阵,$\vec{x}$是未知向量,$\vec{b}$是常数向量)有唯一解的充分必要条件是矩阵$A$的行列式非零。如果行列式为零,方程组可能没有解或者有无限多解。
  • **特征值**:方阵$A$的特征值是使得方程$\det(A - \lambda I) = 0$成立的$\lambda$值,其中$I$是单位矩阵。这个方程称为特征多项式,它的解对应于矩阵的特征值。
  • **逆矩阵的存在性**:一个方阵$A$有逆矩阵的充分必要条件是其行列式非零。如果$\det(A) \neq 0$,那么$A$是可逆的,否则不可逆。

1、二阶与三阶行列式

(1)**二阶行列式**:

如果有一个二阶方阵:

$$
A = \begin{bmatrix}
a & b \\
c & d \\
\end{bmatrix}
$$

其行列式记作 $|A|$ 或 $\det(A)$,计算方法是:

$$
|A| = ad - bc
$$

(2)**三阶行列式**:

如果有一个三阶方阵:

$$
B = \begin{bmatrix}
a & b & c \\
d & e & f \\
g & h & i \\
\end{bmatrix}
$$

其行列式记作 $|B|$ 或 $\det(B)$,计算方法是:

$$
|B| = a(ei - fh) - b(di - fg) + c(dh - eg)
$$

这可以通过对第一行展开来计算,也称为拉普拉斯展开。对于更高阶的行列式,虽然也有直接的计算公式,但通常会通过各种方法(如行或列的消元、分块矩阵、递归展开等)来简化计算。

2、全排列和对换

(1)**全排列**:

全排列是指从n个不同元素中任取m(m≤n)个元素按照一定的顺序排成一列。当m=n时,这样的排列称为全排列。对于n个元素的集合,存在n!(n的阶乘)种不同的全排列。

在计算行列式时,每个全排列都对应于行列式中的一项,每项的符号由排列的奇偶性决定。

(2)**对换**:

对换是一种特殊的排列,它只涉及两个元素的交换。在全排列的语境中,对换是指交换排列中的任意两个元素的位置。在数学中,任何一个全排列都可以通过一系列对换来实现。

对换在行列式计算中的重要性在于,每次对换都会改变排列的奇偶性。如果一个排列可以通过偶数次对换变为另一个排列,则这两个排列是同奇偶性的;如果需要奇数次对换,则它们是异奇偶性的。在行列式中,奇排列对应的项有负号,偶排列对应的项有正号。

(3)**奇偶性**:

排列的奇偶性是通过计算交换两个元素的次数来定义的。如果一个全排列可以通过偶数次对换变为自然排列(即1, 2, ..., n),那么这个排列被称为偶排列;如果需要奇数次对换,则称为奇排列。

在n阶行列式的计算中,每一项的系数是由相应的排列决定的。对于排列$p$,其系数是$(-1)^{\text{sgn}(p)}$,其中$\text{sgn}(p)$是排列$p$的符号函数,它等于排列中对换的次数的奇偶性(偶数为0,奇数为1)。因此,n阶行列式可以表示为:

$$
\det(A) = \sum_{p \in S_n} (-1)^{\text{sgn}(p)} a_{1p_1}a_{2p_2}...a_{np_n}
$$

其中$S_n$是n个元素的全排列集合,$a_{ij}$是矩阵$A$中的元素,$p_i$是排列$p$中第$i$个位置的元素。

3、n阶行列式的定义

n阶行列式是定义在n×n矩阵上的一个标量函数,它可以通过对矩阵的行或列应用特定的代数规则来计算。n阶行列式的值可以给出矩阵的一些基本性质,比如它是否可逆,以及相关的线性变换对体积的缩放因子。

n阶行列式的定义依赖于n个元素的全排列。给定一个n×n矩阵$A$,其元素为$a_{ij}$,其中$i$是行指标,$j$是列指标,$A$的行列式可以表示为:

$$
\det(A) = \sum_{\sigma \in S_n} (\text{sgn}(\sigma)) \cdot a_{1\sigma(1)} \cdot a_{2\sigma(2)} \cdot \ldots \cdot a_{n\sigma(n)}
$$

这里,$S_n$是所有n个元素的全排列的集合,$\sigma$是这些全排列中的一个,$\sigma(i)$表示排列中原本位置为$i$的元素现在的位置,$\text{sgn}(\sigma)$表示排列$\sigma$的符号,也就是排列的奇偶性。如果$\sigma$是一个偶排列(可以通过偶数次对换得到原始顺序),那么$\text{sgn}(\sigma) = 1$;如果是奇排列(需要奇数次对换),那么$\text{sgn}(\sigma) = -1$。

在具体计算中,这个定义虽然很清晰,但直接应用会非常繁琐,因为n个元素的全排列总数是n!,这意味着随着n的增大,需要计算的项数呈指数级增长。因此,在实际操作中,行列式通常通过变换(如行列互换、加减行列等)和递归方法来简化计算,或者使用特定的算法,如高斯消元法。

4、行列式的性质

以下是一些基本的行列式性质:

(1)**行列互换**:交换矩阵的任意两行(或两列),行列式的符号改变。
$$ \det(A') = -\det(A) $$

(2) **乘以标量**:矩阵的某一行(或列)所有元素乘以标量$k$,行列式的值也乘以$k$。
$$ \det(k \cdot A) = k^n \cdot \det(A) $$

(3) **两行(列)相等或成比例**:如果矩阵的两行(或两列)相等或成比例,其行列式为零。

(4)**加法性质**:如果将矩阵的某一行(或列)替换为这一行(或列)与另一行(或列)的和,行列式的值不变。
$$ \det(A') = \det(A) $$

(5)**线性性质**:如果矩阵的某一行(或列)可以表示为两个向量的和,那么这个矩阵的行列式等于两个相应的矩阵行列式的和。
$$ \det(A + B) = \det(A) + \det(B) $$

(6) **分块矩阵**:对于分块矩阵,如果矩阵在对角线上是方块矩阵,而其余位置为零矩阵,那么行列式等于对角块行列式的乘积。

(7) **行(列)的线性组合**:如果矩阵的某一行(或列)是其他行(或列)的线性组合,则行列式为零。

(8)**上(下)三角矩阵**:对于上三角或下三角矩阵,行列式的值等于对角线上元素的乘积。

(9)**行列式展开**:行列式可以沿任一行或列展开(拉普拉斯展开),展开后的行列式是原行列式元素与其代数余子式乘积的和。

(10)**奇异矩阵**:如果矩阵是奇异的(即不可逆的),那么它的行列式为零。

5、行列式按行(列)展开

行列式的按行(列)展开是通过拉普拉斯展开定理来实现的,该定理提供了一种方法,可以将一个n阶行列式分解为n个较小的行列式的和。每个较小的行列式是原行列式的一个元素与其对应的代数余子式的乘积。

具体来说,对于一个n阶行列式$D$,我们可以选择任意一行或一列来进行展开。假设我们选择第$i$行来展开,则有:

$$
D = \sum_{j=1}^{n} (-1)^{i+j} a_{ij} M_{ij}
$$

这里,$a_{ij}$是行列式中第$i$行第$j$列的元素,$M_{ij}$是去除了第$i$行和第$j$列后剩余矩阵的行列式,称为$(i,j)$元素的余子式或次行列式,$(-1)^{i+j}$是代数余子式的符号因子,确保了展开的交错符号。

同样地,如果我们选择第$j$列来展开,我们有:

$$
D = \sum_{i=1}^{n} (-1)^{i+j} a_{ij} M_{ij}
$$

这种按行(列)展开的方法在计算较小阶数的行列式时非常有用,特别是当行列式中有一行或一列包含很多零时,因为这样可以减少计算量。对于大阶数的行列式,直接应用这种展开方法计算通常不实际,因为计算量会随着阶数的增加而迅速增大。在实践中,通常会先通过行列操作将矩阵转换为上三角或下三角形式,然后直接计算对角线元素的乘积,以此来计算行列式的值。

二、矩阵及其运算

1、线性方程组和矩阵

(1)

给定一个线性方程组:

$$
\begin{align*}
a_{11}x_1 + a_{12}x_2 + \cdots + a_{1n}x_n &= b_1 \\
a_{21}x_1 + a_{22}x_2 + \cdots + a_{2n}x_n &= b_2 \\
&\vdots \\
a_{m1}x_1 + a_{m2}x_2 + \cdots + a_{mn}x_n &= b_m
\end{align*}
$$

这个方程组可以表示为矩阵乘法的形式:

$$
\begin{bmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{m1} & a_{m2} & \cdots & a_{mn}
\end{bmatrix}
\begin{bmatrix}
x_1 \\
x_2 \\
\vdots \\
x_n
\end{bmatrix}
=
\begin{bmatrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{bmatrix}
$$

或者简写为:

$$
A\mathbf{x} = \mathbf{b}
$$

其中$A$是一个$m \times n$的系数矩阵,$\mathbf{x}$是一个包含未知数的$n \times 1$的列向量,$\mathbf{b}$是一个$m \times 1$的列向量。

(2)矩阵求解线性方程组

  • **高斯消元法**:通过行变换将系数矩阵$A$转换为行阶梯形矩阵,然后通过回代解出未知数。
  • . **矩阵的逆**:如果系数矩阵$A$是方阵且可逆,那么方程组的唯一解可以通过计算$A$的逆矩阵$A^{-1}$来得到:

    $$
    \mathbf{x} = A^{-1}\mathbf{b}
    $$
  • **克拉默法则**:如果系数矩阵$A$是方阵且$\det(A) \neq 0$,那么方程组的唯一解可以通过克拉默法则得到。每个未知数$x_i$是系数矩阵$A$中第$i$列被向量$\mathbf{b}$替换后的行列式与$A$的行列式的比值:

    $$
    x_i = \frac{\det(A_i(\mathbf{b}))}{\det(A)}
    $$

    其中$A_i(\mathbf{b})$表示将$A$的第$i$列替换为向量$\mathbf{b}$后得到的矩阵。

  • **LU分解**:对于大型矩阵系统,可以使用LU分解将系数矩阵分解为一个下三角矩阵$L$和一个上三角矩阵$U$。然后可以先解$L\mathbf{y} = \mathbf{b}$得到$\mathbf{y}$,再解$U\mathbf{x} = \mathbf{y}$得到$\mathbf{x}$。
  • **迭代方法**:对于非方阵或者当直接方法计算成本较高时,可以使用迭代方法如雅可比迭代、高斯-赛德尔迭代等求解线性方程组。

2、矩阵的运算

(1)矩阵加法

两个矩阵的加法只有在两个矩阵的维数相同时才有定义。如果$A = [a_{ij}]$和$B = [b_{ij}]$是两个$m \times n$矩阵,则它们的和$C = A + B$也是一个$m \times n$矩阵,且$C$中的每个元素$c_{ij}$是$A$和$B$中对应元素的和:

$$
c_{ij} = a_{ij} + b_{ij}
$$

(2)矩阵减法

与加法类似,矩阵的减法也要求两个矩阵的维数相同。如果$A = [a_{ij}]$和$B = [b_{ij}]$是两个$m \times n$矩阵,则它们的差$C = A - B$也是一个$m \times n$矩阵,且$C$中的每个元素$c_{ij}$是$A$和$B$中对应元素的差:

$$
c_{ij} = a_{ij} - b_{ij}
$$

(3)矩阵乘法

如果$A$是一个$m \times n$矩阵,$B$是一个$n \times p$矩阵,那么它们的乘积$C = AB$是一个$m \times p$矩阵,其中$C$中的元素$c_{ij}$通过下面的方式计算:

$$
c_{ij} = \sum_{k=1}^{n} a_{ik} b_{kj}
$$

矩阵乘法不满足交换律,即$AB$不一定等于$BA$。

(4) 标量乘法

一个矩阵$A = [a_{ij}]$与一个标量$\lambda$的乘积是另一个矩阵$B = \lambda A$,其中$B$中的每个元素$b_{ij}$是$A$中对应元素$a_{ij}$与$\lambda$的乘积:

$$
b_{ij} = \lambda a_{ij}
$$

(5)矩阵的转置

矩阵的转置是将矩阵的行列互换。如果$A = [a_{ij}]$是一个$m \times n$矩阵,那么$A$的转置记为$A^T$,是一个$n \times m$矩阵,且:

$$
(A^T)_{ij} = a_{ji}
$$

(6)矩阵的行列式

只有方阵(即行数和列数相等的矩阵)才有行列式。行列式给出了一个方阵的一些数学性质,如它是否可逆,以及它的特征值的性质。

(7)矩阵的逆

如果一个$n \times n$的方阵$A$有逆矩阵,那么这个逆矩阵记为$A^{-1}$,满足:

$$
AA^{-1} = A^{-1}A = I_n
$$

其中$I_n$是$n \times n$的单位矩阵。不是所有的方阵都有逆矩阵,只有当矩阵的行列式不为零时,该矩阵才有逆矩阵。

(8)矩阵的迹

矩阵的迹是方阵对角线上元素的和:

$$
\text{Tr}(A) = \sum_{i=1}^{n} a_{ii}
$$

3、逆矩阵

逆矩阵是线性代数中的一个重要概念,它是方阵的一个特殊类型(只是方阵才可逆)。如果一个$n \times n$的方阵$A$有一个对应的矩阵$B$,使得$AB = BA = I_n$,其中$I_n$是同样大小的单位矩阵,那么$B$就是$A$的逆矩阵,通常表示为$A^{-1}$。

(1)逆矩阵的性质包括:

  • 逆矩阵是唯一的。
  • 只有非奇异方阵(即行列式不为零的方阵)才有逆矩阵。
  • 如果$A$和$B$都是$n \times n$的可逆矩阵,则$(AB)^{-1} = B^{-1}A^{-1}$。
  • 如果$A$是可逆的,则$A^T$($A$的转置)也是可逆的,并且$(A^T)^{-1} = (A^{-1})^T$。
  • 矩阵的逆的行列式是原矩阵行列式的倒数,即$\det(A^{-1}) = 1/\det(A)$。

(2)逆矩阵的计算方法有几种,以下是两种常见的方法:

  • 高斯-约当消元法

这种方法是通过将矩阵$A$和单位矩阵$I_n$放在一起构成增广矩阵$(A | I_n)$,然后使用行变换将$A$变换为$I_n$。在这个过程中,单位矩阵$I_n$经过相同的行变换会变成$A^{-1}$。最终形成的增广矩阵是$(I_n | A^{-1})$。

  • 利用伴随矩阵和行列式

如果$A$是一个$n \times n$的矩阵,$A_{ij}$是去掉$A$中第$i$行和第$j$列后剩下的$(n-1) \times (n-1)$矩阵的行列式(称为$A$的余子式),$C_{ij} = (-1)^{i+j}A_{ij}$是余子式的代数余子式。那么$A$的伴随矩阵$adj(A)$是由所有代数余子式$C_{ij}$组成的矩阵的转置:

$$
adj(A) = \begin{bmatrix}
C_{11} & C_{21} & \dots & C_{n1} \\
C_{12} & C_{22} & \dots & C_{n2} \\
\vdots & \vdots & \ddots & \vdots \\
C_{1n} & C_{2n} & \dots & C_{nn}
\end{bmatrix}
$$

$A$的逆矩阵可以通过其伴随矩阵和行列式计算得到:

$$
A^{-1} = \frac{1}{\det(A)} adj(A)
$$

这个方法在手工计算时可能非常繁琐,尤其是对于较大的矩阵,但它在理论证明中非常有用。实际应用中,通常使用计算机软件来计算逆矩阵。

4、克拉默法则

克拉默法则(Cramer's Rule)是一个用于解线性方程组的定理,它提供了一种在方程组有唯一解时直接计算解的方法。克拉默法则适用于$n$个方程和$n$个未知数的方程组,并且要求系数矩阵(即方程组左侧的矩阵)是可逆的,也就是说,它的行列式不为零。

设有如下线性方程组:

$$
\begin{align*}
a_{11}x_1 + a_{12}x_2 + \ldots + a_{1n}x_n &= b_1, \\
a_{21}x_1 + a_{22}x_2 + \ldots + a_{2n}x_n &= b_2, \\
\vdots \quad \quad \quad \quad \quad \quad \quad \quad & \vdots \\
a_{n1}x_1 + a_{n2}x_2 + \ldots + a_{nn}x_n &= b_n,
\end{align*}
$$

其中$a_{ij}$是已知的系数,$b_i$是已知的常数项,$x_j$是未知数。

这个方程组可以用矩阵表示为$AX = B$,其中

$$
A = \begin{bmatrix}
a_{11} & a_{12} & \ldots & a_{1n} \\
a_{21} & a_{22} & \ldots & a_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{n1} & a_{n2} & \ldots & a_{nn}
\end{bmatrix}, \quad
X = \begin{bmatrix}
x_1 \\
x_2 \\
\vdots \\
x_n
\end{bmatrix}, \quad
B = \begin{bmatrix}
b_1 \\
b_2 \\
\vdots \\
b_n
\end{bmatrix}.
$$

克拉默法则指出,如果系数矩阵$A$的行列式$\det(A)$不为零,则方程组的唯一解可以通过以下方式计算得到:

$$
x_i = \frac{\det(A_i)}{\det(A)},
$$

其中$A_i$是将系数矩阵$A$中第$i$列替换为常数向量$B$后得到的矩阵。

具体来说,对于每一个未知数$x_i$,都可以通过计算相应的行列式$\det(A_i)$并除以$\det(A)$来得到其值。

克拉默法则的计算量随着方程组规模的增大而迅速增加,因此它在实际应用中主要用于小型方程组或理论证明中。对于大型方程组,通常使用数值方法,如高斯消元法或者矩阵分解技术等。

5、矩阵分块法

矩阵分块法(Block Matrix Method)是一种处理大型矩阵运算的技术,通过将一个大矩阵划分为若干个更小的子矩阵(块),然后对这些子矩阵进行运算,从而简化问题和提高计算效率。这种方法在矩阵的乘法、求逆、行列式计算等方面尤其有用。

(1)分块矩阵的表示

给定一个$m \times n$的矩阵$A$,可以将其分为若干个子矩阵:

$$
A = \begin{bmatrix}
A_{11} & A_{12} & \cdots & A_{1p} \\
A_{21} & A_{22} & \cdots & A_{2p} \\
\vdots & \vdots & \ddots & \vdots \\
A_{q1} & A_{q2} & \cdots & A_{qp}
\end{bmatrix}
$$

其中$A_{ij}$是$A$中的子矩阵块。子矩阵的大小不必相同,但为了进行矩阵块之间的运算,相邻块的相应维度必须匹配。

(2)分块矩阵的运算

分块矩阵的运算遵循普通矩阵运算的规则,但是操作的对象是矩阵块而不是单个元素。

  • 矩阵乘法

如果有两个分块矩阵$A$和$B$,它们的乘积$C = AB$可以通过计算子矩阵块的乘积和求和来得到:

$$
C_{ij} = \sum_{k} A_{ik} B_{kj}
$$

这里的求和是对所有可能的$k$值进行的,前提是$A$的列块数和$B$的行块数相同。

  • 矩阵求逆

对于分块矩阵的求逆,如果矩阵可以分为特殊的形式,比如对角块矩阵或是具有某种特殊结构的矩阵,那么可以利用这些结构来简化求逆的过程。

例如,如果$A$是一个对角块矩阵:

$$
A = \begin{bmatrix}
A_{11} & 0 \\
0 & A_{22}
\end{bmatrix}
$$

其中$A_{11}$和$A_{22}$是可逆的,那么$A$的逆矩阵是:

$$
A^{-1} = \begin{bmatrix}
A_{11}^{-1} & 0 \\
0 & A_{22}^{-1}
\end{bmatrix}
$$

  • 行列式计算

对于分块矩阵的行列式,如果矩阵是对角块矩阵或者上(下)三角块矩阵,那么行列式可以通过计算对角线上的块的行列式的乘积来得到。

三、矩阵的初等变换与线性方程组

1、矩阵的初等变换

矩阵的初等变换通常指的是对矩阵进行的三种基本行(或列)操作,这些操作不会改变矩阵的秩。这些变换通常用于简化矩阵,求解线性方程组,计算矩阵的行列式,以及找到矩阵的逆(如果存在的话)。以下是三种基本的初等变换:

  • 交换两行(或两列):
    将矩阵中的两行(或两列)互换位置。例如,交换第i行和第j行。

  • 数乘一行(或一列):
    将矩阵中的一行(或一列)乘以一个非零常数。例如,将第i行乘以非零常数k

  • 替换一行(或一列):
    将矩阵中的一行(或一列)替换为该行(或该列)与另一行(或一列)的加权和。例如,将第i行替换为第i行与第j行的k倍的和。

这些操作是可逆的,即对于每个初等行变换,都存在一个相应的逆变换。例如,如果你首先将第一行乘以2,那么通过将这一行除以2可以恢复原状。同样,如果你交换了两行,再次交换这两行会回到原来的状态。

在高斯消元法中,初等行变换用于将矩阵转换为行梯形形式或行简化梯形形式,这对于解线性方程组非常有用。此外,通过对矩阵应用一系列初等行变换将其转换为对角形式或行简化梯形形式,可以计算矩阵的行列式或求出矩阵的逆。

在实际操作中,这些初等变换通常通过对增广矩阵进行操作来实现,增广矩阵是将系数矩阵和常数项矩阵放在一起形成的矩阵。这样可以同时对方程的左侧(系数矩阵)和右侧(常数项)进行操作,从而找到线性方程组的解。

2、矩阵的秩

矩阵的秩是一个基本的数学概念,它描述了矩阵中线性独立行或列的最大数目。矩阵的秩有几种等价的定义,可以从行的角度或列的角度来看:

  • 行视角:矩阵的秩等于其行向量中线性独立向量的最大数量。通过行初等变换,可以将矩阵化简为行阶梯形矩阵(或行简化阶梯形矩阵),其非零行的数量就是矩阵的秩。

  • 列视角:矩阵的秩等于其列向量中线性独立向量的最大数量。通过列初等变换,同样可以得到矩阵的秩。

  • 子矩阵视角:矩阵的秩也可以定义为矩阵中非零子行列式的最大阶数。

矩阵的秩对于理解矩阵的结构非常重要,因为它提供了以下信息:

  • 线性方程组的解的性质:如果系数矩阵的秩等于增广矩阵的秩,线性方程组至少有一个解。如果这两个秩都等于未知数的数量,则该线性方程组有唯一解。如果系数矩阵的秩小于增广矩阵的秩,线性方程组无解。

  • 矩阵的逆:只有当方阵的秩等于其阶数时,该矩阵才可逆。也就是说,只有满秩方阵才具有逆矩阵。

  • 线性变换的像空间和核空间:矩阵的秩等于线性变换的像空间(Range)的维数,而矩阵的零空间(Nullspace)的维数加上秩等于矩阵的列数。

计算矩阵的秩通常涉及将矩阵通过行初等变换化简为行阶梯形或行简化阶梯形矩阵。不过,在实际计算中,尤其是对于大型矩阵,人们通常使用数值方法(如奇异值分解)来近似计算其秩。

3、线性方程组的解

线性方程组的解是指一组值,它们满足方程组中的每个方程。线性方程组可以有唯一解、无解或无限多个解。线性方程组的解的性质取决于系数矩阵的秩以及与增广矩阵的秩的比较。

线性方程组通常可以表示为矩阵方程:

$$
Ax = b
$$

其中$A$是系数矩阵,$x$是未知数向量,$b$是常数项向量。

解线性方程组的方法有很多,其中包括:

  • **高斯消元法**:通过行初等变换将系数矩阵转换为行梯形或行简化梯形矩阵,然后通过回代求解。
  • **矩阵逆法**:如果$A$是可逆的方阵,那么方程组的唯一解可以表示为$x = A^{-1}b$。
  • **克拉默法则**:如果$A$是方阵且其行列式不为零(即$A$是满秩的),那么可以使用克拉默法则直接求解。
  • **迭代法**:对于大型稀疏系统,迭代法(如雅可比法、高斯-赛德尔法)可能更有效。
  • **数值方法**:对于复杂或大型线性方程组,可以使用数值方法求解,如LU分解、奇异值分解等。

线性方程组的解的性质可以归纳如下:

  • 如果$A$的秩等于$b$的秩,且等于未知数的数量(即$A$是满秩的),那么方程组有唯一解。
  • 如果$A$的秩等于$b$的秩,但小于未知数的数量,那么方程组有无限多个解。这种情况下,解集可以描述为基础解系的线性组合加上特解。
  • 如果$A$的秩小于$b$的秩,那么方程组无解,因为这意味着至少有一个方程与其他方程不一致。

四、向量组的线性相关性

1、向量组及其线性相关性组合

(1)向量组

向量组是由一系列向量构成的集合,通常表示为 $\{v_1, v_2, \ldots, v_n\}$。这些向量可以是任意空间中的元素,最常见的是二维或三维空间中的向量,但也可以是高维空间中的向量。

(2)线性组合

给定一个向量组 $\{v_1, v_2, \ldots, v_n\}$,一个向量 $v$ 是这组向量的线性组合,如果存在一组标量(实数或复数)$\{c_1, c_2, \ldots, c_n\}$,使得:

$$
v = c_1v_1 + c_2v_2 + \ldots + c_nv_n
$$

这里的 $c_1, c_2, \ldots, c_n$ 称为线性组合的系数。

(3)线性相关性

向量组的线性相关性描述的是向量组中的向量是否可以通过线性组合相互表示。具体来说:

  • 如果向量组中的某个向量可以表示为其他向量的线性组合,那么这组向量是线性相关的。
  • 如果向量组中不存在任何向量可以表示为其余向量的线性组合,那么这组向量是线性无关的。

形式上,向量组 $\{v_1, v_2, \ldots, v_n\}$ 是线性相关的,当且仅当存在一组不全为零的系数 $\{c_1, c_2, \ldots, c_n\}$,使得:

$$
c_1v_1 + c_2v_2 + \ldots + c_nv_n = 0
$$

如果上述方程仅当所有 $c_i = 0$ 时成立,那么向量组是线性无关的。

2、向量组的线性相关性

3、向量组的秩

向量组的秩(Rank)是线性代数中的一个概念,指的是该向量组中最大的线性无关子集的向量数量。换句话说,向量组的秩是该组中线性无关向量的最大数目。如果一个向量组由向量空间中的向量组成,那么它的秩也就是这些向量所张成子空间的维数。

(1)计算向量组的秩

计算向量组的秩通常涉及到将向量组中的向量作为矩阵的列来表示,然后通过矩阵行简化(行阶梯形式)来确定线性无关的列向量的数量。具体步骤如下:

  • 将向量组构成的矩阵写出来,每个向量是矩阵的一列。
  • 使用初等行变换将矩阵转换为行阶梯形式(Row-Echelon Form)或简化行阶梯形式(Reduced Row-Echelon Form)。
  • 在行阶梯形式的矩阵中,非零行的数量就是原向量组的秩。
  • 线性无关的向量对应于行阶梯形式中的主元位置所在的列。

(2)秩的性质

  • 向量组的秩不会超过组成它的向量的数量。
  • 向量组的秩也不会超过这些向量所在空间的维度。
  • 如果一个向量组的秩小于其中向量的数量,那么这些向量线性相关,且至少有一个向量可以被其他向量的线性组合所表示。

4、线性方程组的解的结构

线性方程组的解的结构可以用线性代数中的概念来描述。一个线性方程组可以写成矩阵形式 $Ax = b$,其中 $A$ 是系数矩阵,$x$ 是未知数向量,$b$ 是常数向量。

根据系数矩阵 $A$ 和常数向量 $b$ 的性质,线性方程组的解可以分为三种情况:

  • **唯一解**:如果 $A$ 是一个可逆矩阵(即 $A$ 的秩等于其行数和列数),那么对于任意的 $b$,方程组有唯一解 $x = A^{-1}b$。
  • **无解**:如果 $A$ 的秩小于扩展矩阵 $[A|b]$ 的秩(扩展矩阵是将 $b$ 作为一列添加到 $A$ 的右侧),那么方程组是不一致的,没有解。
  • **无穷多解**:如果 $A$ 的秩等于 $b$ 的秩,但小于 $A$ 的列数,那么方程组有无穷多解。这种情况下,解集可以描述为基础解系的线性组合加上特解。

(1)解的结构

对于有无穷多解的情况,解的结构通常如下:

  • **特解**:从方程组中找到的一个特定的解,通常是通过设置自由变量为零从而解出的。
  • **基础解系**:与自由变量相关的解的集合,它们描述了解空间的基础方向。基础解系是一组线性无关的解,它们张成了解空间。

整个解集可以表示为所有特解的集合加上基础解系的任意线性组合。如果 $x_p$ 是特解,$x_n$ 是基础解系中的一个解,那么线性方程组的一般解可以写成:

$$
x = x_p + c_1x_{n1} + c_2x_{n2} + \ldots + c_kx_{nk}
$$

其中 $c_1, c_2, \ldots, c_k$ 是任意的标量,$x_{n1}, x_{n2}, \ldots, x_{nk}$ 是基础解系中的解。

(2)解空间

解空间(也称为零空间或核)是由所有满足 $Ax = 0$ 的向量 $x$ 组成的集合。当 $b$ 是零向量时,线性方程组 $Ax = b$ 描述了解空间。解空间是向量空间的一个子空间,其维数等于矩阵 $A$ 的列数减去 $A$ 的秩。

5、向量空间

向量空间(Vector Space),也称为线性空间。一个向量空间必须满足以下公理,这些公理以任意向量 u,v,w 和任意标量 a,b 来表述:

(1)加法运算

  • **封闭性**:对于任意的 $u, v \in V$,其和 $u + v$ 也在 $V$ 中。
  • **交换律**:$u + v = v + u$。
  • **结合律**:$(u + v) + w = u + (v + w)$。
  • **零向量**:存在一个元素 $0 \in V$,称为零向量,使得对于任意的 $v \in V$ 都有 $v + 0 = v$。
  • **加法逆元**:对于任意的 $v \in V$,存在一个元素 $-v \in V$,称为 $v$ 的加法逆元,使得 $v + (-v) = 0$。

(2)标量乘法

  • **封闭性**:对于任意的 $a \in F$ 和 $v \in V$,其乘积 $av$ 也在 $V$ 中。
  • **分配律**:$a(u + v) = au + av$ 和 $(a + b)v = av + bv$。
  • **兼容律**:$a(bv) = (ab)v$。
  • **单位元**:存在一个元素 $1 \in F$,称为乘法单位元,使得对于任意的 $v \in V$ 都有 $1v = v$。

这里的 $V$ 表示向量空间,而 $F$ 通常是实数 $\mathbb{R}$ 或复数 $\mathbb{C}$,称为标量域。

(3)向量空间的例子:

  • $\mathbb{R}^n$:所有长度为 $n$ 的实数向量组成的空间,这是最常见的向量空间之一。
  • $\mathbb{C}^n$:所有长度为 $n$ 的复数向量组成的空间。
  • $M_{m \times n}(\mathbb{R})$ 或 $M_{m \times n}(\mathbb{C})$:所有 $m \times n$ 实数或复数矩阵组成的空间。
  • $P(\mathbb{R})$ 或 $P(\mathbb{C})$:所有实数或复数系数多项式组成的空间。
  • 函数空间:所有定义在某个特定集合上的实值或复值函数组成的空间。

五、相似矩阵及二次型

1、向量的内积、长度及正交性

向量的内积(也称点积或标量积)是一个将两个向量映射到一个标量的运算。对于实数向量空间中的两个向量,内积定义为:

$$ \mathbf{u} \cdot \mathbf{v} = \|\mathbf{u}\|\|\mathbf{v}\|\cos(\theta) $$

其中 $\|\mathbf{u}\|$ 和 $\|\mathbf{v}\|$ 分别是向量 $\mathbf{u}$ 和 $\mathbf{v}$ 的长度(或模),$\theta$ 是这两个向量之间的夹角。在笛卡尔坐标系中,如果 $\mathbf{u} = (u_1, u_2, \ldots, u_n)$ 和 $\mathbf{v} = (v_1, v_2, \ldots, v_n)$,则它们的内积可以用下面的公式计算:

$$ \mathbf{u} \cdot \mathbf{v} = u_1v_1 + u_2v_2 + \ldots + u_nv_n = \sum_{i=1}^{n} u_iv_i $$

向量的长度(或模)是向量的内积的平方根。对于向量 $\mathbf{v}$,其长度表示为 $\|\mathbf{v}\|$,计算公式如下:

$$ \|\mathbf{v}\| = \sqrt{\mathbf{v} \cdot \mathbf{v}} = \sqrt{v_1^2 + v_2^2 + \ldots + v_n^2} $$

两个向量的正交性是指这两个向量的内积为零。如果 $\mathbf{u} \cdot \mathbf{v} = 0$,那么向量 $\mathbf{u}$ 和 $\mathbf{v}$ 是正交的。在几何上,这意味着它们在 $n$ 维空间中是垂直的。正交性是线性代数中的一个重要概念,因为它可以用来定义正交基和正交投影,这些都是解决各种数学和工程问题的关键工具。

正交性还有一个重要的推广,即在复数向量空间中的共轭正交(或厄米特正交)。对于复数向量,内积定义为:

$$ \mathbf{u} \cdot \mathbf{v} = \sum_{i=1}^{n} u_i \overline{v_i} $$

其中 $\overline{v_i}$ 表示 $v_i$ 的复共轭。如果 $\mathbf{u} \cdot \mathbf{v} = 0$,则 $\mathbf{u}$ 和 $\mathbf{v}$ 在复数向量空间中是共轭正交的。

2、方阵的特征值与特征向量

(1)特征值和特征向量定义

对于一个 $n \times n$ 的方阵 $A$,如果存在一个非零向量 $\mathbf{v}$ 和一个标量 $\lambda$ 使得:

$$ A\mathbf{v} = \lambda\mathbf{v} $$

那么,我们称 $\lambda$ 是矩阵 $A$ 的一个**特征值**(eigenvalue),$\mathbf{v}$ 是对应于特征值 $\lambda$ 的一个**特征向量**(eigenvector)。

(2)特征值的计算

为了找到矩阵 $A$ 的特征值,我们需要解以下特征方程(或称为特征多项式):

$$ \det(A - \lambda I) = 0 $$

这里,$\det(\cdot)$ 表示矩阵的行列式,$I$ 是 $n \times n$ 的单位矩阵。这个方程是一个关于 $\lambda$ 的 $n$ 次多项式,因此矩阵 $A$ 将有 $n$ 个特征值(包括重根)。

(3)特征向量的计算

一旦我们找到了特征值 $\lambda$,我们可以通过解线性方程组 $(A - \lambda I)\mathbf{v} = 0$ 来找到对应的特征向量 $\mathbf{v}$。这个方程组通常有无数解,因为任何特征向量的非零标量倍数也是一个特征向量。因此,我们通常寻找特征向量的规范化形式,例如单位特征向量,其长度为 $1$。

(4)几何意义

特征向量的几何意义在于,它们指向矩阵变换不改变方向的方向。特征值表示在这些方向上的拉伸或压缩的因子,正特征值表示拉伸,负特征值表示方向反转的拉伸,而特征值的绝对值给出了变换的强度。

3、相似矩阵

相似矩阵是线性代数中的一个重要概念,它描述了两个矩阵在某种意义下具有相同的线性变换特性。

(1)相似矩阵定义

给定两个 $n \times n$ 的方阵 $A$ 和 $B$,如果存在一个可逆矩阵 $P$ 使得:

$$ B = P^{-1}AP $$

那么我们称矩阵 $A$ 和矩阵 $B$ 是相似的。

(2)相似矩阵的性质

  • **相同的特征值**:如果两个矩阵相似,它们有相同的特征值(但特征向量可能不同)。
  • **相同的迹**:相似矩阵具有相同的迹(矩阵对角线元素的和)。
  • **相同的行列式**:相似矩阵具有相同的行列式。
  • **相同的多项式特性**:相似矩阵具有相同的特征多项式和最小多项式。
  • **保持矩阵不变量**:矩阵的不变量,如秩、零空间等,在相似变换下保持不变。

(3)几何解释

相似矩阵可以被看作是在不同基下对同一线性变换的描述。换句话说,相似矩阵代表的是同一个线性变换,只是基变了。矩阵 $A$ 在基 $P$ 下的表示是 $B$,而 $B$ 是 $A$ 在基 $P$ 下的坐标变换。

(4)相似矩阵的应用

相似矩阵的概念在理论和应用数学中都非常重要,因为它允许我们通过选择一个合适的基来简化矩阵,这常常使得问题的分析和解决更加容易。例如:

  • **对角化**:如果矩阵 $A$ 可以相似于一个对角矩阵 $D$,即存在可逆矩阵 $P$ 使得 $D = P^{-1}AP$,那么 $A$ 被称为是可对角化的。对角化可以极大地简化矩阵的幂次计算和指数运算。
  • **Jordan 标准形**:即使矩阵不可对角化,它们也可能相似于一个 Jordan 形矩阵,这是一种特殊的几乎对角的形式,对理解线性变换的结构也很有帮助。

4、对称矩阵的对角化

(1)对角矩阵

对角矩阵是一种特殊的方阵,其特点是除了主对角线之外的所有元素都是零。主对角线上的元素可以是零或者非零。对角矩阵通常表示为一个方阵,其中所有非对角元素(即行索引和列索引不相等的元素)都是零。

形式上,一个 $n \times n$ 的对角矩阵 $D$ 可以表示为:

$$
D = \begin{pmatrix}
d_{1} & 0 & \cdots & 0 \\
0 & d_{2} & \cdots & 0 \\
\vdots & \vdots & \ddots & \vdots \\
0 & 0 & \cdots & d_{n}
\end{pmatrix}
$$

其中 $d_{1}, d_{2}, \ldots, d_{n}$ 是主对角线上的元素。

对角矩阵有一些有用的性质:

  • **乘法简单**:对角矩阵与任何其他相同大小的方阵相乘时,只需将对角矩阵的对角元素分别乘以另一个矩阵的对应行或列。
  • **幂运算简单**:对角矩阵的幂可以通过简单地将每个对角元素自乘相应的次数来计算。
  • **行列式计算**:对角矩阵的行列式等于其对角线上所有元素的乘积。
  • **逆矩阵**:如果对角矩阵的所有对角元素都不为零,那么它的逆矩阵存在,并且是一个对角矩阵,其对角线上的元素是原对角矩阵对应元素的倒数。

(2)对称矩阵

对称矩阵是指满足 $A = A^T$ 的矩阵,其中 $A^T$ 是 $A$ 的转置。

(3)对称矩阵的性质

  • **实特征值**:对称矩阵的特征值都是实数。
  • **正交特征向量**:对称矩阵的特征向量可以选取为两两正交的。
  • **可对角化**:每个对称矩阵都是可对角化的。

(4)对称矩阵的对角化

给定一个 $n \times n$ 的对称矩阵 $A$,对角化的目标是找到一个正交矩阵 $P$ 和一个对角矩阵 $D$ 使得:

$$ P^TAP = D $$

或者等价地:

$$ A = PDP^T $$

其中,$D$ 的对角线元素是矩阵 $A$ 的特征值,而 $P$ 的列向量是对应的特征向量,并且满足 $P^TP = PP^T = I$,这里 $I$ 是单位矩阵。

(5) 对角化的步骤

  • **计算特征值**:解特征方程 $\det(A - \lambda I) = 0$ 来找到矩阵 $A$ 的所有特征值 $\lambda_i$。
  • **计算特征向量**:对每个特征值 $\lambda_i$,解线性方程组 $(A - \lambda_i I)\mathbf{v} = 0$ 来找到对应的特征向量 $\mathbf{v}_i$。
  • **正交化特征向量**:如果特征值是重复的,可能需要对特征向量进行施密特正交化过程,以确保特征向量是正交的。
  • **构造正交矩阵 $P$**:将归一化(单位长度)的特征向量作为列向量放入矩阵 $P$ 中。
  • **构造对角矩阵 $D$**:将特征值按顺序放入对角矩阵 $D$ 的对角线上。

经过上述步骤,我们得到了一个正交矩阵 $P$ 和一个对角矩阵 $D$,它们满足 $A = PDP^T$。

5、二次型及其标准化

二次型是指由变量 $x_1, x_2, \ldots, x_n$ 构成的多项式,其中每一项都是变量的二次幂或两个变量的乘积。在矩阵表示中,一个二次型可以写作:

$$ Q(\mathbf{x}) = \mathbf{x}^T A \mathbf{x} $$

这里,$\mathbf{x}$ 是一个包含变量 $x_1, x_2, \ldots, x_n$ 的列向量,$A$ 是一个对应的系数矩阵,通常是对称的,因为非对角元素 $a_{ij}$ 和 $a_{ji}$ 表示相同的乘积项 $x_i x_j$。

二次型的标准化(或称为对角化)是指将二次型转换为没有交叉项(即只有 $x_i^2$ 项)的形式,这通常通过坐标变换来实现。在新的坐标系中,二次型可以表示为:

$$ Q(\mathbf{y}) = \lambda_1 y_1^2 + \lambda_2 y_2^2 + \ldots + \lambda_n y_n^2 $$

这里,$\lambda_1, \lambda_2, \ldots, \lambda_n$ 是矩阵 $A$ 的特征值,而 $y_1, y_2, \ldots, y_n$ 是新的变量,它们是原始变量的线性组合,这些新变量对应于矩阵 $A$ 的特征向量。

标准化的过程通常涉及以下步骤:

  • **计算特征值和特征向量**:求出矩阵 $A$ 的特征值和对应的特征向量。
  • **构造正交变换矩阵**:使用特征向量构造一个正交矩阵 $P$,使得 $P^{-1} = P^T$。
  • **应用正交变换**:通过变换 $\mathbf{y} = P^T \mathbf{x}$ 将原始坐标系中的变量 $\mathbf{x}$ 转换为新坐标系中的变量 $\mathbf{y}$。
  • **得到对角形式**:在新的坐标系中,二次型 $Q(\mathbf{x})$ 转换为 $Q(\mathbf{y}) = \mathbf{y}^T D \mathbf{y}$,其中 $D$ 是一个对角矩阵,其对角线上的元素是 $A$ 的特征值。

6、用配方法化二次型成标准型

配方法是一种将二次型转换成标准型的技术,通过配方可以消去二次型中的交叉项(即形如 $x_ix_j$ 的项)。配方法的基本思路是通过完成平方,将原二次型化为只含有平方项的形式,即标准型。

考虑一个二次型:

$$ Q(x_1, x_2, \ldots, x_n) = \sum_{i=1}^{n}\sum_{j=1}^{n} a_{ij}x_ix_j $$

其中,$a_{ij}$ 是系数矩阵 $A$ 的元素。为了简化讨论,我们可以考虑一个包含交叉项的二次型的二元情况:

$$ Q(x, y) = ax^2 + by^2 + cxy $$

现在,我们使用配方法将这个二次型转换为没有交叉项的标准型。步骤如下:

  • **将 $x$ 的平方项和交叉项配成一个完全平方**:

$$ ax^2 + cxy = a\left(x^2 + \frac{c}{a}xy\right) $$

为了完成平方,我们需要加上和减去同一个项 $(c/2a)^2y^2$:

$$ a\left(x^2 + \frac{c}{a}xy + \left(\frac{c}{2a}\right)^2y^2\right) - a\left(\frac{c}{2a}\right)^2y^2 $$

这样我们就得到了一个 $x$ 的完全平方加上一个只含 $y$ 的项:

$$ a\left(x + \frac{c}{2a}y\right)^2 - \frac{c^2}{4a}y^2 $$

  • **将剩余的 $y$ 项结合起来**:

将上面的结果与 $by^2$ 项结合:

$$ Q(x, y) = a\left(x + \frac{c}{2a}y\right)^2 + \left(b - \frac{c^2}{4a}\right)y^2 $$

这样,我们就得到了二次型的标准型,它没有交叉项,只包含变量的平方项。

在更高维的情况下,配方法的步骤类似,但会更加复杂,因为需要逐步配平每个变量,并且可能需要多次配方以消除所有交叉项。在实际操作中,通常使用正交变换或者主轴变换来简化这个过程,因为这些方法可以一次性处理所有变量。

7、正定二次型

正定二次型是指对于所有非零向量 $\mathbf{x}$,二次型 $Q(\mathbf{x})$ 都取正值的二次型。更正式地说,对于一个给定的二次型 $Q(\mathbf{x}) = \mathbf{x}^T A \mathbf{x}$,如果对所有的非零实数向量 $\mathbf{x} \in \mathbb{R}^n$,都有 $Q(\mathbf{x}) > 0$,则称矩阵 $A$ 和相应的二次型是正定的。

要判断一个二次型是否正定,可以使用以下方法:

  • **特征值判定法**:矩阵 $A$ 的所有特征值都是正的,则二次型是正定的。
  • **主子式判定法**(也称为Sylvester判据):矩阵 $A$ 的所有顺序主子式(leading principal minors,即从左上角开始的$k \times k$子矩阵的行列式,对于 $k=1$ 到 $n$)都是正的,则二次型是正定的。
  • **Cholesky分解法**:如果矩阵 $A$ 可以分解为一个下三角矩阵 $L$ 和其转置的乘积,即 $A = LL^T$,且 $L$ 的对角线元素都是正的,则矩阵 $A$ 是正定的。
  • **二次型的值**:直接计算二次型 $Q(\mathbf{x})$ 的值对所有可能的 $\mathbf{x}$,这种方法不太实用,特别是在高维的情况下,但是对于小型矩阵或者特殊情况下可以使用。

六、线性空间与线性变换

1、线性空间的定义与性质

(1)线性空间的定义

线性空间 $V$ 是定义在域 $F$(如实数 $\mathbb{R}$ 或复数 $\mathbb{C}$)上的一个集合,集合中的元素称为向量。对于任意的向量 $u, v, w \in V$ 和标量 $a, b \in F$,线性空间需满足以下八条公理:

  • **加法结合律**:$(u + v) + w = u + (v + w)$
  • **加法交换律**:$u + v = v + u$
  • **加法单位元**:存在零向量 $0 \in V$,使得 $u + 0 = u$ 对所有 $u \in V$ 都成立
  • **加法逆元**:对每个 $u \in V$,存在一个向量 $-u \in V$,使得 $u + (-u) = 0$
  • **标量乘法与域乘法兼容**:$a(bu) = (ab)u$
  • **标量乘法单位元**:$1u = u$,这里的 $1$ 是域 $F$ 的乘法单位元
  • **标量乘法对向量加法的分配律**:$a(u + v) = au + av$
  • **标量乘法对域加法的分配律**:$(a + b)u = au + bu$

(2)线性空间的性质

  • **唯一性**:零向量和加法逆元在线性空间中是唯一的。
  • **消去律**:如果 $u + v = u + w$,则 $v = w$。
  • **零标量**:对任意 $u \in V$,有 $0u = 0$。
  • **相反标量**:对任意 $u \in V$,有 $(-1)u = -u$。
  • **线性组合**:任意向量的任意标量倍数的和也属于该线性空间。
  • **子空间**:线性空间的任意非空子集,如果它自身也满足线性空间的公理,则称为子空间。

2、维数、基与坐标

(1)维数

维数是用来描述线性空间大小的一个度量。具体来说,线性空间 $V$ 的维数是指构成该空间的一个基所包含向量的个数。这个数字也是线性空间中任意一组线性无关向量的最大可能个数。例如:

  • $\mathbb{R}^n$ 的维数是 $n$。
  • 多项式空间 $P_n$(所有次数不超过 $n$ 的多项式的集合)的维数是 $n+1$(因为有 $n+1$ 个线性无关的多项式,比如 $1, x, x^2, \ldots, x^n$)。

(2)基

一个线性空间 $V$ 的基是一组向量,这组向量满足两个条件:

  • 线性无关:基中的任何向量都不能表示为其他向量的线性组合。
  • 生成整个空间:线性空间中的任何向量都可以表示为基向量的线性组合。

基的选择不是唯一的,一个线性空间可以有多个不同的基,但是任何一个基包含的向量数目(即空间的维数)是固定的。

(3)坐标

一旦为线性空间选择了一个基,空间中的每个向量都可以唯一地表示为基向量的线性组合。这种表示确定了向量的坐标。给定一个基 $\{v_1, v_2, \ldots, v_n\}$ 和一个向量 $v$,如果 $v$ 可以表示为

$$
v = a_1v_1 + a_2v_2 + \ldots + a_nv_n
$$

那么向量 $v$ 相对于这个基的坐标是 $(a_1, a_2, \ldots, a_n)$。这个坐标实际上是一个 $n$ 维空间中的点,它完全描述了向量 $v$。

(4)性质和应用

  • **变换基**:在不同的基下,同一个向量的坐标可能不同。线性代数提供了从一个基到另一个基的坐标变换方法。
  • **线性变换**:线性空间中的线性变换可以用矩阵表示,而选择不同的基会改变这个矩阵的形式。
  • **维数定理**:如果线性空间 $V$ 的维数是 $n$,那么 $V$ 中任何包含超过 $n$ 个向量的集合都是线性相关的,任何包含少于 $n$ 个向量的集合都不能生成整个空间。

3、基变换与坐标变换

(1)基变换

基变换是指从一个基转换到另一个基的过程。如果我们有一个线性空间 $V$,并且有两组基 $\mathcal{B} = \{b_1, b_2, \ldots, b_n\}$ 和 $\mathcal{C} = \{c_1, c_2, \ldots, c_n\}$,那么我们可以通过一个矩阵将 $\mathcal{B}$ 中的向量表示为 $\mathcal{C}$ 中向量的线性组合。这个矩阵称为基变换矩阵。

假设基 $\mathcal{C}$ 中的每个向量可以表示为基 $\mathcal{B}$ 中向量的线性组合:

$$
c_j = \sum_{i=1}^n P_{ij} b_i
$$

其中 $P_{ij}$ 是基变换矩阵 $P$ 的元素。矩阵 $P$ 列出了基 $\mathcal{C}$ 相对于基 $\mathcal{B}$ 的坐标。

(2)坐标变换

坐标变换是指当我们改变基时,向量的坐标怎样变化。假设有一个向量 $v \in V$,在基 $\mathcal{B}$ 下的坐标是 $[v]_{\mathcal{B}}$,在基 $\mathcal{C}$ 下的坐标是 $[v]_{\mathcal{C}}$。坐标变换可以通过基变换矩阵 $P$ 来实现:

$$
[v]_{\mathcal{C}} = P [v]_{\mathcal{B}}
$$

基变换矩阵 $P$ 将向量 $v$ 在基 $\mathcal{B}$ 下的坐标转换为基 $\mathcal{C}$ 下的坐标。

(3)例子

假设我们有一个二维向量空间,并且有两组基:

- 基 $\mathcal{B} = \{b_1, b_2\}$,其中 $b_1 = (1, 0)$,$b_2 = (0, 1)$(标准基)。
- 基 $\mathcal{C} = \{c_1, c_2\}$,其中 $c_1 = (1, 1)$,$c_2 = (-1, 2)$。

如果我们有一个向量 $v = (2, 3)$,它在基 $\mathcal{B}$ 下的坐标是 $(2, 3)$,我们想要找到它在基 $\mathcal{C}$ 下的坐标。

首先,我们需要找到基变换矩阵 $P$,它将基 $\mathcal{C}$ 表示为基 $\mathcal{B}$ 的线性组合。这可以通过将基 $\mathcal{C}$ 的向量写成基 $\mathcal{B}$ 的向量的线性组合来完成:

$$
c_1 = 1 \cdot b_1 + 1 \cdot b_2 \\
c_2 = -1 \cdot b_1 + 2 \cdot b_2
$$

因此,基变换矩阵为:

$$
P = \begin{bmatrix}
1 & -1 \\
1 & 2
\end{bmatrix}
$$

为了找到 $v$ 在基 $\mathcal{C}$ 下的坐标,我们需要解线性方程组 $P [v]_{\mathcal{C}} = [v]_{\mathcal{B}}$:

$$
\begin{bmatrix}
1 & -1 \\
1 & 2
\end{bmatrix}
\begin{bmatrix}
x \\
y
\end{bmatrix}
=
\begin{bmatrix}
2 \\
3
\end{bmatrix}
$$

解这个方程组,我们得到 $v$ 在基 $\mathcal{C}$ 下的坐标 $[v]_{\mathcal{C}} = (1, 1)$。

(4)性质

  • 基变换矩阵 $P$ 是可逆的,其逆矩阵 $P^{-1}$ 用于相反方向的基变换。
  • 如果我们从基 $\mathcal{B}$ 到基 $\mathcal{C}$ 使用矩阵 $P$,那么从基 $\mathcal{C}$ 到基 $\mathcal{B}$ 的变换矩阵就是 $P^{-1}$。
  • 坐标变换反映了同一个几何对象在不同的基下的不同表示方式。

4、线性变换

线性变换是从一个向量空间到另一个向量空间(或自身)的函数(或映射),它保持向量加法和标量乘法的结构。如果 $V$ 和 $W$ 是两个向量空间,那么线性变换 $T: V \rightarrow W$ 满足以下两个性质:

  • 加法保持性:对于所有 $u, v \in V$,有 $T(u + v) = T(u) + T(v)$。
  • 标量乘法保持性:对于所有 $v \in V$ 和所有标量 $a$,有 $T(a \cdot v) = a \cdot T(v)$。

5、线性变换的矩阵表示式

在线性代数中,线性变换通常通过矩阵来表示。如果 $V$ 和 $W$ 的维数分别为 $n$ 和 $m$,那么线性变换 $T$ 可以由一个 $m \times n$ 矩阵 $A$ 表示。对于 $V$ 中的任何向量 $v$(在给定基下的坐标为列向量 $[v]_V$),其在 $W$ 中的像(在给定基下的坐标为列向量 $[T(v)]_W$)可以通过矩阵乘法得到:

$$
[T(v)]_W = A [v]_V
$$

这个矩阵 $A$ 的列是 $T$ 作用于 $V$ 的基向量后得到的向量在 $W$ 的基下的坐标。这样,矩阵 $A$ 完全描述了线性变换 $T$。

(1)性质

  • 核(Kernel)**:线性变换 $T$ 的核是所有映射到 $W$ 中零向量的 $V$ 中向量的集合,记为 $\text{ker}(T)$。这是 $V$ 的一个子空间。
  • 像(Image)**:线性变换 $T$ 的像是所有 $T(v)$(对于所有 $v \in V$)的集合,记为 $\text{im}(T)$。这是 $W$ 的一个子空间。
  • **秩-零化度定理**:线性变换的秩(即 $\text{im}(T)$ 的维数)加上零化度(即 $\text{ker}(T)$ 的维数)等于定义域 $V$ 的维数。



相关推荐