概述
文章目录
向量
理解
-
直观理解
- 行向量:把数字排成一行A = [ 4 5 ] [4~ 5] [4 5]
- 列向量:把数字排成一列A = [ 4 5 ] \ \left [ \begin{matrix} 4 \\ 5 \\ \end{matrix} \right ] [45]
-
几何意义
默认在基底条件下(直角坐标系)中的坐标表示的一个点,也可以理解以原点为起点,到目标终点A的有向线段
因此,向量中成分个数就是向量的维度。
-
注意
- 充当数据的载体,向量的每个维度都作为事物的一种属性,比如一次考试的成绩,语文98分、数学89分,英语100分。这时用向量表示为 [ 98 89 100 ] \ \left [ \begin{matrix}98 \\89 \\100\\\end{matrix} \right ]
9889100
- 一般使用列向量(默认):1、节省空间,2、在进行变换时类似于函数利于理解 A x Ax Ax与 f ( x ) f(x) f(x)
- 充当数据的载体,向量的每个维度都作为事物的一种属性,比如一次考试的成绩,语文98分、数学89分,英语100分。这时用向量表示为 [ 98 89 100 ] \ \left [ \begin{matrix}98 \\89 \\100\\\end{matrix} \right ]
-
Python演示
-
生成行向量
import numpy as np A = np.array([1, 2, 3, 4]) print(A)
[1 2 3 4]
-
生成列向量(便于计算表示成 n ∗ 1 n * 1 n∗1的矩阵)
import numpy as np A = np.array([[1, 2, 3]]) print(A) print(A.T)
[[1 2 3]] [[1] [2] [3]]
-
向量运算
-
向量加法
两个维度相同的向量才能进行加法,对应维度元素相加即可。
从空间的角度理解。
就是两个向量的合向量。
import numpy as np # 定义两个向量 a = np.array([1, 2, 3]) b = np.array([4, 5, 6]) # 向量加法 c = a + b print(c)
[5 7 9]
-
向量数乘
把数c与向量每个元素分别相乘,结果向量保持维数不变,直观理解,就是将向量沿着原来方向拉伸相应倍数,最终发现与运算数的符号有关。
import numpy as np # 定义一个向量 a = np.array([1, 2, 3]) # 向量数乘 k = 2 b = k * a print(b)
[2 4 6]
-
线性性质阐述
通过以上两个向量性质阐述,我们总结一下线性代数这么课中线性的内涵,凡是满足以上加法和数乘性质的代数运算,我们就成为线性运算,如果一个代数系统,满足线性运算,那么我们称这个代数系统为线性代数。线性代数就是研究其中性质的一门课。
-
向量的内积
向量 u u u和向量 v v v內积定义如下:
u ⋅ v = [ u 1 u 2 u 3 ] [ v 1 v 2 v 3 ] T = u 1 v 1 + u 2 v 2 + u 3 v 3 u·v = [u_1~u_2~u_3] [v_1~v_2~v_3]^T = u_1v_1 + u_2v_2 + u_3v_3 u⋅v=[u1 u2 u3][v1 v2 v3]T=u1v1+u2v2+u3v3
其物理意义是: u ⋅ v = ∣ u ∣ ∣ v ∣ c o s θ u ·v = |u||v|cos\theta u⋅v=∣u∣∣v∣cosθ,也就是向量u在v上的投影长度与v模的乘积,可以方便求出u其在v上的投影
-
向量的外积
我们只讨论二维平面和三维空间中的向量外积:
-
在二维平面中:
u × v = [ u 1 u 2 ] T × [ v 1 v 2 ] T = u 1 v 2 − u 2 v 1 u\times v = [u_1~u_2]^T \times [v_1~v_2]^T = u_1v_2 – u_2v_1 u×v=[u1 u2]T×[v1 v2]T=u1v2−u2v1
∣ u × v ∣ = ∣ u ∣ ∣ v ∣ s i n θ |u \times v| = |u||v|sin \theta ∣u×v∣=∣u∣∣v∣sinθ,表示两个向量张成的平行四边形面积
-
在三维平面中:
u × v = [ u 1 u 2 u 3 ] T × [ v 1 v 2 v 3 ] T = [ u 2 v 3 − u 3 v 2 u 3 v 1 − u 1 v 3 u 1 v 2 − u 2 v 1 ] u\times v = [u_1~u_2~u_3]^T \times [v_1~v_2~v_3]^T = [u_2v_3 – u_3v_2~~ u_3v_1 – u_1v_3~u_1v_2 – u_2v_1 ] u×v=[u1 u2 u3]T×[v1 v2 v3]T=[u2v3−u3v2 u3v1−u1v3 u1v2−u2v1]
表示两个向量所表示平面的法向量。
-
-
向量的线性组合
在向量加法和数乘的基础上的组合应用。
基底与向量的坐标表示
基底与向量的深入
对于向量 u = [ 4 5 ] T u = [4~5]^T u=[4 5]T而言,我们一直以来都很理所应当的认为:他表示一条在 x x x轴上投影为4, y y y轴上投影为 5的有向线段,其坐标为 ( 4 , 5 ) (4, 5) (4,5)。这其实是基于了一个我们没有刻意强调的前提:我们是利用了方向为 x x x轴、 y y y轴正方向且长度为1的两个向量 e x = [ 1 0 ] T e_x = [1~0]^T ex=[1 0]T, e y = [ 0 1 ] T e_y = [0~1]^T ey=[0 1]T作为讨论基准。因此向量u的完整写法是: u = 4 e x + 5 e y , u = 4 [ 1 0 ] T + 5 [ 0 1 ] T u = 4e_x + 5e_y,u = 4[1~0]^T + 5[0~1]^T u=4ex+5ey,u=4[1 0]T+5[0 1]T。
这里作为基准的向量 e x , e y e_x, e_y ex,ey便是基底,具体作用是当做参考系。基底的每个成员称作基向量。而坐标,就是各基向量前的系数。在已有基底的基础上,空间中的向量表示为坐标的形式,也可以看成基向量的线性组合。而且在不做说明的情况下,一般基向量选取坐标中正方向且长度为1的向量。
综上:向量 u u u的准确说法为:在基底 ( e x , e y ) (e_x,e_y) (ex,ey)下,以原点为出发点,终点为坐标 ( 4 , 5 ) (4,5) (4,5)的有向线段。
基底与向量选取与表示
同一向量在不同的基底下表示为不同坐标
在向量空间中的同一个向量 u u u,当我们基底分别选取 [ 1 0 ] T [1~0]^T [1 0]T、 [ 0 1 ] T [0~1]^T [0 1]T和 [ 1 2 1 2 ] T [\frac{1}{\sqrt{2}} ~\frac{1}{\sqrt{2}}]^T [21 21]T、 [ − 1 2 1 2 ] T [-\frac{1}{\sqrt{2}}~\frac{1}{\sqrt{2}}]^T [−21 21]T时,在假设前者条件下表示为 u = [ 4 5 ] T u = [4~5]^T u=[4 5]T,则在后者为基底的情况下表示为 [ 9 2 1 2 ] T [\frac{9}{\sqrt{2}} ~\frac{1}{\sqrt{2}}]^T [29 21]T。
基底的特殊性
-
基向量满足线性无关
在每个向量空间(解释在下)中每个向量都是唯一的,表示也是唯一的。当存在基向量线性相关时,对于空间中的向量表示就不是唯一了。
-
基底的数量要足够
对于 n n n维空间,必须要有 n n n个线性无关的向量作为基底。拿三维空间举例,如果线性无关的基向量只有两个,那么其再怎么组合成的向量也只能在一个平面内,平面外的向量无法表示。
-
R n \mathbb{R}^n Rn空间( n n n维向量空间)与 n n n维空间的区别
R n \mathbb{R}^n Rn空间表示所有 n n n维向量的集合(默认直角坐标系的基底),其中每个向量是 n n n维。
n n n 维空间是指由 n n n 个线性无关的向量所张成的向量空间,更具体的解释为针对一个向量集合 V V V,如果任取V中的两个向量 u u u和 v v v,只要满足 u + v u+v u+v仍然存在于 V V V中,同时任取标量 c c c,只要满足 c u cu cu仍然在 V V V中,那么这个集合 V V V就构成一个向量空间。
它们之间是相互区别的。
张成空间
一组向量,所有线性组合的向量构成的集合我们称之为这组向量张成的空间。
- n n n个线性无关的向量张成的是 R n \mathbb{R}^n Rn空间
- n n n个向量中, m m m个线性无关的向量,张成的是 R m \mathbb{R}^m Rm空间。
张成的向量空间维度与向量具体维度无关,原因即 R n \mathbb{R}^n Rn空间( n n n维向量空间)与 n n n维空间的区别。
- n n n个线性无关的向量张成的是 R n \mathbb{R}^n Rn空间
- n n n个向量中, m m m个线性无关的向量,张成的是 R m \mathbb{R}^m Rm空间。
张成的向量空间维度与向量具体维度无关,原因即 R n \mathbb{R}^n Rn空间( n n n维向量空间)与 n n n维空间的区别。
今天的文章机器学习-线性代数-1-向量、基底及向量空间[通俗易懂]分享到此就结束了,感谢您的阅读。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/85318.html