机器学习-线性代数-1-向量、基底及向量空间[通俗易懂]

机器学习-线性代数-1-向量、基底及向量空间[通俗易懂]线代在机器学习中有着重大意义,谨以此文作为我重新学习线性代数的开篇笔记

概述

向量

理解

  1. 直观理解

    • 行向量:把数字排成一行A = [ 4   5 ] [4~ 5] [4 5]
    • 列向量:把数字排成一列A =   [ 4 5 ] \ \left [ \begin{matrix} 4 \\ 5 \\ \end{matrix} \right ]  [45]
  2. 几何意义

    默认在基底条件下(直角坐标系)中的坐标表示的一个点,也可以理解以原点为起点,到目标终点A的有向线段

    img

    因此,向量中成分个数就是向量的维度。

  3. 注意

    • 充当数据的载体,向量的每个维度都作为事物的一种属性,比如一次考试的成绩,语文98分、数学89分,英语100分。这时用向量表示为   [ 98 89 100 ] \ \left [ \begin{matrix}98 \\89 \\100\\\end{matrix} \right ]  
      9889100
    • 一般使用列向量(默认):1、节省空间,2、在进行变换时类似于函数利于理解 A x Ax Ax f ( x ) f(x) f(x)
  4. Python演示

    1. 生成行向量

      import numpy as np
      
      A = np.array([1, 2, 3, 4])
      print(A)
      
      [1 2 3 4]
      
    2. 生成列向量(便于计算表示成 n ∗ 1 n * 1 n1的矩阵)

      import numpy as np
      
      A = np.array([[1, 2, 3]])
      print(A)
      print(A.T)
      
      [[1 2 3]]
      [[1]
       [2]
       [3]]
      

向量运算

  1. 向量加法

    两个维度相同的向量才能进行加法,对应维度元素相加即可。

    image-20230521214355520

    从空间的角度理解。

    就是两个向量的合向量。

    image-20230521214738417

    import numpy as np
    
    # 定义两个向量
    a = np.array([1, 2, 3])
    b = np.array([4, 5, 6])
    
    # 向量加法
    c = a + b
    print(c)
    
    [5 7 9]
    
    
  2. 向量数乘

    把数c与向量每个元素分别相乘,结果向量保持维数不变,直观理解,就是将向量沿着原来方向拉伸相应倍数,最终发现与运算数的符号有关。

    image-20230521215019046

    import numpy as np
    
    # 定义一个向量
    a = np.array([1, 2, 3])
    
    # 向量数乘
    k = 2
    b = k  * a
    
    print(b)
    
    [2 4 6]
    
  3. 线性性质阐述

    通过以上两个向量性质阐述,我们总结一下线性代数这么课中线性的内涵,凡是满足以上加法和数乘性质的代数运算,我们就成为线性运算,如果一个代数系统,满足线性运算,那么我们称这个代数系统为线性代数。线性代数就是研究其中性质的一门课。

  4. 向量的内积

    向量 u u u和向量 v v v內积定义如下:

    u ⋅ v = [ u 1   u 2   u 3 ] [ v 1   v 2   v 3 ] T = u 1 v 1 + u 2 v 2 + u 3 v 3 u·v = [u_1~u_2~u_3] [v_1~v_2~v_3]^T = u_1v_1 + u_2v_2 + u_3v_3 uv=[u1 u2 u3][v1 v2 v3]T=u1v1+u2v2+u3v3

    其物理意义是: u ⋅ v = ∣ u ∣ ∣ v ∣ c o s θ u ·v = |u||v|cos\theta uv=u∣∣vcosθ,也就是向量u在v上的投影长度与v模的乘积,可以方便求出u其在v上的投影

    image-20230521215931436

  5. 向量的外积

    我们只讨论二维平面和三维空间中的向量外积:

    • 在二维平面中:

      u × v = [ u 1   u 2 ] T × [ v 1   v 2 ] T = u 1 v 2 − u 2 v 1 u\times v = [u_1~u_2]^T \times [v_1~v_2]^T = u_1v_2 – u_2v_1 u×v=[u1 u2]T×[v1 v2]T=u1v2u2v1

      ∣ u × v ∣ = ∣ u ∣ ∣ v ∣ s i n θ |u \times v| = |u||v|sin \theta u×v=u∣∣vsinθ,表示两个向量张成的平行四边形面积

      图4.向量外积的几何表示

    • 在三维平面中:

      u × v = [ u 1   u 2   u 3 ] T × [ v 1   v 2   v 3 ] T = [ u 2 v 3 − u 3 v 2    u 3 v 1 − u 1 v 3   u 1 v 2 − u 2 v 1 ] u\times v = [u_1~u_2~u_3]^T \times [v_1~v_2~v_3]^T = [u_2v_3 – u_3v_2~~ u_3v_1 – u_1v_3~u_1v_2 – u_2v_1 ] u×v=[u1 u2 u3]T×[v1 v2 v3]T=[u2v3u3v2  u3v1u1v3 u1v2u2v1]

      表示两个向量所表示平面的法向量。

  6. 向量的线性组合

    在向量加法和数乘的基础上的组合应用。

基底与向量的坐标表示

基底与向量的深入

对于向量 u = [ 4   5 ] T u = [4~5]^T u=[4 5]T而言,我们一直以来都很理所应当的认为:他表示一条在 x x x轴上投影为4, y y y轴上投影为 5的有向线段,其坐标为 ( 4 , 5 ) (4, 5) (4,5)。这其实是基于了一个我们没有刻意强调的前提:我们是利用了方向为 x x x轴、 y y y轴正方向且长度为1的两个向量 e x = [ 1   0 ] T e_x = [1~0]^T ex=[1 0]T, e y = [ 0   1 ] T e_y = [0~1]^T ey=[0 1]T作为讨论基准。因此向量u的完整写法是: u = 4 e x + 5 e y , u = 4 [ 1   0 ] T + 5 [ 0   1 ] T u = 4e_x + 5e_y,u = 4[1~0]^T + 5[0~1]^T u=4ex+5ey,u=4[1 0]T+5[0 1]T

这里作为基准的向量 e x , e y e_x, e_y ex,ey便是基底,具体作用是当做参考系。基底的每个成员称作基向量。而坐标,就是各基向量前的系数。在已有基底的基础上,空间中的向量表示为坐标的形式,也可以看成基向量的线性组合。而且在不做说明的情况下,一般基向量选取坐标中正方向且长度为1的向量。

综上:向量 u u u的准确说法为:在基底 ( e x , e y ) (e_x,e_y) (ex,ey)下,以原点为出发点,终点为坐标 ( 4 , 5 ) (4,5) (4,5)的有向线段。

基底与向量选取与表示

同一向量在不同的基底下表示为不同坐标

在向量空间中的同一个向量 u u u,当我们基底分别选取 [ 1   0 ] T [1~0]^T [1 0]T [ 0   1 ] T [0~1]^T [0 1]T [ 1 2   1 2 ] T [\frac{1}{\sqrt{2}} ~\frac{1}{\sqrt{2}}]^T [2
1
 2
1
]T
[ − 1 2   1 2 ] T [-\frac{1}{\sqrt{2}}~\frac{1}{\sqrt{2}}]^T [2
1
 2
1
]T
时,在假设前者条件下表示为 u = [ 4   5 ] T u = [4~5]^T u=[4 5]T,则在后者为基底的情况下表示为 [ 9 2   1 2 ] T [\frac{9}{\sqrt{2}} ~\frac{1}{\sqrt{2}}]^T [2
9
 2
1
]T

图7.不同基底对空间中同一向量的描述

基底的特殊性

  1. 基向量满足线性无关

    在每个向量空间(解释在下)中每个向量都是唯一的,表示也是唯一的。当存在基向量线性相关时,对于空间中的向量表示就不是唯一了。

  2. 基底的数量要足够

    对于 n n n维空间,必须要有 n n n个线性无关的向量作为基底。拿三维空间举例,如果线性无关的基向量只有两个,那么其再怎么组合成的向量也只能在一个平面内,平面外的向量无法表示。

  3. R n \mathbb{R}^n Rn空间( n n n维向量空间)与 n n n维空间的区别

    R n \mathbb{R}^n Rn空间表示所有 n n n维向量的集合(默认直角坐标系的基底),其中每个向量是 n n n维。

    n n n 维空间是指由 n n n 个线性无关的向量所张成的向量空间,更具体的解释为针对一个向量集合 V V V,如果任取V中的两个向量 u u u v v v,只要满足 u + v u+v uv仍然存在于 V V V中,同时任取标量 c c c,只要满足 c u cu cu仍然在 V V V中,那么这个集合 V V V就构成一个向量空间。

它们之间是相互区别的。

张成空间

一组向量,所有线性组合的向量构成的集合我们称之为这组向量张成的空间。

  • n n n个线性无关的向量张成的是 R n \mathbb{R}^n Rn空间
  • n n n个向量中, m m m个线性无关的向量,张成的是 R m \mathbb{R}^m Rm空间。

张成的向量空间维度与向量具体维度无关,原因即 R n \mathbb{R}^n Rn空间( n n n维向量空间)与 n n n维空间的区别。

  • n n n个线性无关的向量张成的是 R n \mathbb{R}^n Rn空间
  • n n n个向量中, m m m个线性无关的向量,张成的是 R m \mathbb{R}^m Rm空间。

张成的向量空间维度与向量具体维度无关,原因即 R n \mathbb{R}^n Rn空间( n n n维向量空间)与 n n n维空间的区别。

今天的文章机器学习-线性代数-1-向量、基底及向量空间[通俗易懂]分享到此就结束了,感谢您的阅读。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/85318.html

(0)
编程小号编程小号

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注