前言
在前面两篇文章中,我简要概括了线性代数中两个最基本的数据表达方式:矩阵 和 向量。有了这两个数学工具作为基础,我们可以再进一步,讨论下面一些内容:
- 如何求解线性空间的基?
- 向量的子空间、零空间、列空间、行空间、左零空间都是什么东西?怎么求解?
- 如何用线性代数的知识来拟合数据?
- 机器学习、图像处理中常见的“特征向量”究竟是什么东西?它和变换矩阵有什么联系?
本篇文章将作为线性代数子系列的最终篇。
在前面两篇文章中,我简要概括了线性代数中两个最基本的数据表达方式:矩阵 和 向量。有了这两个数学工具作为基础,我们可以再进一步,讨论下面一些内容:
本篇文章将作为线性代数子系列的最终篇。
在 上文 中我简单概括了矩阵的基本运算,并给出了两个应用实例。这篇文章我们继续谈谈向量。
向量是线性代数中的基本概念,也是机器学习的基础数据表示形式。例如计算机阅读文本的过程首先就会将文本分词,然后用向量表示[1]。这是因为向量很适合在高维空间中表达和处理。在机器学习中会接触到的诸如投影、降维的概念,都是在向量的基础上做的。