看不清
√十天内免登录忘记密码?
还没账号?马上注册
请复制以下内容发送给他人,通过邀请链接访问完成注册,您即可享受长期收益:
适合人群: IT从业人员、程序员、金融行业从业者、学生、研究人员及其他所有曾经没有学好线性代数的人。
课程标签: 线性代数的本质线性拟合主成分分析文本分类矩阵的SVD分解
线性代数是IT从业人员的重要工具,在图形开发、数据挖掘、图像处理、数据去噪、网页排序、后端开发、机器学习、深度学习等领域应用广泛。虽然线性代数是理工科的必修课,但在实际工作中,真正能够应用线性代数的人少之又少,究其原因是没有掌握线性代数的本质。
如果你不清楚本门课程是否对你有用,只需要回答下面几个简单问题即可:
1.矩阵和线性变换的关系是什么?
2.行列式有什么几何意义?
3.特征值为什么叫特征值?
4.矩阵的特征分解为什么可以用于主成分分析?
5.矩阵的SVD分解和主成分分析是一个层面的吗?
本节讲述线性代数在实际工作中的具体用处
本节讲述线性代数研究的主要内容和学习误区
向量是线性代数的基础,也是线性代数的研究对象,虽然我们在中学已经接触过向量,但是本节将从全新的维度带你重新认识向量。
线性空间其实是用向量的线性组合来描述的,向量的线性组合能够得到的全部向量的集合就是向量张成的空间。
本节介绍线性相关、线性无关和基的概念,都是和向量有关的概念,不需要知道判定向量线性相关或无关的具体方法,只需要有个直观的印象就可以。
如果你学过线性代数,你一定会奇怪于矩阵和向量乘法的计算规则,完全搞不懂为什么会这么计算。
常见的线性变换有伸缩变换、旋转变换、剪切变换。
视角转换时线性代数的重要内容,也是难点之一。视角转换的本质是基向量的改变。
两个矩阵相乘的几何意义其实就表示两个线性变换的相继作用。
两个向量的内积是一个数,应用非常广;向量的外积得到的结果仍然是一个向量,主要用于三维空间中。
行列式的有着明显的几何意义,在二维空间中,行列式的绝对值表示线性变换后和线性变换前面积的比值。
行列式为零表示线性变换后存在着线性空间维度的减少。
逆变换是线性代数的重要内容,也是理解难点,应用非常广泛。
本节从线性变换角度讨论线性方程组是否有解。
不同的坐标系视角本质是基向量的不同,转换基向量能够让数据变得简洁,这就是主成分分析的奥秘。
同一个向量在不同的坐标系视角下转换需要用到矩阵的逆。
相似矩阵的本质是同一个线性变换在不同的坐标视角下的表示方式。
如果我们只看特征向量和特征值的表示公式,会觉得平平无奇,但是特征值和特征向量非常有用,你也许会发现很多算法都有求特征值和特征向量的步骤,但是却不明白为什么会是这样。
如何计算矩阵的n次幂
矩阵的特征分解
本节开始,讲述线性代数的应用。线性拟合是线性代数比较直接的应用。
导数是高等数学的重要内容,但是高等数学课程并没有讲述如何对向量求导。
理解了线性拟合的矩阵和向量形式,就能够处理成百上千个变量的线性拟合。
线性拟合的python实现
补充知识-协方差与相关系数
补充知识:协方差矩阵、标准正交基
主成分分析的具体步骤
基于python实现主成分分析
矩阵奇异值分解的推导过程
用Python实现基于SVD的图像压缩
用python实现基于SVD的推荐系统计算
从另一个角度理解奇异值
PageRank算法产生的背景和基本思路
模型的建立
用迭代法实现PageRank算法求解
模型再改进
欢迎进入课程讨论区,你可以与本课程的老师和同学在这里交流。如果你有课程相关的问题,请发到老师答疑区;经验、思考、创意、作品、转帖请发到综合讨论区。欢迎分享,鼓励原创,杜绝广告,请大家共同维护一个包容、积极、相互支持的交流氛围,谢谢。了解更多请点击“讨论区使用规则”↗
给该课程打分:
o98k
暂无课件
共66节 · 18小时8分钟
基于Flink流处理的动态实时电商实时分析系统视频教程
¥699.0022814人在学
共29节 · 2小时35分钟
利用Kettle+FineBI+MySQL构建电商运营分析报表可视化平台视频教程
¥238.004536人在学
共454节 · 380小时23分钟套餐优惠
大数据从入门到精通(徐培成亲授)视频教程
¥680.0027229人在学
共21节 · 4小时48分钟
Kettle从入门到精通视频教程
¥280.0028565人在学
评价
给该课程打分: