条件数

条件数

矩阵的几个疑难点

数据挖掘李新春 发表了文章 • 0 个评论 • 66 次浏览 • 2017-06-13 23:18 • 来自相关话题

     临近期末,总结自己这个学期学到的东西,感觉很多时间还是花费在了矩阵论、概率统计和最优化方法等数学方法上,所以应该好好做个总结,否则过一段时间就忘了。以后忘记时再来翻翻看。这是对矩阵这一块最后一篇文章了,比较杂,也比较充实。不过一个学期下来,感觉对Latex的确熟悉了很多,之前也有试过cmdmarkdown,感觉还是先用Latex吧,以后用到贴代码的文章再去用cmdmarkdown。
    下面两端是文章的导言,这里贴出来。
    在机器学习的理论推导中,几乎处处离不开矩阵和向量。之前已经总结了矩阵的奇异值分解和矩阵求导等公式,现在来整理一下自己在学习过程中认为比较有趣的,同时也是很重要的几个疑难点。分别是谱分解、范数、谱半径、条件数、广义特征值、矩阵直积、广义逆矩阵和矩阵分解。
    本文涉及很多公式定理,大多数参考自文献《矩阵论》chap[8],广义逆处参考《非线性最优化理论与方法》chap[8]。本文之所以大费周章地将公式定理从书中摘录下来,原因有二,一是可以当做一个整理思路的过程,如何把矩阵论的知识贯穿起来并和机器学习里面的知识挂钩,这是一个锻炼的过程;同时,将重要的公式自己敲一遍,可以加深印象,增强对里面知识点的理解。
    下面是文档截图。










  查看全部
     临近期末,总结自己这个学期学到的东西,感觉很多时间还是花费在了矩阵论、概率统计和最优化方法等数学方法上,所以应该好好做个总结,否则过一段时间就忘了。以后忘记时再来翻翻看。这是对矩阵这一块最后一篇文章了,比较杂,也比较充实。不过一个学期下来,感觉对Latex的确熟悉了很多,之前也有试过cmdmarkdown,感觉还是先用Latex吧,以后用到贴代码的文章再去用cmdmarkdown。
    下面两端是文章的导言,这里贴出来。
    在机器学习的理论推导中,几乎处处离不开矩阵和向量。之前已经总结了矩阵的奇异值分解和矩阵求导等公式,现在来整理一下自己在学习过程中认为比较有趣的,同时也是很重要的几个疑难点。分别是谱分解、范数、谱半径、条件数、广义特征值、矩阵直积、广义逆矩阵和矩阵分解。
    本文涉及很多公式定理,大多数参考自文献《矩阵论》chap[8],广义逆处参考《非线性最优化理论与方法》chap[8]。本文之所以大费周章地将公式定理从书中摘录下来,原因有二,一是可以当做一个整理思路的过程,如何把矩阵论的知识贯穿起来并和机器学习里面的知识挂钩,这是一个锻炼的过程;同时,将重要的公式自己敲一遍,可以加深印象,增强对里面知识点的理解。
    下面是文档截图。

jvzhen1.png


jvzhen2.png

 

矩阵的几个疑难点

数据挖掘李新春 发表了文章 • 0 个评论 • 66 次浏览 • 2017-06-13 23:18 • 来自相关话题

     临近期末,总结自己这个学期学到的东西,感觉很多时间还是花费在了矩阵论、概率统计和最优化方法等数学方法上,所以应该好好做个总结,否则过一段时间就忘了。以后忘记时再来翻翻看。这是对矩阵这一块最后一篇文章了,比较杂,也比较充实。不过一个学期下来,感觉对Latex的确熟悉了很多,之前也有试过cmdmarkdown,感觉还是先用Latex吧,以后用到贴代码的文章再去用cmdmarkdown。
    下面两端是文章的导言,这里贴出来。
    在机器学习的理论推导中,几乎处处离不开矩阵和向量。之前已经总结了矩阵的奇异值分解和矩阵求导等公式,现在来整理一下自己在学习过程中认为比较有趣的,同时也是很重要的几个疑难点。分别是谱分解、范数、谱半径、条件数、广义特征值、矩阵直积、广义逆矩阵和矩阵分解。
    本文涉及很多公式定理,大多数参考自文献《矩阵论》chap[8],广义逆处参考《非线性最优化理论与方法》chap[8]。本文之所以大费周章地将公式定理从书中摘录下来,原因有二,一是可以当做一个整理思路的过程,如何把矩阵论的知识贯穿起来并和机器学习里面的知识挂钩,这是一个锻炼的过程;同时,将重要的公式自己敲一遍,可以加深印象,增强对里面知识点的理解。
    下面是文档截图。










  查看全部
     临近期末,总结自己这个学期学到的东西,感觉很多时间还是花费在了矩阵论、概率统计和最优化方法等数学方法上,所以应该好好做个总结,否则过一段时间就忘了。以后忘记时再来翻翻看。这是对矩阵这一块最后一篇文章了,比较杂,也比较充实。不过一个学期下来,感觉对Latex的确熟悉了很多,之前也有试过cmdmarkdown,感觉还是先用Latex吧,以后用到贴代码的文章再去用cmdmarkdown。
    下面两端是文章的导言,这里贴出来。
    在机器学习的理论推导中,几乎处处离不开矩阵和向量。之前已经总结了矩阵的奇异值分解和矩阵求导等公式,现在来整理一下自己在学习过程中认为比较有趣的,同时也是很重要的几个疑难点。分别是谱分解、范数、谱半径、条件数、广义特征值、矩阵直积、广义逆矩阵和矩阵分解。
    本文涉及很多公式定理,大多数参考自文献《矩阵论》chap[8],广义逆处参考《非线性最优化理论与方法》chap[8]。本文之所以大费周章地将公式定理从书中摘录下来,原因有二,一是可以当做一个整理思路的过程,如何把矩阵论的知识贯穿起来并和机器学习里面的知识挂钩,这是一个锻炼的过程;同时,将重要的公式自己敲一遍,可以加深印象,增强对里面知识点的理解。
    下面是文档截图。

jvzhen1.png


jvzhen2.png