專業(yè)做高品質(zhì)的代工網(wǎng)站東莞網(wǎng)站推廣哪里找
特征值究竟體現(xiàn)了矩陣的什么特征?
簡(jiǎn)單來(lái)說(shuō)就是x經(jīng)過(guò)矩陣A映射后和自己平行
希爾伯特第一次提出eigenvalue,這里的eigen就是自己的。所以eigenvalue也稱作本征值
特征值和特征向量刻畫了矩陣變換空間的特征
對(duì)平面上的任意向量可以如法炮制,把他在特征向量的坐標(biāo)系下分解。分別在每個(gè)軸上伸縮,再用平行四邊形法則加起來(lái)。就可以輕松確定任何一個(gè)向量被映射后到底在哪里。
可以說(shuō),矩陣特征向量的變化很好的描述了矩陣對(duì)空間的影響
將以上總結(jié)為3步
-
把向量分解為特征向量的線性組合
-
根據(jù)特征值分別縮放每個(gè)特征向量,兩個(gè)特征值分別是2和3,所以兩個(gè)系數(shù)就變成了兩倍和三倍
-
重新將這些特征向量組合起來(lái),將變換后的這些組合的系數(shù)向量使用線性映射P再變回去,就得到了原始空間的最終結(jié)果
經(jīng)過(guò)以上3步就得到了A作用于一個(gè)向量映射的整個(gè)過(guò)程。
我們?yōu)槭裁匆M(fèi)這么大的勁求這個(gè)分解呢?
- 計(jì)算簡(jiǎn)便
其中求特征值,利用特征多項(xiàng)式來(lái)求
線性空間當(dāng)中幾乎所有向量,經(jīng)過(guò)某個(gè)線性映射的反復(fù)迭代以后,都會(huì)趨近于特征值最大的一個(gè)方向。
為什么要講相似矩陣?
P這個(gè)矩陣承擔(dān)著兩個(gè)視角(默認(rèn)視角和特征向量視角)之間的轉(zhuǎn)換。
使用不同的視角來(lái)觀察同一個(gè)線性映射。會(huì)得到不同的矩陣,于是這些矩陣叫做相似矩陣
頭尾兩個(gè)矩陣,就是這兩個(gè)視角的轉(zhuǎn)移矩陣
這個(gè)映射具有的性質(zhì),就被所有能夠用相似變換所觀察到的其他矩陣所共有。在某些方向上,方向不變時(shí),伸長(zhǎng)的倍數(shù)是保持的。這就是為什么**所有相似矩陣,他們特征值的集合是一樣的。**而特征向量不一樣
在特征向量的視角下,矩陣的迭代累乘變得特別簡(jiǎn)單,才使得我們可以用特征分解快速的計(jì)算出一個(gè)矩陣的冪次
一些結(jié)論
1.矩陣所有特征值的乘積等于行列式
2.幾何重?cái)?shù)不會(huì)超過(guò)代數(shù)重?cái)?shù)
視頻鏈接:
https://www.bilibili.com/video/BV1TH4y1L7PV/?spm_id_from=333.788&vd_source=8272bd48fee17396a4a1746c256ab0ae