【線性代數】課堂筆記 (一)
- 前言:
若 V 是一個 n 維的向量空間,W 是一個 m 維的向量空間,則我們可以在這兩個空間中建立一個由 V 至 W 的線性變換 T ,而我們又可以使用矩陣來表示線性變換,而線性代數研究的便是如何處理這些矩陣,然而矩陣的乘法頗為複雜,因此我們的目標是:將矩陣簡化為對角線矩陣。
- 以基底的線性組合來表示向量
我們可以為 V 與 W 找一份基底,分別為 a = { v1, v2, ... ,vn } ,及
b = {w1, w2, ... ,wm},則 V 中的任意向量便可以表示為 a 的線性組合,例如 v = c1v1 + c2v2 + ... + cnvn,我們又可以將係數抽離出來,成為一個向量,c = (c1, c2, ... ,cn),如此一來,我們再將 c 立起來,變成一個 column vector ,記為 [v]a = [c],此即 v 對應於基底 a 的 column vector。
####
- 線性變換矩陣
基底是一個向量空間的基礎,因此我們將基底 a 中的元素 vj 經過線性變換,變成了 T(vj) ,為 W 中的元素,既然是 W 中的向量,那就可以用 W 的基底 b 來表示,我們將每一個 T(vj) 對於 b 的 column vector 排排站好,變成一個 m x n 的矩陣,也就是 ( [T(v1)] b , [T(v2)] b , ... , [T(vn)] b ) ,我們稱這個矩陣為 A 。
這樣一來, A 這個矩陣,就是 a 這組基底裡每一個向量經過線性變換後,再由基底 b 將每一個 T(vj) 表示為 column vector 的結果。
如此一來,若是將 A 乘上 v 對應於基底 a 的 column vector ,即 A[v]a,則剛好每一個係數 ci 都會剛好乘上其對應向量 vi 的線性變換 T(vi),而其結果會是由 b 所表達的 T(v),即:
A[ v ]a = [ T(v) ]b
這顯然是個非常好用的矩陣,如此一來,我們只要知道一個向量對 a 的分解,則透過這個矩陣,我們就可以知道他經過線性變換後對 b 的分解。 A = [T]ab。
- 推導
在對角化矩陣的討論中,我們考慮映射至同一個向量空間 V 的線性變換,帶入上述的討論,也就是考慮一個 nxn 的矩陣 A ,若 v 屬於 Rn 且不為零,則對於基底 a、係數K,若經過線性變化後,v 為自己的 K 倍A [v]a = K [v]a
則稱 v 為特徵向量(eigenvector)、K為特徵值(eigenvalue)。
由上式又可推得:(A - KI) [v]a = 0。也就是說,若設 [v]a 為未知數,則此式有非零解,也就是說(?):det (A - KI) = 0
則 (A - Ki I) 的 kernal = (A - Ki I) [v]a = 0 的解集合 ,為一個 V 的子空間,稱為對應於特徵值 Ki 的特徵空間(eigenspace)。(為什麼是 Ki ?)
- 對角化
若 A 有 n 個線性獨立的特徵向量:{x1, x2, ... ,xn},則S = [ x1, x2, ... ,xn ] nxn
AS = [ Ax1, Ax2, ... ,Axn ]= [ x1, x2, ... ,xn ] K= SK
S 是特徵向量組成的矩陣,AS 則是這些特徵向量線性變換後所成的矩陣,然而特徵向量經過線性變換為自己的 k 倍,因此我們可以把 AS 寫為 SK,K 為特徵值所成之對角化矩陣,如此一來,若等號兩邊同時左乘 S 之反矩陣 S-1AS = K,就得到我們所要的對角化矩陣 K。
我們發現,不論如何選擇基底,A 始終會將特徵向量乘上 k 倍,也就是說,不論 A 及特徵向量矩陣 S 所根據的基底為何,只要兩矩陣參考的基底一致,就能透過這個式子合成出對角化矩陣 K。
留言
張貼留言