【線性代數】課堂筆記 (一)



  • 前言:


    若 V 是一個 n 維的向量空間,W 是一個 m 維的向量空間,則我們可以在這兩個空間中建立一個由 V 至 W 的線性變換 T ,而我們又可以使用矩陣來表示線性變換,而線性代數研究的便是如何處理這些矩陣,然而矩陣的乘法頗為複雜,因此我們的目標是:將矩陣簡化為對角線矩陣。


  • 以基底的線性組合來表示向量


    我們可以為 V 與 W 找一份基底,分別為 a = { v1, v2, ... ,vn } ,及
    b = {w1, w2, ... ,wm},則 V 中的任意向量便可以表示為 a 的線性組合,例如 v = c1v1 + c2v2 + ... + cnvn,我們又可以將係數抽離出來,成為一個向量,c = (c1, c2, ... ,cn),如此一來,我們再將 c 立起來,變成一個 column vector ,記為 [v]a = [c],此即 v 對應於基底 a 的 column vector
####

  • 線性變換矩陣


    基底是一個向量空間的基礎,因此我們將基底 a 中的元素 vj 經過線性變換,變成了 T(vj) ,為 W 中的元素,既然是 W 中的向量,那就可以用 W 的基底 b 來表示,我們將每一個 T(vj) 對於 b 的 column vector 排排站好,變成一個 m x n 的矩陣,也就是 ( [T(v1)] b  ,   [T(v2)] b , ... ,  [T(vn)] b  ) ,我們稱這個矩陣為 A 。

    這樣一來, A 這個矩陣,就是 a 這組基底裡每一個向量經過線性變換後,再由基底 b 將每一個 T(vj) 表示為 column vector 的結果。

    如此一來,若是將 A 乘上 v 對應於基底 a 的 column vector ,即 A[v]a,則剛好每一個係數 ci 都會剛好乘上其對應向量 vi 的線性變換 T(vi),而其結果會是由 b 所表達的 T(v),即:

     
    A[ ]a   =   [ T(v) ]b

    這顯然是個非常好用的矩陣,如此一來,我們只要知道一個向量對 a 的分解,則透過這個矩陣,我們就可以知道他經過線性變換後對 b 的分解。 A = [T]ab


  • 推導


    在對角化矩陣的討論中,我們考慮映射至同一個向量空間 V 的線性變換,帶入上述的討論,也就是考慮一個 nxn 的矩陣 A ,若 v 屬於 Rn 且不為零,則對於基底 a、係數K,若經過線性變化後,v 為自己的 K 倍

     A [v]a = K [v]a 

    則稱 v 為特徵向量(eigenvector)、K為特徵值(eigenvalue)。

    由上式又可推得:(A - KI) [v]a  = 0。也就是說,若設 [v]a 為未知數,則此式有非零解,也就是說(?)

    det (A - KI) = 0

    則 (A - Ki I) 的 kernal =  (A - Ki I) [v]a  = 0 的解集合 ,為一個 V 的子空間,稱為對應於特徵值 Ki 的特徵空間(eigenspace)。(為什麼是 Ki ?)

  • 對角化


    若 A 有 n 個線性獨立的特徵向量:{x1, x2, ... ,xn},則

    S = [ x1, x2, ... ,xn ] nxn

    AS = 
    [ Ax1, Ax2, ... ,Axn ]
      = [ x1, x2, ... ,xn ] K
     = SK

    S 是特徵向量組成的矩陣,AS 則是這些特徵向量線性變換後所成的矩陣,然而特徵向量經過線性變換為自己的 k 倍,因此我們可以把 AS 寫為 SK,K 為特徵值所成之對角化矩陣,如此一來,若等號兩邊同時左乘 S 之反矩陣 S-1AS = K,就得到我們所要的對角化矩陣 K。

    我們發現,不論如何選擇基底,A 始終會將特徵向量乘上 k 倍,也就是說,不論 A 及特徵向量矩陣 S 所根據的基底為何,只要兩矩陣參考的基底一致,就能透過這個式子合成出對角化矩陣 K。

留言

這個網誌中的熱門文章

【線性代數】Vector spaces:向量空間

【線性代數】線性組合

【線性代數】subspaces:子向量空間