圖解線性代數-理論與演練 - 統計系三年級 翁德軒
課程名稱►圖解線性代數-理論與演練 授課教師►數學系 許瑞麟老師
心得分享者►統計系四年級 翁德軒
修課動機:
我現在是統計系大三的學生,雖然我在大一的時後已經有修過一整學年的線性代數,另外在迴歸分析的課程中也有大量應用線性代數(ex:最小平方估計有使用到投影的概念),但是在聽過之前修過課的同學給許老師高度的評價,同時也為了大三之後有越來越多的課程會使用到多變量分析,所以就決定修這堂課了!
課程概要和授課風格:
授課老師是數學系的許瑞麟老師,老師上課的風格會把整個數學框架講得很完整,不會只有片段的知識,這點我很喜歡。而且老師一直強調一個想法:「我們在2D平面上所觀察到絕大部分的現象都可以推廣到n維空間中,所以我們只需專注在研究和觀察2X2矩陣上,就不用去死記一大堆的公式和定理,能從圖像的變化上去理解矩陣運算背後這些線性轉換的意義」。這讓我有茅塞頓開的感覺,因為我個人過去學習線性代數的方式就是先看定義,熟記性質,再透過不斷地寫題目練習讓我學會操作線性變換。然而我察覺到這樣機械式的學習只會侷限在一個很小的範圍,不會有學習上的快樂,所以我認為,理解定理背後真正的意義是有必要的。例如:老師不會只教矩陣乘法的公式,而是把把矩陣乘法看成各個column vector的線性組合。又像是:我從高中的時候就記不起來的旋轉矩陣,都只能在考試前硬去把那個外型記起來,考完試也就忘記了。不過因為許老師先花很多時間介紹座標系變換的概念,就能以簡單的觀念輕鬆地把旋轉矩陣寫出來。再來是過去在課堂上重視的是如何正確且快速地計算出一個矩陣的特徵值及其所對應的特徵向量,上課後才注意到:特徵向量是座標系中經矩陣運算後少數不會改變其原本方向的向量。於是許多看似複雜不近人情的數學式,就在許老師的講解下,跳脫過去機械化的操作,換不同角度看世界,而且許老師提供的視角都是很清爽很有意思的角度。
課程的內容,老師先從座標轉換的觀念談起,再談到一些線性代數中重要的概念,像是線性組合、線性獨立、內積的向量表達式、正交投影… ,之後會帶到六個常見的線性轉換,再來會是特徵值、特徵向量,接下來會帶大家深入一點,去看分解的手法,像是最基礎的高斯分解,到進階一點的LU分解、Cholesky分解,最後則是quadratic二次式的完整分類。
修課心得:
許老師在五天內就幾乎教完了我當時修了兩個學期線性代數的內容,雖然有些部分沒有時間探討細節,但是我認為這堂課為沒有接觸過線性代數的同學畫了一張蠻不錯的學習地圖,能快速上手線性代數的重要概念。而對於有接觸過線性代數的同學來說,像是我,原先對線性代數的概念還停留在定義、定理、寫題目、記起來這四個步驟的循環,在上了這堂課後重視不少過去線性代數的概念。有了這些整合型的概念,線性代數就不再又是背背背了。
我分享一個最近的親身經驗,前個禮拜在上數理統計的時候,老師教到多變量分配的收斂時,問了一個關於隨機向量線性轉換的維度的問題,原本是一個p by 1的column random vector X,但是在和一個同樣是p by 1的係數矩陣t內積後就會變成是一個1 by 1的向量,當時我一看他的表示式t’X就知道這是在做內積,也可以說是在做X裡面p個元素的線性組合,但是我的同學大部分都一時之間回答不出來,因為許老師上課有強調過:t’X的形式是在做內積,而X’t是在做外積。另外LU分解是我這次上課前最期待的部分,因為大一在修課的時候沒有把這個部分理解清楚。上課前我在想:解聯立方程組就用高斯消去法做就好了,即使矩陣再大再複雜,反正我又不用自己動手算,交給電腦算就行了。但是許老師上課時就直接當頭棒喝道:「當你的矩陣很大時,你做高斯消去法會需要對資料做很多很多次的重複存取,這樣有可能會讓電腦直接罷工,算都算不了了。所以LU分解成了求解維度很大時的線性方程組一個很重要的方法」,老師把LU分解解釋地很清楚,就是一層一層iteration的計算,對資料的重複存取數少,因此在計算速度上優於高斯消去法很多。老師有提到了他當年在貝爾實驗室處理10^37*10^37矩陣的經驗,驗證了學好數學真的非常重要,別人還只會埋頭用高斯消去法苦幹時你早就已經用LU分解或Cholestky分解做出來了!
我很享受這次修課的過程,雖然集中在一週而且每天從早上9:00上到下午3:00真的蠻累的,但是這種真的長時間思考數學的訓練加強了我的耐性,能夠長時間專注在一件事情上。雖然是題外話,但是這種專注訓練對我暑假考多益的幫助很大。另外我覺得模組化這種上課方式很棒,不用像在學期間要受到上下課時間,一週固定堂數的限制以及其他科目的干擾,能好好地在一段完整的時間內學習一個領域的知識。最後要感謝許教授和助教們帶給我這次的課程,有機會的話寒假想再繼續上模組化課程!
關鍵字 #成大模組化 #線性代數 #數學思考 #大數據基礎 #反正我暑假很閒
瀏覽數:
分享