《《機(jī)器學(xué)習(xí)》教學(xué)大綱》由會(huì)員分享,可在線閱讀,更多相關(guān)《《機(jī)器學(xué)習(xí)》教學(xué)大綱(2頁(yè)珍藏版)》請(qǐng)?jiān)谘b配圖網(wǎng)上搜索。
1、《機(jī)器學(xué)習(xí)》教學(xué)大綱
課程主要內(nèi)容框架:各章節(jié)的主要內(nèi)容、目的與要求
1. 決策論與信息論基礎(chǔ)(2學(xué)時(shí)):了解并掌握統(tǒng)計(jì)決策理論和信息論的基礎(chǔ)知識(shí)。
a) 損失函數(shù)、錯(cuò)分率的最小化、期望損失的最小化等
b) 相對(duì)熵、互信息
2. 概率分布(4學(xué)時(shí)):熟悉常見的分布,熟練掌握最大似然估計(jì)方法,學(xué)會(huì)利用無(wú)信息先驗(yàn)和共軛先驗(yàn)簡(jiǎn)化計(jì)算,了解一些常用的非參數(shù)方法。
a) 高斯分布、混合高斯分布、Dirichlet分布、 beta分布等
b) 指數(shù)分布族:最大似然估計(jì)、充分統(tǒng)計(jì)量、共軛先驗(yàn)、無(wú)信息先驗(yàn)等
c) 非參數(shù)方法:核密度估計(jì)、近鄰法
3. 回歸的線性模型(4學(xué)時(shí)):掌握線性回歸的
2、一般方法,學(xué)會(huì)使用R中有關(guān)回歸的程序包,并能將之用于解決實(shí)際問題。
a) 線性基函數(shù)模型
b) 貝葉斯線性回歸
c) 貝葉斯模型比較
4. 分類的線性模型(4學(xué)時(shí)):對(duì)分類問題有一個(gè)全面的了解,掌握一些常用的分類方法。
a) 判別函數(shù):二分類和多分類的Fisher線性判別
b) 概率生成模型:連續(xù)輸入、離散特征
5. 神經(jīng)網(wǎng)絡(luò)(4學(xué)時(shí)):熟練掌握經(jīng)典神經(jīng)網(wǎng)絡(luò)模型的建模和實(shí)現(xiàn),了解貝葉斯神經(jīng)網(wǎng)絡(luò)的基本算法,學(xué)會(huì)使用FBM(flexible Bayesian Modeling)軟件。
a) 前饋網(wǎng)絡(luò)函數(shù)
b) 神經(jīng)網(wǎng)絡(luò)的訓(xùn)練:參數(shù)的最優(yōu)化、梯度下降最優(yōu)化等
c) 錯(cuò)誤的后傳播
3、
d) 貝葉斯神經(jīng)網(wǎng)絡(luò):后驗(yàn)參數(shù)分布、超參數(shù)最優(yōu)化、應(yīng)用
6. 核方法(4學(xué)時(shí)):了解核方法的最新進(jìn)展,熟練掌握核函數(shù)參數(shù)估計(jì)的常用方法。
a) 對(duì)偶表示
b) 構(gòu)造核函數(shù)
c) 徑向基函數(shù)網(wǎng)絡(luò):Nadaraya-Watson模型
d) 高斯過程:高斯過程模型用于回歸和分類、Laplace逼近、與神經(jīng)網(wǎng)絡(luò)的聯(lián)系
7. 支持向量機(jī)(4學(xué)時(shí)):掌握支持向量機(jī)的基本原理,面對(duì)各自研究領(lǐng)域中的具體問題學(xué)會(huì)使用支持向量機(jī),粗略了解統(tǒng)計(jì)學(xué)習(xí)理論。
a) 最大邊緣分類器:歷史回顧
b) 用于多分類和回歸的支持向量機(jī):幾何背景、各種變種
c) 統(tǒng)計(jì)學(xué)習(xí)理論簡(jiǎn)介:Vapnik等人的工作
8.
4、 圖模型(4學(xué)時(shí)):從建模到算法實(shí)現(xiàn)。
a) 貝葉斯網(wǎng)絡(luò)
b) Markov隨機(jī)場(chǎng):條件獨(dú)立、因子分解
c) 圖模型中的推斷
9. 混合模型和期望最大化(Expectation Maximization,EM)算法(4學(xué)時(shí)):掌握EM算法的基本理論,學(xué)會(huì)使用EM算法。
a) 高斯混合模型的參數(shù)估計(jì):最大似然估計(jì)、EM算法
b) EM一般算法及其應(yīng)用:貝葉斯線性回歸
10. 隨機(jī)模擬技術(shù)(6學(xué)時(shí)):了解并掌握一些經(jīng)典的Monte Carlo方法,學(xué)會(huì)使用JAGS(Just Another Gibbs Sampler)軟件。
a) 拒絕采樣和重要性采樣
b) Markov cha
5、in Monte Carlo(MCMC)方法:Metropolis-Hastings算法
c) Gibbs采樣
11. 隱Markov模型和條件隨機(jī)場(chǎng)模型(4學(xué)時(shí)):掌握隱Markov模型的幾個(gè)經(jīng)典算法,學(xué)會(huì)利用隱Markov模型和條件隨機(jī)場(chǎng)模型解決具體問題,如自然語(yǔ)言處理中的詞性標(biāo)注、蛋白質(zhì)結(jié)構(gòu)的分析和預(yù)測(cè)等。
a) 隱Markov模型:向前-向后算法、Viterbi算法、Baum-Welch算法等
b) 條件隨機(jī)場(chǎng)及其應(yīng)用
12. 模型的組合(4學(xué)時(shí)):學(xué)會(huì)在已有模型的基礎(chǔ)上構(gòu)造新模型進(jìn)一步改進(jìn)效果。
a) 貝葉斯模型均衡
b) 助推法:指數(shù)錯(cuò)誤的最小化、助推法的錯(cuò)誤函數(shù)
6、c) 基于樹的模型
d) 條件混合模型:線性回歸模型的混合、logistic模型的混合等
主要參考文獻(xiàn)
1. Bishop, C. M. (2006) Pattern Recognition and Machine Learning, Spring Science + Business Media, LLC
2. Mitchell, T. M. (1997) Machine Learning, The McGraw-Hill Companies, Inc.
教學(xué)方式
采用多媒體教學(xué)和傳統(tǒng)教學(xué)相結(jié)合的方式,在理論介紹上做到簡(jiǎn)潔直觀,在實(shí)驗(yàn)展示上做到生動(dòng)活潑。通過理論學(xué)習(xí),學(xué)生將掌握統(tǒng)計(jì)機(jī)器學(xué)習(xí)的經(jīng)典理論,了解當(dāng)前最新的進(jìn)展,并學(xué)會(huì)針對(duì)各自學(xué)科的具體問題建模和設(shè)計(jì)算法。
掌握統(tǒng)計(jì)計(jì)算語(yǔ)言R及各種常用的機(jī)器學(xué)習(xí)工具包,最終實(shí)現(xiàn)算法、完成實(shí)驗(yàn)結(jié)果分析??紤]到統(tǒng)計(jì)機(jī)器學(xué)習(xí)的特點(diǎn),在教學(xué)上始終貫徹理論聯(lián)系實(shí)踐的宗旨,培養(yǎng)學(xué)生的動(dòng)手能力,以解決具體問題為驅(qū)動(dòng),在學(xué)中用、在用中學(xué)。
考試方式
最后成績(jī)的評(píng)定采用:
1. 平時(shí)成績(jī)(作業(yè))30%
2. 期中考試(筆試)30%
3. 期末考試(筆試)40%
2