Learning Resources for Data Science

方法

Machine Learning 機器學習課程, 李育杰(Lee Yuh-Jye), 資料科學年會系列講座 2017/2/17. [Slides]

應用

製造資料科學:從預測性思維到處方性決策, 李家岩, 資料科學年會系列講座 2017/2/16 [Slides].


Optimization Theory

KKT Optimality Conditions 的說明
使用 Farkas' Lemma 解釋 KKT condition. 

Inequality-constrained optimization - first-order conditions (KKT conditions)(youtube)

Gradient and directional derivative (KhanAcademy)

Farkas' Lemma 的說明

[wiki][L. Vandenberghe @ www.seas.ucla.edu][Farkas Gyula 照片]

Farkas's Lemma in Two Dimensions from the Wolfram Demonstrations Project by Tetsuya Saito

Information Theory

Information Entropy (KhanAcademy) video.
Mutual Information: 度量知道 Y 後, 另一個變數 X 所減少的 Entropy.
I(X;Y) = H(X)-H(X|Y) = H(Y)-H(Y|X)
or H(X) = I(X;Y) + H(X|Y);  H(Y)= I(X;Y) + H(Y|X)
H(X|Y) 為知道 Y 後, X 的 剩下的亂度.

Machine Learning

開發者入門必讀:最值得看的十大機器學習公開課

沒有留言: