方法
Machine Learning 機器學習課程, 李育杰(Lee Yuh-Jye), 資料科學年會系列講座 2017/2/17. [Slides]應用
製造資料科學:從預測性思維到處方性決策, 李家岩, 資料科學年會系列講座 2017/2/16 [Slides].Optimization Theory
KKT Optimality Conditions 的說明使用 Farkas' Lemma 解釋 KKT condition.
Inequality-constrained optimization - first-order conditions (KKT conditions)(youtube)
Gradient and directional derivative (KhanAcademy)
Farkas' Lemma 的說明
[wiki][L. Vandenberghe @ www.seas.ucla.edu][Farkas Gyula 照片]Farkas's Lemma in Two Dimensions from the Wolfram Demonstrations Project by Tetsuya Saito
Information Theory
Information Entropy (KhanAcademy) video.Mutual Information: 度量知道 Y 後, 另一個變數 X 所減少的 Entropy.
I(X;Y) = H(X)-H(X|Y) = H(Y)-H(Y|X)
or H(X) = I(X;Y) + H(X|Y); H(Y)= I(X;Y) + H(Y|X)
H(X|Y) 為知道 Y 後, X 的 剩下的亂度.
沒有留言:
張貼留言