ロジスティク回帰

  • 2クラス(+1, -1)に対して確率値を出す
    • $P(y| {\bold x}) = \sigma (y {{\bold w}}^T {{\bold x}})$
    • $y=+1$: $\sigma$
    • $y=-1$: $1- \sigma$
  • 標準シグモイド関数:
    • $\sigma(x) = \frac{1}{1+\exp(-x)}$
    • $\sigma: (-\infty, \infty) \to (0, 1)$
    • $\sigma(0) = -0.5$

目的関数

  • 全てのデータ$t=1, \ldots, N $に対して,以下の関数(尤度関数)の最大化が目的
    • $ \prod_t P(y^{(t)} | {\bold x^{(t)}}) = \prod \sigma (y^{(t)} {\bold w}^T {\bold x^{(t)}}) = \frac{1}{ 1+ \exp( -y^{(t)} {\bold w}^T {\bold x^{(t)}}) } $
  • 尤度関数の対数をとり,$-1$をかけて,これの最小化を行う
    • $ - \log \left( \prod_t P(y^{(t)} | {\bold x^{(t)}}) \right) = - \sum \log \left( \frac{1}{ 1+ \exp( -y^{(t)} {\bold w}^T {\bold x^{(t)}}) } \right) $
  • 実用には,適当な正規化項を足したものを,目的関数としたほうが良い
    • $ L( {\bold w } ) = - \sum \log \left( \frac{1}{ 1+ \exp( -y^{(t)} {\bold w}^T {\bold x^{(t)}}) } \right) + C || {\bold w} ||^2 $