$$

\text{minimize}_x f(x), \ \ \

\text{subject to } x\in\mathcal{X} $$

no free lunch theorem” by Wolpert, Marcready

가능한 목적함수의 공간에 대한 확률 분포를 가정하지 않으면 어떤 알고리즘을 다른 알고리즘보다 더 선호할 이유가 없다.

Local minima

조건

  1. $f^\prime(x^*)=0$ (=stationary point) → 미분 = gradient
  2. $f^{\prime\prime}(x^*)>0$ → Hessian Matrix

요약