Θ0,Θ1의 값을 최소화하기 위한 함수, squred error function 라고도 불림

각 Θ1 가 다른 hypothesis를 도출하므로 y (실제 가격) 와의 차이를 구한다.(m = training set의 갯수)

Ref : https://en.wikipedia.org/wiki/Least_squares


   

다음과 같은 cost function 이 있을 때, J(Θ1) 은 1 / 2m ( 0^2 + 0^2 + 0^2 ) 로 0이 된다. J(Θ1) 값이 0이므로 다음과 같이 표시된다.


  

Θ1값이 0.5 일때는 어떨까? 1 / 2 (m = 3) * ((0.5 - 1)^2 + (1 - 2)^2 + (1.5 - 3)^2) 즉, Θ0,Θ1의 값을 최소화하기 위한 함수이므로 hΘ(x) 와의 거리를 구한다.  hΘ(x) 와의 그래프,  hΘ(x) 가 기울기 1을 가지고 있으므로 당연히 가장 가까운 지점, 즉 J(Θ1) 이 0이 되는 지점은 1이다.

 Θ0,Θ1 두 변수 모두 갖춘 함수에서의 그래프는 우측의 그래프와 같다.


등고선 형태로 나타낸 cost function


'Computer Science > Machine Learning' 카테고리의 다른 글

Linear regression with multiple variables  (0) 2014.01.16
Gradient descent  (0) 2014.01.15
Cost function  (0) 2014.01.01
Linear regression - Model representation  (0) 2014.01.01
Unsupervised learning  (0) 2014.01.01
Machine learning - supervised learning  (0) 2013.12.28

WRITTEN BY
마경욱
C.S, Software, 기타 일상

트랙백  0 , 댓글  0개가 달렸습니다.
secret