Cost Function

이전 장에서 우리는 가설 함수(선형 회귀 모델)에 대해서 알아보았다. 다시 한번 복습하자면 가설 함수는 아래와 같다.

Y = Wx + b

여기서 W 는 Weight, b 는 bias라고 부른다.

가설이라고 부른 함수는 학습 데이터를 잘 반영하고 있어야 좋은 가설이 된다. 1장에서 살펴본 예제에서는 W = 1, b = 0인 가설함수가 가장 이상적인 값을 가지고 있게 된다. 이렇게 컴퓨터에게 좋은 가설 함수의 W,b 값을 찾도록 시킬려면 어떤 W,b 값이 더 좋은 값인지 판단할 근거를 제공해야 한다.

이때 가장 많이 사용하는 판단 근거는 최소 자승법이 사용된다. 알고리즘은 간단하다. 우리가 가설 함수로 계산한 예측 값과 실제 해당 결과값의 차이에 제곱을 한다. 그 다음에 그 차이를 전부 더해서 평균을 내는 것이다.

위 그림처럼 가설 함수에 의해서 그려진 직선이 보인다. 그 직선에 있는 점들이 바로 가설 함수가 예측한 값들이다. 그리고 동일한 x축에 있는 파란 점들이 실제 값이다. 이 두 점간의 거리에 제곱을 해서 전부 더한다음 평균을 내면 최종적으로 우리는 우리가 설정한 W,b 값에 대한 비용이 얼마나 발생했는지를 알 수 있게 된다. 단연한 이야기겠지만 비용이 적으면 적을수록 예측한 값과 실제 값의 차이가 적다는 이야기이며 우리가 설정한 W,b 값이 더 예측을 잘 하고 있다는 이야기가 된다.

이렇게 살펴본 최소 자승법이라는 알고리즘이 바로 Cost Functon 이라고 부른다. 우리가 세운 가설의 비용을 계산해주는 함수라는 의미이다. 많은 머신 러닝 자료에서는 Loss Function이라고도 부르는데 똑같은 말이다.

Cost Function에는 최소 자승법 말고도 다양한 비용 계산 함수들이 존재한다. 선형 회귀에서는 최소 자승법이 가장 많이 사용된다. 다음 장에서는 컴퓨터가 Cost Function을 판단 근거로 가장 비용이 적은 W,b를 찾아가는 방법에 대해서 살펴보도록 하겠다.


자료조사

results matching ""

    No results matching ""