[ 프로젝트 BEP ] 최종장 - 엔지니어로서의 마인드셋에 대해 : 우수한 엔지니어는 누구이고, 가져야할 마인드 셋에 대해

이미지
  들어가면서 이제 2025년도 얼마 남지 않은듯 하다.  조금 길어질 수도 있기 때문에  실제로 업로드 하는 것은 새해 이후가 될 가능성도 있으나  올해는 이 글로 마무리 해보려고 한다. 이제 이 최종장을 끝으로 이 프로젝트를 다소 마무리 할 수 있을 것 같다. 물론 전체적으로 글 자체가 부족한 부분이 여려 곳 보이지만,  이는 천천히 개선하기로 하고 일단 마무리를 잘 지어보려고 한다. 이 프로젝트의 목표는 어디까지나 주니어 엔지니어(넓은 범위로서)에게  도움이 될 수 있는 부분을 정리해 놓은 것 이며, 이를 전달하는 것에 주력을 했다. 정확히는 그 사이에 몇 번이나 직장은 바뀌었지만,  내가 다니고 있는 회사에서 작게는 멘터,  크게는 주니어 교육에 활용하기 위한 초안이였다. 들어가기 앞서서 먼저 개발자는 무엇인가에서 부터 시작해서,  수학은 필요한가, 그리고 학위에 대한 이야기를 나누어보았고, 그 다음으로 컴퓨터가 무엇인가에 대해서는,  가장 첫 장인 컴퓨터 개론에서 메모리 손실과 함께 설명하였다. 다음으로는 개발 방법론과 시스템 설계,  그리고 프로그래밍 언어에 대한 이야기로 간단하고 이론적인 이야기를 하였다. 눈치가 빠른 사람은 알 수 있듯이,  현실에서 가질 수 있는 몇 가지 의문으로 시작해서  컴퓨터라는 하드웨어 부터 시작해서,  프로젝트(개발 방법론), 설계, 프로그래밍 언어 순으로  일부러 점점 컴퓨터 세계로 들어가도록 구성을 해 놓았다. 여기서 한 걸음 더 나아가자면, 알고리즘이 들어갈 수는 있겠으나  어디까지나 가볍게 전달하는대에 목적이 있기도 하고,  개인적으로는 당장은 크게 중요하지 않은 부분이 라고 생각 했기 때문이다. 먼저 이 부분에 대해서 좀 더 자세히 이야기해보도록 하자. 시작 부터 모든 지식을 쌓을 수는 없다 이는 개발 영역에서만 해당되는 이야기는 아니지만,  모든 것에는...

[ Machine Learning by Andrew Ng ] Hypothesis Function and Cost Function(머신 러닝 - 가설 함수와 비용 함수)



Hypothesis Function and
Cost Function(가설 함수와 비용 함수)



데이터들의 집합인 가설 함수(Hypothesis Function)와 해당 데이터들의 값과 
가장 오차가 적은 즉, 최소값인 θ0, θ1를 구하는 것이 비용 함수(Cost Function)이다.

비용 함수를 이용하는 이유는 수 많은 데이터들을 분류할 기준이 필요하게 되는데,
그 기준에 해당하는 선을 구해야 한다. 

하지만 머신 러닝의 훈련 예제로 들어가는 데이터들이 많다.
따라서, 이 많은 데이터들을 고려했을 때의 가장 근접한 값을 구해야 한다.

이 근접한 값이 비용 함수(Cost Function) θ0, θ1이다.



따라서
가설함수의 매개변수에 해당하는 θ0, θ1 결정해야 하는데,
비용 함수(Cost Function)의 요소 θ0θ1 구해 =θ0+θ1x 그래프를 정하면 된다.

위의 그림과 같이 θ0, θ1값에 따라 그래프가 달라지기 때문에 
데이터들과 가장 근접하도록 θ0, θ1 결정해야 한다.

따라서 위에서 여러번 언급했듯이 θ0, θ1를 결정해야 한다.

단순히 오차를 구하게 되면 음수 값이 나올 수 있기 때문에 
그 값을 제곱 해 준 값을 비용 함수(Cost Function)로 한다.

비용 함수를 이용하는 이유를 다시한번 정리해보자면, 
분류를 하기 위해 선을 그어야 하는데, 선을 어디다 그어야 할지 정할 수 없다. 

따라서 데이터 집합들과 거리의 오차가 가장 적은 선을 구해야 하는데, 
이 선의 매개변수인 θ0(y절편), θ1(x절편)를 구하기 위해 사용한다.

이렇게 구한 값들을 이용해 
최종적으로 위의 그림의 가설 함수(Hypothesis Function)를 완성하면 된다.

그럼 이제 예를 들어 좀 더 쉽게 이해해보자.

가설 함수(Hypothesis Function) h를 θ0=0인 경우로 단순화시킨 hθ(x)=θ1x 의 
비용 함수(Cost Function) J(θ1), J(θ1) 에 대해 먼저 알아보자. 

예를 들어, (1,1),(2,2),(3,3)의 데이터 집합(Training Set)을 가지고
일 때의 비용 함수를 구해본다고 가정해보자.

그렇게 된다면 각 가설 함수(Hypothesis Function)의 값은 
아래의 그림과 같이 표현될 것 이다.


이 중 2번 째 가설 함수로 비용 함수를 구해본다면 아래의 그림과 같은 과정으로
비용 함수를 구할 수 있다.

동일 하게 나머지 비용 함수를 구해보면 θ0=0이고 θ1=1 일 때,
비용 함수(Cost Function)의 최소 값이 나온다.

추가적으로 많은 데이터 집합(Training Set)을
입력한다면 아래와 같은 그래프가 나온다.

위의 예보다 조금 더 복잡한 예를 살펴 보자. 

이번에는 θ0,θ1이 존재하는 경우를 
즉, 원래의 예시인 집의 크기와 가격이 주어진 상황이다.

θ0=50,  θ1=0.06 인 경우는 가설함수 h가 아래의 왼쪽의 그림과 같이 그려지며,
J(θ0,θ1) 의 값은 왼쪽의 초록색 선들을 통해 구한 것 처럼 
가설 함수와 모든 데이터 집합에 대한 길이 차이의 제곱을 합한 평균이 된다. 

이러한 비용함수(Cost Function)을 일반화시켜 표현하면  
θ0, θ1, J(θ0,θ1) 총 3가지를 표현해야 하므로,
아래의 그림에서 오른쪽과 같은 3차원의 그림이 된다.


그리고 이 3차원의 그림을 간단하게 바꾼다면 아래와 같은 등고선 그래프가 된다.

이 등고선 그래프는 아래와 같은 특징을 가진다.

・최소값을 갖는 θ0,θ1 는 가장 작은 타원의 중심좌표이다.
・같은 색의 곡선은 같은 J(θ0,θ1) 값을 갖는다. 

즉, 가장 안쪽의 값(min)이 우리가 찾고자 하는 최적의 비용 함수 이다.

위의 등고선 그래프에서 적당히 하나 골라 
가설 함수 h를 이 등고선 그래프와 비교해 최적의 비용 함수인지 확인해보자,


적당히 고른 J(θ0,θ1) 는 오른쪽 그래프의 빨간색 선과 같고, 
그에 해당하는 가설 함수는 위의 왼쪽 그래프와 같다.

한눈에 봐도 많은 데이터들과 만나는 선이 아닌 것을 확인 할 수 있다.

그렇다면 이번에는 가장 최적의 비용 함수의 그래프의 경우를 보자.





위의 그림은 등고선 그래프의 가장 안쪽에 있는 최적의 J(θ0,θ1) 를 고른 것이다.

오른쪽의 그래프의 빨간선이 최적의 비용 함수 J(θ0,θ1) 이고, 
왼쪽 그래프는 그의 가설 함수 h이다. 

한눈에 봐도 전의 예와 비교해보자면,
많은 데이터들이 인접해 있는 것을 확인 할 수 있다.

따라서 데이터 집합(Training Set)이 주어진다면,
데이터를 분류할 선인 가설 함수 h가 필요하다. 

우리는 이 가설 함수가 최적의 값이 되도록 J(θ0,θ1) 를 찾으면 된다.

이 블로그의 인기 게시물

[ Web ] 웹 애플리케이션 아키텍처 (Web Application Architecture)

[ Web ] 서버 사이드(Sever Side) ? 클라이언트 사이드(Client Side)? 1 [서론, 클라이언트 사이드(Client Side)]

[ Web ] 웹 애플리케이션 서버 아키텍처의 정의 및 유형 ( Define and Types of Web Application Server Architecture )