[ Essay - Technology, Essay - Intuition ] Chat GTP시대의 도래와 생각하는 방식에 대해 : 개발자의 미래에 대해

이미지
벌써 올해도 반쯤 지나 뜨거운 여름이 다가왔다. 굉장히 빠르게 지나간듯한 느낌이 드는데  아마 의미있는 시간을 보냈다는 이야기이기 때문에  그렇게 나쁜 신호는 아닐 것 이다. 괴로운 시간이였다면, 1초가 1년 같이 느껴졌을테니 말이다. 더위에 매우 약한 나에게 있어서는 지옥과 같은 시기이기도 하지만 늘 그렇던 것 처럼 에어컨 덕분에 어찌저찌 버틸 수 있을 것 같다. 어쨋든, 이번에는 저번의 에세이 주제, Chat GTP시대의 도래와 생각하는 방식에 대한 이야기에 이어서  과연 개발자의 미래는 어떻게 될 것인가에 대해 이야기를 나누어보려고 한다. 어쩌면 모두가 인식하고 있듯이 지금 2025년 현재,  꽤나 중요한 시기에 직면하고 있는지도 모른다. 왜냐하면, 생성AI의 발전 속도가 생각보다 빠르게 발전하고 있고,  그에 따라 실제 업무에서도 빠르게 사용되어지고 있기 때문이다. 이러한 상황에서 개발자에게 있어서 가장 두려운 점은  당연히 생성AI에 의해 개발자가 대체될 것 이라는 두려움일 것 이다. 이는 개발자에게만 한정된 이야기는 아니지만 말이다. 아마 필드에서 나와 같이 일하고 있거나  개발자로서 직업을 가지려는 생각이 있는 사람이라면  한번쯤은 생각해볼법한 주제라 생각 한다. 물론 미래가 정확히 어떻게 될 지는 알 수 없으나  이런 생각을 함으로써 몇 가지 힌트는 얻게 될지도 모르니  만약 얻게 된다면 미래에 대한 방향성을 조금이나마 올바른 쪽으로 돌릴 수 있을 것 이다. 이 글을 끝맽을 때는 조금이라도 힌트에 도달하기를 바란다. 과거의 역사 이러한 의문에 대한 해결책으로서 일반적으로 자주 사용하는 방법이 있다. 바로 역사를 보는 것 이다. 물론 이러한 역사를 해결책을 찾는거에 대한 전제조건은  우리가 '구 인류'라는 전제조건이 있었을 때 의미가 있다. 그러니깐 현대인도 기원전 8세기의 고대 로마인도  본질적으로 다르지 않다는 것을 인정해야만 한다. 예컨데...

[ Neural Network, Python, Back Propagation ] Python에서 뉴럴 네트워크는 어떻게 표현되는가? : 역전파의 구현, 테스트(수직, 나선 분포 데이터)

이미지
손실 함수의 구현으로 활성화 함수 계산을 추가한 예측 값이 얼마 만큼의 오류를 가지고 있는 지에 대한 평균 값을 얻을 수 있었다. 그 다음은 역전파를 구현할 차례이다. 이번 포스팅의 코드들은 모듈화 되지 않은  날것에 가까운 코드 이기 때문에 정렬되어 있지 않다. 이 포스팅 다음에 모듈화를 진행할 예정이다. 역전파에 대해  앞서 이야기 했듯이  손실을 구했다면, 당연히 예측 값을 조절해  최대한 손실이 없게 끔 만들어야 한다. 어떻게 해야될까? 가장 일반적인 방법은 가중치를 미세하게 조절하면서 손실 함수가 최소화 될 때 까지 반복하는 것이다.  즉, 상수 값인 기울기(가중치)를 조절하는 것이다. 역전파 프로세스는  활성화 함수에서의 역전파(backward) 단계에서는  순방향 전파에서 계산한 값을 가지고  가중치와 편향을 미세 조절 하기 위한 가중치(gradient)를 결정 한다. 레이어의 역전파(backward) 단계에서 이 가중치를 레이어에서 넘겨 받아 이 값을 가지고 레이어가 가지고 있는 가중치와 편향을 업데이트 한다. 역전파는 말 그대로 역으로 값을 전달하며  진행되기 때문에 연쇄 법칙(Chain Rule)이라고도 한다. 다만 이전 과정에서 구현했던 활성화 함수, 손실 함수를 포함해  레이어의  역전파를 구현해야 하기 때문에  수식에 대한 더 많은 이해와  이전 보다 더 많은 코드 추가가 필요할 것 이다.  그렇기에 구현 하는데 있어서 예상보다 시간이 소모되었기에  역전파의 구현은 활성화 함수는 ReLu, Softmax를 그리고 손실 함수는 범주형 교차 엔트로피(Categorical Cross Entropy,CCE)만을  포스팅 할 예정이다. 차후에 이진 교차 엔트로피와 다른 활성화 함수에 대한  역전파 구현은 차후에 수학적인 내용에 들어갈때 같이 구현하기로 하겠다. 그렇다면 역전파라는 말대로, 반대로 타...

[ Neural Network, Python, Loss Function ] Python에서 뉴럴 네트워크는 어떻게 표현되는가? : 손실 함수의 구현

이미지
이전 포스트에서 손실 함수와 역전파에 대해 왜 필요한지에 대한 솔루션 관점에서 이야기를 해 봤다. 어느 정도 뉴런 네트워크에 대한 이미지가 잡히는듯 하다. 이제 본격적으로 손실 함수와 구현에 대한 이야기를 해보자. 손실 함수의 구현 먼저 손실 함수의 구현을 해보자. 손실 함수를 구현할 수 있다면, 앞서 구현했던 예측 값들이 잘 계산되어졌는지를  이 손실 함수에서 보여줄 것이다. 여기서 구현한 코드가 정말로 잘 구현되었는지는  같은 input으로 구글의 tensorflow의 Keras에서 제공하는 모듈로 이진 교차 엔트로피와 범주형 교차 엔트로피의 결과물과 다른지를 확인해 구현이 올바른지를 증명하려고 한다. 또한 샘플 데이터로 사용하고 있는 실제 확률 분포가 일반적인 행렬로 되어있지 않고, 10진수로 표현되어 있는다. 예컨데, 아래와 같이 분류가 되어 있다고 가정해보자. 1은 고양이, 2는 개, 3은 새, 4는 소와 같이 분류하였다. 이를 ont hot encoding화 하면 아래와 같다. 즉, one hot encoding은 분류를 이진화 하는 것이라 말할 수 있다.   내가 이용하는 데이터는 이 처럼 이진화 되어있지 않아 정확히 수식 그대로 사용할 수 없기 때문에 이 계산하기 위한  convertY_true 클래스를 추가해 one hot encoding 처리를 하는 함수를 추가 했다. 이항 교차 엔트로피의 구현 기존 구현에서 추가된 코드는 아래와 같다. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 class  Loss:      def  BCE_calculate( self , output, y):          #상속 받은 이진 교차 엔트로피를 ...

[ Math, Computer Science, Machine Learning, NN ]교차 엔트로피(Cross Entropy)에 대해 : 뉴런 네트워크와 교차 엔트로피

이미지
이전 포스팅에서 엔트로피와 교차 엔트로피에 대한 이야기를 마무리지었고, 예측된 확률 분포와 실제 확률 분포가 같을 때 교차 엔트로피와 엔트로피의 값이 같아진다는 결론을 내렸다. 그렇다면, 실제로 뉴런 네트워크에서 사용하는 교차 엔트로피와 이전 포스팅에서 이야기했던 엔트로피에 대한 이야기를 해보자. 뉴런 네트워크의 교차 엔트로피 그렇다면 뉴런 네트워크의 교차 엔트로피는 무엇일까? 왜냐하면 이전 포스팅에서 다룬 교차 엔트로피는 엄밀히 말하면 정보통신쪽의 교차 엔트로피이기 때문이다. 물론 결론적으로 교차 엔트로피는  손실 함수에서 사용되고 있기 때문에  따로 논하지 않아도 비슷하다는 것은 추측이 가능하다. 재미있게도 정보 통신의 교차 엔트로피와  뉴런 네트워크의 교차 엔트로피가 차이 점은  일반적으로 로그 밑의 상수가 다르다. 통신은 비트로 이루어지기 때문에 0과1이며 이에 따라  밑 상수가 2가 되지만, 뉴런 네트워크는 일반적으로 그렇지 않다. 뉴런 네트워크에서는 비트를 나타내는 2가 아닌  밑 상수가 오일러 상수인 자연 로그를 사용 한다. 따라서 일반적인 뉴런 네트워크에서의 교차 엔트로피 방정식은  아래와 같은 수식으로 나타낼 수 있을 것이다. 뉴런 네트워크의 교차 엔트로피 방정식 그렇다면, 여기서 더 나아간다면  한 가지 의문점이 들 수 있을 것 이다. 왜 굳이 자연 로그를 사용하는 의문이다. 왜냐하면, 자연 로그를 사용하던, 밑이 2인 로그를 사용하던  계산은 문제 없이 산출 가능하고, 산출된 값이 틀린 것도 아니기 때문이다. 이에 대해 정확한 정보를 찾을 수는 없었기 때문에 확실하지는 않지만 아래와 같은 정보는 찾을 수 있었다. [1]   ① 단위의 차이일 뿐이며,  경우에 따라서 밑 상수가 2인 로그가 빠를 수 있다. (km/h와m/s의 차이 정도) ② 비용이 많이 부분은 교차 엔트로피의 계산이 아니기 때문에 크게 신경 쓸 부분은 아니다. 물론 일반적인 경우에...