[ Essay - Technology, Essay - Intuition ] Chat GTP시대의 도래와 생각하는 방식에 대해 : 개발자의 미래에 대해

이미지
벌써 올해도 반쯤 지나 뜨거운 여름이 다가왔다. 굉장히 빠르게 지나간듯한 느낌이 드는데  아마 의미있는 시간을 보냈다는 이야기이기 때문에  그렇게 나쁜 신호는 아닐 것 이다. 괴로운 시간이였다면, 1초가 1년 같이 느껴졌을테니 말이다. 더위에 매우 약한 나에게 있어서는 지옥과 같은 시기이기도 하지만 늘 그렇던 것 처럼 에어컨 덕분에 어찌저찌 버틸 수 있을 것 같다. 어쨋든, 이번에는 저번의 에세이 주제, Chat GTP시대의 도래와 생각하는 방식에 대한 이야기에 이어서  과연 개발자의 미래는 어떻게 될 것인가에 대해 이야기를 나누어보려고 한다. 어쩌면 모두가 인식하고 있듯이 지금 2025년 현재,  꽤나 중요한 시기에 직면하고 있는지도 모른다. 왜냐하면, 생성AI의 발전 속도가 생각보다 빠르게 발전하고 있고,  그에 따라 실제 업무에서도 빠르게 사용되어지고 있기 때문이다. 이러한 상황에서 개발자에게 있어서 가장 두려운 점은  당연히 생성AI에 의해 개발자가 대체될 것 이라는 두려움일 것 이다. 이는 개발자에게만 한정된 이야기는 아니지만 말이다. 아마 필드에서 나와 같이 일하고 있거나  개발자로서 직업을 가지려는 생각이 있는 사람이라면  한번쯤은 생각해볼법한 주제라 생각 한다. 물론 미래가 정확히 어떻게 될 지는 알 수 없으나  이런 생각을 함으로써 몇 가지 힌트는 얻게 될지도 모르니  만약 얻게 된다면 미래에 대한 방향성을 조금이나마 올바른 쪽으로 돌릴 수 있을 것 이다. 이 글을 끝맽을 때는 조금이라도 힌트에 도달하기를 바란다. 과거의 역사 이러한 의문에 대한 해결책으로서 일반적으로 자주 사용하는 방법이 있다. 바로 역사를 보는 것 이다. 물론 이러한 역사를 해결책을 찾는거에 대한 전제조건은  우리가 '구 인류'라는 전제조건이 있었을 때 의미가 있다. 그러니깐 현대인도 기원전 8세기의 고대 로마인도  본질적으로 다르지 않다는 것을 인정해야만 한다. 예컨데...

[ Neural Network, Python, Active Function ] Python에서 뉴럴 네트워크는 어떻게 표현되는가? : 활성화 함수 구현

이미지
뉴런 네트워크가 다른 기술들과 다르게 훌륭한 점은 매우 수학적으로 잘 정의되어 있기 때문에  명쾌하고 명확하다는 점이다. 물론 이런 기술을 읽기 위해 다소 수학적 지식이 필요하고  뿐만 아니라 이를 이해할 수 있어야만 하지만 말이다. 그렇기 때문에 어쩌면 개발자가 배우기 까다로운 기술일지도 모른다는 생각을 한다. 어쨋든 앞서 순 방향 전파 중 하나를 구현해봤다 이것만으로는 완성된 순방향 전파라고는  하기 힘들다. 이제 활성화 함수 구현에 대한 이야기를 해보자 활성화 함수에 대해 활성화 함수란 계산한 해당 노드를 훈련 데이터로서 사용할 것인지 아닌지에 대한 판단을 해주는 함수이다. 인간으로 비유하자면, 중요한 정보와 덜 중요한 정보를 판단하는 해주는  장치라고 생각하면 편할지도 모른다. 다만, 활성화 함수에 대한 자세한 이야기는  이전에 포스팅했기 때문에 해당 포스트를 참고하기 바란다. ( https://nitro04.blogspot.com/2021/07/toy-project-machine-learning-it-neural.html ) 활성화 함수의 구현 서론에서도 이야기 했듯이  뉴런 네트워크는 다른 기술들과 다르게  수학적으로 잘 정의된 기술이기 때문에 코드가 굉장히 짧다. 이를 잘 나타내주는 것이  바로 활성화 함수라고 나는 생각하고 있다. 놀라울 정도로 간단하기 때문이다. 몇 가지 활성화 함수들을 구현해 보자. ① Sigmoid  가장 간단한 시그모이드 부터 구현해보자. 1 2 3 class  Active_Function:      def  sigmoid( self , inputs):          self .sig_output  =  ( 1 / ( 1   +  np.exp( - inputs))) cs 코드는...

[ Neural Network, Python ] Python에서 뉴런 네트워크는 어떻게 표현되는가? : 최적화와 라이브러리를 이용한 구현, 클래스 구현

이미지
앞선 글에서  가벼운 이론에 대한 설명, 그리고 단층 퍼셉트론(SLP)와 다층 퍼셉트론(MLP)에 대한 설명과 원시적인 코드 작성 까지 이야기를 나누었다. 다음으로 코드를 조금 정리할 필요가 있다. 왜냐하면, 프로그래밍 특성상 같은 데이터를 담을 변수를 일일이 선언하는 것은 나중에 코드를 수정할 때 시간을 잡아먹는 원인이 되기도 하며, 버그를 낳을 수 있는 리스크 또한 증가하게 된다. 따라서 특히 가중치(Weight) 부분은 손을 볼 필요가 있다. 코드 최적화 사실 최적화라고 해봤자  그리 대단한 것은 아니다. 단순히 같은 속성을 가지고 있는 데이터들을  하나의 변수로 묶을 뿐이다. 최적화 할 코드는 이전 포스팅에서 다루었던 다층 퍼셉트론의 예제 코드이다. 해당 코드는 아래와 같다. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 inputs  =  [ 3 ,  1 ,  5. 5 ]   weights11  =  [ 0. 3 ,  0. 4 ,  - 0. 7 ] weights12  =  [ 0. 5 ,  - 0. 33 ,  - 0. 26 ] weights13  =  [ - 0. 26 ,  - 0. 57 ,  0. 57 ] weights14  =  [ 0. 7 ,  - 0. 22 ,  0. 43 ]   weights21  =  [ 0. 5 ,  - 0. 3 ,  - 0. 2 ,  0. 4 ] weights22  =  [ 0. 33 ,  - 0. 33 ,  - 0. 34 ,  0. 2 ]   bias1  =   2   b...

[ Neural Network, Python, Perceptron ] Python에서 뉴런 네트워크는 어떻게 표현되는가? : SLP와 MPL 그리고 코드에 대해

이미지
뉴런 네트워크를 구현하기 앞서서  먼저 Python에서 실제로 어떻게 뉴런 네트워크를 표현하는가에 대해 확인해 볼 필요가 있다. 왜냐하면 내가 이전에 배울 때 사용했던 것은  Octave라는 툴 이지만 이것 자체로는 애플리케이션을 만들 수 없다. 따라서 뉴런 네트워크가 Python에서 어떻게 표현되는지에 대해 먼저 확인하고 넘어가보자. Python에서는 뉴런 네트워크에 대한  훌륭한 라이브러리들이 많다고 하니 기대해봄직하다. 뉴런 네트워크 아키텍처 바로 본론으로 넘어갈 수 있겠지만, 다시 한번 뉴런 네트워크 아키텍처에 대해 언급하고 넘어가보자. 위의 사진은 간단한 뉴런 네트워크 아키텍처를 보여 준다. 각 3개의 입력 레이어의 요소와 4개의 히든 레이어를 통해  2개의 출력 레이어를 산출 한다. 실제 계산들은 히든 레이어에서 계산되며, 히든 레이어의 수에 따라 혹은 내부 요소의 개수에 따라 해당 뉴런 네트워크는 비교적 좀 더 정확한 결과물을 산출해 줄 수 있으나 뉴런 네트워크에서 중요한 이슈 중 하나인  계산 비용이 증가한다는 단점이 있다. 따라서 뉴런 네트워크를 가동할 하드웨어에 따라 적절한 히든 레이어의 개수와 요소의 개수를 결정하는 것이 뉴런 네트워크라는 전체 시스템의 최적화를 결정한다고 말할 수도 있다. (최적화는 활성화 함수에서도 가능하다.) 위의 사진은 히든 레이어 내부의 계산식을 보여 준다. 히든 레이어 내부에서는 입력 레이어의 각 요소들을 매개변수로 삼아  가중치(Weights)를 곱해 값을 더하고, 마지막에 편향(Bias)을 더해 하나의 뉴런을 완성 한다. 편향에 대해서는 이전에 기술 에세이에서 다룬바가 있다. 하지만 여기에 한 가지 더 과정을 거쳐야만 하는데 바로 이 계산한 뉴런 값을 실제 전체 뉴런 네트워크에 ...