[ Essay - Technology ] 바이브 코딩의 허와 실

이미지
지금 우리는 가히 AI 시대라는 패러다임의 전환에 시대에 살고 있다고 해도 과언이 아니다. 특히, IT 업계에서 대다수의 작업량을 차지하는 프로그래밍의 영역에서 생성 AI를 이용한 생산성 향상의 가능성이 보이면서 어느 분야보다 가장 빠르게 괄목적인 성과를 이루고 있는듯 하다. 고작 몇 년전에는 커서에 의해 프로그래밍을 AI에게 프로그래밍을 위임하는 것이 더 나을 수 있다는 것이 어느정도 증명되면서, 작년에는 Claude Code의 영향으로 인해 이러한 이슈가 좀 더 가속화되지 않았나 싶다. 이러한 굉장히 빠르게 이루어지고 있는 생성형 AI 솔루션의 발달은 개발자의 종말론을 더더욱 부각시키면서 업계 전반이 큰 변화를 겪고 있는 것으로 보인다. 특히 이러한 변화 속에서 “프로그래밍을 몰라도 생성형 AI만 있으면 제품을 만들 수 있다”는  주장도 자연스럽게 힘을 얻고 있다. 최근에는 Saas 솔루션은 종말할 것이라는 다소 파격적인 이야기도 들리는 것으로 보면 소프트웨어 업계가 큰 격변의 시기가 온것임에는 틀림 없어 보인다. 허(虛): 빠르게 만들 수 있다는 환상 이런 상황에서 가장 주목받는 주장들은 서론에서 언급했다시피 ‘프로그래밍을 알지 못한다고 하더라도  생성형AI를 이용하면 빠르게 제품을 개발이 가능하다’라는 주장이고, 실제로 이는 어느 정도 타당성이 있어 보인다. 정말로 움직이는 결과물을 단 몇초 만에 보여주기 때문이다. 하지만, 이러한 ‘빠르게 제품 개발 가능하다’는 주장의 가장 큰 맹점이 있는데 개발자의 존재 이유가 단순한 제품이나 기능개발에 있지 않다는 점이다. 만약, AI를 통해 그럴듯 한 솔루션을 만들었다고 치자. 이것에 얼마만큼의 비지니스성과 지속가능성이 있을까? 예컨대 AI에게 넷플릭스나 트위터, 인스타그램과 같은 페이지를 만들어달라고 요청한다면, 아마 실제로 그럴듯 하게 만들어 줄 것 이다. 이러한 인기 서비스들은 토이 프로젝트로 다루기 쉽고, 하나의 트렌드로 자리 잡아 관련 자료를 찾기도 어렵지 않다. 코드 또한 깃허브에 충분...

[ Neural Network, Python, Loss Function, Back Propagation ] Python에서 뉴럴 네트워크는 어떻게 표현되는가? : 손실 함수와 역전파에 대해

이미지
다음으로 손실 함수와  역전파 알고리즘에 대해 이야기를 나누어보자. 이전 포스트에서 이야기한바와 같이  손실 함수는 비용 함수는 사실상 같은 의미로 사용되어지고 있다. 나는 처음에 비용 함수를 선호했으나, 한국어에서는 손실 함수 쪽이 좀 더 의미가 정확하게 전달되기 때문에  이 후 비용 함수를 손실 함수 쪽으로 부르기로 하겠다. 이런 예측한 순전파에 대한 오류률을 나타내는  손실 함수 그리고 역전파까지 구현까지 가능하다면, 이제 기본적인 뉴런 네트워크 아키텍처를 구축했다고 볼 수 있을 것이다. 순(방향)전파를 진행해 예측 값을 얻어내고  손실 함수와 역전파를 이용해 오류률이 최소화된  값으로 각 노드를 최적화 해준다면  더 높은 정확도를 가지게 될 것이며 이로서 정말로 우리가 알고 싶은 판단을  머신 러닝이라는 의미대로 0과 1로 이루어진 기계가 내려주게 될 것이다. 이런 과정을 통해 최종적으로는  이 사진이 고양이인지 사람인지 등의 판단이 가능해지는 것 이다. 다만, 여기서 이야기하고 다루고자하는 내용은  자세한 수학적인 내용까지는 하지 않고, 이 솔루션이 왜 필요하게 되었는지를 중심으로 이야기할 것 이다. 수학적인 내용 과거 나의  Machine Learning by Andrew Ng 라벨을  의 포스트들을 참고하거나 나의 포스트 보다 훌륭한  다른 사람들이 작성한 포스트를 참고하기를 바란다.   그렇다면 이제 본격적으로 이야기를 시작해보자. 순전파를 통해 예측값을 구했지만.. 앞서 우리는 입력 데이터로 예측 값을 구하고,  여기에 활성화 함수까지 더해  순전파를 통해 최적화된 값을 구할 수 있었다. 하지만,  이 값이 정말로 잘 계산된 값이라고 할 수 있을까? 이를 검증하지 않는다면, 그리고 이 검증 값을 기반으로 개선이 이루어지지 않는다면 이 뉴런 네트워크라는 것은 결국  신뢰성이 떨어질...

[ Neural Network, Python, Active Function ] Python에서 뉴럴 네트워크는 어떻게 표현되는가? : 활성화 함수 구현

이미지
뉴런 네트워크가 다른 기술들과 다르게 훌륭한 점은 매우 수학적으로 잘 정의되어 있기 때문에  명쾌하고 명확하다는 점이다. 물론 이런 기술을 읽기 위해 다소 수학적 지식이 필요하고  뿐만 아니라 이를 이해할 수 있어야만 하지만 말이다. 그렇기 때문에 어쩌면 개발자가 배우기 까다로운 기술일지도 모른다는 생각을 한다. 어쨋든 앞서 순 방향 전파 중 하나를 구현해봤다 이것만으로는 완성된 순방향 전파라고는  하기 힘들다. 이제 활성화 함수 구현에 대한 이야기를 해보자 활성화 함수에 대해 활성화 함수란 계산한 해당 노드를 훈련 데이터로서 사용할 것인지 아닌지에 대한 판단을 해주는 함수이다. 인간으로 비유하자면, 중요한 정보와 덜 중요한 정보를 판단하는 해주는  장치라고 생각하면 편할지도 모른다. 다만, 활성화 함수에 대한 자세한 이야기는  이전에 포스팅했기 때문에 해당 포스트를 참고하기 바란다. ( https://nitro04.blogspot.com/2021/07/toy-project-machine-learning-it-neural.html ) 활성화 함수의 구현 서론에서도 이야기 했듯이  뉴런 네트워크는 다른 기술들과 다르게  수학적으로 잘 정의된 기술이기 때문에 코드가 굉장히 짧다. 이를 잘 나타내주는 것이  바로 활성화 함수라고 나는 생각하고 있다. 놀라울 정도로 간단하기 때문이다. 몇 가지 활성화 함수들을 구현해 보자. ① Sigmoid  가장 간단한 시그모이드 부터 구현해보자. 1 2 3 class  Active_Function:      def  sigmoid( self , inputs):          self .sig_output  =  ( 1 / ( 1   +  np.exp( - inputs))) cs 코드는...

[ Neural Network, Python ] Python에서 뉴런 네트워크는 어떻게 표현되는가? : 최적화와 라이브러리를 이용한 구현, 클래스 구현

이미지
앞선 글에서  가벼운 이론에 대한 설명, 그리고 단층 퍼셉트론(SLP)와 다층 퍼셉트론(MLP)에 대한 설명과 원시적인 코드 작성 까지 이야기를 나누었다. 다음으로 코드를 조금 정리할 필요가 있다. 왜냐하면, 프로그래밍 특성상 같은 데이터를 담을 변수를 일일이 선언하는 것은 나중에 코드를 수정할 때 시간을 잡아먹는 원인이 되기도 하며, 버그를 낳을 수 있는 리스크 또한 증가하게 된다. 따라서 특히 가중치(Weight) 부분은 손을 볼 필요가 있다. 코드 최적화 사실 최적화라고 해봤자  그리 대단한 것은 아니다. 단순히 같은 속성을 가지고 있는 데이터들을  하나의 변수로 묶을 뿐이다. 최적화 할 코드는 이전 포스팅에서 다루었던 다층 퍼셉트론의 예제 코드이다. 해당 코드는 아래와 같다. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 inputs  =  [ 3 ,  1 ,  5. 5 ]   weights11  =  [ 0. 3 ,  0. 4 ,  - 0. 7 ] weights12  =  [ 0. 5 ,  - 0. 33 ,  - 0. 26 ] weights13  =  [ - 0. 26 ,  - 0. 57 ,  0. 57 ] weights14  =  [ 0. 7 ,  - 0. 22 ,  0. 43 ]   weights21  =  [ 0. 5 ,  - 0. 3 ,  - 0. 2 ,  0. 4 ] weights22  =  [ 0. 33 ,  - 0. 33 ,  - 0. 34 ,  0. 2 ]   bias1  =   2   b...