원문링크 주소: http://kr.deductiontheory.com/2017/01/blog-post.html
피지알 게시판 특성 때문에 본문이 중간에 짤려요. 전체 글을 보고 싶으신 분은 링크를 타고 들어가서 보는 것을 추천해 드릴게요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">이 글과 연결된 과거 글은 여기에 있어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">이기준 이기환의 딥러닝 연구 - 연역론 블로그
7999999999999998;margin-top:0pt;margin-bottom:0pt;">딥러닝과 논리학 연구 - 오늘의 유머
7999999999999998;margin-top:0pt;margin-bottom:0pt;">이 글은 오늘의 유머 과학 게시판에도 업로드 되었어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">안녕하세요. 이기준입니다. 제가 어제 오유 과학게시판에 쓴 글이 베오베를 갔어요. 그것도 글 쓴지 세 시간 밖에 되지 않아서요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">제가 베오베 갈 것을 기대하지는 않았거든요. 그런데 베오베를 가고 나니 다른 분들의 댓글 중에 "아, 궁금해서 읽어보았는데 어렵다."하는 댓글이 눈에 들어오더군요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;text-align:center;">
7999999999999998;margin-top:0pt;margin-bottom:0pt;">
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그걸 보니 마음이 아프더라구요. 그래서 "이걸 좀 더 쉬운 유머처럼 써보면 어떨까?"하는 생각을 하게 되었습니다. 물론 제가 그렇게 하려고 노력을 하더라도 안될 수도 있지만요. 그래도 시도를 해보기로 마음을 먹었어요. 그게 저에게 친절하게 해준 사람들에게 보답을 하는 방법이라는 느낌이 들었기 때문에요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그래서 수학 포기한 사람도 이해할 수 있고, 전공자 아닌 사람도 이해할 수 있는 이야기를 한 개 구상해 보게 되었습니다.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">먼제 이 글을 읽기 전에 제가 말씀드릴 것이 있어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">이 글은 저의 개인적인 주장이 들어가 있어요. 저의 개인적인 주장이 뭐냐면 과학계에서 "그래, 너 인정!"하는 객관적인 인증을 받은 주장이 아니라는 말이에요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">이 글의 본 게시물이었던 딥러닝과 논리학 연구 글은 과학계에서 인정받는 객관적인 정보성 글이 아니에요. 이 글은 제가 제 동생 이기환님과 연구를 한 과정을 정리한 주관적인 정리입니다. 제가 지금 쓰는 이 글도 본 게시물을 풀이한 내용이기 때문에 똑같이 주관적인 정리에요. 저는 이런 부분을 처음부터 정직하게 밝혔어요. 속인 적 없습니다.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">지금 딥러닝 분야가 어떤 상태냐면 알파고 같은 놀라운 결과물이 거의 매 달마다 한 개씩 새롭게 나오고 있는데 아무도 그게 왜 그런지, 어떻게 해서 그런지 완벽하게 알아내서 규명을 못하고 있어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;text-align:center;">
7999999999999998;margin-top:0pt;margin-bottom:0pt;">딥러닝 관련해서 외국 학자, 외국인 개발자들의 블로그와 칼럼을 읽어보면 위의 그림 같은 딜레마가 계속 반복해서 나와요. "00을 조정했더니 긍정적인 효과가 나왔다. 의미 있는 효과가 발생했다. 그러나 왜 그런 것인지, 어떤 원리로 그렇게 되는 것인지는 알 수가 없다." 논문에서도 이런 표현이 반복해서 나와요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그래서 연구자들 사이에서는 "딥러닝 진리교"라는 우스개 소리도 있어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">동료 포닥이여, 딥러닝 진리교는 네 가지 단계로 이루어지네. 포닥은 포스트 닥터(박사 후 연구자 과정)
7999999999999998;margin-top:0pt;margin-bottom:0pt;">첫째, 불신하는 단계이네. 이 불신은 주로 재래식 머신러닝을 오래 연구한 사람일 수록 심하다네.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">둘째, 의심하는 단계이네. 딥러닝이 주는 엄청난 결과에 놀라면서도 그 원인을 파악할 수 없어 의심하고 방황한다네.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">셋째, 받아들이는 단계이네. 모든 것을 체념하고 데이타셋을 돌리면서 딥러닝이 주는 기적같은 결과에 기뻐하고 감사하는 단계이네.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">넷째, 딥러닝으로 영생을 얻고 다시 태어나는 단계이네. 과거의 머신러닝을 버리고 딥러닝으로 세례를 받고 새 사람이 되는 것이라네.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">혹시 다른 머신러닝을 전공하신 분이 이 글을 읽고 있다면.. (살려주세요..) 위의 농담은 농담일 뿐, 너무 진지하게 받아들이지 마세요. 제가 만들어 낸 농담이 아니에요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">여튼 이게 업계의 현 상황이구요.이 문제가 배우는 사람들에게도 똑같이 적용되고 있어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">논문 참조하고 그대로 딥러닝 프로그램을 돌려서 재현 결과가 나오긴 나오는데 왜 나오는지는 잘 모르겠고 그래서 헤메는 부분이 있어요. 이게 딥러닝 연구자들의 주요 고충 중에 하나에요. 왜 이게 되는지, 어떻게 되는지는 모르면서 최신 논문이 나오면 계속 재현 실험 해보고 그걸 토대로 옵션을 바꾸어서 결과를 더 나아지게 하는 걸 반복하고 있거든요. 그런 과정에서 알파고, 왓슨 같은 놀라운 결과물이 계속 나오고 있는 것이구요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그래서 연구자들 중에는 이러다 과학이 망하겠다 하는 걱정을 하는 분도 있습니다. 왜냐하면 과학이라는게 과정을 증명하지 못하고 결과만 보여주면 안되거든요. 그러면 원리를 아는 게 아니니까 연구를 믿을 수가 없잖아요. 이론을 이해하고 증명하지 못하면 과학자들이 필요 없어질 수도 있구요. 과학자 대량 실직 사태?! 아.. 앙대..
7999999999999998;margin-top:0pt;margin-bottom:0pt;">거기다가 알파고, 왓슨 등이 놀라운 성과를 내면서 4차 산업혁명이다, 인공지능이 사람 일자리를 다 뺏을 거다 하는 전망이 나오잖아요. 그래서 불안해 하시는 분들이 있어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그러나 과학이 망하지는 않겠지요. 제 생각에는 예전에 양자역학 처음 개발되었을 때 동시성, 다차원성 때문에 과학자들이 패러다임을 받아들이는데 힘들었던 것과 비슷한 맥락이라고 봅니다. 시간이 지나면 과학자들의 패러다임, 즉 세계관이 딥러닝을 이해할 수 있는 방식으로 바뀌게 될 거라고 생각해요. 그러니 우리는 지구멸망 같은 걱정은 하지 말도록 합시다.
7999999999999998;margin-top:0pt;margin-bottom:0pt;text-align:center;">
7999999999999998;margin-top:0pt;margin-bottom:0pt;">위의 그림같은 일은 일어나지 않을 것임.
어? 그러면 이기준님과 이기환님은 뭘 아는 거임?7999999999999998;margin-top:0pt;margin-bottom:0pt;">"어? 과학자들이 전부 잘 모른다면서요? 그러면 이기준님은 뭘 아는 거임?" 이런 질문이 나올 수 있겠네요.
그래서 제가 처음 말한 것이 제 개인적인 주장이 들어가 있다는 말이었어요. 그러나 제가 아무것도 모르면서 구라를 하는 것은 아니에요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">저는 딥러닝 공부를 하려고 싱글 퍼센트론과 다중 퍼셉트론 소스를 C++에서 줄리아로 포팅했어요. 포팅이라는 것은 뭐냐면 영어로 된 코드를 중국어로 번역을 한 거랑 같은 거에요. 그러려면 영어도 중국어도 다 이해해야 하죠.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">포팅해서 제대로 동작하면 제가 C++ 소스도 제대로 이해했고, 줄리아 코딩도 제대로 했다는 것을 의미해요. 그리고 줄리아 포팅한 소스에 주석도 달았어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">주석이라는게 뭐냐면 코드 밑에 이 코드는 이러이렇게 동작한다 하고 설명을 달아 놓는 것이에요. 저는 주석을 코드 한 줄 한 줄 다 달았어요. 이게 무슨 말이냐면 제가 대충대충 흉내만 내서 포팅한 것이 아니라 코드 한 줄 한 줄 다 이해했고 설명이 가능하다는 거죠.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">이렇게 잘 쓰여진 소스 한 개를 분석해서 주석을 달면서 다른 언어로 포팅을 하는 연습을 하면 프로그램 실력이 팍팍 늘어요. 앞으로 소프트웨어 분야에서 일하고 싶으신 분들은 명심하시길 바래요. 이런걸 이종포팅, 이종학습이라고 불러요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">이런걸 다른 사람들은 안 하냐구요? 다른 사람들이 안 하는 것은 아닌데요. 저처럼 하는 사람이 적어요. 아예 없는 것은 아닌데 드물다는 거죠.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">제가 연구했던 방식을 비유를 해서 설명하면요. 스타크래프트가 있어요. 그런데 대부분의 사람들은 스타의 유저 맵 생성기를 이용해서 새로운 맵을 만들고 유즈맵 게임을 만들고 그랬어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그런데 저는 블리자드에서 공개한 오픈소스 스타프래프트 C++ 소스를 보기만 하고 저 스스로 줄리아라는 새로운 언어로 스타크래프트 복제본을 코드로 쳐서 바닥부터 만들어 본 거에요. 그게 바로 포팅이에요. 그렇게 포팅을 하면서 스타크래프트 소스의 코드 한 줄 한 줄 내용을 분석하고 그 의미에 대해서 주석을 달아 본 것이에요. 그러면 그 프로그램이 어떻게 만들어졌는지 잘알 수 있겠죠.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">제가 자랑을 하려고 한 것은 아니고요. 당연히 유저 맵 생성기 써서 맵 만들고 유즈맵 만든 것도 의미가 있죠. 훌륭한 결과물도 거기서 많이 나오구요. 절대로 무시하는 것이 아닙니다.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">딥러닝 업계에서 유저 맵 생성기 역할을 하는 프로그램이 있어요. 이것을 프레임워크라고 해요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;text-align:center;">
7999999999999998;margin-top:0pt;margin-bottom:0pt;">위의 그림에 나온 것들이 프레임워크에요. 대부분의 연구자들은 이런 프레임워크를 이용해서 여기에 데이터셋이라는 것을 넣어서 돌린 다음 결과물을 얻어요. 왜 그렇게 하냐면 연구 시간이 단축되거든요. 작업하기가 수월해요. 대신 속에서 뭐가 어떻게 돌아가는지는 잘 모르게 되죠. 그렇게 장단점이 있어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">저와 제 동생 이기환님이 프레임워크로 실험하는 것도 해보았는데요. 그 안에서 일어나는 깊은 원리를 이해하고 싶어서 자기 스스로 이종 언어로 포팅하기를 해본 것이에요. 그러면 프로그래밍 실력이 확 올라가거든요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;text-align:center;">
7999999999999998;margin-top:0pt;margin-bottom:0pt;">위의 짤방은 웃자고 만들어 본 것일 뿐, 이종포팅과 주석달기 외에도 프로그래밍을 배울 수 있는 방법은 많아요. 제 입장에서는 여러가지 해본 결과 이종포팅을 하고 코드를 한 줄 한 줄 해석해서 주석다는 것이 상대적으로 최선이라고 생각한다는 거에요. 그러니 웃자고 만든 짤방을 보고 죽자사자 덤벼드시면 안되요...
7999999999999998;margin-top:0pt;margin-bottom:0pt;">자 그래서 제가 분석한 소스를 기준으로 딥러닝이 어떻게 돌아가는지 어느 정도 안다고 주장을 할 수 있는 것입니다. 우리가 이종포팅한 링크를 오픈소스 사이트인 깃허브에 올렸었구요. 깃허브 링크
7999999999999998;margin-top:0pt;margin-bottom:0pt;">과학 계열에서는 이런 것을 중요하게 생각하거든요. 그 사람이 말하는 것에 근거가 뭔지, 해 보고 말하는 건지 안 해보고 그냥 상상으로 추측만 하는건지 말이에요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">만약 제가 이종포팅 경험 없이 그냥 "카더라..", "그럴 것 같지 않음?"같은 식으로 글을 쓰면 아마 연구가 의미가 없을 거에요. 상상을 구현해서 검증해 볼 수가 없으니까요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">저는 오유에만 글을 올린 것이 아니라 딥러닝 연구자 그룹에 이 글을 먼저 올렸었어요. 원래 거기만 올리려고 한 것인데 제가 예전부터 오유에 글을 올려왔어서 한 번 과학 게시판에 올려 본 것이었어요. 그러다가 얼떨결에 베오베까지 가게 된 것이었구요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">여튼 저는 딥러닝 이종포팅 경험이 생겼어요. 그런데 저도 딥러닝이 왜 그렇게 돌아가는지, 어떻게 해서 그런 것인지 완벽하게는 모릅니다. 그래서 저는 딥러닝의 정보처리를 풀이할 가설을 세워 보았어요. 그 가설에 사용된 근거가 바로 제가 연구하던 연역론이에요.
읭? 연역론?7999999999999998;margin-top:0pt;margin-bottom:0pt;">저는 연역론이라는 이 가설 이론을 오랫동안 연구했어요. 이 글을 읽으시는 분들은 연역론이라는 이름에는 크게 신경 쓸 필요 없어요. 제가 지은 이름이니까요. 왜 이름을 따로 새롭게 지었냐면 이걸 가르쳐 주는 사람이 없어서 제가 계속 연구를 하다가 다른 학설과 구분하려고 이름을 따로 지어 준 것이에요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">제가 연역론이라는 것을 연구한지는 10년이 넘었어요. 연역론이라는 이름은 2012년에 지어 주었구요. 그 전에는 그냥 이기준의 이론, 이기준의 의견 정도로 정의하고 있었죠. 그러다가 부르는 말이 없으니까 이론을 전개할 때 갑갑하더라구요. 그래서 이름을 한 개 지어준 것이 연역론이라고 하게 되었어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그럼 아래에 이어지는 내용에서 천천히 연역론이 무슨 내용으로 되어 있는지 설명을 해볼게요. 그리고 한 번 더 얘기할게요. 제가 연구했다던 논리학 주제인 연역론은 저 개인적인 주장일 뿐 딥러닝계의 다수 이론, 정설이 아닙니다.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">제가 이렇게 여러 번 써도 이해를 못하시고 가끔씩 시비를 걸고 뭐라고 하시는 분이 있어서 이렇게 강조해 봅니다.
딥러닝의 비하인드 스토리..7999999999999998;margin-top:0pt;margin-bottom:0pt;">이 내용은 전공자들은 대부분 알고 있는 얘기에요. 그러나 이 글은 완전 쉽게 초보를 위해서 쓰는 것이기 때문에 적어 볼게요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">딥러닝에 사용되는 기술인 DNN을 우리말로 강제번역하면 심층 신경망이라고 하는데요. 인공신경망을 겹겹으로 사용해서 정보처리를 하는 것입니다. 인공신경망은 무엇이고 누가 만들었을까요?
7999999999999998;margin-top:0pt;margin-bottom:0pt;">인공신경망의 가설은 1940년대부터 시작되었어요. 몇몇 학자들이 사람의 신경에서 일어나는 정보처리를 컴퓨터에서 구현하면 어떨까? 해서 계산 방법을 만들어 보고 있었어요. 그러다가 1950년대 말부터 그 가설을 퍼셉트론이라는 형태로 구현한 분이 나타났어요. 그분의 이름은 프랑크 로젠블라트에요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;text-align:center;">
7999999999999998;margin-top:0pt;margin-bottom:0pt;">위의 그림에서 왼쪽 사진이 로젠블라트구요. 오른쪽 그림이 퍼셉트론을 간단한 도식으로 만들어 본 것이에요. 이게 무슨 내용인지는 아래에 이어질 글에서 설명해 볼게요. 일단 지금은 역사얘기부터..
7999999999999998;margin-top:0pt;margin-bottom:0pt;">1950년대 말부터 1960년대는 미국 경제가 호황기였거든요. 그런 상태에서 "컴퓨터가 사람처럼 생각하게 할 수 있다."는 주장은 큰 인기를 끌었어요. 여기저기서 연구 자금이 많이 들어왔죠.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">당시 인공지능 업계에는 두 가지 큰 흐름이 있어어요. 한 개는 프랑크 로젠블라트가 주도하는 인공신경망 계열이었고요. 다른 한 개는 마빈 민스키가 주도하는 기계학습(머신러닝) 계열이었어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그런데 이렇게 두 계열이 평화롭게 연구를 하면 좋은데.. 현실은 그렇지 못했어요. 왜냐하면 그때 당시에는 컴퓨터의 계산 능력이 그렇게 강력하지가 않았거든요. 그래서 인공신경망, 기계학습 둘 다 의미 있는 수준 만큼 성과가 나지 못하고 있었어요. 컴퓨터가 계산 능력이 떨어지니까 프로그램의 계산 결과물이 안 나오는 거에요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그렇게 한 10년 정도 지나는 동안에도 성과가 안 나니까 연구 지원하는 곳에서 "너네들 뭐하는 거냐? 그거 진짜 되기는 되는거냐?"하고 압박이 들어왔어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그래서 갑자기 인공지능 업계가 서로를 까고 비방하는 분위기로 바뀌었어요. 양쪽 다 실전으로 증명을 못하는 상태에서는 어느 한 쪽을 까서 찍어 누르는 편이 자기가 살아남는데 유리하거든요. 인터넷에 게시판에서 실제로 증명 못하는 사람들이 주로 키보드 워리어, 주둥이 파이터가 되는 거랑 비슷하죠.
7999999999999998;margin-top:0pt;margin-bottom:0pt;text-align:center;">
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그러던 와중에 마빈 민스키 쪽에서 인공신경망을 호되게 비판하는 논문을 발표해요. 쉽게 말해서 "인공신경망은 아무런 쓸모가 없는 구라다!"하는 정도의 막장 디스를 한 거에요. 민스키 쪽의 기계학습 계열도 그렇다 할 성과는 없었지만 인공신경망보다 조금 더 결과가 좋았거든요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그래서 인공신경망 쪽에 지원되던 연구자금이 끊어지게 되었어요. 충격 먹은 로젠블라트는 자살을 하게 되었어요. 지못미.. 슬프네요. 로젠블라트의 죽음에 대해서는 자살이냐 사고사냐 의견 차이가 있어요. 객관적인 사실은 로젠블라트가 연구자금 지원이 다 끊어지고 나서 매우 우울해 하던 시기에 혼자 요트를 타고 나갔다가 사망한 상태로 발견되었다는 거에요. 그러나 유서가 없었기 때문에 경찰은 사고사로 결론을 내렸어요. 저는 이 글에서 자살이라는 관점으로 글을 썼어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그런데 이 치킨 게임의 승자는 없었어요. 아까 말했지만 민스키 쪽의 기계학습도 뚜렷한 성과를 못 내었거든요. 그래서 인공지능 업계 전체가 망하고 약 20년 동안 펀딩이 끊어지게 되었어요. 이것을 두고 업계 사람들은 인공지능의 겨울이라고 불러요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;text-align:center;">
7999999999999998;margin-top:0pt;margin-bottom:0pt;">이 핵겨울 기간 동안 기계학습 계열에서는 철저하게 인공신경망 계열을 따돌리고 괴롭히게 되었어요. 어떻게 괴롭혔냐면 기계학습 계열이 주류를 이루어서 인공신경망 계열의 논문이 저널에 신청되면 리젝트(거절)해버리는 거에요. 기계학습 연구자들이 몰려들어서 다구리를 놓아서 논문 발표가 안되게 했다는 거죠. 비열하죠? 그러나 이게 현실이었어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">논문을 리젝트 시키니까 인공신경망 계열에서 박사가 점점 안 나오게 되고 박사학위를 못 받으니까 취직도 안되구요. 취직자리도 기계학습 계열이 다수인 곳에서는 인공신경망 전공한 사람이 들어오지 못하게 막았어요. 그래서 한 때 업계에서는 인공신경망은 내용을 읽어 보지도 않고 리젝트 시킨다는 우스개 소리도 있었어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;text-align:center;">
7999999999999998;margin-top:0pt;margin-bottom:0pt;">제프리 힌튼이라고 2000년대에 와서 유명해지신 이분도 이 박해를 피해서 캐나다의 대학교로 떠났어요. 미국에서는 자리가 안 나서요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">기계학습은 1980년대부터 차차 의미있는 결과가 나오기 시작했어요. 그런데 인간의 인식능력, 인간의 판단능력에는 미치지 못했어요. 그래서 이 시기 동안에는 주로 인간만큼의 능력을 내는 것을 목표로 해서 연구를 했어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그리고 이 암흑기 동안 인공신경망 계열에서는 몰래 숨어서 비공을 연마하고 있었어요. 1990년대 즈음부터 인공신경망의 생존자였던 제프리 힌튼과 얀 르쿤은 최초 아이디어였던 퍼셉트론을 개량해서 다중 레이어 퍼셉트론을 개발하게 되었어요. 이게 딥러닝으로 발전하게 된 것이구요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그러나 이분들의 아이디어는 실제 현실에서 구현을 해서 검증을 하지 못했어요. 이 아이디어를 구현 실험하려면 컴퓨터 자원이 많이 필요했거든요. 쉽게 말해서 슈퍼 컴퓨터가 필요했는데요. 이분들에게 그만한 지원이 이루어지지 않았어요. 그래서 힌튼은 자주 이런 말을 했다고 해요. "나한테 펀딩만 좀 더 빵빵하게 해주기만 하면 놀라운 결과물을 보여줄 수 있다고!"
7999999999999998;margin-top:0pt;margin-bottom:0pt;text-align:center;">
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그런데! 2000년대에 구글이라는 회사가 등장해요. 이 회사는 회사 초창기부터 인공지능에 관심이 있었어요. 그래서 자기 회사 서비스에 기계학습을 도입해서 이득을 얻었어요. 구글의 검색서비스, 이메일의 스팸필터, 기타 구글 서비스들에는 다양한 기계학습과 기타 자동화 기술이 많이 사용되었어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">구글에서는 세상에서 정파와 사파로 구분하는 것에 연연하지 않고 기술이 있으면 검증을 해보고 자기 회사에 도움이 되면 다 가져다 쓰자 하는 모토를 가지고 있었는데요. 그래서 인공신경망을 개량한 딥러닝 기술을 가져다가 실험을 해보게 되었어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그랬더니?! 의미있는 성과가 나온 거에요. 그리고 비슷한 시기에 사진을 보고 구별하는 이미지넷이라는 대회에서 제프리 힌튼 연구실 팀이 우승하게 되었어요. 갑자기 인공신경망 계열에 봄이 찾아온 거죠! 이제 2000년대 이후 인공신경망 계열을 딥러닝 계열이라고 할게요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;text-align:center;">
7999999999999998;margin-top:0pt;margin-bottom:0pt;">특히 이미지넷 대회에서 딥러닝 계열은 2012년부터 기계학습 계열을 다 이겨버렸어요. 위에 그래프를 보면 딥러닝 계열 녹색이 비 딥러닝 계열들 파란색을 다 재껴버린 것을 볼 수 있죠. 돌아가신 로젠블라트가 이걸 보면 기뻐서 눈물이 나겠네요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">기계학습 계열에서는 그동안 엄청 노력했는데도 사진 인식률이 80%를 넘지 못했어요. 85% 정도가 사람 인식 능력이라고 하거든요. 그런데 딥러닝 계열은 85%를 뛰어넘고 90%를 뛰어넘게 된 거에요. 사람보다 더 사진을 알아보는 능력이 낫게 된 거에요. 이제 인간을 닮은 인공지능이라는 말이 무색하게 된 거죠.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그래서 기계학습 계열에서는 멘붕.. 그리고 처음에는 딥러닝을 은근하게 까려고 했어요. 아까 위에 제가 인용했던 "딥러닝 진리교" 농담처럼 기계학습(머신러닝)을 하던 사람들은 부러워서 배가 아프기도 하고, 이게 뭔가 의심스럽기도 하고, 화가 나기도 하고 복잡한 심경을 겪었어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">특히 학계에서 나이가 많은 사람(일명 꼰데)들일 수록 기계학습 위주로 배웠고 인공신경망은 쓸모없다고 배운 경우가 많았거든요. 그런데 딥러닝 계열 실력이 월등히 좋으니까 예전처럼 까고 무시하려고 해도 그럴 수가 없었죠. 그래서 비교적 젊은 연구자들 중심으로 현실을 받아들이고 딥러닝 진리교로 넘어가는 사람들이 생겨났습니다.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그리고 더 많은 딥러닝 실력자들이 강호에 나타나기 시작했어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;text-align:center;">
7999999999999998;margin-top:0pt;margin-bottom:0pt;">알파고로 유명해진 구글 딥마인드를 만든 하사비스가 그런 사람인데요. 사람 중에 그 분야에서 최고 능력자에 해당하는 이세돌 같은 사람도 이길 수 있다는 이 놀라운 결과 때문에 전세계의 이목이 딥러닝 분야에 쏠리게 되었어요. 그게 현재 상황이네요. 이제 딥러닝 분야에 투자도 많이 이루어지구요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">놀라운 반전이 있었죠?
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그리고 여기에 숨은 사실이 하나 더 있어요. 딥러닝을 흥하게 한 요소 중에는 게이머들이 사용하던 그래픽카드의 공이 있었어요. 딥러닝을 연구하던 연구자 한 명이 시험삼아서 CPU가 아니라 수십 개에서 수백 개의 코어를 가진 그래픽카드의 GPU로 딥러닝 프로그램을 돌려보면 어떨까.. 해서 해보았더니 딥러닝 계산 시간이 수십 배로 단축되었다네요. 그래서 딥러닝 연구하는 사람들은 거의다 GPU를 사용해서 프로그램을 돌려요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;text-align:center;">
7999999999999998;margin-top:0pt;margin-bottom:0pt;">게이머를 위해서 개발한 그래픽카드가 이런 곳에 쓰이게 되었다니 신기하네요. 나는 그저 지난 수십 년 동안 게임을 열심히 했을 뿐인데 그게 그래픽카드 산업을 흥하게 하고 나비효과로 딥러닝에 영향을 미쳐서.. 원기옥에 에너지를 보탠 느낌이네요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">자 이것으로 딥러닝의 비하인드 스토리를 마치고요. 더 궁금한 것은 구글 검색 해보시면 잘 나올거에요.
절대성과 상대성7999999999999998;margin-top:0pt;margin-bottom:0pt;">이제 제가 딥러닝 프로그램에서 어떤 정보처리가 일어나는지 가르쳐 드리려고 하는데요. 이걸 이해하려면 먼저 절대성과 상대성에 대해서 이해를 하면 편해요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">절대성이라는건 뭘까요?
7999999999999998;margin-top:0pt;margin-bottom:0pt;">쉽게 말해서 "무조건 그렇게 되는거임."하고 말하는 것은 절대적이라고 주장하는 진술이에요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">예를 들어서 종교 믿는 사람 중에 좀 꽉 막힌 사람을 보면 "그냥 무조건 그런 거임. 믿숨니다!”하는 경우가 있잖아요 이게 절대적인 주장, 절대성인거죠.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그런데 이 세상에는 절대적인 것이 있나요? 없거든요. 절대적인 믿음이나 절대성에 대한 생각은 생각하는 그 사람의 머리속에만 있어요. 자기 상상으로만 할 수 있다는 거죠.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그러면 상대성은 뭘까요? 상대성은 기준을 정하고 비교를 해서 그 기준으로 판단을 했더니 더 나은게 있고, 덜 나은게 있다는 생각이에요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">예를 들어서 인텔과 암드(AMD)가 있어요. 둘 다 CPU를 만들어요. 그런데 멍구는 인텔이라는 브랜드를 좋아해서 인텔 제품을 구입했어요. 웅이는 가격대 성능비, 즉 가성비를 기준으로 해서 골랐는데 그렇게 해서 암드 제품을 구입했어요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;text-align:center;">
7999999999999998;margin-top:0pt;margin-bottom:0pt;">멍구는 인텔이라는 브랜드에 대한 개인 취향, 주관적인 느낌으로 구입을 했어요. 그건 나쁜게 아니에요. 그럴 수도 있죠. 그런데 멍구가 웅이에게 "야 임마, 인텔이 짱이야. 그냥 무조건 인텔 사."이러면 이게 절대성을 주장하는 것이 되요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">웅이는 가성비를 기준으로 구입을 했는데요. 웅이가 절대적으로 나은 것이 아니에요. 그러나 웅이는 자기가 기준을 정하고 상대적인 비교를 해서 선택을 했죠. 이런 차이가 있어요. 웅이도 만약 멍구에게 "쨔샤, 가성비를 봐야지. 무조건 가성비로 사야돼."이렇게 주장하면 상대적인 영역에서 절대적인 주장으로 이동하게 되요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">이 관계를 논리학으로 정리해서 이해해 보아요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">멍구가 인텔 브랜드가 좋아서 인텔 CPU를 샀다.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">이거슨 개인의 자유
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그리고 이거슨 멍구의 주관적인 생각과 느낌
7999999999999998;margin-top:0pt;margin-bottom:0pt;">웅이가 가성비를 기준으로 제시한 다음 그 기준대로 판단을 해서 가성비가 상대적으로 제일 나은 것을 골랐다. 그랬더니 암드였다.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">이것도 개인의 자유
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그리고 이거슨 웅이가 가성비라는 상대적인 기준을 만들어 내서 판단을 한 거임
7999999999999998;margin-top:0pt;margin-bottom:0pt;">멍구가 웅이에게 "암드 왜사 임마, 인텔이 무조건 짱이야!" 이러면 멍구가 자신이 가진 개인적인 생각, 주관적인 생각으로 웅이를 괴롭히는 것이 됨.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">이것이 바로 고정관념임
7999999999999998;margin-top:0pt;margin-bottom:0pt;">고정관념은 자기가 주관적으로 생각한 것, 상상한 것, 느낀 것이 이 세상에 절대적으로 적용된다고 착각을 하는 것임
7999999999999998;margin-top:0pt;margin-bottom:0pt;">자신이 가진 고정관념을 다른 사람에게 강제로 적용하려고 하면 오지랖을 부리는 일, 꼰데짓이 됨.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">반대로 웅이가 멍구에게 "가성비로 구입해야지, 무조건 가성비가 짱이야."이러면 웅이 역시 자기가 생각한 것이 이 세상에 절대적으로 적용된다는 착각을 하는 것임. 즉, 똑같은 고정관념이 됨.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">자신의 주관적인 생각이 주관적인 생각이라는 것을 인정하고 다른 사람의 주관적인 생각을 있는 그대로 인정하면 그거슨 피스(Peace), 다원주의, 다차원주의가 됨.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">쉽게 말해서 서로 각자 다른 관점을 가지고 있다는 것을 기본적으로 이해한다는 것임
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그렇게 개인이 서로 다른 관점을 가지고 있다는 것을 인정하고 나서도 여전히 객관적인 사실은 있음.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">멍구는 30만원짜리 인텔 CPU를 사고 웅이는 10만원짜리 암드 CPU를 샀다는 것. 이거슨 변함없는 객관적인 사실
7999999999999998;margin-top:0pt;margin-bottom:0pt;">과학에서는 이 객관적인 사실을 가지고 최종 판단함.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">어느 분들은 인텔 암드가 잘 이해가 안되시겠죠? 똑같은 버전으로 명품 브랜드랑 저가 인터넷쇼핑몰 가방을 얘기해볼게요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">쑤니는 브랜드인 샤넬백을 구입했구요. 여니는 가성비가 좋은 저가 인터넷쇼핑몰 가방을 구입했는데요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;text-align:center;">
7999999999999998;margin-top:0pt;margin-bottom:0pt;">논리 설명은 똑같아요.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">쑤니가 샤넬 브랜드가 좋아서 샤넬백을 샀다.
7999999999999998;margin-top:0pt;margin-bottom:0pt;">이거슨 개인의 자유
7999999999999998;margin-top:0pt;margin-bottom:0pt;">그리고 이거슨 쑤니의 주관적인 생각과 느낌
7999999999999998;margin-top:0pt;margin-bottom:0pt;">여니가 가성비를 기준으로 제시??