PGR21.com
- 자유 주제로 사용할 수 있는 게시판입니다.
- 토론 게시판의 용도를 겸합니다.
Date 2020/03/08 19:27:21
Name 루트에리노
Subject [일반] 머신러닝 이야기 - 2. 딥러닝 이야기 두번째
교통공학 이야기
------------------------


안녕하세요 루트에리노입니다. 오랜만에 글을 씁니다. 그동안 제 신분에 큰 변동이 있었네요. 저는 드디어 딥 러닝 관련 논문으로 졸업을 하고 신분이 바뀌었습니다. 이제 Ph.D가 됐네요 크크. 어릴 적에 로봇만화에 나오는 박사님들 보면서 나도 언젠가 과학자가 될거다! 라고 생각했었는데, 결국 저도 박사가 되긴 됐습니다. 만화에 나오는 박사님들은 과학자가 아니고 엔지니어였다는 걸 생각하면 그나마 근접한 길로 간것 같기도 하네요.

지난번 글 썼을때와 차이점이 있다면, 이제 딥 러닝은 대세가 아니라 일반이 됐습니다. 마치 여러분이 모르는 사이에 양자역학이 우리 생활 깊숙히 들어온것과 마찬가지로, 딥 러닝과 머신러닝은 이제 여러분이 고개를 돌리는 그 곳에 존재하고 있습니다.

딥 러닝에 대해 많은 관심을 가지고 계신 분들께 먼저 드릴 말씀은, 딥 러닝의 내용과 구현은 어렵지 않습니다. 저같은 수리적 재능이 없는 학생도 할 수 있는 정도죠. 박사 논문을 쓸 정도로요. 딥 러닝의 구현은 점점 쉬워지고 있고, 멀지 않은 미래에 엑셀같은 딥 러닝 전용 프로그램이 나올지도 모릅니다. 지금도 하지만 딥 러닝은 만능이 아닐 뿐더러, 그 적용은 상당히 어렵습니다. 어디에 어떻게 써야할지, 많은 연구자들이 머리를 맞대로 있죠. 더 많은 사람들의 창의적 적용이 필요합니다. 저는 그게 여러분이 될 수도 있다고 생각합니다. 헤이, 츄라이 츄라이.

그럼 딥 러닝의 역사에 대해 좀더 이야기를 해볼까요.

1. 지난회 마지막 이야기 - 딥러닝의 두 번째 겨울

터미네이터의 기반 아키텍쳐로까지 등장하면서 잘 나가던 다층 퍼셉트론, 그당시 말로 인공신경망, 요즘 말로 딥러닝에 두 번째 겨울이 온 것은 결국 "안되잖아? 장비를 정지합니다." 였습니다. 인공신경망 연구에 혁신을 안겨준 기술적 발전, 백 프로파게이션으로 다 잘될 줄 알았던 다층 퍼셉트론에 다시금 춥디 추운 빙하기가 찾아온 건 몇 가지 이유가 있었습니다. 인공신경망의 붐이 일어나면서, 이전보다 훨씬 더 많은 층을 쌓은 모델들이 등장했고, 사람들은 딥러닝을 더욱 더 어려운 곳에 굴리기 시작했죠. 그리고 몇몇가지 소기의 성과도 있었습니다. 하지만 이런 하드코어한 난이도에 딥 러닝이 뻗어버리기 시작한 겁니다.

먼저 전에 말씀드렸던 기울기 손실 문제가 있습니다. 기울기 손실 문제는 결론적으로 "층을 엄청나게 많이 쌓아버리니 입력값과 출력값 사이에 인과관계가 점점 희미해져서 백 프로파게이션을 사용할수가 없더라"는 얘깁니다. 한 층이 올라갈때마다 곱셈을 하게 되는데요, 여러분도 잘 아시는 "복리법"마냥 층을 많이 곱하면 곱할수록 인과관계가 사라져 버린 겁니다. 이 문제는 "현재에도" 연구자들을 괴롭히는 문제 중에 하납니다.

두 번째로 다층 퍼셉트론의 최적화가 이론적으로 정말 최적이 아니었다는 점이 있습니다.

Uhj5mDv.jpg

혹시 관심이 있는 전공 희망자 분들을 위해 말씀드리자면, 다층 퍼셉트론 모형은 레이어가 3층 이상이면 볼록하지 않음이 증명되어 있습니다. 이 글을 읽으시는 분들은 "딥러닝은 이 예측이 수학적으로 완결성이 있는지 알 방도가 없다"는 걸로 이해하시면 됩니다. 증명이 되어 있다고 했죠? 당연히 현재에도 풀리지 않은 문제입니다. 앞으로도 안 풀릴겁니다.

8OmBzjn.jpg

다시 한번 붐업이 왔던 인공신경망은 쏘오기 메스꺼워를 외치며 기울기 손실 문제의 기울기마냥 사라져갔습니다. 특히 수학적인 완결성을 가진 서포트 벡터 머신(SVM), 단순한 모형의 결합으로 높은 성능을 보인 랜덤 포레스트 등의 모형들이 이론적으로나 성능적으로나 모든 방면에서 신경망보다 낫다는 것이 나타났죠. 이러한 모형들에 대해선 나중에 다루도록 하겠습니다.

결국 인공지능에는 두 번째 겨울이 찾아왔습니다. "AI Winter"이라는 단어가 따로 있을 정도로 혹독한 겨울이 말이죠.

2. 영웅의 등장 - 제프리 힌튼

bQyGhx3.jpg


물론 현대의 머신러닝과 인공신경망에 기여를 한 학자들은 무수히 많습니다. 하지만 많은 사람들이 딥러닝의 시대가 다시 온 데에는 딥 러닝의 "대부"로 불리는 제프리 힌튼(Geoffrey Hinton) 교수의 영향력이 컸다고 말합니다.

제프리 힌튼 교수는 규칙 기반의 AI로는 인간을 따라잡는 데에 한계가 있다고 생각했습니다. 마치 인간이 어떠한 학습 규칙이 있지 않듯이, 하나 하나 정해주는 것으로 학습하는 일반적 모형으로는 AI가 될 수 없다고 생각한거죠. 그리고 이 믿음은 그 당시의 학계의 인식과는 매우 큰 거리감이 있었습니다. 이로 인해 힌튼 교수는 많은 어려움을 겪을 수 밖에 없었습니다.

제프리 힌튼 교수는 하나의 홈런으로 뜬 영웅이 아닙니다. 이 사람의 경력을 살펴보면, 집요함이 이룩한 승리가 아닐까 싶습니다. 힌튼 교수의 첫번째 업적은 지난번 1편에서 말씀드렸던 오차역전파법(backpropagation)을 발표했던 1986년의 논문에 부 저자로 참여한 것입니다. 하지만 머지 않아, 인공신경망은 기울기 손실 문제에 맞딱뜨렸고 처참하게 침몰했습니다.

두번째 겨울은 첫번째 겨울만큼이나, 어쩌면 더욱 더 혹독했습니다. E스포츠에서 3이 중요한 숫자듯이, 세번은 통수맞지 않는다는 의지로 학계는 인공신경망을 배제하기 시작했습니다. 한때는 "Neural Network"라는 단어가 들어가면 출판을 시켜주지 않을 정도였죠. 그리고, 굉장히 길었습니다.

제프리 힌튼 교수가 딥 러닝의 시대를 다시 여는데에는 결코 짧은 시간이 걸리지 않았습니다. 80년대 후반부터, AI과 관련된 분야에는 혹독한 자금 삭감과 출판 거절 메일이 날아들기 시작했죠. 90년대에는 딥 러닝에 대한 지원은 사실상 없는 것이나 다름 없었습니다. 제프리 힌튼과 르쿤 교수와 같은 선구자들이 업계에서 존경받는 이유는, 이러한 혹독한 시간에서조차 포기하지 않았다는 거죠.

이 겨울에도 인공지능과 인공신경망의 기술적 발전은 이루어졌습니다. 이 혹독한 기간에도 제프리 힌튼 교수는 지속적으로 신경망에 대한 연구를 지속했죠. 대표적으로, 1998년 등장한 이미지 인식 기술인 LeNet-5 가 있습니다. 이를 개발한 얀 르쿤(Yann LeCun) 교수는 당시 힌튼 교수의 연구실에서 포닥으로 근무중이었습니다. 저도 포닥인데 허허 ㅠㅠ

m3YmWnU.png

여러분이 "딥러닝 아키텍쳐"의 예시로 가장 많이 보실 수 있는 이 그림이 바로 LeNet-5입니다. 지금도 상당히 자주 이용되고 있습니다.

이 길고 긴 겨울이 끝나게 된 계기는 힌튼 교수가 2006년에 개발한 Deep Belief Network(DBN)입니다. "딥"이 드디어 등장하기 시작했네요. 위에도 말했지만, 신경망(Neural Network)이라는 표현이 들어가면 게재 거절을 당하기 때문에 Deep이라는 표현을 새로 만들어서 넣었다고 합니다. 그야말로 눈물이 앞을 가리는 상황에 간신히 출판이 된 거죠. 이제 "딥 러닝", 심층학습이라는 용어가 세상에 등장했습니다.

DBN은 기울기 손실 문제를 해결하기 위해 비지도학습을 통한 사전학습을 실시하는 방법을 이용한 모형입니다. 이를 통해 많은 문제가 해결이 됐습니다. 하지만, 이 DBN의 등장에도 불구하고 아직 세상은 딥 러닝을 완전히 인정하지 않았습니다. 그래서 그거 가지고 되겠어? 이게 아직까지 학계의 인식이었습니다. 2006년 입니다. 벌써 20년에 가까운 차가운 세월들이 지났음에도 여전히 겨울은 끝나지 않은거죠.

그리고 6년 후...

3. 이미지넷 챌린지, 그리고 드디어 찾아온 딥 러닝의 시대

이미지넷은 대략 1400만 개 정도의 이미지를 가진 데이터베이스입니다. 이미지 인식 소프트웨어를 위해 라벨링이 되어있는 데이터베이스죠. 이 프로젝트를 위해 매년 ImageNet Large Scale Visual Recognition Challenge, 줄여서 ILSVRC를 개최합니다. 2010년 처음으로 열렸고, 2010년과 2011년의 대회에서 등장한 최우수 모형들은 기존의 기술을 바탕으로 엔지니어들이 결정하여 만드는 모형들이었습니다. 2011년에 우승한 제록스의 모형은 26%가량의 오차율을 보였고, 20% 이하의 오차율은 불가능한게 아닌가 하는 인식조차 있을 때였죠.

하지만 2012년의 대회가 세상을 바꿔 놨습니다.

DltMLoM.png

힌튼 교수의 제자인 알렉스 크리제프스키가 힌튼 교수와 함께 LeNet을 개조하여 내놓은 알렉스넷은 15.3%의 오차율로 2위 팀을 무려 10.9% 차이로 따돌리고 우승합니다. 2위인 동경대 팀은 요소 추출 기법을 통한 전통적 인식 기법을 사용했습니다. 2위인 도쿄대학 팀과 3위인 옥스포드 대학 팀의 오차율 차이는 0.8%밖에 되지 않았습니다. 옥스포드 대학 팀과 4위인 제록스 팀 사이의 차이는 그보다 더욱 작았죠. 2위와 그 아래 팀들이 이런 저런 요소 추출 기법을 복합적으로 사용하여 0.01%쯤의 향상을 이루어 내며 기뻐할 무렵에 알렉스넷은 아예 차원이 다른 정확도를 선보인 것입니다.

세상은 충격에 휩싸였습니다. 페이커가 첫 데뷔해서 엠비션을 솔킬냈을 때의 충격보다 더했죠. 그땐 엠비션이 실수라도 했지, 이건 그런 정도의 문제가 아니었거든요. 이때부터 모든 이미지 프로세싱은 인공신경망이 평정하기 시작했습니다. 위의 그래프는 2015년 인간을 뛰어넘는 인지도를 보여준 ResNet이 나오기까지 연도별 결과표이고, 주황색 선은 교육받은 인간의 인지도(5.1%)를 의미합니다. 위의 그래프에 보시다시피, 이미지넷 챌린지에 2015년 이후로 나온 모형들은 인간의 인지를 뛰어넘는 상황입니다. 이미지 프로세싱이 평정되자 이제는 일반적인 데이터에도 사용되기 시작했고, 이젠 거의 모든 예측 분야에 사용되고 있습니다.

사족 하나 붙여서, 한가지 재미있는 점은, 2010년과 2011년 우승팀의 모형은 이름을 따로 붙이지 않았습니다. 어떤 어떤 모형을 조합했다는 식으로 설명이 되어있고, 지금 그래프에 써 있는 건 모형 이름이 아니라 팀 이름입니다. 2012년 알렉스넷이 우승한 이후로 각자 자기들이 사용하는 인공신경망 모형의 이름을 붙이고 있더군요.

다시, 딥 러닝의 봄이 찾아왔습니다. AI의 겨울이 찾아오고 20년이 넘는 세월이 흘러서 말이죠.

4. 어째서 딥 러닝에는 봄이 찾아왔을까?

딥 러닝에 봄이 찾아온데는 몇 가지 이유가 있습니다. 왜 예전엔 안되던게 지금은 되는걸까요?

첫째, 여러가지 기술적 진화

위에도 써놨지만, 딥 러닝의 붐을 일으킨 가장 핵심이 되는 방법은 사전학습이었습니다. 물론 저 방법을 지금 사용하진 않습니다. 더욱 쉬운 방법으로도 가능하다는게 후속 연구로 발견이 됐으니까요. 자세히 수록하긴 어렵지만, 활성화 함수의 단순화, 배치 정규화, 드롭아웃 등 여러가지 이름의 기술들이 딥 러닝의 문제점을 해결하고 있습니다.

둘째, 컴퓨터 기술의 발달

예전엔 "저걸 어떻게 계산해"라는 걸 지금은 가정용 컴퓨터로도 진행할 수 있을 정도로 컴퓨터 기술이 발달했습니다. 소위 말해 "딜찍누"가 가능해 진거죠. 연산능력의 발달은 딥 러닝의 발달에 무시할 수 없는 영향을 주었습니다. 예를들어 알파고는 수천개의 CPU를 병렬 연결한 슈퍼컴퓨터로 연산을 헀죠. 예전엔 이런게 불가능했습니다.

셋째, 그냥 잘 돼서

hIbzl3R.jpg

말 그대로입니다. 딥 러닝의 붐이 다시 온 이유는, 잘 돼서입니다. 해보니까 되던데요? 라는거죠. 사실 이건 딥 러닝의 큰 약점 중 하나입니다. 왜 잘 되는지 잘 모르는 상태로 잘 되고 있으니까요. 어떻게 보면 제프리 힌튼 교수의 말 그대로입니다. 

오늘은 AI의 겨울 이후로 다시 봄이 오기까지에 대해 적어봤습니다. 다음 번에는 여러가지 머신러닝 모형들과 특징들에 대해 써보도록 하겠습니다.

통합규정 1.3 이용안내 인용

"Pgr은 '명문화된 삭제규정'이 반드시 필요하지 않은 분을 환영합니다.
법 없이도 사는 사람, 남에게 상처를 주지 않으면서 같이 이야기 나눌 수 있는 분이면 좋겠습니다."
비오는풍경
20/03/08 19:37
수정 아이콘
(수정됨) 지인에게서 들은 얘기지만 온갖 분야에 딥러닝을 적용해보다가
현장에서는 '이거 사기 아니냐'는 얘기가 스멀스멀 나오고 있다고 하더라구요.
저런 얘기가 나오는 이유는 결국 글에 적혀있는 대로 [어떻게 잘 되는 건지를 모르기 때문]인 건데...
이를 극복하기 위한 컨셉에 대한 얘기도 들어보긴 했는데 (eXplainable Artificial Intelligence, XAI) 의미있는 연구가 되었는지는 모르겠네요.
저도 이쪽 분야에 있지만 아직도 갈길이 먼 거 같습니다. 할 일이 많다는 건 사실 좋은 일이지만요.
루트에리노
20/03/08 21:44
수정 아이콘
사실 거의 대부분의 머신러닝은 블랙박스죠. 뉴럴넷 다음으로 사용되는 SVM도 블랙박스, 앙상블 기법도 블랙박스니까요. 수많은 비모수적 모형들이 있고, 이중 거의 대부분은 블랙박스입니다. 하지만 블랙박스라는 것 자체가 문제가 되기엔 너무 많이 왔죠.

물론 말씀하신 연구가 진행되고 있고, LIME과 같이 어느정도 체계를 갖춘 알고리즘이 나오고도 있습니다. 이는 머신러닝의 미래에 매우 큰 역할을 할거라 생각이 됩니다. 사실 저도 졸업논문에 끼워넣으려다 실패한 내용입니다 ㅠㅠ
빙짬뽕
20/03/08 19:38
수정 아이콘
제 친구들은 해봤는데 안되는데? 이러고 있읍니다... (학계아님)
-안군-
20/03/08 19:57
수정 아이콘
프로그래밍 커뮤니티에 갔다가, 어떤 고등학생이 로또 전 회차 데이터로 아무리 학습을 시켜도 적중율이 안 나온다고 자기가 뭘 잘못한건지 가르쳐달라는 질문을 봤던 기억이 나네요 크크크...
애초에 딥러닝으로 풀 수 없는 문제는 원래 안됩니다;;
자루스
20/03/08 20:22
수정 아이콘
아니... 인간이 그럴것들을 시킬 확율이 생각보다 크겠군요...
루트에리노
20/03/08 21:50
수정 아이콘
머신러닝은 많은 경우에 기존이 모형들이 하던걸 잘 하는 모형의 의미가 있지 기존 모형이 못하던걸 하게 만들려면 훨씬 어렵고 지난한 과정이 필요합니다.

예를들어 딥러닝으로 주식 등락을 맞추려는 노력이 있는데, 잘 안 됩니다. 왜냐면 주식 시세에 영향을 끼치는 변수를 파악하고 수집하는것 자체가 미친 짓이라서...

이게 되면 구글에서 벌써 펀드매니징을 하고 있겠죠. 아니 그전에 저도 박사 안받고 차트질을 하고 있을텐데 현실은 그렇지가 못합니다.
빙짬뽕
20/03/08 22:06
수정 아이콘
친구놈들이 하던게 바로 그 주식입니다 크크크
Ai 강사 한 분은 주식가격만 수집해서 오르냐 내리냐만 판별하니 어느정도 자기기준에서 만족할만한 수익률이 나오더라 하긴 하셨는데, 제가 볼때도 영...
루트에리노
20/03/08 22:12
수정 아이콘
제가 딱 그거같아서 안된다고 콕 찝어서 말씀드린겁니다 크크크크
솔직히 딥러닝으로 트럼프가 화웨이한테 세컨더리 보이콧 걸고 그런거를 어떻게 맞춰요...진짜 강인공지능이 나와도 인간놈들의 광기엔 두손 들고 나올거라 봅니다.
자연어처리
20/03/08 20:06
수정 아이콘
겨울을 버텨내신 힌튼 교수님은 위인전 나와도 된다고 생각합니다...
루트에리노
20/03/08 21:53
수정 아이콘
옛날같이 천재의 시대였으면 벌써 나오고도 남았을텐데...
현실은 딥 러닝 하는 사람들도 잘 모릅니다 크크
Horde is nothing
20/03/08 20:30
수정 아이콘
와 2편보고 싶었는대 왜 없나 검색을 했더니 벌점을 ...
루트에리노
20/03/08 21:54
수정 아이콘
아즈카반에 오래 다녀왔죠 크크
태정태세비욘세
20/03/08 20:45
수정 아이콘
제조업 분야에서 현재 머신 딥러닝 적용해 보려고 이것저것 하는데 제일 문제는 이 데이터 셋으로 이게 성공할지 완전 망할지 판단하기가 어렵다는 거네요. 물론 데이터셋이 적기 때문이겠지만..
루트에리노
20/03/08 21:57
수정 아이콘
보통 데이터 샘플이 적으면 머신러닝이 잘 작동하지 않습니다. 충분한 데이터가 확보되지 않은 경우에는 이론 기반의 모형이 보통은 더 잘 맞습니다. 가지고 계신 데이터셋 내에서 학습셋, 검증셋, 테스트셋을 나누어서 검증 결과를 거쳐 보고, 이게 잘 나오면 사용하고 아니면 다른 방식을 찾아보는게 일반적으로 추천되는 방식입니다.

꼭 딥 러닝 뿐만 아니라 앙상블 모형의 경우에도 많은 양의 데이터가 확보되지 않으면 정확도를 기대하기 어렵습니다. 특히 복잡한 모형일수록 더욱 그렇죠.
aDayInTheLife
20/03/08 20:55
수정 아이콘
잘 읽었습니다.(이해못함...은 농담이고 어느 정도만 걸리는 군요ㅠㅠ)
다음편도 기대하겠습니다!
루트에리노
20/03/08 21:57
수정 아이콘
감사합니다!
20/03/08 21:04
수정 아이콘
개인적인 감상으로 딥러닝은 개발자의 '딥러닝에 대한 기능적 이해도' + '적용하고자 하는 분야에 대한 이해도' (보통 수치화, 표본화되기 좋을수록 가능성 ↑)
가 있어야 성공할 확률이 높아지는 것 같습니다. 그러다보니 '내 분야는 잘 알지만 딥러닝은 뭔지 모름' or '딥러닝은 아는데 어따 적용할지 잘 모름' 인 경우도 자주 보이고요. (그런만큼 여전히 적용해볼 분야가 다양하고 유망하지 싶지만요.)
예로 뉴스로도 종종 나오는 얘기인 AI 판사... 제 생각에는 당분간은 실현가능성이 없지 싶은데, 법조인들도 딥러닝을 모르고 개발자들도 법학을 모르기 때문인지 다소 뜬구름(?)잡는 얘기가 많더라고요.
루트에리노
20/03/08 22:00
수정 아이콘
저는 "딥 러닝에 대한 기능적 이해도"보다는 "적용하고자 하는 분야에 대한 이해도"가 천배 정도 중요하다고 생각합니다.
사실 딥 러닝을 하는데 막강한 실력의 코딩이 필요하진 않습니다. 저도 굉장히 일천한 파이썬 실력으로 논문 썼어요. 아직은 컴퓨터 공학의 영역에 머무르고 있지만, 앞으로는 얘기가 달라질 것으로 생각합니다.
20/03/08 22:10
수정 아이콘
아, '(전문적)개발자의 이해도' 이 아니라 '딥러닝을 시도해보려는 사람(광의의 개발자)의 이해도' 를 생각하고 썼는데 좀 표현이 잘못됐네요. 전공으로 몇번 배우고 개발해본 입장에서 가끔 '이거 딥러닝으로 해볼만하지?' 라는 비전공 친구들을 볼 때 '오.. 뜬구름 잡는데?' 라고 느낀 적이 있어서요.
루트에리노
20/03/08 22:14
수정 아이콘
맞는 말씀입니다. 이게 그냥 다 잘된다 잘된다 하니 뜬구름 잡는 얘기도 참 많이 나오죠.
특히 비지도학습 얘기를 어디서 듣고 와서 다 되는거 아니냐고 하면 좀 그렇습니다 ㅠㅠ
20/03/08 21:33
수정 아이콘
(수정됨) 사악한 드래곤 로드로부터 인류를 수호하시고 바이서스를 굽어보시며 영원한 기사들의 주군 이자 대 마법사 핸드레이크의 친우 신앙의 수호자이신 루트에리노 대왕님께서 마침내 기계정벌을 선포하셨습니다
루트에리노
20/03/08 22:00
수정 아이콘
알파고님 저는 그런 말을 한 적이 없습니다! 충성충성충성!
세크리
20/03/08 23:12
수정 아이콘
이론적인 이해가 훨씬 뒤쳐져 있는 것은 사실이지만, 발전이 없는것은 아니라서 희망적이라고 봅니다. 그래도 제가 생각하는 이론분야 연구의 문제는 machine learning 커뮤니티의 사이클이 너무 빠르다는 겁니다. 나온지 1,2년된 기술도 사실 이론적으로는 제대로 이해 못하는데 SOTA는 거기다가 뭐 더하고 뭐 더해서 새로운 결과를 내버리니, 이론하는 사람들이 끈적하게 문제 하나 붙들고 생각할만한 시간이 별로 없는것 같아요. 사실 이론연구에서 breakthrough는 많은 사람들이 각자 한마디씩 하는게 아니라 뭔가 통합하는 view를 제시 할 수 있어야 하는데, 다들 자기 할일이 바빠서 이런 논문은 매우 드문 것 같아서 오히려 사람이 많은게 역효과가 아닌가 싶습니다.
루트에리노
20/03/09 11:28
수정 아이콘
저는 오히려 반대로 생각하는데, 아직도 더 나은 기술이 나오기 때문에 SOTA가 지속적으로 바뀌고 있다고 생각합니다.
이게 더 나은 기술이 나오지 않으면 이제 좀더 깊게 파게 되겠죠. 사실 저도 SOTA가 너무 급변해서 미칠 거 같습니다 ㅠㅠ
세크리
20/03/09 16:58
수정 아이콘
제가 말하는건 순수 이론적인 부분이었습니다. 아직 PAC이론을 넘어서 왜 overparaetrized CNN에서 generalization이 잘되는지 아무도 제대로 된 답을 못해요. 그런데 SOTA는 Residual connection, BatchNorm 등등으로 무장해있죠. 현재 이론논문은 각각에 대해서 대강 이런것 같다를 말하는 거지 거시적인 view에 대해서는 별로 알려주는게 없습니다.
20/03/09 02:51
수정 아이콘
결국 지능과 의식이 무엇인지 답을 내지 못하면 다시 겨울이 올수도 있죠.
스케일만 키워서 가능하다는 캠프 vs 딥러닝가지곤 안된다
두가지가 있는데 미지의 영역이죠. 뇌과학쪽에서 치고올라와줘야하는데...
루트에리노
20/03/09 11:35
수정 아이콘
저는 딥 러닝만으로는 안된다고 보는 쪽입니다. 해보면 더 명확하게 다가오는데, 딥 러닝은 지능이 가진 수많은 기능 중에 아주 일부분만을 제한된 상황에서 실현할 수 있을 뿐이죠. 물론 이것만으로도 예전에 못했던 것들이 가능합니다.

결국 인류가 원하는건 범용 AI인데, 이게 어떤 방식으로 도달될 지는 전혀 오리무중입니다.
퀀텀리프
20/03/09 08:21
수정 아이콘
인간의 지능이나 인공지능이나 블랙박스인건 마찬가지죠.
양자역학의 세계도 비슷하죠. 수학도 맞고 측정도 맞는데 이해는 안돼.. 이게 머여 ?
인간보다 몇차원 높은 AI엔진이 작동시키고 있는 사기같은 느낌적인 느낌
루트에리노
20/03/09 11:40
수정 아이콘
저는 오히려 딥 러닝 공부하면서 인간의 지능, 나아가 생명체의 지능이라는게 얼마나 사기적이고 위대한지를 알 수 있었습니다.
이거 공부하면서 아직 인류가 알아야 하는게 얼마나 많은지 깨달았어요. 그게 저같은 연구자들한텐 참 다행한 일입니다.
시즈플레어
20/03/09 11:19
수정 아이콘
아 몰랑
근데 좋다구?
무안단물 아니 무한학습
루트에리노
20/03/09 11:45
수정 아이콘
덕분에 저도 꿀좀 빨았습니다 크크
바다로
20/03/09 11:30
수정 아이콘
좋은 글 감사합니다. 연재 기다리고 있었는데 늦어진 사연이 있었나보네요.
업무에 적용을 해보고 싶긴 한데 텐서플로우나 케라스 기본 예제만 돌려보는 수준에서 막혀있네요 흐흐
루트에리노
20/03/09 11:44
수정 아이콘
네 크크크 졸업논문과 아즈카반의 콜라보로 인해 많이 늦어졌습니다.
혹시 업무용으로 가지고 계시는 데이터가 있으시면 그걸 먼저 적용해보시는게 가장 빠른 길입니다. 텐서플로우가 아예 코어 레벨에서부터 케라스로 가겠다는 발표를 해버려서 케라스를 위주로 배우시는게 좋을 듯 합니다.
20/03/09 16:01
수정 아이콘
(수정됨) 잘 읽었습니다. 지금 학계와 현업에서는 [왜 잘되는지 모르겠는데 상태]가 생각보다 크리티컬 한 것 같습니다. 생각보다 사람의 일에는 이유를 알아야 되는 경우가 많거든요. 예를 들어 자율 주행의 시나리오에서 사고가 났을때 왜 사고가 났는지 분석을 해야 책임 소지를 가릴 수 있는데 이런부분에서 애를 먹는거 같아요. 그래서 실제로 이런 부분을 극복하기 위한 알고리즘을 만드려고 노력하는게 보입니다. 딥러닝의 노드와 레이어를 해석 가능한 노테이션을 쓴다던가...
현업에서도 재밌는 일들이 많아요. 모델을 배치하고 나면 이런저런 이슈가 발생하는데 왜 발생했어? 왜 잘해? 왜 못해? 라는 질문들이 상부에서 쏟아집니다. 그럴때 마다 알고리즘이 그랬어요 라고 하지만 그래서 알고리즘 만든게 누군데? 만들었는데 왜 몰라? 라고 하면 할말 없거든요. 그럴땐 데이터싸이언스의 필살기 데이터가 그랬어요 라고 하고 빠져나오긴 합니다만.... 사실 정확히 어떤 데이터 때문인데라고 하면 찾기 어려운게 사실이에요. (그렇다고 불가능한건 아니지만 거기에 시간과 노력을 쏟기에는...)
그러다 보니 울며 겨자먹기로 아주 구닥다리 알고리즘이 통할때가 있어요. 아주 보수적인 NLP 도메인이 대표적인데 예를들어 가전제품 같은 경우에 못알아 먹는건 용서해도 잘못알아먹는건 용서가 안될때가 있단말이죠. 세탁기에서 건조하라고 했는데 행굼 돌려버리면 난리나듯이요. 그래서 이런 경우 모회사라고 말하긴 그렇지만 아직도 정규표현식 매칭 수준의 알고리즘을 써요. 분명하거든요. 이런 데이터가 있어서 이걸 행굼으로 인식했네가 되니까요. 이쪽 업계에 있을수록 느끼는게 버릴 알고리즘은 없다는 느낌이에요. 다 써먹기 나름이랄까... 사실 뉴럴네트워크도 한때 가장 천덕꾸러기 신세였잖아요.
결국 돌고 돌지만 결국 이쪽 기술이 지금은 다시 한계에 온 느낌은 있어요. 잘하긴 하는데 데이터가 받쳐줘야하고 어디까지나 사람의 레벨에서 소수의 미션을 일부 사람보다 더 잘하는 수준이거든요. 그러다 보니 또 기대에 비해 실망하는 케이스들이 늘고 있어서... 특히 우리나라는 이쪽을 잘 컨트롤 하는 인력도 없고... 무엇보다 데이터 구축 시스템이 잘 안되 있는데 너도 나도 알파고급 기대를 하는 경우도 많아요. 난 거짓말을 한적이 없는데 가끔 사기꾼이었자나 눈초리를 받을때는 뭔가 억울하기도 합니다 크...
목록 삭게로! 맨위로
번호 제목 이름 날짜 조회 추천
공지 [정치] [공지] 정치카테고리 운영 규칙을 변경합니다. [허들 적용 완료] [126] 오호 20/12/30 275370 0
공지 [일반] 자유게시판 글 작성시의 표현 사용에 대해 다시 공지드립니다. [16] empty 19/02/25 341406 10
공지 [일반] [필독] 성인 정보를 포함하는 글에 대한 공지입니다 [51] OrBef 16/05/03 463348 29
공지 [일반] 통합 규정(2019.11.8. 개정) [2] jjohny=쿠마 19/11/08 337649 3
102713 [일반] 아니, 국과수도 모르겠다는데... 설마 대법원까지 보내려고 할까요? [22] 烏鳳3106 24/11/21 3106 18
102712 [정치] (채상병 사건) 박정훈 대령이 군검찰로부터 징역3년을 구형받았습니다. [41] 꽃이나까잡숴2699 24/11/21 2699 0
102711 [일반] 4년간 미국 물가는 얼마나 심각하게 올랐는가 [28] 예루리1550 24/11/21 1550 0
102710 [정치] 메르스 이후 처음으로 주요 그룹 사장단 긴급성명 발표 [60] 깃털달린뱀3832 24/11/21 3832 0
102709 [일반] 트럼프 2기 정부는 불법 이민자 문제로 시작합니다 (+ 생각보다 빠르게 진행되는 트럼프 공약) [54] 시드라2892 24/11/21 2892 1
102708 [일반] 페이커 "실패 하나하나 모여 지금의 나…청년들 도전하세요" [42] 덴드로븀2883 24/11/21 2883 14
102707 [일반] 넷플릭스 영화 전,란에서 보여지는 역사왜곡 문제 [22] 뭉땡쓰2129 24/11/21 2129 8
102706 [일반] (수정)백종원표 더본코리아의 오늘까지의 주가추이 및 개인적인 의견 [45] 독서상품권3675 24/11/21 3675 1
102705 [일반] 피지알 회원들의 AI 포럼 참가 후기 [20] 최애의AI5174 24/11/20 5174 36
102704 [일반] AI 시대, 사교육 방향이 근본적으로 수정되어야 할 이유 [25] 스폰지뚱4911 24/11/20 4911 8
102703 [일반] 영화 청설 추천합니다 [16] 퀵소희4096 24/11/20 4096 1
102702 [정치] 감리교회의 반동성애 기류는 더욱 심해지고 강해지고 있습니다. [31] 라이언 덕후5023 24/11/20 5023 0
102701 [일반] 구조조정 바람이 거세지는 요즘 드는 생각들 [78] 수지짜응8019 24/11/20 8019 2
102700 [일반] 한나라가 멸망한 이유: 내우(內憂) [10] 식별2217 24/11/20 2217 26
102699 [일반] 우크라이나 내 전쟁여론 근황 종전 찬성 52% 반대 38% [121] 뭉땡쓰7268 24/11/20 7268 1
102698 [정치] 트럼프의 집권은 오바마에 대한 실망이 가장 큰 이유였다고 생각되네요. [90] 홍철8712 24/11/20 8712 0
102697 [일반] [스포주의] 이토록 친밀한 배신자 인상적이었던 연출 몇개... [18] Anti-MAGE3415 24/11/20 3415 3
102696 [일반] 현대차 울산공장 연구원 3명 사망… [37] 뜨거운눈물9277 24/11/19 9277 1
102695 [일반] 개인적으로 한국어에는 없어서 아쉬운 표현 [72] 럭키비키잖앙7683 24/11/19 7683 7
목록 이전 다음
댓글

+ : 최근 1시간내에 달린 댓글
+ : 최근 2시간내에 달린 댓글
맨 위로