PGR21.com
- 자유 주제로 사용할 수 있는 게시판입니다.
- 토론 게시판의 용도를 겸합니다.
Date 2017/05/26 16:17:23
Name 65C02
Subject [일반] 알파고, 인공지능의 동작에 대한 몇가지 망상
알파고가 다시 한번 화제가 되고 있어서 이에 편승해서 글을 써봅니다.

1. "알파고의 생각은 개발한 사람들도 잘 모른다"에 대한 진실은?

약간 과장된 문장이라고 생각합니다. 이에 대해서 생각해보기 위해서는 알파고의 구조를 알아야 합니다. 제가 생각한 알파고의 구조를 간단하게 그려보면 다음과 같습니다.

91bDEq7.jpg

위와 같이 고전적인 프로그램 파트에서는 현재 바둑판 상황 정보를 인공신경망에 제공하고, 그에 대한 출력값을 이용하여 몬테카를로 트리 탐색을 수행합니다. 당연히 딥마인드 개발자들은 바둑판의 모든 상황에서 마치 스냅샷을 찍어서 보는 것 처럼 그 상황에서의 승산은 얼마였는지, 어떤 착수점들이 후보가 되었는지, 각각의 착수점들에 대한 승산은 얼마나 되었는지 알 수 있을 것입니다. 더 나아가서 인공신경망 내부에서 각 layer, node에서 계산된 값들도 엿보는 것도 가능할 것입니다. 

여기서 인간이 알 수 없는 것은 인공신경망이 현재 바둑판에서의 승산 및 다음 착수점 확률 분포를 계산하는데 사용한 계수값들의 의미입니다. 이러한 계수값들은 수십억 번의 훈련에 의해서 자동으로 그 값을 가지도록 조정되었기 때문에 왜 그런 값들을 가지게 되는지는 꽤나 설명하기 힘들 것입니다. 

인간으로 비유한다면, 뇌 신경 세포간의 연결 구조 및 연결 강도가 왜 그렇게 되어 있는지 설명하는 것과 비슷한 일이 될 것입니다. 그러나 보통은 그러한 연결 구조 및 강도에 대한 설명 없이도 인간(타인)의 사고를 어느 정도 이해하는 것이 가능하다고 보지 않습니까? 더구나 알파고의 경우 사고의 중간 단계를 면밀하게 관찰할 수 있기에 그 정도면 알파고의 생각을 이해한다고 봐도 좋지 않을까 싶습니다.

2. 알파고가 인간에 비해 매우 강함에도 생각보다 작은 차이로 이기는 이유는 무엇일까?

"알파고는 99퍼센트의 확률로 100집 차이로 이기는 것보다 100퍼센트의 확률로 1집 차이로 이기는 것을 선호하기 때문이다."
알파고의 인공신경망 훈련에서 몇 집 차이로 이기느냐와 상관 없이 승/패에 따라서 계수값 조정이 이루어졌기 때문에 이 설명도 분명 맞다고 생각합니다. 어쨌든 알파고의 인공신경망은 몇 집을 이기느냐와 관계 없이 승률이 조금이라도 높은 쪽을 선택하도록 훈련되었기 때문이죠. 그런데 인공신경망 훈련 방법 뿐이 아니라 프로그램에서 사용한 알고리즘에서도 이에 대한 원인을 찾을 수 있지 않을까 합니다.

알파고는 다음 착수점을 결정하기 위해 몬테카를로 트리 탐색을 사용하는데, 이 때 상대도 자신과 같은 수준의 사고를 한다고 가정하여 수읽기를 진행합니다. 즉 상대방도 자신(알파고)이 생각할 수 있는 최선의 수를 사용하여 대응한다는 가정 하에 자신의 수를 탐색하는데, 이는 인간 최고수와 알파고의 실력차이가 꽤 나는 지금의 상황에서는 지나치게 엄격한 것이죠. 알파고는 그러한 엄격한 상황에서 바둑을 두기 때문에 싸움에서 큰 이득을 못보고 작은 차이로 이기는 결과가 나오는 것이 아닌가 하는 생각도 듭니다. 사실 알파고의 몬테카를로 트리 탐색 알고리즘을 제가 완벽하게 이해하지 못했고(논문만 봐서는 잘 모르겠네요. 실제 코드를 봐야...) 바둑에 대해서도 잘 모르기 때문에 이 부분은 잘못된 망상일 가능성이 있습니다만, 그렇다고 알파고가 일부러 인간을 봐주고 있다든가 하는 생각은 전혀 들지 않습니다. 기계는 늘 최선을 다할 뿐입니다.

만약 바둑 고수가 아닌 바둑 룰도 모르는 평범한 인간과 알파고의 대국을 시키되, 인간측이 돌을 먼저 여러 개 놓고 하는 접바둑을 둔다면 의외로 알파고가 초반에 패배선언을 할 수도 있다고 봅니다. 평범한 인간이 상대라고 하더라도 자신와 동등한 상대로 생각하고 승률 계산을 할 터인데 돌을 몇 개씩이나 먼저 두고 시작한다면 초반부터 패배 확률이 지나치게 높게 나올 가능성이 있을 수 있습니다. 물론 이는 딥마인드측에서 패배 조건을 좀 더 엄격하게 하거나, 시작 후 몇십 턴 이내의 패배선언은 금지하는 안전장치를 프로그램에 만들어두면 나오지 않을 상황이긴 합니다.

3. 완벽하게 안전한 인공지능은 가능할 것인가?

미래에 인공지능이 바둑에 그치지 않고 가사, 운전, 전투 등 훨씬 복잡한 판단이 필요한 분야로 퍼져나갈 경우 분명 인간이 원하지 않았던 행동을 할 여지도 있을 것입니다. 인간에게 무해한 인공지능을 만드는 것이 과연 가능할까요? SF소설가 아이작 아시모프가 제창한 "로봇공학 3원칙"은 다음과 같습니다.

제1원칙: 로봇은 인간에게 해를 입혀서는 안 된다. 그리고 위험에 처한 인간을 모른 척해서도 안 된다.
제2원칙: 제1원칙에 위배되지 않는 한, 로봇은 인간의 명령에 복종해야 한다.
제3원칙: 제1원칙과 제2원칙에 위배되지 않는 한, 로봇은 로봇 자신을 지켜야 한다.

꼭 이와 동일한 원칙이 아니더라도 안전 장치는 필요할 것입니다. 여기서는 일단 알파고처럼 인공신경망에 기반한 인공지능만을 생각해보고자 합니다. 인공신경망에 안전한 원칙들이 들어가도록 "프로그래밍"할 수는 없기 때문에, 인공신경망을 제어하는 프로그램에 이 원칙을 넣거나 인공신경망 자체가 이러한 원칙을 지키도록 "훈련"시켜야 할 것입니다. 그런데 알파고보다 훨씬 복잡한 일을 수행하는 인공지능에서 과연 이러한 추상적인 프로그램이 가능할 지 의문이며(그러기 위해서는 인공신경망을 제어하는 프로그램 자체도 결국 인공지능에 가까워야 할 것입니다.), 인공신경망이 이러한 원칙을 완벽하게 지킬 수 있도록 훈련시킬 수 있을까 하는 것도 의문이 듭니다. 이런 이유로 절대적으로 안전한 인공지능은 힘들다고 생각됩니다.

또한 범용 로봇에서 이러한 제어 프로그램이 여러 개의 인공신경망 - 바둑 인공신경망, 운전 인공신경망, 가사 인공신경망 등을 관리하는 상황도 상상해볼 수 있습니다. 그러다가 과학적인 호기심과 기타 이유로 여러 개의 인공신경망을 하나로 합치는 과정에서 인공신경망이 창발적인 사고(자아?) 비슷한 것을 가지게 될 가능성도 있지 않을까 합니다. 그런 상황에서는 인공신경망이 제어 프로그램의 감시를 피해 원하는 바를 추구하는 다소 SF소설같은 전개도 그려볼 수 있지 않을까요.

마지막 망상입니다만, 인공신경망을 이용하는 인공지능이 대중화될 경우 로봇 심리학자라는 직업이 생겨날 수도 있다고 봅니다. 인공지능이 기대와 다른 행동을 했을 경우 왜 그러한 행동을 하게 되었는지 분석할 필요가 있을 것입니다. 그런데 인공신경망은 기존의 프로그램과는 달리 인간의 뇌를 훨씬 많이 닮았기에, 이를 디버깅하기 위해서는 정신과 의사와 같은 접근 방법이 필요할 수도 있다고 생각합니다. 이 글을 쓰다보니 마치 블레이드 러너에서 바운티 헌터들이 레플리컨트들를 인간과 구별하기 위해 이상한 질문들을 던지던 상황이 연상되네요. 인공지능에게 적당한 질문을 던지고 인공신경망의 출력값들을 모니터로 확인하면서 인공지능의 심리상태를 체크하는 기계 심리학자의 모습을 상상해봅니다.

통합규정 1.3 이용안내 인용

"Pgr은 '명문화된 삭제규정'이 반드시 필요하지 않은 분을 환영합니다.
법 없이도 사는 사람, 남에게 상처를 주지 않으면서 같이 이야기 나눌 수 있는 분이면 좋겠습니다."
세종머앟괴꺼솟
17/05/26 16:23
수정 아이콘
1, 2번에 대해서 대체적으로 동의합니다. 인터넷상에서 인공지능에 대해 실체보다 과하게 부풀려져서 인식되는 경향이 있는데,
제가 보기에 거의 정확하게 현 시점에서의 인공지능의 동작에 대해서 잘 쓰셨다 싶었는데.. 그동안 자게에서 쓰셨던 관련 글들 전부 좋은 글들이었네요 크
17/05/26 16:58
수정 아이콘
읽어주셔서 감사합니다. 알파고 얘기만 나오면 흥분되네요.
17/05/26 16:23
수정 아이콘
3에 관해 하나 떠오른 생각인데요. 어차피 인간도 인간에게 무해하지 않습니다. 애초에 인간이 인간에게 절대적으로 안전하지가 않은데 그런 인공지능은 만들 수도 없고 만들 필요도 없다고 봅니다. 인간에게 피해를 줘도 괜찮다는 얘기는 아닙니다만 애초에 불가능한 기준이라는 느낌이네요.
테슬라의 자율주행 연구에 대해서도 비슷한 입장입니다. 인간도 사고율 제로가 아닌데 자율주행 로봇에게 사고율 제로를 바란다는 건 억지고 인간보다 낮은 사고율만 충족시킨다면 빠르게 상용화시켜도 좋겠다는 생각입니다.
사성청아
17/05/26 16:32
수정 아이콘
아무래도 사고시 책임소재가 문제가 되겠죠
감정적으로는 내가 다친데에 대해서 누군가 책임을 졌으면 하는 마음이 있을테니까요

사고율이 줄어들면 보험비도 줄어들고 보상액도 커질 것이기 때문에
보험으로 이런 감정을 중화하는 방향으로 갈거 같습니다
비둘기야 먹자
17/05/26 16:51
수정 아이콘
테슬라 예는 동의할 수 없는게 애초에 자율주행을 연구하는 목적이 사고율을 0에 수렴하도록 만드는건데 그게 억지라면...
17/05/26 16:58
수정 아이콘
음... 연구의 최종 목적은 당연히 그러하겠지만 실제 어느 정도 실용화 가능 단계에서 자율주행 로봇의 사고율이 인간의 사고율보다 훨씬 낮은 수치임에도 불구하고 0이 아니라는 이유로 실용화를 반대한다면 그것은 옳지 않다는 의미였습니다. 0에 수렴하도록 노력하고 연구하는 것과 별개로 0이 될 수는 없는 거잖아요.
17/05/26 17:01
수정 아이콘
자율주행 정도의 인공지능이라면 완벽하진 않더라도 사람보다 사고율만 적으면 될 것 같은데, 정치나 군사 용도의 인공지능이 생겨난다면 안전 이슈가 굉장히 크게 다가올 것 같습니다.
17/05/27 19:52
수정 아이콘
완전 자율주행과 사고율을 비교해야 할 대상은 인간이 아니라 2단계 자율주행 기술인 driving assistant입니다
이 단계는 이미 상용화 단계고 이 단계만 완전히 구현되도 운전자가 의도적으로 사고를 내지 않는 이상 사고율은 거의 0에 수렴할겁니다
결국 인공 지능에게 차량 제어권을 넘기는건 사고율이 목적이 아니라 운전자 편의가 목적일 가능성이 높고 이 단계까지 가려면 아마 사고율 제로를 만족하는 수준까지 가야할 듯 합니다
아수라발발타
17/05/26 16:30
수정 아이콘
안전하고 좋은성능을 가진 단단한 "도구"라....
김소혜
17/05/26 16:39
수정 아이콘
1번의 경우에 대해 첨가해보자면

인공지능이 조금 과장되어있는것이 맞고 실제로 작동되는 원리는
인간이 느끼는 '생각'은 사실 존재하지 않고 '계산' 하고 있을뿐이죠.
애초에 '생각'이 존재 하지 않는데 개발자들이 무슨 '생각'을 하는지 알수있는것은 불가능하죠.

인간이 보기에 알파고가 내놓는 결과물이
'계산하는게 아니라 사람처럼 생각해야 나올수있는 결과물'이라고 보기에
마치 '생각하고 있다' 라고 오해하게되고
아직 '약인공지능'의 단계일뿐인데
'강인공지능'이 등장한것처럼 과장되게 오해하는 경우가 종종 보이죠.

조금 낮춰 표현하면 아직까지도 알파고는 '아주아주 잘 만든 계산기' 일뿐이고
인류를 위험에 빠지게 만들수도있다는 '강인공지능'에는 사실 아직도 머나먼 일이죠.
뭐 언론에서는 과장되게 표현하고있긴 하지만 실제 이쪽에 조금 관심이 있는 사람기준에는
'강인공지능'에 대해 걱정하는것 자체가 한심해보일정도로 '강인공지능'에 대해 생각하기에는 인공지능의 개발수준이 밑바닥이나 다름없습니다.

강인공지능 기준에서 밑바닥인것이지 알파고의 메커니즘이 별거없다라는 것은 아닙니다.
17/05/26 16:58
수정 아이콘
저는 인간의 감정이나 생각도 뉴런에 의한 고도로 복잡한 '계산'의 결과라고 생각합니다. 물론 제 생각이 틀렸을 가능성도 많습니다.
이슬먹고살죠
17/05/26 17:15
수정 아이콘
인간의 감정과 생각이 실제로 존재하는지에 대한 논의조차도 결론이 난 게 아니기 때문에, 65C02님의 생각을 "틀렸다"고 확신하는 사람은 없을 겁니다.
이슬먹고살죠
17/05/26 17:14
수정 아이콘
정확히 말씀하셨습니다. 다만 하나 덧붙이고 싶은 게 있는데요, '아주아주 잘 만든 계산기'를 조금 바꿔서 '아주아주 잘 만든, 아주아주아주아주 빠른 계산기' 라고 하고 싶습니다.

머신러닝 알고리즘 자체는 최근에 발견된 것이 아닙니다. 예전부터 알고 있었는데 효용성이 없어서 실전에 쓰지를 않은 것 뿐.
머신러닝이 흥하고 있는 현상이 벌어진 이유 중 가장 핵심적인 요소는 컴퓨터가 '진짜' 빨라졌기 때문이죠.
천천히빠르게
17/05/29 02:55
수정 아이콘
말씀하신 것과는 달리 알고리즘 면에서도 상당한 변화가 있었습니다. 오버피팅(과적합)을 막는 것에 있어서 괄목한 발전을 해냈죠.

작금의 현상은 소프트웨어의 발전과 하드웨어의 발전 모두가 있었기에 가능한것입니다.

아이디어는 예전부터도 있었던 것이지만, 그것들이 실제로 쓸만해지게 만든 알고리즘은 최근에 개발된거예요
17/05/26 17:55
수정 아이콘
강인공지능도 계산을 쌓아올린 결과일 뿐이고 '왜 저렇게 계산하는지 모르겠다'를 '생각'이란 단어로 표현한 것 뿐이겠죠.
사실 '생각'이란 단어에는 '자의식'이란 개념이 들어가야 하는거 같기도 한데... 자의식이 진정한 지능의 필요조건인지 아닌지 잘 모르겠네요. 진정한 지능이 뭔지도 잘 모르겠구요.
아케이드
17/05/26 19:48
수정 아이콘
근본적으로는 인간의 지능이라는 것도 수많은 계산의 집합체일 뿐이죠.
arq.Gstar
17/05/26 20:03
수정 아이콘
'강인공지능'에 대해 걱정하는것 자체가 한심해보일정도로 '강인공지능'에 대해 생각하기에는 인공지능의 개발수준이 밑바닥이나 다름없습니다. ---> 동의합니다.
17/05/26 17:38
수정 아이콘
인간에게 해를 끼쳐서는 안되지만(1원칙), 어떤 인간이 테러와 같은 엄청난 악행으로 여러 사람을 위험하게 만든다면(2원칙) 어떻게 반응할까요.
완전한 인공지능으로 발전해 간다면 결국 스스로의 판단 과정이 있을텐데, 그 가치 판단이 현재 인간이 보편적으로 생각하는 가치와 달라질 수 있다는 것이 두렵습니다.
당장 인간도 테러리스트는 미리 사살해버려야 한다는 사람과, 인권 차원에서 안된다는 사람이 있을 수 있으니까요. 기계는 어떻게 판단할런지. 결국 인간은 불완전한 존재라는 결말에 도달하지 않을까 합니다.
리들리스콧 찬양해..
raindraw
17/05/26 17:46
수정 아이콘
작은 차이로 이기는 것에 대해서는 이렇게 생각합니다.
1. 알파고는 항상 최선의 수를 찾아서 둠.
2. 최선의 수는 무엇인가 하면, 알파고를 학습 시킬 때 목표를 많은 차이를 내는 것으로 하지 않고
단순히 이기는 것으로 목표로 한 듯 함.
3. 그럼 A란 묘수와 B란 떡수를 두었을 때 이길 확률이 둘 다 100%라면
4. 알파고에게 A와 B는 동등한 가치를 지니는 수임.
5. C라는 순간 다수의 100% 이기는 수가 발견이 되면 알파고는 A와 B 중 아무것이나 선택함
6. 결국 C, C+1, C+2, C+3, ~ C+N 이라는 과정이 반복이 되면 B를 선택하는 경우도 늘어나게 됌
7. 결국 더 많은 차이로 승리하는 길이 존재하지만 작은 차이로 승리하는 길을 가게 됌

물론 이런 식은 학습목표를 우선적으로 승리, 다음으로는 더 많은 집을 확보하는 것으로 한다면 개선될 수 있는 사항이죠.
아케이드
17/05/26 19:50
수정 아이콘
동의합니다.
도라귀염
17/05/26 17:46
수정 아이콘
2번은 인공지능 바둑의 역사에 대해 잘 모르셔서 그렇게 생각하시는듯 합니다 알파고보다 훨씬 떨어지는 인공지능인 젠의 경우에도 접바둑이 매우 강합니다 젠은 몬테카를로 방식만 사용했는데도요 제가 타이젬2-3단 왔다 갔다 할때도 젠5한테 3점깔면 거의 못이기고 4점 깔아야 둘만했거든요
젠5<젠6<딥젠고<알파고이세돌<알파고 마스터 정도로 보심 되니까 말이죠
17/05/26 19:00
수정 아이콘
알파고가 접바둑에 약하다는 의미가 아니라, 지나치게 보수적으로 상황을 판단해서(현 바둑판 상황에서 승률 30퍼센트 이하면 무조건 항복이라든지) 일찍 패배 선언을 할 여지도 있다는 뜻이었습니다. 끝까지 두면 알파고가 당연히 이기는 상황인데도 말이죠. 물론 이정도는 딥마인드에서 안전장치를 해 두었을 것으로 생각합니다.
17/05/26 17:50
수정 아이콘
nature 논문 기준으로 볼때 2번은 충분히 설명이 가능할 것으로 보입니다..
(물론 제 추측입니다;;;)

일단 Policy network: SL network, Value network: rollOut policy+RL network 가 최적으로 나와 있으니.. 그걸 썼을것이라 가정하고...
MCTS 에서는 Policy network 를 이용해 시뮬레이션할 착수를 결정하고 Value network 를 기준으로 그 시뮬레이션 착수를 평가하고 평가 결과에 따른 피드백을 시킵니다.
이러한 MCTS "시뮬레이션할 착수 결정->착수 평가->평가 결과 피드백"을 주어진 시간동안 반복하다가 시간이 다 되면 그때까지 나온 최선의 수를 선택하게 됩니다..

그런데 후반으로 가서 판이 뻔해지고 어떻게 둬도 알파고가 유리하게 되었다면...
1번째로 선택된 "시뮬레이션할 착수 결정" 를 가지고 아무리 "착수 평가->평가 결과 피드백" 을 거쳐도 "시뮬레이션할 착수 결정" 을 뒤집을만한 결과가 나오지 않을껍니다.
왜냐 판이 이미 뻔해지고 누가 봐도 유리하니깐 예측 결과는 크게 다르지 않을꺼고 결국 피드백에 따른 업데이트가 안될꺼라는거죠..
결국 SL Policy Network 에 의해 1번째로 선택된 "시뮬레이션할 착수 결정" 이 별다른 피드백 없으므로 MCTS 가 반복 적용되도 계속 선택되는 사태가 벌어질꺼라는거죠...
비록 숨어 있는 더 좋은 수가 있다 하더라도. 앞의 선택된 수가 피드백을 통해 부정되어야 뒤에 숨어 있는 더 좋은 수가 검증받을 기회가 있는건데.. 그 기회가 없으니 1번째로 선택된 무조건(하지만 최적은 아닌) 이기는 수가 선택된다는거죠...

결론적으로 막판에 가서 알파고가 뻔하게 유리해지면 SL Policy Network 만 주로 동작하게 되는 사태가 생겨서 그런 일이 벌어지는게 아닐까 합니다..
17/05/27 11:07
수정 아이콘
http://imgur.com/a/OPjFr 논문 이미지입니다.

논문에서 "that is proportional to the prior probability but decays with repeated visits to encourage exploration." 부분이 SL Policy network에서 좋은 평가가 나온 특정 착수점에 집착하지 않고 더 많은 착수점들을 탐색하도록 하는 부분이라고 생각했는데 어떻게 생각하시는지요? 정확하게 어떻게 돌아가는지 잘 몰라서 드리는 질문입니다.
17/05/27 16:55
수정 아이콘
저도 잘 모르지만;; 나름데로 한번 생각을 해보면..
경기 막판에 가서 판이 거의 확정이 된 상태에서는 그런 decay term 은 효과가 없을것 같은데

만약에 막판에 가서 거의 승부가 확정이 된 상태에서 이런식으로 decay term 에 의해 기회가 고르게 주어진다 해도..
그 기회를 이용해 Value network 값의 업데이트에 성공하지 못하면
그 기회는 바로 그 decay term 에 의해 다음번 후보로 순서로 넘어갈것이고..
decay term 에 의해 고르게 기회가 주어짐에도 불구하고 Value network 는 거의 업데이트가 안될것이고...
그러면 전부다 decay term 효과를 받게 되서 결국은 1번째 후보에게까지 다시 순서가 되돌아 올것 같습니다.

근본적인 부분으로 돌아가서 생각해 볼때도...
현재 프로끼리 바둑은 승부가 기울면 양쪽은 승부수를 던지거나 몸조심 하는 등의 이유로 최적의 끝내기를 안 하죠..
물론 프로에서 승부가 박빙일때는 양쪽이 끝내기를 최적으로 하지만요..
알파고가 그런 기보들을 기반으로 학습했기에 승부가 박빙이면 최적으로 끝내기를 하고 그렇지 않으면 최적의 끝내기가 안 나오는게 아닐까 막연히 추측해 봅니다...
이를 해결하려면 가장 쉬운 방법은 승부가 기울어도 양쪽이 끝내기를 최적으로 한 그런 기보들을 많이 확보해서 그걸로 학습하면 될듯 합니다..

아울러 이를 역설적으로 생각해 본다면...
알파고가 승부가 기운 상태에서 최적의 끝내기한 기보를 많이 학습하지 않고도. 승부가 기운 상태에서 (편법을 안 쓰고;;;) 최적의 끝내기를 하는데 성공한다면..
이 또한 학습 데이터에 없는 부분을 찾아내서 스스로 익힌 놀라운 사례가 되지 않을까 하네요...
(요즘 이 쪽 분야에서 유행하는 이슈죠^^)
17/05/26 17:52
수정 아이콘
1번의 경우는 맞는 말이지 않나요? 알파고는 이렇게 느낀다(신경망), 그런데 왜 그렇게 느끼는지는 모른다 이런 얘기니...
3번은 지능이 뭔지 더 잘 알고 나서, 완벽한 지능이 (이론적으로) 가능할 것인가 부터 알고 나야 토론 가능한 주제 같기도...
17/05/27 10:23
수정 아이콘
1번의 경우 정확히는 "인공신경망에 입력을 넣으면 원하는 출력이 나온다. 그런데 왜 그렇게 나오는지는 모른다."라는 얘기로 보입니다.
그런데 인공신경망에서 특정 입력에 대해서 원하는 출력이 나오는 이유는, 그렇게 되도록 사전에 '훈련'시켰기 때문입니다. 그 훈련의 수학적인 근거는 이미 수십년 전에 증명된 것이고요. 저는 알파고나 인공신경망에 대해서 "개발자들도 왜 그렇게 되는지 모릅니다." 라는 식으로 신비한 이미지를 갖게 되는 것은 조금 문제가 있다고 생각합니다. 사실은 개발자들은 충분히 그 동작 원리에 대해서 이해하고 있음에도 말입니다.
꽃샘추위
17/05/26 20:36
수정 아이콘
나중에 혼자 닥터게로의 컴퓨터처럼 인조인간을 만들어낼수도 있겠다 혼자 변기위에서 생각해봅니다
그림자
17/05/26 22:37
수정 아이콘
1. "알파고의 생각은 개발한 사람들도 잘 모른다"에 대한 진실은?
모르는 것 맞습니다. 입력값을 상황정보라고 보는게 아니라, 바둑판의 각각 좌표와 돌 여부를 입력값이라고 보고, 그 다음에 어느 점에 놓는게 승률이 더 높은지 확률 계산을 하는 것 입니다. 통계와 예측이죠.
그런데 이 변수가 너무나 많기 때문에 일반적인 통계로는 처리가 안되서 (보통은 변수 3-4개만 되도 허덕..) 불가능하다고 봤는데 그것을 해내고 있다는 것이 놀라운 것이고, 저 신경망 방식의 통계는 .... 정말 사람도 모릅니다.
정확히는 결과는 나오는데 과정은 사람이 이해할 수 없습니다. 그 말이 맞아요. 너무 복잡하게 나옵니다. 변수가 2-3개만 되도 이해가 어려운데 바둑 정도의 변수라면? 이건 이해 자체가 안됩니다. 머리에 그림이 안그려지거든요.

신경망 방식이란 것이 사실 별것은 아닙니다. 여러 통계 프로그램에서 많이 쓰이고 있죠. 느리고 복잡해서 그렇죠.
목록 삭게로! 맨위로
번호 제목 이름 날짜 조회 추천
72085 [일반] 게임업체로 살펴보는 IT 5대 기업의 영향력 [29] Leeka7802 17/05/27 7802 3
72084 [일반] 전 세계에서 언론이 가장 자유로운 국가 Top10 [16] 김치찌개6534 17/05/27 6534 1
72083 [일반] 커제를 위하여 - 고독한 인간의 싸움 [57] 유유히11372 17/05/27 11372 22
72082 [일반] 미국, 지미 카터 ‘외교책사’ 브레진스키 별세…향년 89세 [3] 테이스터4428 17/05/27 4428 0
72081 [일반] 민주당 - 국민의 당 호남 지지율 [40] 바스테트10967 17/05/27 10967 3
72079 [일반] 국민 10명 중 6명, '이낙연 총리 임명에 문제 없다' [92] 길갈11284 17/05/27 11284 5
72078 [일반] 국민의당. 방통위 상임위원으로 고영신 교수 선정 [18] The xian10521 17/05/27 10521 4
72077 [일반] 주인공이 여자랑 섹스하니 작가는 호모포비아입니다 [49] lenakim15273 17/05/27 15273 4
72076 [일반] (이미지,시즌7스포) 타이밍 많이 늦은 워킹데드 이야기 (주로 니건) [23] OrBef10027 17/05/27 10027 0
72075 [일반] 도대체 뭘 감추고 싶었던걸까요 (기사첨부) [37] 바스테트14521 17/05/27 14521 9
72072 [일반] 알파고, 인공지능의 동작에 대한 몇가지 망상 [31] 65C0210894 17/05/26 10894 3
72071 [일반] 이낙연 국무총리후보자 인사청문경과보고서 채택 난항중... [463] Neanderthal28241 17/05/26 28241 10
72070 [일반] 서울 고가도로공원의 슈즈트리가 비를 맞고 스포닝풀이 되었습니다. [66] 삭제됨14346 17/05/26 14346 4
72069 [일반] 영화 "노무현입니다."를 보고. [22] 삭제됨12192 17/05/26 12192 15
72067 [일반] 비트코인 결제사용자로서 [30] minyuhee10894 17/05/26 10894 7
72066 [일반] 코인 초보의 좌충우돌 경험기 [98] 고통은없나11463 17/05/26 11463 7
72065 [일반] "전국민 수두파티하고 싶다"..'안아키' 김효진 한의사 인터뷰 [126] 꿈꾸는용17445 17/05/26 17445 6
72064 [일반] 아재의 분노의 주저리.... [21] 운동화127807 17/05/26 7807 6
72063 [일반] A대위 사건에 대한 다른 시각 [53] Lamy Safari10441 17/05/26 10441 5
72061 [일반] 불완한 세계 [15] 王天君7477 17/05/26 7477 2
72059 [일반]  대왕 카스테라집이 망했습니다. [126] 솔빈18902 17/05/25 18902 26
72058 [일반] 오늘 있었던 청와대 관련 뉴스 [70] The xian13284 17/05/25 13284 21
72057 [일반] 아시아 정치지도 0.1 (2017년 5월) [29] 말코비치9846 17/05/25 9846 4
목록 이전 다음
댓글

+ : 최근 1시간내에 달린 댓글
+ : 최근 2시간내에 달린 댓글
맨 위로