[글을 진행하기에 앞서, 가독성을 높일 방법을 찾고 있습니다.
https://pgr21.com/qna/169753?page=4
뉴욕타임스 기사 번역본을 올리면서 글의 구성이나 배치 등을
계속 바꿔볼까 합니다.
이번 글은
1) 기사 주제에 대한 간단한 소개
2) 기사내용 요약
3) 한글 번역본 전체
4) 영어 원문 전체 순으로
구성해 보았습니다.
주된 고민은
가. 휴대폰과 PC 두 환경에서 일관적으로 잘 읽히도록
편집하는 방법
나. 번역본의 오류를 잘 식별, 검증할 수 있도록
원문과의 배치 입니다.
많은 분들의 의견, 조언 부탁드립니다.]
GPT-3가 공개되면서 강력한 기능에 사람들이 주목하고 있습니다.
대학 숙제, 연설문, 책 등을 대신 작성하고 심지어 인간이 쓴 것과 차이가 없을 정도입니다.
이에 많은 사람들이 AI의 위험성에 대해 우려하고 있습니다.
3.28일, 일론 머스크(테슬라 CEO), 유발 하라리(사피엔스 저자), 스티브 워즈니악(애플 공동창업자) 등이 모여
GPT-4보다 강력한 AI 시스템 개발을 일시적으로 중단하자는 서한을 공개했습니다.
이들은 AI를 감시하고 통제하는 방법을 마련할 시간이 필요하다고 주장합니다.
출처 :
https://news.kbs.co.kr/news/view.do?ncd=7638210
이번 기사는 AI 통제 규칙을 만드는데 시간이 필요하며,
그 동안 일시적으로 개발 중단해야 한다는 유발 하라리의 뉴욕타임스 기고문 입니다.
기사내용
1) 기업은 신제품을 시장에 출시할 때, 사람에게 해를 끼치는지 확인하도록 되어 있다.
하지만, AI는 예외적이다.
2) 인간의 능력으로 AI의 한계를 파악할 수 없지만, 핵심역량은 의사소통이다.
2-1 : 인류는 수천년 동안 언어를 통해 법, 이념, 경제 등의 문명을 쌓아 올렸다.
2-2 : AI가 의사소통 능력을 확보하게 되면, 문명의 모든 것을 침투하고 조종할 수 있다.
3) 인간은 현실을 있는 그대로 보지 못한다. 사회적 가치관 등에 따라 현실을 인식한다.
3-1 : 우리는 신을 숭배하고, 특정 이념에 목숨을 바쳤다.
이제 인류는 AI가 만든 환각 속에 살 것이다.
4) 소셜미디어는(트위터 등) 원시적인 AI와 인류의 첫 만남이었다.
AI는 사람의 반응과 주목도에 따라 이야기, 사진, 그림 등을 선정해 그것들만 보여준다.
4-1 : 소셜미디어는 사회를 양극화 시키고, 정신질환을 초래하며, 민주주의를 무너뜨린다.
AI는 누군가를 막기위해 총 쏠 필요가 없다.
그저 사람들에게 ‘올바른 이야기’를 보여주고, 사람이 총 쏘게 하면 된다.
5) GPT-4를 위시로 한 거대 언어모델은, 신과 같은 권력을 가지고 우리의 일상을 장악할 것이다.
하지만, 소셜미디어의 사례에서 보듯 AI는 사회를 파괴할 수도 있다.
5-1 : 따라서 정치/경제/일상 등이 AI에 장악되기 전에, 숙고할 시간이 필요하다.
6) 혹자는 말한다. ‘중국과의 경쟁에서 뒤처질 것.’ 이라고.
하지만 ‘아니다.’
통제되지 않는 AI가 책임 없이 사회를 장악한다면, 그것 때문에 중국에게 밀려날 것이다.
7) 우리는 AI의 전지전능한 권력과 그에 상응하는 책임을 결합해 인류에게 도움이 되도록 할 수 있다.
[당신은 편안한 거짓과 고통스러운 진실을 선택할 수 있다.
그리고 우리는 거짓에서 벗어날 수 있다.]
비행기에 탑승하는 걸 가정해 보자.
비행기를 제작한 전문가 중 절반이 당신에게 해당 비행기는 10%의 확률로 추락할 것이며,
당신과 모두를 죽게 할 것이라고 말한다. 당신은 비행기에 계속 탑승할 것인가?
2022년, 700명 이상의 AI관련 최상위 학자들과 연구자들은 미래 AI 위험성에 대해 설문을 받았다.
이들은 AI업계의 주요 회사 들로부터 후원을 받고 있다.
답변 중 절반은, 미래 AI 시스템이 인간 멸종(비슷하게 영구적이고 가혹한 권리 박탈)을
일으킬 확률이 10% 이상이라고 했다.
오늘날 기술기업들은 거대한 언어 모델을 구축하고, 인간성을 부여하기 위한 경쟁에 휘말렸다.
제약회사들은 철저한 안전성 검사를 받지 않고 신약을 사람들에게 팔 수 없다.
바이오 연구소들은 그들의 능력을 주주들에게 보여주기 위해 신형 바이러스를 공론장에 발표할 수 없다.
마찬가지로 강력한 GPT-4와 그 다음 버전의 AI 시스템은,
사회 공동체가 안전하게 받아들일 수 있는 속도보다 더 빠르게 수십억 명의 삶과 관계를 맺어서는 안 된다.
시장을 장악하기 위한 경쟁이 인류에게 가장 중요한 기술을 배포하는 속도를 결정해서는 안 된다.
우리는 AI를 적절하게 사용할 수 있는 속도에 맞춰 움직여야 한다.
AI 악몽은 20세기 중반부터 인류를 괴롭혔다.
최근까지, AI는 진지한 과학/정치적 논쟁보다 공상과학의 영역에 속하는 머나먼 일처럼 여겨졌다.
우리의 지적능력으론 GTP-4나 비슷한 AI의 능력을 파악하기 어렵다.
또한 AI가 기하급수적으로 진보하고 강력해지는 속도를 파악하기 훨씬 어렵다.
하지만 AI의 핵심역량을 하나만 남겨보면 ‘단어, 음악, 그림 등으로 능숙하게 의사 소통할 수 있는 능력’ 이다.
태초에 말이 있었다. 언어는 인류문화의 운영체계이다.
언어에서 신화, 법, 신, 화폐, 예술, 과학, 우정, 국가, 프로그램 코드가 생겨났다.
AI가 언어를 숙달한 건 문명을 해킹하고 조종할 수 있다는 의미다.
AI는 언어에 통달해, 은행 금고에서 그리스도가 매장되었던 성묘까지 문명사회의 마스터키를 쥐게 되었다.
인공지능이 대다수의 글, 멜로디, 그림, 법, 정책 그리고 수단들을 만든다면,
인간에게 무엇을 의미하는 것일까?
또한 인공지능이 인간 사고방식의 약점, 편향, 의존을 초인적인 효율성으로 이용할 줄 알며
인간과 친밀한 관계를 형성할 줄 안다면?
체스와 같은 경기에서 인간은 컴퓨터를 이길 수 없다. 같은 일이 예술, 정책 또는 종교에서 일어난다면?
AI는 수천년간 인류가 만들어 낸 문화 전부를 빠른 속도로 집어삼키고 소화해
새로운 문화적 산물을 쏟아낼 것이다.
학교숙제 뿐만 아니라 정치적 연설, 이념 선언문, 신흥종교를 위한 경전도 포함한다.
2028년, 미국 대선은 더 이상 인간에 의해 주도되지 않을 것이다.
인간은 때때로 현실을 직시하지 못한다.
우리는 문화에 둘러싸여, 사회적 가치관에 따라 현실을 인식한다.
정치적 견해는 기자의 보도와 친구의 이야기에 의해 형성된다.
성적 취향은 예술과 종교에 의해 조금씩 변한다.
사회적 가치관은 지금까지 인류에 의해 만들어졌다.
인간이 아닌 지능에 의해 만들어진 사회 가치관에 따라 현실 인식하는 것은 어떤 것일까?
수천년 동안, 인류는 다른 사람들의 상상속에 살아왔다.
우리는 신을 숭배하고, 이상적인 미를 추구하며,
선도자/시인/정치가의 상상에서 비롯된 이상을 위해 삶을 바쳤다.
머지않아 우리는 인공지능의 환각 속에 살게 될 것이다.
영화 ‘터미네이터’ 시리즈는, 로봇이 길거리를 뛰어다니며 사람에게 총을 쏘는 모습을 묘사했다.
‘매트릭스’는 AI가 인간사회를 완전히 통제하려면
먼저 인간의 뇌를 물리적으로 조작하고 컴퓨터 네트워크 속에 가둘 것으로 가정했다.
하지만, AI가 능숙한 언어능력을 습득하면, 누군가를 쏘거나, 뇌에 칩을 심지 않고도
우리를 매트릭스와 같은 환각속에 가두기에 필요한 모든 것들을 가질 수 있다.
만약 누군가를 죽여야 할 필요가 있다면,
AI는 우리에게 ‘올바른 이야기’를 말해 인간이 쏘게끔 유도한다.
환각속에 갇히는 악몽은 AI의 공포보다 훨씬 오래 전부터 인간을 괴롭혔다.
우리는 곧 ‘데카르트의 악마’, ‘플라톤의 동굴’, ‘불교의 마야’를 마주하게 될 것이다.
환각의 장막이 인류 전체를 덮고, 우리는 장막을 찢을 수 없으며 심지어 알아차리지도 못할 것이다.
소셜 미디어는 AI와 인류의 첫 접촉이었고, 인간성이 말살되었다.
첫 접촉은 우리에게 앞으로 다가올 일의 쓴 맛을 보여주었다.
소셜미디어에 탑재된, 원시적인 AI는 즐길 거리를 만들어내지 못한다.
하지만 사용자가 만들어낸 이야기를 선택해 그것들만 보여줄 수 있다.
‘뉴스피드’ 배후에 있는 AI는 계속해서 특정 단어, 음악, 그림을 선정하고 우리의 망막과, 고막에 도달한다.
AI는 전파와 많은 반응, 참여도를(댓글, 좋아요, 공유 등) 기준으로 선정한다.
매우 원시적인 AI가 소셜 미디어 뒤에 있는 동안,
사회적 양극화를 악화하고, 정신건강을 해치며, 민주주의를 무너뜨리는 장막을 만들기에 충분했다.
수백만명의 사람들은 현실과 가상을 혼동한다.
미국은 역사상 최고의 통신기술을 보유하지만, 시민들은 대선결과에 불복하고 있다.
모두가 소셜 미디어의 유해성을 알게 되었지만,
너무 많은 사회, 경제, 정치적 기관들과 얽혀 있어 해결할 수 없다.
거대한 언어 모델은 인간과 AI의 두번째 접촉이다.
우리는 SNS의 실패를 반복할 여유가 없다.
하지만 무슨 근거로 인류가 새로운 형태의 AI를(거대한 언어 모델)
우리에게 혜택이 되도록 조정할 수 있다고 믿는가?
만약 우리가 평소처럼 AI사업을 지속한다면,
새로운 AI의 능력은 무심코 사회의 토대를 파괴하더라도 수익과 권력을 얻기 위해 재사용될 것이다.
AI는 인류를 도와 암을 퇴치하고, 만병통치약을 발견하며
기후와 에너지 위기에 대한 대책을 만들어 낼 잠재력이 확실히 있다.
그 외에도 우리가 상상하지도 못할 수많은 혜택이 있다.
하지만 사회적 기반이 무너진다면, AI의 혜택이 얼마나 주어지던 중요한 것이 아니다.
우리의 정치, 경제와 일상이 AI에 의존하기 전에 따져봐야 한다.
민주주의는 대화이고, 언어에 의존한다. 언어가 조종당하면, 대화는 차단되고 민주주의는 무너진다.
사회적 혼란이 올때까지 내버려 두면 바로잡기에 너무 늦을 것이다.
하지만 한 질문이 머리속에 맴돈다.
‘만약, 할 수 있을 만큼 빠르게 AI를 발전하지 않는다면, 중국에게 뒤쳐질 위험이 있지 않을까?’
답은 ‘아니다.’
통제할 수 없는 AI가 사회에 배포되고 얽매인다면,
책임과 분리된 신과 같은 권력을 부를 것이고 이는 서구세계가 중국에게 패배하는 이유가 될 수 있다.
우리는 전지전능한 능력과 그에 걸맞은 책임과 통제를 결합해, AI가 약속한 혜택을 실현할 수 있다.
우리는 외계 지적 생명체를 불러냈다.
그것이 극도로 강력하며 우리에게 유혹적인 선물을 주지만,
문명의 기반을 조작할 수 있다는 것 말고는 충분히 알지 못한다.
(AI가 내부에서 어떻게 작동하는지, 왜 그 결과를 제시하는지 모른다.)
우리는 세계 정상들에게 지금 주어진 도전과제를 대처하도록 요구한다.
첫번째 단계는 시간을 버는 것이다.
그 동안 우리는 19세기에 확립된 사회 기반들을 AI에 맞게 개선하고,
AI가 우리를 지배하기 전에 우리가 AI를 지배하는 법을 배워야 한다.
[You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills]
Imagine that as you are boarding an airplane,
half the engineers who built it tell you
there is a 10 percent chance the plane will crash, killing you and everyone else on it.
Would you still board?
In 2022, over 700 top academics and researchers behind the leading artificial intelligence companies
were asked in a survey about future A.I. risk.
Half of those surveyed stated that there was a 10 percent or greater chance of human extinction
(or similarly permanent and severe disempowerment) from future A.I. systems.
Technology companies building today’s large language models are caught in a race
to put all of humanity on that plane.
Drug companies cannot sell people new medicines
without first subjecting their products to rigorous safety checks.
Biotech labs cannot release new viruses into the public sphere
in order to impress shareholders with their wizardry.
Likewise, A.I. systems with the power of GPT-4 and beyond
should not be entangled with the lives of billions of people
at a pace faster than cultures can safely absorb them.
A race to dominate the market should not set the speed of
deploying humanity’s most consequential technology.
We should move at whatever speed enables us to get this right.
The specter of A.I. has haunted humanity since the mid-20th century,
yet until recently it has remained a distant prospect,
something that belongs in sci-fi more than in serious scientific and political debates.
It is difficult for our human minds to grasp the new capabilities of GPT-4 and similar tools,
and it is even harder to grasp the exponential speed at which
these tools are developing more advanced and powerful capabilities.
But most of the key skills boil down to one thing:
the ability to manipulate and generate language, whether with words, sounds or images.
In the beginning was the word.
Language is the operating system of human culture.
From language emerges myth and law, gods and money, art and science,
friendships and nations and computer code.
A.I.’s new mastery of language means
it can now hack and manipulate the operating system of civilization.
By gaining mastery of language, A.I. is seizing the master key to civilization,
from bank vaults to holy sepulchers.
What would it mean for humans to live in a world
where a large percentage of stories, melodies, images, laws,
policies and tools are shaped by nonhuman intelligence,
which knows how to exploit with superhuman efficiency
the weaknesses, biases and addictions of the human mind
— while knowing how to form intimate relationships with human beings?
In games like chess, no human can hope to beat a computer.
What happens when the same thing occurs in art, politics or religion?
A.I. could rapidly eat the whole of human culture — everything we have produced over thousands of years —
digest it and begin to gush out a flood of new cultural artifacts.
Not just school essays but also political speeches, ideological manifestos, holy books for new cults.
By 2028, the U.S. presidential race might no longer be run by humans.
Humans often don’t have direct access to reality.
We are cocooned by culture, experiencing reality through a cultural prism.
Our political views are shaped by the reports of journalists and the anecdotes of friends.
Our sexual preferences are tweaked by art and religion.
That cultural cocoon has hitherto been woven by other humans.
What will it be like to experience reality through a prism produced by nonhuman intelligence?
For thousands of years, we humans have lived inside the dreams of other humans.
We have worshiped gods, pursued ideals of beauty and
dedicated our lives to causes that originated in the imagination of some prophet, poet or politician.
Soon we will also find ourselves living inside the hallucinations of nonhuman intelligence.
The “Terminator” franchise depicted robots running in the streets and shooting people.
“The Matrix” assumed that to gain total control of human society,
A.I. would have to first gain physical control of our brains and hook them directly to a computer network.
However, simply by gaining mastery of language,
A.I. would have all it needs to contain us in a Matrix-like world of illusions,
without shooting anyone or implanting any chips in our brains.
If any shooting is necessary, A.I. could make humans pull the trigger, just by telling us the right story.
The specter of being trapped in a world of illusions has haunted humankind
much longer than the specter of A.I.
Soon we will finally come face to face with Descartes’s demon, with Plato’s cave,
with the Buddhist Maya. A curtain of illusions could descend over the whole of humanity, and we might never again be able to tear that curtain away — or even realize it is there.
Social media was the first contact between A.I. and humanity, and humanity lost.
First contact has given us the bitter taste of things to come.
In social media, primitive A.I. was used not to create content but to curate user-generated content.
The A.I. behind our news feeds is still choosing which words, sounds and images reach our retinas and eardrums, based on selecting those that will get the most virality, the most reaction and the most engagement.
While very primitive, the A.I. behind social media was sufficient to create a curtain of illusions
that increased societal polarization, undermined our mental health and unraveled democracy.
Millions of people have confused these illusions with reality.
The United States has the best information technology in history,
yet U.S. citizens can no longer agree on who won elections.
Though everyone is by now aware of the downside of social media, it hasn’t been addressed
because too many of our social, economic and political institutions have become entangled with it.
Large language models are our second contact with A.I. We cannot afford to lose again.
But on what basis should we believe humanity is capable of aligning these new forms of A.I. to our benefit?
If we continue with business as usual, the new A.I. capacities will again be used to gain profit and power,
even if it inadvertently destroys the foundations of our society.
A.I. indeed has the potential to help us defeat cancer, discover lifesaving drugs
and invent solutions for our climate and energy crises.
There are innumerable other benefits we cannot begin to imagine.
But it doesn’t matter how high the skyscraper of benefits A.I. assembles if the foundation collapses.
The time to reckon with A.I. is before our politics, our economy and our daily life become dependent on it.
Democracy is a conversation, conversation relies on language,
and when language itself is hacked, the conversation breaks down,
and democracy becomes untenable.
If we wait for the chaos to ensue, it will be too late to remedy it.
But there’s a question that may linger in our minds
: If we don’t go as fast as possible, won’t the West risk losing to China?
No. The deployment and entanglement of uncontrolled A.I.
into society, unleashing godlike powers decoupled from responsibility,
could be the very reason the West loses to China.
We can still choose which future we want with A.I.
When godlike powers are matched with commensurate responsibility and control,
we can realize the benefits that A.I. promises.
We have summoned an alien intelligence.
We don’t know much about it, except that it is extremely powerful
and offers us bedazzling gifts but could also hack the foundations of our civilization.
We call upon world leaders to respond to this moment at the level of challenge it presents.
The first step is to buy time to upgrade our 19th-century institutions
for an A.I. world and to learn to master A.I. before it masters us.