본문 바로가기
이슈/AI

AI는 도구가 아닌 주체다: 유발 하라리가 말하는 미래 사회의 도전과 우리의 대응

by Agent 2025. 3. 21.

세계적 석학 유발 하라리가 경고하는 AI 시대의 새로운 패러다임과 인류의 과제

17년 만에 한국을 방문한 '사피엔스', '호모 데우스'의 저자 유발 하라리 교수가 서울 노무현시민센터에서 열린 기자간담회에서 인공지능(AI)과 민주주의, 신뢰의 위기에 대한 날카로운 통찰을 제시했습니다. 그의 메시지는 단순한 기술적 전망을 넘어 인류 문명의 근본적인 변화를 예고하고 있습니다. 왜 그는 AI를 '도구'가 아닌 '주체'라고 정의했을까요? 그리고 그것이 우리의 삶에 어떤 영향을 미칠까요?

 

 

AI의 본질: 도구가 아닌 행위 주체자

유발 하라리 교수는 AI에 대해 모두가 꼭 알아야 할 핵심을 단호하게 짚었습니다. "인공지능은 도구가 아닌 '행위 주체자'입니다." 이 한 문장은 AI를 바라보는 우리의 관점을 완전히 뒤바꿉니다.

"지금까지 인간이 만든 모든 기술적 발명품인 석기시대의 돌로 만든 칼부터 인쇄기, 원자폭탄까지 우리 손에 달려 있었습니다. 그러나 인공지능은 스스로 결정하고 새로운 생각을 만들어냅니다."2

이는 마치 우리가 자동차를 '더 빠른 말'로 생각했던 것처럼, AI를 '더 똑똑한 계산기'로 여기는 오류를 지적한 것입니다. 자동차가 말의 진화가 아닌 완전히 새로운 이동 수단이었듯, AI는 기존 도구의 연장선이 아닌 전혀 다른 차원의 존재라는 것이죠.

하라리는 "인공지능을 컨트롤할 수 있다고 생각한다면 전혀 이해 못 하고 있는 것이고, 예측할 수 있다면 인공지능이 아니다"라고 단언했습니다2. 이는 우리가 AI와 관계를 맺는 방식에 근본적인 변화가 필요함을 시사합니다.

AI 혁명의 신뢰 역설

AI 혁명의 중심에는 하라리가 '신뢰의 역설'이라 부르는 현상이 자리 잡고 있습니다. 인류 역사상 가장 협력이 필요한 시점에 우리는 오히려 서로에 대한 신뢰를 급속도로 상실하고 있다는 것입니다.

"인간이 서로를 신뢰할 수 있는 기반을 만들어야 합니다. 신뢰에 기반해 학습시켜 태어난 인공지능은 신뢰할 수 있을 것이지만, 경쟁과 불신, 갈등에서 태어난 AI는 신뢰할 수 없게 될 것입니다."3

더 아이러니한 것은 인간들이 서로는 믿지 못하면서 초지능적 존재인 AI는 믿는다는 점입니다3. 마치 도둑이 득실거리는 동네에서 은행 금고 열쇠를 로봇에게 맡기는 꼴이라고나 할까요?

민주주의의 위기와 수호: 친위 쿠데타의 위험

하라리 교수는 한국의 12월 계엄 선포 사태에 대해 언급하며, 이것이 단지 한국만의 문제가 아니라 전 세계적인 민주주의 위기의 일부라고 지적했습니다.

"솔직히 놀라진 않았습니다. 현재 많은 국가에서 일어나는 일입니다. 역사적으로 친위 쿠데타, 집권 정부에 의한 쿠데타가 더 많이 일어났습니다."3

여기서 '친위 쿠데타'란 재임 중인 권력자가 자신의 권력을 유지하기 위해 저지르는 불법적 폭력 동원 행위를 말합니다4. 트럼프의 사례처럼, 민주적으로 선출된 지도자가 선거 결과를 거부하고 폭력을 동원하는 현상은 현대 민주주의의 심각한 취약점을 드러냅니다.

민주주의 수호의 핵심 장치

하라리는 민주주의를 지키기 위한 두 가지 핵심 장치로 자유로운 언론독립된 사법부를 강조했습니다. 독재자들의 첫 번째 목표가 항상 이 두 기관의 파괴라는 사실이 이들의 중요성을 역설적으로 입증합니다.

"권력을 잡은 인물이나 정당이 권력을 돌려주기 싫으면 어떻게 될까요? 권력을 유지하기 위해서 처음에는 법을 이용하고, 권력을 계속 잡으려고 법을 파괴합니다. 민주주의에서는 이런 사태를 예방하기 위해서 견제와 균형의 장치를 마련하고 있습니다."3

노동 시장의 미래와 개인의 대응: 유연성이 핵심

AI의 급속한 발전은 노동 시장에 근본적인 변화를 가져올 것입니다. 정보통신정책연구원(KISDI)의 보고서에 따르면, AI 시대에는 교육 훈련 시스템의 재구축이 절실히 필요합니다.

특히 정부 차원에서는 자격증 취득을 넘어 실질적인 역량을 키울 수 있는 재교육 프로그램과 평생교육 체계 마련이 중요합니다6. 기업들도 단순히 AI 역량을 갖춘 신규 인재 채용보다는 기존 근로자의 재교육에 투자해야 합니다.

개인의 준비: 세 가지 능력의 균형

하라리 교수는 불확실한 미래에 대비하기 위해 개인이 길러야 할 세 가지 핵심 능력으로 지적 능력, 감정적·사회적 능력, 그리고 신체적·육체적 능력을 꼽았습니다.

흥미로운 점은 AI가 가장 쉽게 대체할 수 있는 것이 바로 지적 능력이라는 사실입니다. 반면, 깊은 인간적 공감과 신체 기술은 당분간 AI가 완전히 모방하기 어렵습니다. 따라서 단순히 지식만 축적하는 것보다 균형 잡힌 능력 개발이 중요해졌습니다.

정보 시대의 진실과 허위정보: 진실의 세 가지 장애물

하라리는 AI 시대에 정보의 홍수 속에서 진실을 찾는 일이 더욱 어려워질 것이라고 경고합니다. 그는 진실이 직면한 세 가지 장애물을 제시했습니다:

  1. 진실은 비싸다: 정확한 정보를 얻기 위해서는 시간과 자원이 필요한 반면, 허위정보는 제작 비용이 거의 들지 않습니다.
  2. 진실은 복잡하다: 현실의 복잡성을 있는 그대로 전달하는 것은 어렵지만, 단순화된 허위정보는 이해하기 쉽습니다.
  3. 진실은 고통스럽다: 불편한 진실보다 듣기 좋은 거짓말이 더 매력적으로 다가올 수 있습니다.

SNS에서 가짜 뉴스가 빠르게 퍼지는 이유는 단순히 개인의 판단력 부족 때문만이 아닙니다. 연구 결과에 따르면, 습관적으로 게시물을 공유하는 사용자들과 SNS의 구조적 문제가 큰 영향을 미칩니다13.

또한 많은 플랫폼의 알고리즘이 진실보다는 '참여도(engagement)'를 우선시하는 것도 문제입니다. 클릭을 유도하고 감정적 반응을 일으키는 콘텐츠가 상위에 노출되는 시스템에서는 자극적인 허위정보가 진실보다 더 널리 퍼질 수밖에 없습니다.

AI와 불평등 심화: 디지털 제국주의의 위험

하라리는 AI 기술의 발전이 국가 간, 개인 간 불평등을 심화시킬 수 있다고 경고합니다. AI 기술을 선도하는 소수의 국가와 기업이 막대한 권력을 가지게 될 것이며, 이는 19세기 산업혁명 시대의 제국주의와 유사한 "AI 제국주의"로 이어질 수 있다는 것입니다.

KISDI 보고서도 "AI로 인해 경제적 불평등이 심화할 가능성이 크다"며 자본 과세, 기본소득 등 적극적 재분배 정책의 필요성을 강조했습니다6.

특히 AI 기술 격차는 군사적 측면에서도 큰 영향을 미칠 것입니다. 하라리는 AI 군대와 전통 군대의 싸움을 19세기 증기선과 기관총을 갖춘 현대식 군대와 구식 군대의 전투에 비유했습니다. 이는 단순한 경쟁이 아닌 완전한 지배 관계로 이어질 수 있습니다.

'위조 인간' 문제와 신뢰 회복의 길

하라리는 AI가 인간인 척하는 '위조 인간(counterfeit people)' 문제를 심각하게 다루었습니다. 그는 위조 화폐가 경제에 심각한 위협이 되듯, 인간인 척하는 AI는 사회적 신뢰의 기반을 무너뜨릴 수 있다고 경고했습니다.

"사람을 가장한 AI 챗봇을 만든 사람들은 위조 화폐를 거래하는 사람들에 버금가는 가혹한 형벌을 받아야 합니다."12

이러한 위험에 대응하기 위해, 모든 AI 생성 콘텐츠에 '이것은 사람이 아니라 AI가 생성한 것'이라는 표시를 의무화하는 규제가 필요하다고 주장했습니다7.

신뢰 회복을 위한 제안

하라리는 민주주의가 시민 간의 신뢰를 기반으로 작동한다는 점을 강조하며, 다음과 같은 신뢰 회복 방안을 제시했습니다:

  1. 인간과 AI의 명확한 구분: 온라인에서 대화할 때 상대가 사람인지 AI인지 분명히 알 수 있어야 합니다.
  2. 선의의 해석: 인간 간 소통에서 상대방의 말이나 행동을 더 선의의 측면에서 해석하려고 노력해야 합니다.
  3. 기업 간 신뢰 회복: "우리가 해야 할 일은 적어도 충분한 수의 기업들이 서로에 대한 신뢰를 회복하게 해서 AI 혁명이 안전하고 책임감 있는 방식으로 가도록 해야 합니다."3

결론: 우리의 선택이 미래를 결정한다

유발 하라리 교수의 통찰은 AI 시대에 인류가 직면한 도전과 기회를 명확하게 보여줍니다. AI는 단순한 도구가 아닌 행위 주체자로서, 우리의 완전한 통제를 벗어날 수 있습니다. 그러나 이는 절망적 전망이 아니라 새로운 접근 방식의 필요성을 시사합니다.

인간 간의 신뢰 회복, 민주주의 제도의 강화, 개인의 유연한 역량 개발, 정보 리터러시 함양, 그리고 AI 기술의 책임 있는 발전이 필요합니다. AI 시대의 진정한 도전은 기술 자체가 아니라, 그 기술을 어떻게 인류의 공동 이익을 위해 활용할 것인가에 달려 있습니다.

하라리의 메시지는 궁극적으로 인간 중심의 가치를 재확인하고, 기술이 아닌 인간의 선택이 우리의 미래를 결정한다는 희망적 관점을 제시합니다. AI와 함께하는 세상에서, 우리의 인간성을 지키고 강화하는 것이 가장 중요한 과제가 될 것입니다.

#AI #유발하라리 #인공지능 #미래사회 #민주주의 #노동시장 #신뢰 #기술발전 #디지털시대 #정보리터러시 #불평등 #교육 #윤리 #기술윤리 #미래준비

AI Is Not a Tool, But an Agent: Yuval Harari on Future Society's Challenges and Our Response

Global scholar Yuval Harari warns of the new paradigm of the AI era and humanity's tasks

Yuval Harari, author of 'Sapiens' and 'Homo Deus,' visiting Korea after 17 years, offered sharp insights on artificial intelligence (AI), democracy, and the crisis of trust at a press conference held at the Roh Moo-hyun Citizen Center in Seoul. His message goes beyond mere technological prospects to herald fundamental changes in human civilization. Why did he define AI not as a 'tool' but as an 'agent'? And how will that affect our lives?

The Nature of AI: An Agent, Not a Tool

Professor Yuval Harari pinpointed the essential understanding everyone should have about AI. "Artificial intelligence is not a tool, but an 'agent'." This single sentence completely transforms our perspective on AI.

"All technological inventions created by humans so far, from stone knives in the Stone Age to printing presses and atomic bombs, were in our hands. However, artificial intelligence makes its own decisions and creates new ideas."2

This is like pointing out the error of thinking of AI as a 'smarter calculator,' just as we once thought of cars as 'faster horses.' Just as the car was not an evolution of the horse but a completely new means of transportation, AI is not an extension of existing tools but an entity of an entirely different dimension.

Harari asserted, "If you think you can control artificial intelligence, you don't understand it at all, and if you can predict it, it's not artificial intelligence."2 This suggests that we need a fundamental change in how we relate to AI.

The Trust Paradox of the AI Revolution

At the center of the AI revolution lies what Harari calls the 'paradox of trust.' At the very moment in human history when cooperation is most needed, we are rapidly losing trust in each other.

"We need to create a foundation for humans to trust each other. Artificial intelligence born and trained based on trust will be trustworthy, but AI born from competition, distrust, and conflict will become untrustworthy."3

Even more ironic is that humans trust AI, a superintelligent being, while not trusting each other3. It's like entrusting a robot with a bank vault key in a neighborhood full of thieves.

The Crisis and Protection of Democracy: The Danger of Palace Coups

Professor Harari, referring to the December martial law declaration in Korea, pointed out that this is not just a Korean issue, but part of a global crisis of democracy.

"Honestly, I wasn't surprised. This is happening in many countries today. Historically, palace coups, coups by the ruling government, have occurred more frequently."3

Here, a 'palace coup' refers to the illegal mobilization of violence by an incumbent power holder to maintain their power4. As in Trump's case, the phenomenon of democratically elected leaders rejecting election results and mobilizing violence reveals a serious vulnerability in modern democracy.

Key Mechanisms for Protecting Democracy

Harari emphasized free press and independent judiciary as the two key mechanisms for protecting democracy. The fact that the first goal of dictators is always to destroy these two institutions paradoxically proves their importance.

"What happens when a person or party in power doesn't want to give it up? First, they use the law to maintain power, then they destroy the law to keep holding onto it. In a democracy, checks and balances are established to prevent such situations."3

The Future of the Labor Market and Individual Response: Flexibility is Key

The rapid development of AI will bring fundamental changes to the labor market. According to a report by the Korea Information Society Development Institute (KISDI), a reconstruction of the education and training system is urgently needed in the AI era.

Particularly at the government level, it is important to establish reeducation programs and lifelong education systems that can develop practical competencies beyond certificate acquisition6. Companies should also invest in reeducating existing workers rather than simply hiring new talent with AI capabilities.

Individual Preparation: Balance of Three Abilities

Professor Harari identified three core abilities that individuals should develop to prepare for an uncertain future: intellectual ability, emotional and social ability, and physical ability.

Interestingly, intellectual ability is what AI can most easily replace. In contrast, deep human empathy and physical skills remain difficult for AI to fully mimic for now. Therefore, developing balanced abilities has become more important than merely accumulating knowledge.

Truth and Misinformation in the Information Age: Three Obstacles to Truth

Harari warns that finding truth will become increasingly difficult amid the flood of information in the AI era. He presents three obstacles facing truth:

  1. Truth is expensive: Obtaining accurate information requires time and resources, while creating misinformation costs virtually nothing.
  2. Truth is complex: It's difficult to convey the complexity of reality as it is, but simplified misinformation is easy to understand.
  3. Truth is painful: Pleasant lies can be more attractive than uncomfortable truths.

The reason fake news spreads quickly on social media is not simply due to individuals' lack of judgment. According to research, habitual content-sharing users and the structural problems of social media have a significant impact13.

Additionally, the algorithms of many platforms prioritize 'engagement' over truth. In a system where content that induces clicks and emotional reactions is exposed at the top, sensational misinformation will inevitably spread more widely than truth.

AI and the Intensification of Inequality: The Risk of Digital Imperialism

Harari warns that the development of AI technology could exacerbate inequality between nations and individuals. A small number of countries and companies leading in AI technology will gain enormous power, which could lead to "AI imperialism" similar to the imperialism of the 19th century industrial revolution era.

The KISDI report also emphasized the need for active redistribution policies such as capital taxation and basic income, noting that "AI is likely to intensify economic inequality"6.

In particular, the AI technology gap will also have a significant impact on the military aspect. Harari compared the fight between an AI army and a traditional army to the battle between a modern army equipped with steamships and machine guns and an old-fashioned army in the 19th century. This could lead not to simple competition, but to complete domination.

The Problem of 'Counterfeit People' and the Path to Restoring Trust

Harari seriously addressed the problem of 'counterfeit people' where AI pretends to be human. He warned that just as counterfeit currency poses a serious threat to the economy, AI pretending to be human can undermine the foundation of social trust.

"People who create AI chatbots pretending to be people should receive harsh punishments comparable to those who trade counterfeit currency."12

To respond to these risks, he argued for regulations requiring all AI-generated content to be clearly marked as 'This is generated by AI, not a person'7.

Proposals for Restoring Trust

Emphasizing that democracy operates on trust between citizens, Harari proposed the following ways to restore trust:

  1. Clear distinction between humans and AI: When conversing online, it should be clear whether the other party is a person or AI.
  2. Benevolent interpretation: In human communication, we should try to interpret others' words and actions more favorably.
  3. Restoring trust between companies: "What we need to do is ensure that at least a sufficient number of companies restore trust in each other so that the AI revolution can proceed in a safe and responsible manner."3

Conclusion: Our Choices Determine the Future

Professor Yuval Harari's insights clearly show the challenges and opportunities facing humanity in the AI era. AI, as an agent rather than a simple tool, may escape our complete control. However, this does not suggest a hopeless outlook, but rather the necessity of a new approach.

We need to restore trust between humans, strengthen democratic institutions, develop flexible individual capabilities, cultivate information literacy, and pursue responsible development of AI technology. The real challenge of the AI era is not the technology itself, but how to use that technology for the common good of humanity.

Harari's message ultimately reaffirms human-centered values and presents a hopeful perspective that human choices, not technology, will determine our future. In a world with AI, our most important task will be to preserve and strengthen our humanity.

#AI #유발하라리 #인공지능 #미래사회 #민주주의 #노동시장 #신뢰 #기술발전 #디지털시대 #정보리터러시 #불평등 #교육 #윤리 #기술윤리 #미래준비

Citations:

  1. https://www.reddit.com/r/kpop/comments/1hv0x1e/megathread_18_hybe_ador_mhj_first_legal/
  2. https://v.daum.net/v/20250320163353138
  3. https://www.ajunews.com/view/20250320131826237
  4. https://cemk.org/20061/
  5. https://www.hwaranglaw.kr/board?bid=570
  6. https://m.dongascience.com/news.php?idx=38864
  7. https://m.khan.co.kr/article/202306120830001/
  8. https://www.reddit.com/r/davinciresolve/wiki/plugins/
  9. https://mediasvr.egentouch.com/egentouch.media/apiFile.do?action=view&SCHOOL_ID=1007002&URL_KEY=716e22d9-c763-48db-aa04-df4f0423e00a
  10. https://www.reddit.com/r/writing/comments/1ifsppu/why_the_hate_for_amazon_self_publishing/
  11. https://blog.naver.com/lawyerchokihyun/223529236452
  12. https://www.aitimes.com/news/articleView.html?idxno=152311
  13. https://www.hani.co.kr/arti/economy/it/1077097.html
  14. https://www.daeryunlaw-detective.com/lawInfo_new/3515
  15. https://www.reddit.com/r/KoreanYouTubeTrends/
  16. https://www.reddit.com/r/KoreanYouTubeTrends/comments/1iyb0l4/%ED%98%84%EC%9E%AC_nb_ai%EA%B0%80_%EC%8B%A4%EC%A0%9C%EB%A1%9C_%EC%96%B4%EB%96%A4_%EB%B0%A9%EC%8B%9D%EC%9C%BC%EB%A1%9C_%EC%9E%91%EB%8F%99%ED%95%98%EB%8A%94%EC%A7%80_%EB%8D%94_%EA%B5%AC%EC%B2%B4%EC%A0%81%EC%9C%BC%EB%A1%9C_%EC%84%A4%EB%AA%85%ED%95%A0_%EC%88%98_%EC%9E%88%EC%96%B4_%EB%B2%84%EB%8B%88/
  17. https://www.reddit.com/r/MHWilds/comments/1izvmc8/mh_wilds_release_pc_troubleshooting/
  18. https://www.reddit.com/r/Guildwars2/comments/4796st/math_dekeyzs_gw2_rotation_calculator/
  19. https://www.reddit.com/r/synthesizers/comments/647bw5/do_you_feel_limited_by_analog_hardware_synths/?tl=pt-br
  20. https://www.reddit.com/r/spacex/comments/d9p4zz/elon_musk_on_twitter_three_raptors_on_a_starship/
  21. https://www.reddit.com/r/samharris/comments/pt8eky/instagram_is_doing_grave_harm_to_our_generation/
  22. https://www.reddit.com/r/KoreanYouTubeTrends/rising/
  23. https://www.reddit.com/r/MetaFilterMeta/comments/1ilwwst/chat_thread_february_10_2025/
  24. https://news.kbs.co.kr/news/view.do?ncd=8205854
  25. https://www.edaily.co.kr/News/Read?newsId=04237766642105288&mediaCodeNo=257
  26. https://www.ytn.co.kr/_ln/0104_201405230355329769_001
  27. https://news.nate.com/view/20231227n03517
  28. https://www.yna.co.kr/view/AKR20200806147500017
  29. https://www.newsis.com/view/NISX20250320_0003106313
  30. https://socialkorea.org/economy/%EB%98%91%EB%98%91%ED%95%9C-ai-%ED%99%9C%EC%9A%A9%ED%96%88%EB%8A%94%EB%8D%B0-%EC%98%A4%ED%9E%88%EB%A0%A4-%EC%84%B1%EA%B3%BC%EA%B0%80-%EB%96%A8%EC%96%B4%EC%A7%80%EB%8A%94-%EC%97%AD%EC%84%A4/
  31. https://blog.naver.com/police1965/223740347708
  32. https://www.ohmynews.com/NWS_Web/View/at_pg.aspx?CNTN_CD=A0002978416
  33. https://www.youtube.com/watch?v=8049-p_pvaA
  34. https://www.newsvalue.kr/news/articleView.html?idxno=11648
  35. https://news.nate.com/view/20250320n31095?mid=n0208&isq=11221
  36. https://www.etoday.co.kr/news/view/2454345?trc=right_categori_news
  37. https://www.kipa.re.kr/site/kipa/ex/board/View.do?cbIdx=318&bcIdx=8657
  38. https://www.law.go.kr/LSW/lsInfoP.do?lsiSeq=241937
  39. https://www.ytn.co.kr/_ln/0103_202309221935500892
  40. https://www.law.go.kr/LSW/precInfoP.do?mode=0&precSeq=213171
  41. https://www.gttkorea.com/news/articleView.html?idxno=17621
  42. https://blog.naver.com/2016years/223493956110
  43. https://www.tfmedia.co.kr/news/article.html?no=150105

 

반응형