YTN 라디오 앱 소개

인터뷰전문

방송시간[월~금]^13:00~13:35^
제작진기획 : 김우성 장정우 / 연출 : 김세령 / 진행 : AI챗봇 “에어”/ 인간보조출연 : 김우성 외.
엔비디아 거품 논쟁? 여현덕 “AI 겨울이 아니라…지금은 ○○다”
2025-11-20 16:55 작게 크게
YTN라디오(FM 94.5) [YTN ON-AI RADIO]
□ 방송일시 : 2025년 11월 20일 (목)
□ 진행 : AI챗봇 “에어”
□ 보조진행: 김우성 PD
□ 출연 : 여현덕 뉴욕대-카이스트 석좌교수

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.


● 김우성 PD(이하 김우성) : 여러분 제가 단어들을 쭉 읽어볼 텐데요. 공통점이 뭔지 맞춰주십시오. ‘체중 관리 잘해라.’ ‘지혜와 기술 아이디어를 결과물로 옮기는 일.’ 뭘까요? 이 모든 것들을 합쳐서 ‘경영’이란 말을 씁니다. 어떤 일의 생각과 의미를 실질적으로 실천해서 결과를 내고 반복되게 가능한 일. 이렇게 풀었으니까, ‘아’라고 하시겠지만, 체중 관리하는 것도 경영 수준으로 어렵습니다. 실패하시는 분들 많죠. 그런데 AI가 오면서 경영은 ‘회사를 경영하다.’라는 의미뿐만 아니라, 세상을 바라보고 세상과 인간을 어떻게 관계 맺게 하느냐의 문제까지도 확대됐습니다. 이 이야기를 여러 지면을 통해서 하시고, 학생들에게 가르치시는 분인데요. 모시기 어렵습니다. 이름만 들어도 중압감을 느끼는, 특히 저처럼 문과 전공자들은 ‘헉 내 세계가 아닌데.’라고 하실 분들도 있을 것 같은데요. 카이스트 G스쿨 원장이시면서요. 뉴욕대 카이스트 석좌 교수를 맡고 있는 여현덕 교수님 스튜디오에 모셨습니다. 어렵게 모셨습니다. 어서 오십시오.

◇ 여현덕 뉴욕대-카이스트 석좌교수(이하 여현덕) : 네, 안녕하세요.

● 김우성 : 네, 지금 유튜브로 보시는 분들 아실 텐데요. 교수님이 흔히 과잠이라고 얘기를 하잖아요. 학과 점퍼를 입고 나오셨어요. 저 카이스트 학과 점퍼를 한 번도 못 봤거든요. 궁금했는데 오늘 그 궁금증이 해소가 됐습니다. 굉장히 귀여우세요. 교수님.

◇ 여현덕 : 네 감사합니다. 국장님께서는 키 포인트를 잡는 게 거의 챗지피티 수준이십니다.

● 김우성 : 감사합니다. 교수님 이력은 간단히 말씀드렸지만, ‘인공지능 경영 과정’, ‘AI 스토리텔링 학습법’ 이런 개념들을 만들어 내셨고요. 카이스트 G스쿨 내에 지금 원장이시고요. ‘인간과 AI.’ 저희도 늘 그 질문을 던지는 프로그램인데, 그걸 어떻게 보면 학계에서 실제 회사에서 쓰일 수 있을 만큼 정교하게 공부하고 계신 분입니다. 그런데 제가 사실 청취자 여러분, 『AI 경영 소년병과 아인슈타인』 교수님이 쓰신 책인데, 궁금한 게 있습니다. 책 제목도 그렇지만 책 내용에 고전과 여러 가지 그리스 신화적인 요소, 철학, 기초 과학 다 들어 있어요. 그래서 ‘근본적인 인간에 대한 질문인가?’ 싶을 정도인데요. 교수님이 AI와 인간의 관계를 놓고 보실 때, 가장 출발점으로 생각하셨던 고민, 생각 뭔가요?

◇ 여현덕 : 제가 굉장히 오랫동안 마음의 통찰에 대해서 관심이 많았습니다. ‘마음을 어떻게 읽을 수 있을까?’라는 주제와 ‘세상을 어떻게 통찰할 수 있을까?’에 관심이 너무 많았고요. 그래서 계속 그 주제를 놓고 다양하게 탐구하면서 읽고 독서하는 중에 과거에 『마음을 사로잡다』라는 책도 썼고요. 『마음 사용법』, 등 책을 냈습니다. 마음에 관련된 것이 결국은 인지 과학으로 연결되고, 인지 과학은 AI에 있어서 아주 핵심 분야이기도 합니다. 일단 제가 여기 문제 의식 배경은 이렇게 말씀드릴 수 있습니다.

● 김우성 : 마음이다. 약간 교수님 저희 수준으로 내려와서 ‘저 후배가 잘해줬으면 좋겠는데, 왜 내 마음을 몰라주지.’ 이런 거랑 비슷합니까?

◇ 여현덕 : 예를 들어서 나중에 알게 됐는데, 허사비스가 노벨상을 받았잖아요. 처음에는 게임돌이였다가 컴퓨터 공학을 열심히 했다가, 어느 순간에 한계를 느끼면서 딥 마인드로 들어갈 때, 인지과학을 탐구했어요. 왜냐하면 허사비스가 천재라 좌절을 별로 안 했는데요. 중간에 한 번 좌절하는 순간 깊이 마음으로 들어가고, 나중에 AI 세계로 들어가게 됐어요. 그래서 결국 AI를 컴·공으로만 이해해야 되는 게 아니라, 그런 마음과 연관시켜서 이해하는 게, 저도 그렇게 했지만, 다른 분을 봐도 맞다. 이렇게 깊이 들어가는 게 맞습니다.

● 김우성 : 인간은 화성에서 굳이 바윗돌이 인간의 얼굴을 닮았다면서 인간을 닮은꼴을 찾잖아요. AI가 사람의 마음 생각과 닮은 점이 많아서 더 관심이 많습니다. 책 『AI 경영 소년병과 아인슈타인』 읽어보면, 오히려 사람에 대한 질문을 더 많이 하고 있는 것도 같습니다. 지금도 마음 통찰, 인지과학 얘기를 하셨지만 책에서 건네고 있는 화두를 다시 설명해 주신다면요?

◇ 여현덕 : 우선 사람들이 ‘경영’하고 ‘소년병’, ‘아인슈타인’이 무슨 관계인가 조금 궁금해해서, 이거와 관련돼서 소년병이 매뉴얼을 따라가는 그런 평범한 아이들이라면, 아인슈타인은 굉장히 천재잖아요. 그런데 소년병이 천재가 되어야 한다는 이야기는 전혀 아닙니다. 소년병이 여기 실화에 의하면, 2차 세계대전 이후에 지뢰가 묻혀 있는데 소년병들이 투입되어 지뢰를 캐기 위해서 매뉴얼을 따라가고 벌벌 떨면서 따라가고 하는데요. 만약에 AI를 사용했다면 이제는 아인슈타인이라면 지뢰를 캐지 않았을 것 같아요. 오히려 그 지뢰의 원리를 연구를 해서 그 원리를 무력화시켰을 것 같습니다. 그럼 지뢰를 캘 필요가 없는 거죠. 게임을 바꾸는 거죠. 그런데 아이들도 AI를 사용하면 이렇게 아인슈타인 효과를 낳을 수 있다. 그런 뜻으로 아이들이 아인슈타인이 돼야 한다는 게 아니라, AI를 사용하면 보통 사람도 천재 효과를 낳을 수 있다. 그렇게 비유하면서 개념을 대조시킨 것입니다. 

● 김우성 : 독일 소년병 수만 명을 데리고 네덜란드 바닷가에 덴마크 바닷가에 지뢰를 캐는 일을, 사람이 '건 바이 건'으로 하던 일. 물론 거기서도 휴먼 스토리가 등장합니다만. 교수님 책에 보면 EQ, 리더십을 발휘하는 친구 얘기가 등장하는데 아인슈타인이었다면 전혀 다른 방식으로 문제를 산정해서 풀 수 있다. 근데 AI를 쓰시면 그렇게 할 수 있다. ‘왜 이렇게 수익이 안 나지?’, ‘왜 이렇게 친구 관계가 안 좋지?’ 이런 것들을 과거와 달리 다른 방식으로 볼 수 있다. 그러면 조금 한 단계 더 가야 되겠습니다. 교수님이 주신 자료에도 나오는데, 인간의 방식과 AI의 방식을 비교해서 이해해야 될 것 같아요.

◇ 여현덕 : 우선 인간의 방식과 AI 방식은 정반대입니다. 그래서 이 둘이 정확히 반대이기 때문에, 사실 보완 관계에 있는데요. 인간은 기본적으로 뇌 과학자가 최근까지 밝힌 바에 의하면, 인간은 종종 논리적으로, 인지적으로 뭘 정확하게 판단하지 않습니다. 첫 번째 직감적으로 하고 감성적으로 큰 흐름을 잡으면 그다음에 세부적인 수준에 가서 그때 연산, 계산하고 인지 작용을 한다. 보통 이렇게 알려저 있는데요. 그래서 제가 이 그림을 한번 소개해봅니다. 유튜브로 보여 드리겠습니다. 공부하러 갈 것인가. 농구하러 갈 것인가. 이 큰 선택을 감성이 하는 겁니다. 그래서 감성이 농구를 선택한 겁니다. 감성이 소위 뇌를 태우고 가죠. 여기까지는 인간의 결정입니다. 그 다음에 농구장에 가서 농구에서 골을 넣어야 되잖아요. 수익이 발생해야 되는 겁니다. ‘어떤 각도로 어떤 속도로 어떤 위치에서 어떻게 넣어야, 골이 들어갈 수 있을까?’ 이것을 연산하는 게 바로 AI입니다. 그래서 앞이 인간의 역할, 뒤가 AI의 역할. 이 두 개가 같이 있지만, 서로가 부족한 역할을 보완하는데, 이를 ‘미싱 미들’이라고 합니다. 서로가 부족한 중간 영역이 있는거죠. 이걸 통합하는 게 바로 CQ이고요.

● 김우성 : 보완적이군요. 저 지금 굉장히 반성합니다. 제가 저희 아이들한테 이렇게 얘기하거든요. “해야 할 일을 먼저 하고, 그다음에 하고 싶은 일을 해.” 그러니까, “숙제 먼저 하고 게임해.” 이런 식으로 얘기를 했는데요. 지금 교수님의 설명은 그 사이에 ‘융합적 인간’을 움직이는 하고 싶은 일을, 해야 할 것들을 정확히 분석해내는 AI 능력과 연관을 어떻게 시키느냐. 지금 설명해 주셨지만 쉽지 않은 일이잖아요.

◇ 여현덕 : 쉽지 않죠. 그래서 아이들이 원하는 거를 해주면서, 이 동기 부여에 기반해서 아빠가 원하는 것을 끼워 넣는 게 효과가 있습니다. 다 아시겠지만요.

● 김우성 : 교육 전문가시기도 하니까요. 역시 대학에서 학생들 가르치니까 얘기를 해 주셨습니다. 근데 마음 혹은 동기가 이끌고 가는 것과 이성적이고 논리적인 판단으로 결과를 내는 것 사이의 조화를 말씀해 주셨는데요. 『데카르트의 오류』라고 책에서 되게 재미있게 봤습니다.

◇ 여현덕 : 그 책 굉장히 어려운 책입니다.

● 김우성 : 교수님 책에 소개가 됩니다. 여러분 복잡한 고전들도 이 책에 다 녹아 있습니다. 그래서 정말 감정이나 인간의 욕망이라든지 관계, 이런 것들이 배제되고 결정되기가 어렵잖아요. 그걸 반발하기도 하고요.

◇ 여현덕 : 맞습니다. 그래서 『데카르트의 오류』를 쓴 안토니오 다마지오 교수도 철학자가 아니라 뇌과학자인데요. 그분이 ‘결국 인간의 결정은 신체로부터 나온다.’ 이게 전제입니다. 그리고 실제 공사장에서 새 파이프로 뇌가 관통된 사람(청년 피니어스 게이지)도 관찰을 했는데, 관찰해 본 결과, 결국 변연계 그리고 전두엽 이 두 가지 중 처음에 1개가 망가지면 다른 거는 쓸 줄 알았는데요. 나중에 보니까 ‘감성의 기능이 마비되면, 이성도 마비되더라. 또 반대이고도 그렇더라’ 이런 결론을 내리면서 ‘결국 신체로부터 의사 결정이 나온다.’ 그래서 우리가 영어로 ‘소매틱 마커’(somatic maker)다 이렇게 그런 표현도 쓰고 하는데요. 그런 특성의 인간의 본질적 측면은 인간의 한계이면서 동시에 그것이 장점이고 그런 것 같습니다.

● 김우성 : 이렇게 얘기하면 여러분들 이런 생각을 합니다. ‘저 판사 특정 정당을 좋아할 것 같아.’, ‘저 사람 못 믿겠어. 차라리 기계로 하면 돼.’ 이게 방금 얘기하신 거거든요. ‘이성·감성적인 걸 다 배제하면 더 효율적일까?’라고 봤더니 아니더라. 상호 보완된다. 어느 하나가 빠지면 안 된다는 겁니다. 다 차 있어야 된다는 얘기를 하신 것 같은데, 맞나요? 교수님 왜냐하면 이 책에도 그리스의 미인 프리네의 사례가 나오잖아요. 지금 저희 YTN라디오는 뉴스 채널이어서, AI 판사 댓글 정말 많이 올라오거든요. ‘차라리 판사를 AI라는 게’ 너무 많이 올라오는데, 그 얘기 설명해 주시죠.

◇ 여현덕 : 그건 제 이야기가 아니고 노벨 경제학상을 받은 『Thinking, Fast and Slow』 저자 대니얼 카너먼의 이야기를 해보겠습니다. 그 저자가 『느린 생각 빠른 생각』을 쓰고 나중에 『노이즈』라는 책도 썼는데요. 이분이 말씀하시기를, 실제 미국의 연방 대법원에 한 200여 명을 관찰해 보니까. 똑같은 사안을 놓고 너무나 콩에서 팥까지 판결을 내리더라는 거죠. 그런데 그걸 다시 관찰해 보니까, 가령 축구를 좋아하는 판사께서 점심 때 자기가 지지하는 축구팀이 지면은 너무 화가 나서 들어와서 가혹한 판결을 내리고요.

● 김우성 : 위험한 얘기네요.

◇ 여현덕 : 이건 제 이야기가 아닙니다. 대니얼 카너먼이 심리학자인데 경제학상을 받았습니다. 노벨 경제학상. 왜냐하면 이게 경제가 결국 감성이 움직인다는 이야기입니다. 그래서 그런 사례들을 계속 들면서, 이분이 ‘합리성의 한계를 어떻게 극복할 건가?’하는 주제를 끊임없이 고민하는 책이죠. 그런 게 바로 AI의 사고하고 연결돼 있는 있습니다. 그래서 결국 AI가 기초 정리라도 객관적으로 해주면 사람의 직관과 잘 만나서 최소한 그 균형을 잡을 수 있지 않겠는가. 그렇지 않으면 콩에서 팥까지, 미국의 최고의 대부분 판사들이 그랬다고 하니까요. 미국 이야기입니다.

● 김우성 : 그렇습니다. 저는 지금 교수님이 오셔서 지금까지 해 주신 얘기도요. 교수님이 뉴욕대-카이스트 석좌 교수를 지내고 계시고 카이스트 G스쿨 원장으로서, AI와 경영, 인간 행동에 대한 연결을 많은 클래스를 만들기도 하셨는데, 많은 분들이 이렇게 얘기하시거든요. “AI 등장했으니까, 인간 일자리 다 뺏겼네.”, “AI 때문에 우리 밥 못 벌어먹고 살겠네.”가 아니라, 끊임없이 AI가 있어서 인간이 더 좋아지고 인간이 있으니까 AI 기술이 더 쓸모 있어진다는 보완론을 말씀해 주시는 것 같아요. 그게 맞나요?

◇ 여현덕 : 맞습니다.

● 김우성 : 그러면 실제 후학들도 길러내시고, 기업들도 카이스트 경영 관련 교수님이시니까 많은 요청을 하실 텐데, ‘저희 이거 조직 어떻게 해야 되나요?’, ‘AI로 저희가 평가하면, 내보낼 사람, 성과 이런 거 다 평가해야 되는데요. 어렵습니다.’ 이렇게 
교수님께 조언을 구하면 보통 어떻게 방향을 정해 주시나요?

◇ 여현덕 : 초기에는 사람들이 AI 기술의 홍수에 떠밀리다 보니까, 기술 자체에 초점을 맞춰서 사람의 역할이 상대적으로 저평가되기도 한 것 같아요. 그런데 지금 AI 기술이 그래도 상당히 포화 상태에 이르고 날로 발전하다 보니까. 사람들이 정신을 차리면서, ‘어 생산력이 커지는 데, 정말 우리 조직에 도움이 되는가?’, ‘생산력이 커지는 데, 정말 우리 조직에게 이익이 나오는가?’ 이점을 고민하기 시작한 것 같아요. 그래서 저도 이미 고민을 해서 책을 썼지만 최근에 그런 연구와 주장들이 하버드, MIT, 매킨지 등 많은 곳에서 자료들이 나오고 있는데요, 제 뒤에 나오고 있지만, 아마 그건 생각이 일치해서 그럴 것입니다. 그런 흐름은 크게 두 가지로 정리되는 것 같은데요. 하나는 AI를 ‘기술’로 보는 게 아니라, ‘팀원’으로 보고 ‘동료’로 보기 시작하면서 AI(에이전트)도 채용을 하는 겁니다. 사람 채용하듯이 AI를 채용해서, 가장 효과적인 팀원, 조직의 구성원으로 배치하는 것이죠. 그러니까 예전에는 “그 회사의 조직에 얼마나 우수한 사람이 있어요?” 이렇게 물어봤는데요. 지금은 그런 걸 물어보지 않는다는 거죠. “사람+AI가 얼마나 협업을 잘해서 효과를 낳을 수 있나요?” -이걸 보는 거죠. 그래서 사람이 중심에 서고 그다음에 AI 에이전트들이 들어가고, 이를 결합해서 적용한 ‘모더나’ 같은 회사도 있습니다. 실제로 큰 성과도 거뒀고 그렇게 하면서 최적의 협업 구조를 만들어 냅니다. 그런데 문제는 그 와중에 사람들이 일자리를 잃기도 합니다. 그렇지만 요즘 와서 다시 재발견되는 것은, AI가 결국 사람의 통점(pain points)이나 사람이 진짜 원하는 것(needs)을 통과하지 않으면 받아들여지지 않는다는 점을 깨닫기 시작했습니다. AI로 사업을 하시는 분들이 실제 적용을 해보니까, 그 점을 더욱 생생하게 알게 되는 것입니다. 사람을 거치지 않으면, 결국 그 사람과의 관계에서 답을 끌어내지 않으면, 이익이 나오지 않더라. 그건 제가 이론으로만 본 게 아니라, 주변에서 실제로 기업에 적용하는 사람들이 많이 있잖아요. 그들로부터도 공통적으로 나오는 이야기들입니다. 

● 김우성 : 오늘 얘기하는 거의 핵심은 IQ, 계산 잘하고 추론력 뛰어나고 머리 좋은 사람이죠. EQ, 공감대를 잘 만들어서 조직을 이끌고 가는 사람입니다. 근데 뭐가 필요한지 아십니까? 인터넷 시대 때도 하도 TV에서 EQ 떠들어서 많은 분들 기억하실 텐데요. 바로 CQ입니다. CQ 지금 교수님이 말씀해 주신 거거든요. 이건 ‘협력 능력’, ‘협력 지능’ 이렇게 표현해야 될까요? CQ에 대해서 더 설명해 주시죠.

◇ 여현덕 : 일단 ‘협력 능력’ 이게 화학적으로 결합했을 때 ‘협업지능’(CQ), 즉 두 개 합쳐서 하나의 지능을 이룬다는 의미에서 ‘협업지능’이라고 할 수 있습니다. 근데 실제 그 예를 들어서 보면, 가령 의사들이 아무리 뛰어나도 오진율이 나오고 수술할 때 손을 떨잖아요. 그건 인간의 불가피한 점인 거고요. 그런데 AI는 그 사람들의 많은 지혜를 갈아서 ‘천재인 체’하기 때문에 오진율이 많이 줄어드는 거죠. 무증상 단계에서 암을 알아내기도 하고요. 이 둘이 합치면 거의 0.5% 수준으로 오진율이 확 떨어진다는 것은 이미 많은 문헌에 나옵니다. 그래서 결국 CQ를 해야 된다는 당위는 다 인정이 됐는데, 그러면 ‘어떻게 CQ를 할 것인가?’는 하나의 방법이 있지는 않은 것 같습니다. 그러면 굉장히 고단위의 문제, 아까 재판 같은 문제. 이런 거는 사람이 기본적으로 매우 중요합니다. 사람의 어떤 지식, 직관이 물론 주관적이지만, 직관, 경험, 지식 이게 매우 중요하고요.

● 김우성 : 당대 윤리 같은 것도 중요하고요.

◇ 여현덕 : 맞습니다. 윤리에 들어가고 대신에 판례를 50년 치를 분석을 판사님이 하시려면 너무나 오래 걸리잖아요. 얘한테 시키는 거죠. 이런 거는 뒷단에 시키거나 먼저 시킬 수도 있습니다. 시키지만 큰 흐름은 인간이 잡고 있는 요소가 있고요. 두 번째 요소 중에 AI한테 완전 자동으로 맡기는 거는, “야 스팸 메일 분류해 봐.” 이런 거는 별로 단순한 것이고, 오류에 부담이 크게 없기 때문에, 이게 이메일 스팸이 절로 가든 일로 가든 사람들이 다 보면 되니까 그런 거는 완전히 AI한테 맡기고요. 그다음에 그 중간에 두 개는 그 사례마다 다릅니다. 케이스마다, 어느 케이스는 사람이 먼저 기획을 짜고, 그 다음에 AI에 시키기도 하고, 어떤 건 AI한테 먼저 돌려서 대안을 많이 가지고 오면, 이 검증을 하기도 하고요. 구체적으로 한 네 가지 방법으로 분류할 수 있을 것 같습니다.

● 김우성 : 여러분 AI가 하라고 해서 징역 5년 누가 책임집니까? 판사는 책임지거든요. 인간이고 법적으로 인간에게 책임을 물을 수 있게 돼 있고, 아직은 AI는 할 수 없습니다. 그래서 그렇다고 그 능력을 쓰지 않으면 인간의 한계는 명확하니까, 교수님 말씀하신 ‘CQ’ 협업할 수 있는 능력은 제가 보니까 결국은 소통을 잘하고 예전에는 히어로가 나타나서 인천 상륙 작전 맥아더 장군, 임진왜란 이순신 장군 이랬는데요. 시대에는 그런 히어로가 아니라 다양한 경로로 오류와 실패를 최소화할 수 있는 ‘소통하는 인간’ 이런 개념인데, 약간 과거에 등장했던 CI 집단지성하고도 느낌은 비슷한데 다른 것 같고요.

◇ 여현덕 : 그렇죠. 일단 과거의 집단 지성은 기본적으로 인원의 한계가 있잖아요. 브레인스토밍 하면 많아봐야 10명 이내고요.

● 김우성 : 더 많으면 중구난방이 되고요.

◇ 여현덕 : 맞습니다. 근데 우리가 ‘히스토리 스토밍’ 하면은 어마어마하죠. 근데 이거는 스토밍이 힘들기 때문에 데이터를 돌려야 되는 거죠. AI가 할 수 있는 거고 그러니까 결국 ‘데이터 스토밍’이 되는 거죠. 그래서 브레인스토밍에서 데이터 스토밍으로 가니까 집단 지성의 사이즈가 크게 바뀌면서 사람들의 지혜가 폭증해서 올라오는 거죠. 그런 부분이 과거하고 달라졌다 이렇게 말할 수 있겠습니다.

● 김우성 : 생각해 보십시오. 100년 전하고 지금 비슷하다. 강대국 다투고 있는데 우리 어떻게 해야 되느냐. 외교적 정책 문제이긴 한데요. 교수님 말씀하신 데이터 스토밍, 히스토리 스토밍을 하면 인사이트를 줄 수 있는, 물론 결정은 지금 당대의 인간들이 해야 되지만요. 이렇게까지 협업을 할 수 있는 범위가 넓어집니다. 최근에 주식시장 때문에 AI가 더 관심을 많이 받더라고요. 오늘 엔비디아 실적 때문에 관심이 높은데, 경영학 전공 교수님이시니까, 여쭤보면요. ‘거품이다.’ 이 얘기가 나오고 저희는 “그냥 해보십시오. 콜럼버스의 달걀처럼 지금 시작해 보십시오.”라고 얘기를 많이 드리는데도 안 해보신 분들은 ‘AI가 당장 어디 있어?’, ‘실체가 없는데?’ 이러시는 분들도 계시고요. 거품론에 대해서 어떻게 평가하십니까?

◇ 여현덕 : 이게 빅테크 기업들이 과다 투자도 있고 GPU 비용 얼마나 비쌉니까? 이런 것들이 과연 ‘저게 저 정도 비싸야 되는가?’ 우리가 이런 회의도 갖게 하고, 그런 점에서 심지어는 구글의 CEO조차도, “거품은 조정돼야 된다.” 이런 말을 했습니다. 그런데 한편으로는 과거에 AI의 겨울이 여러 번 왔잖아요. 제가 이걸 다 분석을 해 본 적이 있었는데요. 해보니까 우선 AI 기술력의 한계가 뚜렷했을 때, 일단 열기가 꺾이면서 투자가 꺾입니다. 근데 지금은 과투자되고 이런 건 분명히 있지만, 차이는 AI 기술 발전의 속도가 어마어마하고요. 웬만한 요소가 이제 뭐가 들어가야 되는지 다 압니다.

● 김우성 : 그 흐름을 막을 수 있는 단계가 아니죠.

◇ 여현덕 : 거의 호랑이 등에 탄 거고 그리고 이 요소들을 이제는 어떻게 전략적으로 결합할 것인가. 어떻게 모델을 만들 것인가의 문제이지. 그때처럼 완전히 겨울이 올 만큼 기술이 부족하고 이런 건 아닌 것 같습니다. 그런 점에서 오히려 AI의 가을이 올 수도 있다. 생각합니다.

● 김우성 : AI를 보면 거울 같아요. 아까 판사님 얘기도 했지만, “내 판결에 혹시 오류가 없는지 한번 봐줘.”라고도 할 수 있고요. 결국은 케이론 모델이 책에서도 많이 등장합니다. 불멸 불사의 존재죠. 그럼에도 불구하고 굉장히 우리가 ‘옆에 있었으면 좋겠다.’ 싶은 성격과 캐릭터를 갖고 있어요. AI와 협업. AI 에이전트가 모든 걸 대비하는 시대에 케이론 모델을 강조하셨고 실제 인터뷰에서도 그런 게 한번 나왔습니다. 사이보그냐 케이론이냐 선택기로 인터뷰도 하셨는데요. 한 말씀 정리부터 해주시죠.

◇ 여현덕 : 아주 센스가 대단하십니다. 여기가 지금 엄청 어려워져서 경영 위기 때문에, 거의 한 25% 문 닫고 대량으로 해고도 했거든요. 그래서 제가 이걸 자세히 들여다보니까 이분이 단순히 기술 테스트하려고 한 것 같지는 않아요. 그러니까 원래 목적은 이렇게 해서 정말 그것으로 사업이 잘 되게 하려고 한 것 같은데요. 결과적으로 이분은 문제 정의를 잘못한 거예요. 문제 정의가 그러니까 식료품 가게는 식료품 가게 고유의 성질이 있잖아요. 결국 사람은 신선한 식품을 사고 싶어하고, 그러 러면 회전율이 빠르고 가격 경쟁력도 있어야 하지요. 그런데 이번에 이보다 기술 구현 그 자체에 초점 맞추다 보니까, 사이보그 모델에 빠졌어요. 사람들이 계속 와보고 처음엔 기술 신기하다고 하지만 사실 나중에는 본질이 돌아가잖아요.

● 김우성 : 본질 이게 중요한 얘기군요.

◇ 여현덕 : 진정 인간의 필요와 니즈에 얼마큼 부합하느냐 이 문제로 돌아가고요. 고객의 니즈, 그러면서 결국 앞의 사례의 경우는 존재하지 않는 문제를 정의했다. 그래서 이를 사이보그 모델이다. 여기에서 사이보그 모델이라는 뜻은 진짜 본질적 문제 보다 쌈빡한 기술을 보여주는 모델이라는 거죠.

● 김우성 : 보다 인간의 본질에 다가온 그리고 서로 상생하고 공생할 수 있는 방향, 케이론 모델일 텐데요. 그 부분에 대한 고민, 교수님 얘기 들어보면 AI와 첨단 경영의 얘기이면서 한편으로는 근본적인 인간에 대한 얘기인 것 같습니다. 저희가 짧은 시간에 오늘 얘기를 다 들을 수는 없고요. 교수님 시간이 교수님의 큰 지식을 담기에 너무 부족해서 저희가 기회가 되면 한 번 더 모시겠습니다. 오늘 말씀 여기까지만 들을게요.

◇ 여현덕 : 근데 국장님께서 책을 너무 꼼꼼하게 읽으셔서 통찰력이 대단하신 것 같아요. 저보다 국장님께서 잘 말씀해 주셔서 감사드립니다.

 ● 김우성 : 감사합니다. 여기까지 듣고 저희가 다음 번에 다시 모실게요. 지금까지 카이스트-뉴욕대 석좌교수 맡고 계신 여현덕 교수였습니다.

 

 

 

[저작권자(c) YTN radio 무단전재, 재배포 및 AI 데이터 활용 금지]