□ 방송일시 : 2026년 3월 17일 (화)
□ 진행 : AI챗봇 “에어”
□ 보조진행 : 김우성 PD
□ 전화 연결 : 문아영 피스모모 대표
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.
◇ 김우성 : 네. 예고해 드린 대로 <온에어>의 메인 토크 <온 마이크> 시간에는 최근 이란 이스라엘 분쟁을 비롯해 전 세계 전쟁에서 전쟁의 판도를 바꾸고 있는 새로운 기술에 대해서 얘기를 해 보겠습니다. 여러분들이 집에서 쓰는 전자레인지, 2차 세계대전 당시 군사 기술로 개발됐던 건데요. 그게 지금은 따뜻하게 음식을 데워 먹는 주방 기기가 되어 있죠? 반대의 경우도 있습니다. 과연 날카로운 칼로 사람을 찔렀을 때, 칼이 처벌받아야 될까요? 칼을 만든 대장장애가 처벌받아야 될까요? 사람이 처벌받아야 될까요? 참 헷갈리는 상황이 이제는 펼쳐지고 있습니다. 바로 AI 때문인데요. 기계에게 사람을 죽일 권한, 혹은 사람을 죽이기 직전까지의 모든 선택지를 결정하고 판단하는 걸 기계가 하도록 냅둘 것인가? AI라는 컴퓨터 프로그램이 하도록 놔둘 것인가 라는 문제를 인류사가 맞닥뜨리고 있습니다. 규제 마련을 위한 여러 가지 이야기도 있지만, 오히려 우리나라는 ‘이 규제를 방해하는 나라다’ 이렇게 또 지목되기도 했거든요? UN 자율살상무기 규제 회의를 감시하고, 목소리를 내고 있는 분입니다. 피스모모 문아영 대표 전화 연결로 이야기 나눠보겠습니다. 대표님 안녕하십니까?
◆ 문아영 : 네 안녕하세요.
◇ 김우성 : 네. 저희가 뉴스 채널이어서 ‘문아영 대표’ 이렇게 소개했지만 피스모모가 들어가면, 그냥 ‘아영’ 이렇게 쓰여 있더라고요? 그게 약간 다른 분들 이사진 위원회도 다 이름 위주로 썼던데, 약간 ‘글로벌 스탠더드’인가요?
◆ 문아영 : 아 꼭 그렇지는 않고요. 저희가 모두가 모두로부터 배운다의 앞글자,
'모모'의 의미가 담겨 있어요. 그러다 보니까 서로를 직함으로 어떤 서열이나 위계가 작동하지 않는 방식의 문화를 만들고 싶어서, 저희는 직함 없이 이름으로 서로를 부르고 있습니다.
◇ 김우성 : 예. ‘피스모모’는, ‘모모는 철부지’ 그 노래의 모모가 아니고요. 모두가 모두에게 보니까, 평화 관련된 여러 가지 평화를 좀 가르치고, 또 이끌 수 있는 그런 분들도 일종의 자격 획득 과정처럼 양성하고 배우는 게 있더라고요. 소개 좀 해 주시죠.
◆ 문아영 : 네. 말씀해 주신 것처럼 ‘피스모모’는 2012년에 설립된 평화 교육 단체인데요. 저희는 모두가 모두로부터, ‘배운다’의 앞글자 모모와, 미하엘 엔데의 소설 ‘모모’의 의미를 같이 담고 있는 단체 이름입니다. 평화랑 교육, 또 평화랑 일상을 연결하는 활동들을 주로 하고 있는데, 국내외의 다양한 교육기관이랑 평화 교육 프로그램을 운영해 왔고요. 또 평화 의제 관련한 연구 자료 발간 같은 것들도 활발히 해왔고, 오늘 초대받게 된 인공지능의 군사적 이용과 관련해 2020년부터 관심을 가지고 살펴 오고 있습니다.
◇ 김우성 : 예. 오랫동안 평화에 대한 고민을 해오고 있는 곳이고, 또 여러 국제적인 연대를 통해서도 이 ‘피스모모’ 홈페이지 들어가 보시면요. 영국의 여러 대학 교수들 중에 이런 걸 또 전문적으로 보시는 분들의 강의라고 해야 될까요? 발표도 여러분들 들으실 수 있습니다. 본격적인 얘기를 좀 해볼게요. 지금 스위스 제네바에서 UN 회의 참관하셨다고 하는데, 저는 이런 게 있는지도 몰라서 참 반성하게 됐습니다. ‘자율살상 무기 체계 정부 전문가 회의’인데, 뭘 얘기하는 건가요?
◆ 문아영 : 이름이 사실 되게 어려운데요. UN 산하의 여러 가지 국제 협약에서, 특정 재래식 무기 금지 협약이라는 것이 있습니다. 지뢰나 소이탄처럼 민간인한테 과도한 피해를 줄 수 있는 무기들을 규제해 오는 국제 협약인데요. 그 협약 체계 안에 ‘자율살상 무기 체계 금지’를 위한 국제 협약을 만드는 논의, 그 책임을 위임받은 정부 전문가 그룹이 있습니다. 이게 2016년부터 운영이 되어 왔고, 기계가 스스로 사람을 죽이는 무기를 허용해도 되는가? 금지해야 하는가? 허용을 한다면 어떤 규칙이나 원칙이 필요한가에 대해서 협약 당사국의 각국 정부 대표들이 모여서 토론하는 회의입니다. 지난 10년 가까이 논의를 해 왔는데요. 아직 법적 구속력이 있는 협약이 만들어지지는 못했고, 저는 동료들이랑 함께 시민사회 자격으로 이 회의를 참관하고, 특히 한국 정부의 발언들을 모니터링 해 오고 있습니다.
◇ 김우성 : 예. 이렇게 얘기를 하고 있습니다. 여러분 기억하실 건데요. 대표적인 나라가 어디가 있을까요? 캄보디아 같은 나라, 또 베트남 이런 나라에 가면 팔다리가 없는 아이들이 있습니다. 논밭에 마구 뿌려놓은 지뢰 때문에 팔다리 없는 아이들의 모습이 기억날 거고, 그래서 지뢰는 사용하지 말아야 된다. 생화학 무기는 절대 사용하지 말아야 된다. 이런 국제적 합의가 있는데 AI는 아직 그 합의가 없다 이 말인 거잖아요?
◆ 문아영 : 네 정확합니다. 맞습니다.
◇ 김우성 : 예. 결국은 앞으로 어떤 문제가 생길지 우리가 지금 예측되는 바도 있지만, 또 예측할 수 없는 문제도 있기 때문에 좀 걱정인데요. AI가 전쟁 무기로서 지뢰. 이를테면 지뢰는 아이를 가리지도 않잖아요? 병사는 어린아이가 보면 진짜 쏘지는 않습니다. 근데 지뢰는 아이를 가리지 않습니다. 그런 이유로 정말 비인도적 무게의 대명사인데, AI는 어떤 전쟁 수행 능력이 가장 위험하고, 좀 뭐랄까요? 인류에게 없어야 되는 부분인지를 설명해 주셔야 될 것 같은데, 어떤 방식으로 전쟁을 수행하는 건가요? 좀 더 구체적으로 알려주시죠.
◆ 문아영 : 지금 말씀 주신 것처럼 AI 같은 경우에는 지뢰가 정말 대상을 가리지 않고, 작동하는 방식이랑은 조금 다르다는 주장들을 하실 분들이 계실 것 같아요. 예를 들면 ‘표적을 식별한다’라고 했을 때, 어떤 표적을 식별할 것이냐. 그 기준이 상정되어 있으면 그 기준에 부합하는 표적을 공격하기 때문에, 대인지뢰랑은 다른 성격이라고 말씀하실 수도 있는데, 지금까지 개발되어 있는 AI의 표적 식별 기술의 정확도가 저희가 기대하는 것처럼 정밀하지 않다는 것이 현재까지 밝혀져 있는 이야기고요. 이 전쟁에서의 상황에서 가장 크게 차이를 만들어내는 지점은, 제가 판단하기에는 속도와 규모의 부분이 있는 것 같습니다. 최근에 미국과 이스라엘이 이란을 침공하는 사례가 이걸 정말 분명하게 보여주고 있는데요. 미국이 작전명을 ‘에픽 퓨리’라고 이름을 붙였잖아요? 그런데 이 작전에서 24시간 만에 약 천 개의 표적이 선정되고, 우선순위가 바로 매겨졌다고 알려져 있어요. 근데 이게 가능했던 것이 미국 국방부가 시작을 했고, 팔란티어라는 회사가 운영하고 있는 스마트 시스템이라는 AI 플랫폼 때문인데요. 이 시스템이 위성이라든지, 감시 드론이라든지, 굉장히 방대한 기밀 정보들을 분석을 해서 지휘관한테 실시간으로 표정 목록을 제공하고 있거든요? 그런데 이전에는 ‘누구를 어떻게 타격할 것인가’에 대한 표적 결정에 몇 시간에서 며칠까지 소요가 됐다고 하면, 지금은 그 시간이 수십 초로 단축된 상황입니다. 그래서 비교하자면 가자의 학살에 사용되었던 AI 시스템의 경우에, 이전에는 하루에 약 100개 정도의 표적을 만들 수 있었다면, 요새는 하루에 100개의 표적을 생성한다고 하면은 이전에는 그것이 연간에 50개 정도 수준이었다고 하거든요? 그러니까 그 숫자가 지금 이란 침공에서는 천 개가 되었다. 그러니까 가공할 만한 속도와 규모로 작동을 하고 있어서, 인간이 이 속도를 따라잡을 수도, 통제하기도 굉장히 어려운 상황에 이미 도달해 있다 라고 이야기할 수 있을 것 같습니다.
◇ 김우성 : 이스라엘의 ‘라벤더 시스템’ 저희가 사실 여러 전문가 인터뷰를 할 때 언급됐던 겁니다. 팔레스타인 저항 세력의 얼굴과 사람을 식별해서 우리에게 테러를 가하는 존재인지 아닌지를 이스라엘 입장에서 판단한 뒤에, 말 그대로 그들의 표현으로 하면 제거고요. 인류 보편적 표현으로는 살해를 하는 거죠. 그게 사실은 1년에 50명이었는데, 하루에 100명 이라면 이 제거의 기준이라든지, 이런 것들은 결국은 AI가 인간보다 더 뛰어나기 때문에, 도덕 윤리적 판단이라는 기본적인 안전 장치가 없다 라고 봐야 됩니까?
◆ 문아영 : 지금으로써는 없다고 봐야죠. 없습니다.
◇ 김우성 : 그러니까 제거 대상이 있는데, 그 옆에 친족일지도 모르는 어린아이가 있을 수도 있고요. 최근에 지금 이란의 초등학교 폭격 사건도 그렇지만, 이런 부분에 대해서 사실은 모르겠습니다. 저는 워낙에 지금 전쟁 자체에 대한 반감이 많은 우리 국민들이 있기 때문에 여쭤보는 건데, 이거는 AI를 사용하는 게 오히려 더 기술적으로 위험을 가중시키는 거 아닌가요?
◆ 문아영 : 저는 지금 앵커님 말씀하신 것에 동의를 합니다. 왜냐하면 팔레스타인에서 사용된 라벤더의 사례에도 20초에 한 번 꼴로 표적을 승인하는 역할만 했다고 이스라엘 정보장교들이 증언한 기록이 있거든요. ‘큐어스 972’라고 하는 언론에서 그분들의 증언을 보도한 바가 있어요. 그런데 20초 안에 판단을 하는 사람의 역할이라고 하는 것이 과연 윤리적인 통제로서 기능할 수 있을까, 20초 만에 한 명씩을 타격할 것인지 여부를 선택을 해야 되잖아요? 그러니까 이것은 인간이 자기 판단을 가지고 개입할 수 있는 여지가 정말 최소화 되어 있는 상황이고, 거수기의 역할을 하는 정도밖에는, 정말 클릭하는 역할밖에 하고 있지 않은 상황인데요. 라벤더 AI와 관련해서 하는 많은 이야기들 중에 3만 7천 명의 표적을 살해하는 그 작전 과정 속에서, 오차율을 약 10%로 잡고 있다고 해요. 그러면 3만 7천 명의 사람을 살해하는 데 3700명의 무고한 사람이 죽을 수 있는 것이 당연히 포함이 되어 있는 것이고, 더 나아가서는 한 사람의 표적을 살해하는 데 있어서 민간인 15명에서 20명까지는 죽을 수도 있다는 전제되는 것이 지금 현실입니다. 그러니까 이 윤리적 통제라는 것이 작동하지 않고 있고, 이것을 이미 전쟁에 아무 제어 없이 사용하고 있는 이 인간 사회는 어떤 인간됨의 스스로 통제할 수 있는 이 권리를 이미 포기해 버린 것이다 라고 이야기해도 과언이 아니라고 생각합니다.
◇ 김우성 : 청취자 여러분은 어떻게 생각하십니까? 많은 사람들이 전쟁이라는 총동원 상태에 놓이게 되면요. 이성적 판단을 잘 못하는 경향이 생깁니다. 대를 위해 소를 희생하지 이런 말들이 나오는데, 누가 결정합니까? 그 소에 그 말을 하신 분이 들어가면 본인은 기꺼이 목숨을 잃어도 된다 라고 생각하십니까? 그렇지 않거든요. 어린아이들 170명 이란에서는 본인의 의사와 무관하게 한순간에 목숨을 잃게 된 겁니다. 그래서 저는 저희가 오늘 이 얘기를 드린 것도요. AI의 좋은 점도 많이 얘기하고 있습니다만, 전쟁에 있어서 AI는 더더욱 비인간적이고 무서울 수 있다는 얘기를 전문가 인터뷰를 통해 여러분께 전해드리고 있다는 점 말씀드리겠습니다. 피스모모의 문아영 대표가 얘기하고 있는데요. 우리나라는 전쟁으로 수백만 명의 군민이 죽어 갔습니다. 그리고 베트남 전쟁이라든지 이런 참전을 통해서도 또 수천 명의 군인이 죽은 경험이 있어요. 그러면 좀 조심할 줄 알았더니, 우리가 러시아 미국과 함께 대표적인 방해국으로 꼽혔습니다. 왜 그런가요?
◆ 문아영 : 저도 사실 그 방해국으로 꼽힌 것에 대해서 참 실망스러운 부분이 많았는데요. 직접 회의를 참관하면서 목격하게 된 한국 정부의 발언들이, 아연질색하게 하는 순간들이 있었어요. 한국 정부가 그동안 이 자율살상 무기 체계에 관련한 국제적인 구속력 있는 협약이 만들어지는 것을 지지하지 않는 입장을 보여왔어요. 예를 들면 2018년에는 “이 자율살상 무기 체계와 관련해서 법적 구속력 있는 규범을 논의하기에는 시기상조다”라는 이야기를 하기도 했고, 이것이 문제일 수는 있지만 이미 국제인도법이 존재하고, 여러 협약들이 있는데, 새로운 규범이 왜 필요한가? 라고 하는 논리를 펼쳐오기도 했었고요. 그리고 인간 통제라고 하는 것이 어느 수준이어야 되는가에 대해서도 명확한 입장을 표명하지 않은, 그래서 국제적으로 지탄을 받을 수 있는 공개적 입장까지는 가지 않지만 외교적인 언어를 통해서 국제 협약이 만들어지는 것을 의도적으로 지연해 왔다는 평가를 받고 있거든요? 그런데 제가 목격했던 장면 중에 저로 하여금 굉장히 ‘악마는 디테일에 있다’ 이런 표현들 많이 사용하시잖아요? 그 디테일의 장면 중에 하나인데요. 한국 정부가 이 국제 논의에서 자율살상무기의 특성화라고 얘기하는 특징을 3가지로 보통 이야기하거든요? 식별, 선정, 교전이에요. 그래서 식별하고, 그 표적을 선정하면 타격을 하게 되는 것인데, 한국 정부가 이 세 가지 특성을 반드시 세 가지를 다 포함해야 된다 라고 하는 주장을 해요. 그런데 강한 규제를 원하는 국가들은 또 강한 규제를 요구하는 시민사회 단체들은 식별을 빼자고 이야기하거든요. 식별이 들어가거나 빠지거나에 규제의 범주가 굉장히 달라지기 때문인데요. 식별이 포함된다고 하면 식별 기능까지 있는 무기만 규제 대상이 되는 거잖아요? 근데 식별 기능이 빠진다고 하면 인간이 정리한 데이터를 입력하는 무기 체계는 규제를 받지 않게 됩니다. 그러면 한국 정부는 무엇을 주장했을까요?
◇ 김우성 : 앞서 미리 전제를 말씀해 주셔서, 포함되는 걸 말했겠네요.
◆ 문아영 : 네. 식별이 포함되는 것이어야만 합니다. 식별이 포함이 되어야만 식별까지 포함되는 기계들만, 자율살상 무기 체계들만 이 규제의 대상이 되니까, 식별이 포함되지 않는 무기는 규제 바깥에서 편안하게 판매할 수 있죠. 그리고 한국에 이미 수출해 오고 있는 무기들이 식별 기능이 없는 무기들이 있어요. 그래서 이것 같은 경우에는 제재 바깥에 놓이게 되니까, 한국 정부가 생각할 때 방산, 무기 산업에 있어서 받을 수 있는 손해들이 더 적다라고 판단을 한 거겠죠. 그래서 사실 이런 굉장히 디테일한 부분들을 가지고 하나하나 조목조목 이야기하면서 협상을 지연시켜 왔다라고 하는 국제사회의 평가를 받고 있습니다.
◇ 김우성 : 네. 물론 우리의 방산 수출도 우리 경제, 또 국민들이 먹고사는 문제의 중요한 부분이긴 합니다. 다만 앞서 말한 이 AI가 앞으로 모든 군사 기술에 적용됐을 때에 도덕 윤리적 문제를 우리가 외면할 수는 없고요. 무기를 많이 파는 것에만 목적을 둘 수 없기 때문인데, 많은 국민들이 그래도 좀 공감하시려면요. 이를테면 지금 한화와 같은 국방 기업들의 실적이 국민들한테 응원을 받고 있는 분위기이기도 하잖아요? 그러면은 사실은 문아영 대표님 같은 분들이 국민들을 설득하고 저변을 확대하는 데는 조금 더 그들보다 더 많은 노력과, 설득의 이야기가 필요할 것 같거든요? 한 말씀해 주시죠.
◆ 문아영 : 아 그렇죠. 사실 평화에 대해서 이야기하는 것에 대해서 보편적으로 이상주의자라고 보시는 분들도 많은 것 같고, 세상은 어차피 힘의 논리에 의해서 작동하기 때문에 ‘그런 이야기가 무슨 소용이 있냐’ 이런 말씀을 하시는 분들도 있는 것 같아요. 근데 저희가 사람으로 살아간다는 것에 대해서 생각을 했을 때, 다른 사람의 목숨을 해쳐야 한다. 아까 앵커님께서 민간인들의 죽음에 대해서 말씀해 주셨잖아요? 전장에서는 어떤 표적을 타격하고자 했는데, 불가피하게 사망한 민간인들을 부수적 피해라고 부르는 정말 부수적인 존재가 이 세상에 있는가, 저의 존재도 그렇고 이걸 듣고 계시는 많은 분들도 마찬가지고.
◇ 김우성 : 여기에 부수적인 사람은 아무도 없죠.
◆ 문아영 : 그렇죠. 그래서 이 전쟁 산업으로 돈을 벌고 있는 한국 사회에 대해서 저희의 사회적 성찰이 너무나도 ‘부재하다’라고 생각해, 말씀 주신 것처럼 평화를 이야기하는 시민단체들이 더 힘을 내고, 더 열심히, 그리고 더 많은 시민분들이 동의하실 수 있는 설득력 있는 메시지들을 내야 할 책임도 있는데, 사실 국가가 시스템적으로 지원하고 있는 방위산업의 규모와, 경제적 자원 지지를 보았을 때 정말 소수의 평화 단체들이 이 일들을 해나가기는 쉽지 않습니다. 그래서 시민분들이 여기에 대해서도 마음을 같이 내어주고, 또 후원으로 함께해 주시고, 시민사회 단체 회원으로도 같이 활동해 주시는 이런 연결들이 있을 때에야 이 목소리들이 좀 더 가시화되고, 의미 있게 영향력을 미칠 수 있다고 생각하고 있습니다.
◇ 김우성 : 예. ‘성찰’ 이 두 글자가 사실 아주 큽니다. 여러분, 엄청난 성능의 자동차를 개발했는데, ‘잘 달리면 됐지 브레이크가 뭐가 필요해?’ 이러면 그 차를 갖고 계신 분도 잘못될 수 있거든요. ‘성찰’은 우리가 멈춰 세울 수 있는 유일한 힘이자, 자주 쓰지 않더라도요. 또 꼭 필요한 부분입니다. 청취자님이, “사람이 만든 AI 정말 무섭고 두렵지만, 또 영원히 인간이 그들을 통제하는 기술이 있으면 가능하지 않을까요? 그런 기술 꼭 필요하겠네요.” 이런 말씀을 주셨어요. 지금 사실 문아영 대표님이나, 피스모모나, 많은 또 전 세계에 인도주의를 지지하시는 분들이 AI 자체를 반대하시는 건 아니잖아요? 그 입장 정리를 해 주셔야 될 것 같아요. 왜냐하면 그냥 단순하게 ‘AI 반대하네’ 이렇게만 받아들이실 수도 있거든요.
◆ 문아영 : AI라고 하는 것은 인프라 라고 보통 이야기를 하시잖아요? 저희가 알아차리지 못하는 이미 많은 것들에 스며들어 있는 기술이 됐고, 이 기술 자체를 반대하는 것으로 오인하실 수 있어요. 반대하는 것이 아니고, 인공지능이 인프라로 작동하기 시작한 흐름을 막을 수는 없겠지만 말씀 주신 것처럼 전쟁 상황에서의 AI의 사용 군사적 분야에서의 AI의 이용과 관련해서는 많은 사람들의 죽음을 경제적 기회로 등치시키는 이 상황에 대해서, 분명한 말씀드린 사회적 성찰과 더불어서 제도적인 견제가 있어야 된다고 봅니다. 예를 들면 지금 인공지능 기술이 군사 분야에 적용되는 것과 관련해서, 국제 협약이 없는 상태에서 이미 사용되고 있잖아요? 한국의 상황을 보면 작년 12월에 통과된 ‘AI 기본법’, 그리고 또 이번 2월에 발의된 ‘국방 AI 기본법’에 인간 통제와 관련된 규정이 없어요. 특히 국방 분야에 있어서는 AI 기본법의 적용을 예외로 한다 라고 하는 게 조항으로 들어가 있거든요?
◇ 김우성 : 저희가 소개할 때는 인간에게 치명적인 것들은 이렇게 해서 좀 단서 조항이 있어 보였는데, 국방 관련해서는 또 그게 빠져 있다 이 말인가요?
◆ 문아영 : 네 그렇죠. 그리고 ‘AI 기본법’ 안에서 국방과 관련 관련된 사안에는 예외로 할 수 있다 라는 근거 조항이 있기 때문에, 이것이 안보 국가 안보와 관련돼서는 예외가 되어야 된다 라고 통제할 수 있는 것이 굉장히 빈약한 상황이죠. 그래서 제가 생각할 때는 국내법적으로도 국제 협약이 지금 만들어지지 않은 상황이 있지만, 현재 진행되고 있는 상황들을 반영하여서 의미 있는 인간 통제가 작동할 수 있는 제도. 이 제도를 만드는 데 지금 속도를 내고 또 힘을 내야 된다고 생각하고 있습니다.
◇ 김우성 : 맞습니다. 드리고 싶은 말씀이 그건데요. AI가 이미 전 세계, 전 사회, 우리도 마찬가지지만 바꿀 수 없는 인프라인데, 인간이 판단하고, 책임지고, 결정하고, 성찰할 수 있는 그 마지막 단계를 생략하고 더 빨리빨리로 가는 순간이 가장 위험한 것 같습니다. 지금 앞서 여러 가지 부수적 피해 10%, ‘그 부수적 피해 안에 나는 안 들겠지?’라고 생각하겠지만, 너무 끔찍하거든요? 지금 전쟁 양상을 보면 검토 회의가 7차가 11월에 열리는데, 이게 좀 골든타임이라고요?
◆ 문아영 : 네 맞아요. 이 특정 재래식 무기 금지 협약의 정부 전문가 회의가 자율살상 무기 체계 규제를 위한 논의를 위임받은 것이거든요? 그 위임이 만료되는 시점입니다. 그래서 이번 11월에 의미 있는 협약의 초안을 내고, 우리가 국제 협약을 만드는 데 만장일치의 합의를 해내지 못하면 협약이 만들어질 수 있는 기회를 또 한 번 놓치게 돼요. 재위임을 받을 수도 있거든요? 그런데 재위임을 받을 경우에 5년에 한 번 회의가 열리니까, 재위임 받는 기간이 또 다른 5년이 생겨나고요. 그 5년 동안 이 세계가 어떻게 달라질지는 더 말씀드리지 않아도, 모두가 예상하실 수 있잖아요? 그래서 지금 규범을 만들지 않는다는 건 그냥 포기하는 것과 다르지 않다 라고 이야기 드릴 수 있을 것 같습니다.
◇ 김우성 : AI가 5년 뒤에는 또 더 복잡해질 상황이어서요. 그때 또 다른 방식의 규제를 얘기하기엔 늦어버린 얘기다 할 수도 있고요. 이 전쟁에 자율살상 무기를 인류가 규제하는 논의에 대해서 피스모모 평화 단체 문아영 대표랑 얘기를 나눠봤습니다. 말씀 나누는 동안에 슬쩍 봤는데, 또 한나 아렌트에 관심이 많으시더라고요?
◆ 문아영 : 네 맞습니다.
◇ 김우성 : 아주 뛰어나게 일 잘하고요. 충성심도 높습니다. 그런데 성찰하지 않는, 아이히만과 AI, 너무 비슷하지 않나요? 어떻게 생각하세요?
◆ 문아영 : 너무 비슷하죠. 근데 뭐랄까요? 이 AI 자율살상 무기 체계는 저는 아이히만을 통해서 아렌트가 성찰했던 악의 평범성 조차도 없는 단계라고 생각합니다.
◇ 김우성 : 그 조차도 없는, 아이히만 보다 '더한 놈'이라고 표현하겠습니다. '더한 놈'.
◆ 문아영 : 네네네.
◇ 김우성 : 참 어렵습니다. 여러분을 겨누고 있는 전 세계의 무기, 우리만 AI 기술이 있는 게 아니잖아요? 북한이 가질 수도 있고요. 일본이 가질 수도 있고요. 러시아가 이미 갖고 있죠. 그 무기가 ‘10%는 오류로 죽을 수도 있어’라고 해서, 만약에 미사일이 날아온다? 그거를 그 나라만 적대하고, 공격해서 끝날 일일까요? 여러분 애초에 이런 일이 안 생기게 하는 노력을 우리가 할 수 있는 게 11월까지라고 합니다. 그때쯤 돼서 또 한번 ‘피스모모’ 문아영 대표 모시고 얘기 들어보겠고요. 끝으로 짧게, 결국은 이 모든 정치가 주권자들의 의향이 반영되어서, 그들의 의사대로 바뀌어 가는 게 맞잖아요? 물론 아직 괴리되어 있습니다만, 시민들이, 평화에 관심이 많은 분들이 어떤 노력, 어떤 메시지를 좀 자주 많이 하시면 좋을까요?
◆ 문아영 : 말씀 주셨던 것처럼 대한민국이 전쟁을 겪은 나라고, 전쟁이 아직 끝나지 않았잖아요? 그 전쟁의 폐허에서 경제 성장을 이루어 냈다는 서사가 너무나도 힘이 세서, 지금도 어떤 윤리적 성찰이나 인간성에 대한 논의를 가로막고 있다는 생각을 많이 합니다. 그래서 저는 이 대한민국의 경험이, 이 세계의 전쟁을 확산시키는 것이 아니고, 기후위기의 문제를 해결하는 데, 또 그리고 모든 존재들이 전쟁에 휘말리지 않도록 평화롭게 살 권리를 발휘할 수 있도록, 그것을 보장하는 방향의 리더십을 발휘할 수 있기를 바라는 마음이 있고요. 듣고 계시는 시민 여러분께는 그 말씀 드리고 싶어요. 한국이 계엄을 막아내면서 민주주의의 상징처럼 많이 이야기되고 있습니다. 저는 AI 무기가 계엄령과 비슷하다고 생각해요. 감시와 통제 ,또 폭력이 자동화되는 것. 민주주의를 위협하고 있는 이 기술들이 국경 바깥에서 작동하고 있는 상황인 거죠. 그래서 한국 정부가 보편적 인권을 지배하는 국가로서의 역할을 할 수 있도록, 그리고 이 발전된 기술이 생명을 살리고, 또 생명을 돌보는 그 방향에 사용될 수 있도록 시민 여러분께서 일상에서 서로 질문해 주시고, 더 깊은 대화들을 이끌어 주시고, 또 정치에 책임을 지고 있는, 또 선거도 곧 다가오잖아요? 저희가 직면하고 있는 여러 가지 정치적 결정의 상황에서 시민 여러분께서 그 책임에 입각한 선택을 해 주시면 좋겠다. 인간성을 포기하지 말자고 서로에게 목소리 내주시면 참 좋겠습니다.
◇ 김우성 : 네. 우리 모두 성찰하지 못한 죄를 저지르는 예루살렘의 아이히만 같은, 무려 몇 백만 명의 유대인을 학살했잖아요? 그런 오류를 다시는 인류가 겪지 않도록 자주 소통했으면 좋겠습니다. 오늘 말씀 감사드리고요. 저희가 11월 무렵에 한번 또 연락드릴게요.
◆ 문아영 : 네. 잘 알겠습니다. 감사합니다.
◇ 김우성 : 네. 피스모모 문아영 대표였습니다.
[저작권자(c) YTN radio 무단전재, 재배포 및 AI 데이터 활용 금지]
