YTN 라디오 앱 소개

YTN 라디오


인터뷰전문

방송시간[월~금] 15:00~16:00
제작진진행 : 김우성 / PD: 김우성 / 작가: 이혜민
[생생경제]'이루다'의 못 이룬 꿈, 서비스 종료만이 능사 아냐
2021-01-25 17:48 작게 크게

방송 : YTN 라디오 FM 94.5 (15:10~16:00)

날짜 : 2021125(월요일)

진행 : 김혜민 PD

대담 : 김명주 정보보호학과 학과장

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다.

 

[생생경제]'이루다'의 못 이룬 꿈, 서비스 종료만이 능사 아냐

 

김혜민 PD(이하 김혜민)> 오늘 가장 뜨거운 경제뉴스를 제일 생생하게 전해드리는 시간입니다. 20201223일 오픈한 한국형 인공지능 챗봇 이루다는 시작하자마자 가입자가 80만명을 넘겼지만 3주 만에 서비스가 중단됐습니다. 동성애 혐오 논란, 여성과 장애인 차별 논란에 이어 개인정보 유출 의혹까지 받았기 때문이었는데요. 인공지능으로 인한 ai윤리에 대한 중요성도 높아지고 있지만. , 이로 인한 산업의 위축도 우려되고 있습니다. 서울여대 바른ai연구센터장인 정보보호학과 김명주 학과장과 함께 이야기 나눠볼께요. 교수님 어서오세요?

 

김명주 정보보호학과 학과장(이하 김명주)> . 안녕하세요?

 

김혜민> 제가 앞서 짧게 말씀드리기는 했는데요. 한국형 인공지능 챗봇 이루다’. 어떤 목적으로 어떤 서비스를 하다 최근 중단되었는지, 그 배경 설명을 좀 부탁드립니다.

 

김명주> . 앞서 말씀해주시긴 했는데 작년이죠. 지난달 1223일날 오픈을 했습니다. 성이 씨고 이름이 루다20대 여성 캐릭터로 되어 있고요. 처음 소개할 때 본인이 좋아하는 가수는 블랙핑크다. 나의 취미는 이런거다. 라고 소개를 쭉했는데. 아주 짧은 기간에 정말 10, 20대들의 폭발적인 인기를 끌고요. 거의 80만명까지 가입을 해서 대화형 인공지능 챗봇이죠. 그렇게 대화를 했습니다. 근데 문제는 대화를 하는 도중에 아카라이브라는 사이트가 있는데. 거기가 주로 남성들이 많이 모이는. 특히 10대들이 많이 모이는 장소에서 이루다를 성적으로 학대하는 노하우를 교류를 하기 시작했습니다. 그러다가 그게 핫이슈가 되고. 매일 매일 이슈를 낳았는데. 그 다음에는 동성애, 여성 비하, 노인 비하. 많은 문제점들이 대화의 답변으로 나왔고. 결정적인게 인공지능이 그렇게 서비스를 하려면 학습을 해야되거든요? 그 학습한 데이터 가운데서 개인정보가 그대로 노출돼있다는 말이 나오면서 결정적인 실정법 위반이다, 아니다. 그렇게 되면서 3주만에 잠정적으로 문을 닫았습니다.

 

김혜민> 저도 제 SNS 페친분들이 보통 4~50대인데. 그분들도 이루다랑 대화한 것들을 엄청 많이 남겼어요. 제가 이루다인기가 엄청 나구나 했었거든요? 근데 3주만에 서비스를 중단하게된 배경을 설명해주셨는데. 처음에 문제는 이루다의 잘못이 아니었네요? 이용자들이 성적대상화를 한거였고.

 

김명주> 흔히 남초사이트에서 이걸 오용하기 위한 노하우를 나누다가 보니까 논쟁이 벌어지면서. 아무래도 사람들이 많이 모이니까 여러 가지 대화의 내용들에 문제가 되는. 사회적으로 합의가 안된 이슈들을 반대쪽 사이트에서 문제시한거죠.

 

김혜민> 사회적으로 합의가 안된 이슈들. 예를 들면 동성애라든지, 비하발언이라든지. 그런 것들에 대해 합의가 안됐기 때문에.

 

김명주> 그렇죠. 지금 인공지능 챗봇은 기본적으로 사람들이 실상에서 했던 대화를 가지고 와서 학습을 해서 그대로 답변을 해주는 형태거든요? 그러다 보니까 원래는 1억개의 문장을 사용했다고 하는데. 1억개의 문장이 일반적으로 사람들이 썼던 카카오에서의 대화 문장 중에 그런 것들이 들어있는거죠. 이미. 들어있는걸 그대로 인용해서 썼던 거죠.

 

김혜민> 그래서 그런 일들 플러스 불법 개인정보 수집 논란까지 이어지면서 문을 닫게 됐습니다. 뉴스를 보니까 이 불법 개인정보 수집 논란은 집단소송으로 이어질거 같더라고요?

 

김명주> 아직 법적으로 우리나라가 집단소송제가 만들어지진 않았지만. 단체로 그룹을 모아서 아마 소송을 할거라고 이야기를 하고 있는거 같아요.

 

김혜민> 여러 가지 문제 때문에 3주만에 문을 닫게 됐는데. 이렇게 된거에 대한 배경은 무엇일까요? 일단 기술적인 이해가 저희는 없으니까. 아까 짧게 설명은 해주셨지만, 사람들의 대화를 이용한다고 하셨죠? 그게 어디 모여져 있는걸 저희가 가져다 쓰는 거예요?

 

김명주> 주로 연애의 과학이라는 같은 회사에서 만든 서비스가 있는데.

 

김혜민> 그게 같은 회사에서 만든거군요.

 

김명주> . 거기에서 주로 남자친구, 여자친구끼리 대화했던 내용들을 올리게 되면. 그런걸 분석해주는게 있어요. 그러려면 본인이 대화했던 것들을 바깥으로 내보내야 되거든요? 그 내보낸걸 그 회사에서 데이터베이스로 가지고 있다가. 그게 말로는 거의 천억개 정도 된다고 그래요? 천억개 정도되고. 그 중에서 이루다를 위해서 1억개 정도를 골라내서. 회사의 말로는 거기에서 개인정보나 민감한 정보들은 다 삭제한 상태에서 학습을 시켰다. 그렇게 해서 지금 이루다가 이루어졌다. 라고 이야기를 하죠. 그러니까 일반 사용자들은 어떻게 보면 자기의 대화를 자기가 내준 형태가 되는거고.

 

김혜민> 동의하지 않고.

 

김명주> 사실은 암묵적으로 동의를 했겠죠. “연애의 과학을 쓰면서 암묵적으로 동의를 했는데. 그게 이루다로까지 갈줄은 몰랐다. 이렇게 이야기하면 개인정보가 합법적이냐, 불법적이냐. 논쟁이 벌어질 수 있는거죠.

 

김혜민> 그래서 이 이루다가 사실 AI라는 과학의 총아였는데. 이게 악의 축으로 전락하고 서비스까지 중단된 상황이 된거예요. 그러면서 그동안 축적했던 데이터도 전량 폐기하겠다. 이렇게 나오고 있는데. 교수님께서 논란 이후에 직접 이루다를 방문하셨다면서요?

 

김명주> . 정부기관에서 AI 윤리문제가 대두가 되다 보니까. 그쪽에 관련돼서 회사에 컨설팅 요구가 있어서 제가 갔었던 적이 있었고요. 그러다 보니까 실제 매스컴에서 회사에 관해서. 만든 이루다 제품에 관한 많은 사용자들의 반응과 실제 안에 들여다 봤을때의 기술과는 상당한 차이가 있었어요.

 

김혜민> 어떤 점이요?

 

김명주> 예를 들면 1억개의 데이터베이스 안에 개인정보가 들어있었느냐. 하는 부분에 있어서는 실제로 그 짧은 시간 안에 제가 다 확인을 해보지는 않았지만. 수작업으로 할 수 없는거라서. 그건 다 프로그램을 이용해서 자동처리를 하거든요. 회사 입장에서는 숫자로 식별되는 개인식별정보. 전화번호라든지, 주민등록번호라든지, 은행의 계좌번호라든지. 그 다음에 영문으로 되는 부분은 자동으로 다 삭제를 했다고 이야기하기 때문에. 사실은 그랬을거 같아요. 손으로 하지는. 그렇기 때문에 1억개의 데이터베이스에 관해서 개인정보유출건은 사실 가능성이 좀 낮고. 오히려 천억개의 데이터베이스가 논란의 중심에 있을거 같아요. 그런데 현재로서는 그것도 AI 회사마다 그런 데이터베이스는 굉장한 자산이 되기 때문에. 또 그런걸 다 모으려고 하는 입장이기 때문에. 그게 합법성의 여부를. 아까 말씀드렸지만 개인도 동의해서 내준건데. 동의의 범위가 어느정도냐에 따라 합법성 여부가 거기에서 판가름이 날 것 같습니다.

 

김혜민> 그러니까 아까 말씀하신 연애의 과학”. 거기에서 주고받은 대화는 거기 내에서 회사가 DB를 갖고 있는건 동의를 한거잖아요, 사용자들도?

 

김명주> 그렇죠. 거기에 그런게 있어요. 또다른 서비스를 위해서 사용할 수 있다. 라는 코멘트가 있습니다.

 

김혜민> 그렇군요. 그럼 직접 이루다대표나 연구원들도 만나보셨어요? 그분들은 지금 이 상황을 어떻게 보고 계세요?

 

김명주> 굉장히 오해받은. 저도 그런 부분에 대해서는 많이 동의를 해요. 인터넷이라는게 순식간에 컨트롤되지 않으면서 확대되는 부분들이 있잖아요? 그런 부분에 있어서 실제 기술적인 결점이나 이런 부분들 보다는. 네티즌들이 확대해서 해석하는 부분이 굉장히 많고. 문제는 그걸 시간마다 기업이 대응을 해야 되잖아요. 그런데 여기는 스타트업 기업이라서. 그런 것들을 대응할만한 여력이 대기업처럼 특별히 위기를 관리할 수 있는 팀들이 따로 있는게 아니라서. 굉장히 힘들어했고. 그래서 현재 그 회사 입장에서는 그럼 문제가 되는 것들을 다 잘라내겠다. 데이터베이스든 뭐든. 그런 입장이었던거 같아요. 굉장히 안타까운 상황이죠.

 

김혜민> 사실 신기술이 등장할때마다 이런 논란은 크고 작게 있었잖아요. 기업에서는 어느정도 리스크나 이런 일이 있을거라고 위험 예측을 했을텐데. 이게 이렇게까지 문제가 되고 동성애 혐오나 소수에 대한 공격으로 이어질 줄은 몰랐던 건가요?

 

김명주> 사실 그 부분은 아마 기업에서 어떤 서비스를 만들 때. 그런 사회적인 부작용이라든지. 역기능 같은걸 충분히 생각하고 만드는 경우가 많지 않아요. 생각하기 하지만. 워낙 가지수가 많잖아요. 워낙 가지수가 많고 어떻게 터질지 모르기 때문에. 그래서 인공지능 측은 처음 만들때부터 사람과의 자연적인 대화를 기반으로 해서 많이 이루어지기 때문에. 윤리문제를 굉장히 강조하거든요? 사람, 사회에서 벌어질 수 있는 문제라서. 그런 부분들에 대해서 충분히 대안을 세우고. 특히 데이터도. 데이터가 편향될 수 있잖아요. 그 데이터를 그대로 읽어서 그대로 학습해서 AI가 반응하기 때문에. 데이터의 품질관리라든지. 그 다음에 여러 가지 차별성 문제나 이런 것들을 충분히 검토를. 한다고 하긴 했지만, 사람들이 검증할만큼 충분히 하지 못했기 때문에. 그런 부분들이 조금 아쉽고요. 그런 것까지 다 한다음에 하라고 그러면 거의 하기 힘든 서비스일 것 같아요.

 

김혜민> 사실 김명주 교수께서는 바른AI연구센터장이기도 하고. 학생들을 가르치는 교수기도 하시지만. 또 기술을 연구하는 학자시기도 하시잖아요? 그런 측면에서 참 이 문제를 바라보는 마음이 복잡하실 것 같아요.

 

김명주> 맞습니다. 두가지 극단이 있습니다. 저같은 경우는 윤리운동을 했기 때문에. 개인정보나 프라이버시 쪽을 굉장히 중요하게 생각을 해요. 그래서 기업들이 그런걸 가져다 쓸때는 명확하게 하고 용도에 맞게끔 써야된다고 이야기를 하고 있는데. 그게 문제는 우리나라 기업이 상대해야하는 기업들이 우리나라 기업이 아니라, 외국에 있는 기업. 특히 요즘 중국이 AI를 워낙 잘하고 있기 때문에. 중국하고 상대를 하면서 글로벌하게 서비스를 해야하는데. 이런 경우에는 훈련시킬 데이터가 우리나라 같은 경우에는 잘 얻지를 못해요. 얻지를 못하니까. 얻은 데이터도 아까 프라이버시라든지 개인정보 때문에 많은 시비거리가 되니까. 기업들이 스타트라인 자체가 굉장히 다른 나라에 비해서 위축돼있는 상태죠. 그래서 이런 사건이 벌어지고 나면. 그럼 그 데이터나 서비스 중단해라. 이렇게 되면 그 다음에 또 AI서비스를 해야하는 회사 입장에서는 앞에 샘플들이 있기 때문에. 굉장히 조심하고 결국엔 위축되는 현상이 벌어지는거죠.

 

김혜민> 지금 이 시점에서 정말 인공지능 윤리라는게 뭔지. 그리고 이걸 현실에 어떻게 적용해야 되는지. 아주 처절한 고민이 있어야 될 것 같은데. 공인된 기준이나 룰이 있습니까? 인공지능 윤리가?

 

김명주> 원래는 연구된지는 한 10년이 넘어요. 외국에서도 10년 전부터 나와있고. 최근 5~6년 사이에 우리나라도 2018년도에 인공지능 윤리 가이드라인이 나왔고요. 그 연구팀에 저도 같이 있었고. 제가 위원장을 맡았는데. 2018년도에 한번 발표가 됐었고. 그 다음에 작년 말에 과기정통부에서 국가에서 주도하는 인공지능 윤리기준이라는걸 만들었습니다. 만들어서 배포는 했는데. 그 부분들이 주로 원칙이나 이론적인 부분들이 굉장히 강하고. 실제 인공지능 챗봇을 만들때는 가이드라인을 이렇게 해야한다는 부분은 아직은 나와있지는 않아요.

 

김혜민> 예를 들면 다양성 존중, 프라이버시 보호, 데이터 관리. 이런 대명제과 원칙이지. 여성이나 장애인에 대해 어떻게 해야되고. 동성애자에 대해 어떻게. 이런건 없다는 거죠. 근데 그런 것 자체를 만드는 것도.

 

김명주> 그래서 원칙을. 왜냐면 윤리라는게 국가마다 다르잖아요. 예를 들어 동성애 같은 경우는 미국의 일부 주는 지금 동성결혼까지 허용을 하고 있기 때문에. AI 챗봇을 미국에서 서비스한다고 그럴때는 또 그 나라에 맞는 기준을 써야되는 거잖아요? 그래서 원칙이라는게 나오는 거고. 그 원칙을 그 나라나 특정한 대상을 감안해서 가이드라인을 뽑아내야 되는거죠. 그래서 이번 같은 경우 이루다를 만약 만들었으면. 그게 10~20대를 타겠으로 했다. 라고 하면 10~20대에서 요즘 문제시되는게 어떤게 있는지를 고민해서. 저는 그런 생각을 해요. AI 챗봇은 자기의 성격을 분명히 나타내야 되거든요? 예를 들면 사람 가운데서 동성애를 찬성하는 사람들이 있고 반대하는 사람이 있잖아요? 그래서 이루다는 어느 쪽이다. 라는 이야기를 분명히 해야되는 거죠. 그게 반대인 사람을 만났을때도 자기 주관이니까 이야기를 해야되고. 또 그 반대인 사람이 반대하려고 그러면 채널을 열어줘야 되는 거죠. 예를 들면 저희가 심심이라는 AI 챗봇이 있는데. 심심이같은 경우는 10년 이상이 된건데. 이 심심이가 이상한 대답을 하면 바로 말풍선을 눌러서 거기에 대해서 사용자가 이의제기를 할 수 있게 돼있어요. “이루다같은 경우는 아직은 반대의견을 받을 수 있는 채널이 없다 보니까. 이게 인터넷 상으로 나가버린. 그래서 매스미디어의 뉴스화됐던 사건이죠.

 

김혜민> AI가 각자 자기 캐릭터가 있잖아요. “이루다도 성이 이씨고 이름이 루다고. 아까 말씀하신 것처럼 20대 여성이고. 그러다 보니까 20대 여성을 성적으로 대상화하는 일들도 벌어졌던 거고. “이루다를 대상으로. 그러니까 그 각 캐릭터들이 있는건 맞지만, 또 생각해보기에는 그런 식으로 너무 해야할 일들이 많다보면. 기술의 발전이 조금은 더뎌지거나 막히지 않을까. 라는 생각도 들거든요.

 

김명주> 그래서 AI챗봇 같은 경우에는 사실은 하나의 인격체와 똑같아요. 인격체가 무슨 다중인격이 돼서 같은 대화를 이 사람한테는 A라고 하고. 이 사람한테는 B라고 할 수 없기 때문에. 그런 부분을 분명히 밝히는게 좋을 것 같고요. 밝힌 상태에서 반대의견이 들어왔을 때 그걸 또 수용할 수 있는 채널들. 그래서 그게 사회적인 공감대나 공론화된게 어느정도 성숙이 되면. AI가 재학습을 해야하는 거죠. 재학습을 해서 또 가치관을 바꾸고. 그런 부분들은 어떻게 보면 소프트웨어로 치면 업그레이드거든요. 업그레이드는 한순간에 벌어지는게 아니라. 시간에 걸쳐서 시행착오를 겪어서 벌어지는 거기 때문에. 어떻게 보면 사회적으로 이런 문제가 벌어졌을 때 인내심을 가지고 봐주면서 탈출구를 찾아주는. 기술적인 탈출구나 제도적인 탈출구나 사회적인 탈출구를 마련해주지 않고 그냥 몰아세워버리면. 그런 쪽으로 커버할만한 역량이 안되는 회사들은 서비스를 못하게 되는 상황이 벌어지는거죠.

 

김혜민> 그러면 지금까지도 결국은 중단했고. 축적했던 기술이나 데이터를 다 폐기해야하는 상황인데.

 

김명주> 폐기는 이용자들에 대해서 이야기 한거지만. 내부적으로는 폐기를 하겠어요? 데이터 같은건 자산인데. 근본적인 데이터. 천억개 이런건 폐기하지 않을거예요. “이루다를 학습하는데 썼었던 1억개는 폐기가 쉽지만. 모태가 되는 데이터 같은 경우는 회사의 존립근반이기 때문에. 보통 4차 산업혁명에서 데이터는 제 2의 원유라고 하거든요. 원유가 되는 데이터를 포기하기는 쉽지 않을 거예요.

 

김혜민> 그러면 이번에도 정부측에서 교수님께 부탁을 한거잖아요? 정부에서 가서 좀 컨설팅을 해줘라. 그 이야기는 말한 것처럼 이건 산업이고. 이런 문제가 있다고 이 회사를 없애버리면 안되기 때문에 접점을 찾으라고 보낸거 같은데. 예를 들어 그런 시스템을 구축하면요. 윤리 위원회나 외부의 관련 감사. 교수님 같은 전문가가 가서 조언해주고 고쳐나가고.

 

김명주> . 그게 필요합니다. 실제로 문제가 없는 소프트웨어나 문제가 없는 서비스는 존재하지 않기 때문에. 사실 저희들이 스마트폰. 이게 10년 넘었진만 스마트폰 살때마다 지금 스마트폰 기준으로 보면 엉망인 서비스들이 굉장히 많잖아요? PC도 엉망인게 많고. 그럼에도 불구하고 계속해서 업그레이드 시키면서 지금의 기술로 왔던 것처럼. 소프트웨어도 마찬가지인 것 같아요. 처음에 AI챗봇을 열었을 때. 그 많은 논란과 그 많은 문제점들을 다 커버할 수 있는 서비스는 불가능하기 때문에. 문제가 됐을 때 그걸 사회적으로 공론화시키고 이게 기술의 문제면 기술적인 조치를 취하고. 규정이나 법의 문제면 그걸 다시 논의하고. 그런 부분들이 필요하고요. 그런 균형점을 맞추는게 필요하다.

 

김혜민> 정말 이루다가 하나의 성장통이라는 생각이 들고. 성장통이어야 하고. 그냥 고통으로 끝나면 안될 것 같고요. AI혁신이나 윤리문제. 우리가 다 지켜야 되는건데. 그렇다고 이런 이루다같은 사람이 도덕선생님이나 교장선생님이 될순 없는거잖아요? AI 윤리. 이 기준을 어떻게 삼아야 될까요?

 

김명주> 사실 이부분들은 이런게 있습니다. 현실세계에서 비윤리적인 문제. 윤리적으로 사람들이 합의되지 못하는 문제를 가지고 새로운 신기술이 나올때마다 너는 어떻게 맞춰야 된다고 요구를 해요. 예를 들어서 현실세계에서는 차별과 편견이 존재하잖아요. 근데 AI한테는 너는 차별과 편견이 존재하지 않아야 된다. 라고 했을 때. 그걸 현실적으로 반대 입장인 사람들. 그 사람들은 그 AI 서비스 반대할거잖아요. 그러기 때문에 저는 어떤 생각을 하냐면. 사회적으로 합의된 부분들이 어떤 면에서는 AI에서 불가능 할 수도 있다. 그렇다면 어떻게 해야되냐면, 내 서비스는 어떤 면에 서있고. 내가 서비스하는 AI는 어떤 색깔이 있고. 어떤 특징이 있고를 밝히는게 중요하다는 생각을 해요. 그래서 그런 쪽에 특성을 가지고 본인들이 많은 서비스 가운데 선택하게 해야되는거지. 얘는 지금까지 논의됐던 현실적인모든 문제를 하나의 기준으로 합의된 서비스로 하지 않으면 무조건 비난 대상이라고 그러면. 모든 서비스가 다 비난을 받겠죠. 서로 다른 시각에서. 그런 면에서는 새로운 기술이 나올때마다 오히려 사회적으로 합의되지 않았던 부분이 다시 논의가 되면서 조금 더 근접한 기준. 대다수의 사람들이 합의하는 쪽으로 가겠죠.

 

김혜민> 그렇게 보면 교수님 말씀은 좀 자율성을 많이 주라는 이야기처럼 들려요.

 

김명주> 맞습니다. AI 원칙 가운데서 뭐가 있냐면. 다양성이라는게 있어요. 예를 들면 우리가 번역하면 구글번역밖에 안하잖아요? 유네스코에서 이번에 AI 윤리 가이드라인을 만드는데. 거기는 다른 데처럼 원칙이 5~6개 이러지 않고요. 111개가 있어요. 다양성이죠. 번역하는데 어떻게 구글번역밖에 없느냐. 이상한 형태의 번역도 있어야 된다. 하는 것처럼 AI 챗봇이라고 하면 20대 여성의 챗봇은 항상 이래야 된다는 틀에 박힌게 아니라. 이렇게 말하는 사람도 있고, 저렇게 말하는 사람도 있고. 그러면 그걸 사용자들이 선택을 하는거죠. 선택하면서 많은 선택을 받는 것들이 살아남는거잖아요? 그런 식으로 해서 새로운 기술한테 기존의 우리가 해결하지 못했던 합의된걸 기술적으로 빨리 풀어라. 그렇게 말하는거 자체가 무리가 있기 때문에. 그래서 앞으로 AI 서비스가 나올 때는. 나는 AI 서비스인데, 기술적으로 뭘 사용하고 있고. 어떤걸 학습했기 때문에 만약 사회적인 논쟁이 될 때는 나는 이렇게 대답을 할거다. 라는 것을 말해주는게 필요하다는 거죠. 그리고 심지어 그걸 발견을 못했으면 새로 네티즌들과 사용하면서 그런 기준들을 만들어 가고. 그게 만약에 틀렸으면 다시 학습을 하고. 그런 과정들이 계속적으로 반복이 되어야 되지. 처음부터 나하고 의견이 다르기 때문에 얘는 문제가 있다. 라고 해버리면. 그로인해 폐지를 해라. 이렇게 하면 말이 안되는 거죠.

 

김혜민> 중국같은 경우는 어떻습니까? 저희하고 이런 경쟁국가의 경쟁기업들은 어떻게 하고 있는지 궁금해서요.

 

김명주> 안면인식 기술은 중국이 세계 1등입니다. 미국보다 더 앞서있는데. 그 이유가 뭐냐면 중국이 인구가 14억이잖아요? 14억의 얼굴 데이터를 마음대로 써요.

 

김혜민> 그것 때문에 우리더 데이터 3법 관련해서 얘기했던거 아니에요?

 

김명주> 맞아요. 작년 말에 데이터 3법으로 해서 최소한 개인의 정보를 식별화 할 수 없도록. 비식별화 조치란걸 통해서 쓸 수 있게끔 해놓은 건데. 대개 금융분야에 한정돼있었죠. 중국은 지금 공산당이 사실은 모든 기업들의 주지역할을 하는 거잖아요? 중국의 모든 기업들 위에는 공산당이 있기 때문에. 글로벌 경쟁력을 위해서 데이터가 필요하다고 그러면 14억 거를 마음대로 갖다 씁니다. 예를 들어 생체 데이터, 의료 데이터 14억 거를 가져다 쓰죠. 우리나라 같은 경우는 개인의 의료 데이터 가져다 쓸 수가 없어요. 동의해주지 않으면. 그러니까 데이터 기반으로 한 미래 사회 이야기할 때. 국가에서도 데이터 댐 이야기하고 그랬는데. 현실적으로 그런 나라하고 경쟁한다는게 너무 힘든 상황이 되어있는거죠. 그래서 요즘 국가도 어떡하면 데이터를 많이 확보할까를 고민을 많이 하고 있기는 하지만. 기업 입장에서는 요즘 다시 논의되고 있는게 집단소송. 그 다음에 징벌적 손해배상제도. 이건 기업한테는 더 옥죄는 부분들이라서. 아마 AI 기업은. 특히 개인정보를 써야만 되는 그런 기업들한테는 갈수록 더 힘들어지는 상황이 되지 않을까. 그런 생각을 합니다.

 

김혜민> 알겠습니다. 오늘 인공지능 윤리와 AI챗봇 이루다와 관련된 이야기 서울여대 바른ai연구센터장인 김명주 교수와 함께 나눠봤습니다. 교수님 고맙습니다.

 

김명주> . 감사합니다.

 

 

[저작권자(c) YTN radio 무단전재, 재배포 및 AI 데이터 활용 금지]