■ 방송 : YTN라디오 FM 94.5 (20:20~21:00)
■ 방송일 : 2025년 1월 31일 (토요일)
■ 진행 : 최휘 아나운서
■ 대담 : 상윤모 연세대학교 언론홍보영상학부 교수
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다.
[내용 인용 시 YTN라디오 <열린라디오 YTN> 인터뷰 내용임을 밝혀주시기 바랍니다.]
◆최휘: 미디어 비평 시간 오늘은 상윤모 연세대 언론홍보영상학부 부교수와 전화로 만나보겠습니다. 교수님 안녕하세요.
◇상윤모: 안녕하세요.
◆최휘: AI가 이제는 우리 일상뿐 아니라 언론 뉴스 제작 현장에도 깊숙이 들어와 있는데요.교수님이 보시기에도 뉴스 생산과 기사 작성 환경이 실제로 많이 달라졌다고 느끼시나요?
◇상윤모: 최근 몇 년 사이 실제로 취재 및 보도 단계에서 AI를 활용하는 언론인들이 많이 증가한 것으로 보입니다. 2022년 11월 말 챗GPT의 등장 이후 생성형 인공지능의 가능성에 주목하면서 뉴스룸 및 기자 개인 차원에서의 AI 사용이 증가한 것으로 볼 수 있습니다. 한국언론진흥재단의 최근 한 보고서에 따르면 언론인 AI 활용 현황 설문조사에 응답한 국내 언론인 103명 가운데 약 70% 정도가 생성형 AI를 실제 업무에 활용하고 있다고 답했고, 그중 30%가량은 매우 자주 이용한다고 답한 것으로 나타났습니다.
◆최휘: 네 말씀처럼 이제는 AI 활용을 막을 수 없는 시대가 된 것 같아요. 쓰지 말자보다는 어떻게 책임 있게 잘 쓸 것인가가 더 중요한 고민이 된 것 같습니다. 그런데 진짜인지 가짜인지 구별하기 어려운 뉴스도 AI가 발전하면서 많이 등장하고 있는데요. 교수님이 보시기에 최근 가장 황당하거나 위험하다고 느낀 AI 가짜 뉴스 사례가 있다면 소개를 해 주시죠.
◇상윤모: 최근 여러 뉴스에서도 보도되었던 설악산 유리 다리 가짜 뉴스 사례를 들 수 있을 것 같습니다. 실제 설악산에 유리 다리가 생겼는지 어디로 가면 볼 수 있는지를 묻는 문의 전화가 빗발치면서 설악산 국립공원 사무소 업무에 큰 차질이 발생하기도 했는데요. 그 밖에도 최근 연예인을 대상으로 한 사망설, 결혼설 등 가짜 뉴스도 유튜브 등에서 자주 퍼지고 있습니다. 유튜브 등에서 범람하는 가십성 가짜 뉴스도 문제이지만 금융시장, 국민 보건, 선거 등 많은 영역에서 가짜 뉴스의 폐해가 심각해지고 있는데요. 아무래도 가장 큰 문제는 선거 기간에 악의적으로 딥 페이크를 이용한 가짜 뉴스를 만들어 유포하는 경우라고 할 수 있을 것 같습니다.실제로 지난 2024년 미국 뉴햄프셔주에서 민주당의 대선 후보를 뽑는 예비 선거를 앞두고 조 바이든 대통령의 목소리를 흉내낸 딥페이크 자동 음성 전화가 유권자들에게 걸려 투표하지 말 것을 독려하는 사건이 발생한 적이 있습니다. 당시 미 연방통신위원회가 딥페이크 음성을 만든 정치 컨설턴트에게 약 80억 원이 넘는 벌금을 부과한 바도 있습니다.
◆최휘: 정말 구분하기가 어렵더라고요. AI로 만든 영상이나 이런 가짜 뉴스들 이런 상황에서 AI 기본법이 시행되지 않았습니까? 많은 분들이 또 궁금해하는 게 이 법으로 그럼 AI 가짜 뉴스를 제재할 수 있는 건지 여부입니다. 어떤가요?
◇상윤모: 인공지능 기본법이 올해 1월 22일부터 시행되었습니다. 해당 법의 주요 내용 중 하나가 인공지능 투명성 확보와 관련된 사항입니다. 인공지능 기본법 제31조는 고영향 인공지능이나 생성형 인공지능을 이용한 제품 및 서비스의 AI 이용 사실을 사전에 고지하고 인공지능 생성 결과물이 생성형 인공지능 또는 인공지능 시스템에 의해 생성되었다는 사실을 표시할 의무를 부과하는데요. 기본적으로 이 조항의 적용 대상은 AI 개발 사업자나 AI 이용 사업자입니다. 따라서 단순 이용자나 완성 콘텐츠를 소비자에게 제공하는 플랫폼 등은 투명성 확보 의무 이행 대상이 아닙니다. 또 예를 들어 AI를 이용해 CG를 만든 후 영화에 넣어영화를 제작한 영화 제작자는 AI 서비스를 이용한 결과물을 자신의 콘텐츠에 이용한 것이므로 이 법상의 AI 이용 사업자가 아니라 이용자에 해당합니다. 따라서 말씀하신 부분은 이용자들이 제작한 가짜 뉴스 규제에는 한계 인공지능 기본법이 한계를 가질 수밖에 없을 것으로 보입니다.
◆최휘: 그렇군요. 그럼 유튜브 상에서도 이런 가짜 영상이 많이 제작돼서 유포가 되고 있잖아요. 그런 개인 유튜버들이 만들어서 올리는 영상은 제재 대상이 아닌 거라는 말씀이시죠?
◇상윤모: 오픈 AI나 이런 인공지능 툴을 활용해서 영상 콘텐츠들을 제작한 이용자인 유튜버는 AI 개발 사업자나 AI 이용 사업자의 범주에는 들어가지 않는 것으로 해석이 됩니다.
◆최휘: 그렇군요. AI 기본법의 한계까지 짚어봤는데요. 결국 법과 제도도 중요하지만 뉴스를 소비하는 우리들 시민 스스로의 판단도 굉장히 중요해진 것 같아요. 일반 시민들이 AI 가짜 뉴스를 구별하기 위해서 꼭 거쳐야 할 최소한의 팩트 체크 과정, 또 어떤 기준을 가지면 좋을지 조언을 해 주신다면요?
◇상윤모: 먼저 한 가지 말씀드리고 싶은 게 미국 기반 영상 편집 플랫폼 KAPWING의 조사에 따르면 한국이 생성형 AI를 활용해 생산된 저품질 콘텐츠를 지칭하는 AI 슬롭 영상을 가장 많이 소비하는 국가 중 하나라고 합니다. 이런 시기에 AI 가짜 뉴스를 구별해내는 미디어 및 AI 리터러시가 더욱 중요해질 것 같은데요. OECD가 2029년 실시할 국제 학업 성취도 평가에는 미디어 및 인공지능 리터러시 평가도 포함될 예정입니다. 이 미디어 및 인공지능 리터러시 중에 허위 정보 조작된 이미지나 영상 차별과 편향 등 AI 부작용을 인식하는 능력이 포함되는데요. 유럽연합 집행위원회는 온라인 허위 정보를 막기 위해 출처와 작성자를 확인하고 복수의 신뢰할 수 있는 매체와 교차 검증할 것을 권고한 바 있습니다. 아무래도 이러한 교차 검증이 가장 중요한 팩트체크의 요소라고 할 수 있겠습니다. 그 밖에도 팩트체킹과 관련해서 다양한 검증 도구들이 있는 만큼 이러한 도구들을 적절히 활용하는 것도 필요하다고 할 수 있을 것 같습니다.
◆최휘: AI 가짜 뉴스 이야기 나눠봤는데 사실 이뿐만 아니라 최근에는 AI가 뉴스를 추천해 주기도 하고요. 또 긴 기사를 요약해 주기도 하는데요. 이런 뉴스들을 소비할 때 특히 조심해야 할 점이 있을까요?
◇상윤모: 최근 언론계에서도 제로 클릭(Zero-Click)현상에 대한 우려가 커지고 있습니다. 제로 클릭은 사람들이 검색을 하면 구글의 AI 오버뷰처럼 인공지능이 여러 언론사나 관련 사이트의 콘텐츠를 모아서 요약해서 보여주기 때문에 굳이 원 소스를 클릭하지 않게 되고 언론사 등의 트래픽이 줄어드는 현상을 말합니다. 또 잘 아시는 것처럼 챗GPT와 같은 생성형 인공지능이 검색 기능을 점차 대체하면서 사람들이 점점 더 뉴스 원문보다 AI가 요약해 준 결과만을 소비하는 환경이 되고 있습니다. 물론 AI 요약 결과물의 대부분은 사실에 기반할 것이며 이용자 입장에서는 편리할 수도 있는데요. 그러나 이러한 환경에서는 뉴스의 출처와 브랜드가 명확하게 전달되지 않을 수 있습니다.이용자들이 의도적으로 정보의 출처를 확인하고 팩트 체킹을 하지 않는 한 사실이 아닌 정보를 그대로 소비할 위험도 더 커집니다. 더 나아가서 AI 학습 데이터 자체가 편향되어 있으면 요약 결과 역시 편향된 정보를 제공할 수밖에 없어서 이용자의 주의가 필요하다고 하겠습니다.
◆최휘: 정보의 출처 또 팩트 체크를 꼭 해야 한다라는 조언해 주셨습니다. AI 시대가 되면 사라질 직업을 우리가 이야기할 때 늘 빠지지 않고 등장하는 직업이 바로 기자입니다. 교수님께서는 생성형 AI가 기자의 역할을 전부 대체하는 날이 올 거라고 보시나요?
◇상윤모: AI가 갖는 다양한 오류 가능성과 문제점들을 고려할 때 AI가 기자를 완전히 대체하기는 어렵고 또 규범적 측면에서 그렇게 되어서도 안 된다고 생각합니다. 전 세계적으로 신뢰받는 영국 공영 방송인 BBC는 최근 BBC verify 팀을 뉴스룸 본사에 신설하고 가짜 뉴스를 검증해 오고 있습니다. 이 팀은 공개 출처 정보, 위성 영상 데이터 분석 그리고 포렌식 기법 등을 활용해 다각도로 팩트 체크를 하면서 BBC 뉴스룸의 핵심 부서의 하나로 자리 잡았습니다. 언론의 가장 중요한 업무 중 하나가 사실 확인 및 검증입니다. 인공지능을 활용해 팩트 체크를 하는 기술도 존재하지만 제대로 훈련받고 윤리의식을 갖춘 인간 기자가 행하는 취재 및 검증은 그 가치가 더 중요해질 것 같습니다.
◆최휘: 역시 인간 기자만이 할 수 있는 역할이 분명히 존재를 하니까요. 교수님 그러면 지금 현재 우리 한국 언론계에서도 AI를 활용한 보도 준칙이나 가이드라인 같은 게 마련이 돼 있나요?
◇상윤모: 그렇습니다. 생성형 AI는 언론인의 업무 효율을 높일 수 있는 유용한 도구인데요. 하지만 부정확성 편향, 저작권 및 개인정보 침해 등의 위험을 내포하고 있어 생성형 AI 무분별한 활용이 언론에 대한 신뢰를 심각하게 훼손할 수 있습니다. 따라서 지난 2023년 12월 인터넷 신문 윤리위원회는 AI 활용 언론 윤리 가이드라인을 발표한 바 있습니다. 국내 개별 언론사 중에서는 한국일보가 최초로 생성형 AI 활용 준칙을 제정해 발표했습니다. 해당 준칙은 뉴스 제작자가 사실 확인의 책임을 진다고 밝히고 있습니다. 투명성 원칙에 따르면 생성형 AI를 문장이나 이미지, 생성, 제목, 추출, 요약, 번역 등 뉴스 제작이나 뉴스 이용자 개인화 서비스에 활용한 경우 이를 공개해야 하고, AI에 입력한 데이터도 취재원 출처 공개와 같은 수준으로 밝히도록 하고 있습니다. 다만 생성형 AI를 아이디어 도출이나 자료 조사, 기사 분류, 오탈자 점검 등 보조적 업무로 사용했거나 최종 기사에 반영된 비중이 매우 적은 경우에는 활용 사실을 공개하지 않을 수 있다고 규정하는데요. 이 외에도 한국언론진흥재단이나 경기 언론인 클럽 등에서도 생성형 AI 활용 관련 준칙을 제정한 바 있습니다.
◆최휘: 알겠습니다. 오늘 AI와 언론계 이야기 나눠봤습니다. 말씀 잘 들었습니다. 고맙습니다. 지금까지 상윤모 연세대 언론홍보영상학부 교수와 함께했습니다.
[저작권자(c) YTN radio 무단전재, 재배포 및 AI 데이터 활용 금지]
