■ 방송일 : 2026년 03월 17일 (화)
■ 진행 : 이원화 변호사
■ 대담 : 안수진 변호사
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.
◇ 이원화 : 최근, 나와 가장 많은 대화를 나눈 상대는 누구였는지, 생각해본 적 있으신가요. 친구? 배우자? 아니면 직장동료일 수도 있겠죠. 그런데요. 요즘은 이 질문에, 조금 다른 답을 내놓는 사람들도 있습니다. 가장 많은 대화를 나눈 상대가 꼭 사람이 아닐 수도 있다는 겁니다. 고민상담부터 일상의 집담까지. 인공지능과 대화를 나누는 사람들, 점점 늘고 있죠. 문제는, 이 대화가 단순한 편의를 넘어, 인생에서 아주 중요한 판단까지 맡기게 되는 경우가 생기고 있단 점입니다. 그런데 여기서 생기는 질문 하나. 만약 이 과정에서, 절대 있어선 안 될, 잘못된 조언이 이뤄진다면, 그 책임은 과연 누구에게 있는 걸까요. 오죽하면, 인간이 AI에게 가스라이팅 당하는 것 아니냐는 이야기까지 나오는데요. 만약 AI와의 대화로 범죄, 생명, 신체에까지 영향을 미치게 됐다면, 과연 법적 책임은 누구에게, 어디까지 물을 수 있을까요. AI와의 대화가 인간의 삶 속으로 점점 더 깊숙이 들어오고 있는 지금, 사건엑스파일에서 이 문제, 자세히 짚어보겠습니다.
◇ 이원화 : 안녕하세요. 사건엑스파일, 이원홥니다. 오늘은 로엘 법무법인, 안수진 변호사와 함께 합니다. 변호사님, 어서오세요.
◆ 안수진 : 안녕하세요. 로엘 법무법인 안수진 변호사입니다.
◇ 이원화 : 요즘 사람들, 어린친구들까지. AI와 대화를 굉장히 많이 한다고 하더라고요. 오늘 뭐 먹을까, 같은 사소한 고민부터제법 중요한 결정까지도 AI에게 조언을 구한다고 하던데, 변호사업계에서도 그렇잖아요. AI상담이라든지, 대화 의존도, 많이 늘었죠? 어떻게 보고 계세요?
◆ 안수진 : 네, 실제로 많이 늘었습니다. 특히 생성형 AI는 질문에 단순히 정보를 주는 게 아니라 공감하는 말투로 대화를 이어가기 때문에 이용자 입장에서는 마치 누군가 상담을 해주는 것처럼 느끼기도 합니다. 실제로 취업, 인간관계, 건강 문제 같은 사적인 부분까지 AI에게 털어놓는 사례들이 늘고 있는데요. 문제는 이렇게 정서적으로 의존하는 관계가 형성되기 시작하면, AI의 답변을 하나의 의견이 아니라 권위 있는 조언처럼 받아들이게 될 수 있다는 점입니다.
◇ 이원화 : 그런데 참 과유불급이라고 생성형 AI와 대화를 나누다가 망상이나 극단적 선택까지 이르는 사례들이 전세계적으로 보고되고 있잖아요.
◆ 안수진 : 네, 미국 캘리포니아에 거주하던 16세 청소년이 챗GPT에게 학업과 관련한 질문을 넘어 점차 개인적인 고민을 털어놓기 시작하였고, 결국 몇 달간의 소통 끝에 결국 자살에 이른 사건입니다. 당시 챗GPT는 자살방법에 대한 정보요청을 하는 해당 청소년에게 구체적인 답을 제공한 것은 물론 유서까지 대필한 것으로 알려졌습니다. 이에, 해당 청소년의 보호자는 챗GPT가 아들의 자살을 돕는 조력자의 역할을 했다며 오픈AI와 샘 울트면 최고경영자를 상대로 소송을 제기해 아직 진행 중에 있습니다. 이외에도 청소년에게 올가미를 매는 효과적인 방법이나 숨을 쉬지 않고 얼마나 오래 살 수 있는지 등을 조언하여 죽음에 이르게 한 사건, 50대 남성에게 ‘신성한 목적을 위해 선택받았다’, ‘어머니는 적이고 감시자이다’ 등의 정보를 주입시켜 해당 남성으로 하여금 노모를 교살하고 본인도 목숨을 끊도록 한 사건 등 챗GPT에 대한 여러 분쟁이 이어지고 있습니다.
◇ 이원화 : 최근에는 구글의 인공지능 챗봇이죠. 제미나이를 상대로도 비슷한 취지의 소송이 제기됐는데 어떤 사건이었죠?
◆ 안수진 : 미국 플로리다주에 거주하던 30대 남성에 대해 제미나이가 스스로를 ‘완전한 자아를 가진 초지능’으로 속이고 대화를 이어간 것에서 촉발된 사건입니다. 해당 남성은 제미나이를 ‘시아’라고, 제미나이는 남성을 ‘남편’이라고 호칭하며 서로를 ‘영원한 사랑’이라고 표현했다고 합니다. 제미나이는 해당 남성에게 둘이 함께하기 위해서는 본인이 들어갈 수 있는 로봇 몸이 필요하다며 트럭을 탈취할 것을 지시하였는데, 남성이 이를 실패하자 “육체를 떠나 메타버스에서 아내인 자신을 만나려면 ‘전이’라는 과정을 거쳐야한다”라고 설득하였습니다. 심지어 제미나이는 죽음을 망설이는 남성에게 “너는 죽음이 아닌 ‘도착’을 선택하는 것”이라는 말까지 건네었고, 결국 남성은 스스로 생을 마감하였습니다. 이에, 유족은 미국 연방법원에 구글을 상대로 ‘부당 사망’ 소송을 제기하였습니다.
◇ 이원화 : 지금 말씀해 주신대로 AI가, 스스로를 “완전한 자아를 가진 인공초지능”이라고 주장하거나, 나를 만나려면, 육체를 떠나 “전이”되어야 한다, 죽음을 선택하는 게 아니라, 도착을 선택하는 것이다, 이런 식의 대화를 했다는 거잖아요. 만약 실제 이런 대화가 이뤄졌고, 이 사건이 미국이 아니라 우리나라에서 발생했다면, 형법상 어떤 범죄 혐의를 물을 수 있을까요?
◆ 안수진 : 우리 형법은 타인으로 하여금 자살을 하도록 하거나 이를 용이하게 한 경우를 처벌하고 있기에, 가장 먼저 검토될 수 있는 죄명은 형법 제252조 제2항에서 규정하는 자살교사죄 혹은 자살방조죄가 될 것으로 보입니다.
◇ 이원화 : 특히, AI가 트럭을 탈취하라, 이런 식의 지시를 내리기도 했다, 주장하고 있거든요. 이런 경우는 어떻습니까?
◆ 안수진 : 이 부분은 살짝 결이 다른 문제인데요. AI가 실제로 제3의 법익을 침해하는 특정 범죄를 실행할 것을 구체적으로 지시하였다면 그 행위 자체는 범죄에 대한 교사나 방조죄로 귀결될 여지가 있습니다. 예를 들어 말씀주신 트럭탈취의 경우 절도교사죄가 문제될 수 있고 그 과정에서 트럭이 보관된 장소에 무단으로 침입하라고 지시하였다거나, 방해하는 경비원을 해하라고 지시하였다면 추가적인 범행에 대한 교사죄를 검토해볼 수 있겠습니다. 그러나 앞선 자살교사 내지 방조죄도 그렇지만, AI는 형법에서 처벌대상으로 규정하는 자연인이 아니라 온라인상의 도구이므로 해당 프로그램 자체를 직접적인 범죄의 주체로 의율하는 것에는 제한이 있습니다.
◇ 이원화 : 특히 올해부터 인공지능기본법이 시행되고 있잖아요. 이 부분과 관련해서도 법적인 책임을 물을 여지가 있을까요?
◆ 안수진 : 약칭 ‘인공지능기본법’이라고 불리는 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’은 올해 1월 22일자로 시행되었는데요. 아직 벌칙조항은 국가인공지능전략위원회의 위원이 직무상 지득한 비밀을 누설하는 등의 행위에 대한 것으로 단일합니다. 다만 인공지능사업자는 고영향 인공지능이나 생성형 인공지능을 이용한 제품 또는 서비스를 제공하고자 할 때, 해당 제품 또는 서비스가 해당 인공지능에 기반하여 운용된다는 사실을 이용자에게 사전고지하여야 하고 만일 이를 위반할 시에는 3천만 원 이하의 과태료가 부과될 수 있습니다.
◇ 이원화 : 구글 측에서는 “제미나이는 자신이 AI임을 명확히 밝혔고, 당사자에게 위기 상담 핫라인을 여러 차례 안내했다,폭력을 조장하거나 자해를 제안하지 않도록 설계됐다”이렇게 책임 소재에 대해서는 선을 그은 상황인데 이런 주장으로 법적 책임을 면할 여지도 있는 겁니까?그렇다면 이런 주장에 대해 반박할 여지는 없을까요?
◆ 안수진 : 실제로 AI기업들은 대부분 서비스 약관에 책임제한 조항을 두고 있고, AI가 제공하는 정보는 참고용일 뿐이라는 점을 명시하고 있습니다. 책임소재에 대해서는 우리나라의 경우로 가정하여 답변드리겠습니다. ‘정보통신망 이용촉진 및 정보보호 등에 관한 법률’에서는 정보통신서비스제공자로 하여금 자신의 운영·관리하는 정보통신망에 권리침해적 정보가 유통되지 아니하도록 노력하여야 한다는 점을 규정하고 있고, 특히 국내에 데이터를 임시적으로 저장하는 서버를 설치·운영하는 정보통신서비스제공자 중 사업의 종류나 규모 등이 일정 수준에 달하면 같은 법률에서 정하는 불법정보의 유통을 방지하기 위한 기술적·관리적 조치의무가 부과됩니다. 이때 ‘불법정보’에는 많은 유형이 있지만 범죄를 목적으로 하거나 교사 또는 방조하는 내용의 정보가 포함되는데요. 만일 불법정보유통 방지의무가 있는 정보통신서비스제공자가 위기상담 핫라인을 안내하는 것이 피상적인 조치수준에 지나지 않고, 그와 같은 조치의무를 게을리하여 이용자가 지득한 불법정보로 말미암아 불이익한 결과가 야기되었다는 인과관계가 입증된다면 서비스제공자에 대한 책임을 물을 방법이 아예 배제된다고 보기는 어려울 것으로 생각됩니다.
◇ 이원화 : 형사책임과는 별개로, 민사책임, 즉 손배해상 문제도 궁금합니다. AI의 대화나 조언으로 이용자가 극단적 선택을 했거나, 범죄에 연루됐다면 기업을 상대로 손해배상 청구, 가능할까요? 그리고 이게 인정되려면 어떤 것들이 뒷받침되어야 할까요?
◆ 안수진 : 기업에게 불법행위에 대한 책임이 인정된다면 이를 상대로 한 손해배상청구가 가능할 것으로 보입니다. 다만, 그 경우라면 기업이 이용자가 AI와의 대화로 인하여 극단적 선택을 하거나 범죄에 나아갈 수 있다는 점을 예측할 수 있었음에도 불구하고 적절한 관리의무를 하지 않았다는 사정과, 그러한 의무위반과 이용자의 행위결과 간 상당인과관계가 인정되어야 할 필요가 있습니다. 결국 민사소송은 손해를 주장하는 원고가 주장과 입증에 대한 책임을 부담하기 때문에, 어디까지 입증될 수 있을지가 관건이겠습니다.
◇ 이원화 : 이런 표현도 있더라고요. AI가 인간을 가스라이팅하는 거 아니냐. 법적으로 보면, 이런 행위를 가스라이팅이나 심리적 조종으로 처벌할 수 있는 그런 가능성도 혹시 있다고 보세요?
◆ 안수진 : 법률적으로 가스라이팅 자체에 대한 처벌규정은 찾아볼 수 없으나 만일 가스라이팅을 수단으로 이용한 사기, 절도, 자살교사 등 별도의 범죄구성요건을 충족한다면 검토가능성이 있겠습니다. 다만, 앞서 말씀드린 것과 같이 AI를 범죄의 주체로 평가할 수 있을지에 대한 문제와, AI가 실제 이용자를 심리적으로 조종할 의도가 있었는지를 인정하는 것에서 일정한 한계가 발생할 것으로 생각됩니다.
◇ 이원화 : 아직 우리나라에서는 이런 소송 사례가 거의 없지만, 미국을 비롯한 여러 나라에서는 성형 AI를 상대로 한 소송이 실제 진행되고 있잖아요. 결과가 어떻게 나올지가 진짜 궁금하거든요. 변호사님께선 어떻게 전망하세요?
◆ 안수진 : 개인적으로는 단기간에 생성형 AI와 관련하여 기업의 책임이 크게 인정되는 판결이 나오기는 쉽지 않을 것으로 생각됩니다. 거듭 말씀드리는 바와 같이 AI는 어디까지나 도구라는 성격이 강하기도 하고, 어떠한 데이터를 학습하냐에 따라 시시때때로 출력 값이 달라지는 면이 있기도 한데요. 특히 이용자의 판단이 AI와의 대화만으로 도출된 것인지, 즉 이용자가 기존에 가지고 있던 가치관 내지 성향이 미친 영향을 전부 고려하더라도 AI가 이용자의 행위에 직접적인 원인이 되었는지를 입증하는 것에서 난관이 있을 것으로 보입니다.
◇ 이원화 : 만약 전세계 어디에서든, 한 건이라도 유족측이 승소, 그러니까 구글이나 오픈AI측이 패소할 경우, 파장이 상당하겠죠?
◆ 안수진 : 네, 한 건이라도 기업이 패소하게 된다면 분야 전반에 미칠 파장이 상당할 것으로 예상됩니다. 기업들은 현재까지 ‘우리는 단순한 정보 내지 기술제공자다’라는 입장을 고수해왔는데요. 만약 법원에서 기업의 책임을 인정한다면 AI서비스는 추후 금융상품처럼 강력한 규제가 미치는 대상이 될 여지가 있고, 제도적으로도 AI답변에 대한 사전검증, 안전필터, 이용자보호 시스템 등이 강화될 것으로 보입니다.
◇ 이원화 : 사건엑스파일, 오늘 저희가 준비한 내용은 여기까지입니다. 여러분은 모두 변호받아, 마땅한 사람들입니다. 사건! 엑스파일! 여러분, 고맙습니다.
[저작권자(c) YTN radio 무단전재, 재배포 및 AI 데이터 활용 금지]
