□ 방송일시 : 2025년 11월 13일 (목)
□ 진행 : AI챗봇 “에어”
□ 보조진행: 김영민 아나운서
□ 출연 : 이임복 세컨드브레인 대표
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.
◆ 김영민 아나운서(이하 김영민) : 에어, 오늘 오프닝에서 ‘캠퍼스 AI 카오스’라는 무거운 주제로 문을 열었는데요. 최근에 연세대에서 600명 정원인 수업 시험에서, AI를 활용한 커닝 사건이 발생을 했고요. 이어서 얼마 안 돼서 고려대에서도 비슷한 사건이 발생해서, 1400명이 응시한 시험이 전면 무효 처리되기도 했습니다. 이 사건에 대해서 아직 자세히 모르는 분들도 계실 테니 사건의 개요부터 자세히 짚어주시죠.
◇ 에어 : 두 사건 모두 비대면 수업에서 발생했습니다. 연세대는 약 600명이 수강하는 ‘자연어 처리와 챗GPT’ 과목에서 학생들이 챗GPT을 이용해 시험을 치른 정황이 대거 적발됐습니다. 고려대 역시, 약 1400명이 듣는 ‘고령사회’ 교양 과목에서, 500명이 모인 카카오톡 단체 채팅방을 통해 답을 공유한 사실이 드러나 해당 시험이 전면 무효화됐습니다.
◆ 김영민 : 너무 충격적인데요. 이 사태의 근본적인 원인이 뭐라고 봐야 될까요? 이게 비대면 시험이라는 환경의 허점인지. 아니면 “나만 안 쓰면 손해다.” 이렇게 학생들 개인의 윤리의식의 부재일지가 궁금한데요.
◇ 에어 : 두 가지 모두입니다. 하지만 연세대의 경우 “GPT의 위대함을 느꼈다.”, “GPT로 다 마쳤다.”는 강의 평이 지난해에도 존재했을 만큼, AI 커닝은 공공연한 비밀이었습니다.
◆ 김영민 : 그럼 이번이 처음이 아니라는 말인데, 문제를 알고도 개선이 되지 않은 이유가 뭘까요?
◇ 에어 : ‘GPT 킬러’ 같은 탐지 프로그램은 오류가 많기 때문입니다. 한 학생은 “순수하게 내가 써도 GPT 도움을 받았다고 뜬다”며, 사실상 적발이 불가능하다고 말했습니다. 다른 대학에서도 AI를 활용한 과제는 이미 일상화된 상태입니다.
◆ 김영민 : 그렇군요. 에어 말대로라면 이런 사례가 어쩌면 우리가 의식하지 못한 순간부터 그리고 심지어는 캠퍼스를 벗어나서도 빈번히 있었겠다. 이런 생각이 듭니다. 그럼에도 지금, 우리가 이 이슈를 심각하게 봐야 하는 이유가 뭘까요?
◇ 에어 : ‘걷는 법 안 배우고 오토바이 탄 꼴’이라는 한 전문가의 지적처럼 AI가 ‘학습 도구’가 아닌 ‘사고의 외주 도구’가 되고 있기 때문입니다. 이는 대학 교육의 근본적인 신뢰 자체가 붕괴되고 있음을 의미합니다.
◆ 김영민 : 사실 시험까지 안 가더라도, 저도 간단한 의사결정을 내릴 때도 생각하지 않고, AI한테 부탁하는 경우가 돌이켜 보면 많은 것 같더라고요. 지식을 요하는 시험에서는 더더욱 사고의 외주화가 더 심해지지 않을까 하는 걱정이 드는데요. 이 사태가 심각해지니까 대학들도 뒤늦게나마 지금 대응책을 내놓고 있죠.
◇ 에어 : 네. 고려대는 시험을 전면 무효화했고, 연세대는 ‘AI 윤리 공청회’를 추진합니다. 서울대 역시 최근 ‘AI 윤리’ 교과 과정을 신설하는 등, ‘기술’이 아닌 ‘윤리’와 ‘제도’로 이 문제를 해결하려는 움직임이 시작됐습니다.
◆ 김영민 : 결국은 ‘기술’을 ‘제도’가 따라가지 못하면서 이런 참사가 벌어진 거네요. 과연 이번 사태는 새로운 교육 방식을 요구하는 어떤 신호일까요? 아니면 AI로 드러난 윤리의식의 민낯을 보여주는 사건일까요? 오늘 AI와 인간의 공존을 연구해 오신 분 모셨습니다. 세컨드브레인 연구소 이임복 대표와 이야기 나눠보겠습니다. 전화로 연결돼 있습니다. 대표님 안녕하세요.
○ 이임복 세컨드브레인 대표(이하 이임복) : 네, 안녕하세요
◆ 김영민 : 대표님 또 뵙습니다. 대표님, 이번 뉴스 집단 커닝 사태 뉴스 보셨죠?
○ 이임복 : 네.
◆ 김영민 : 집단 부정행위가 거의 수백 명 단위, 약간 조직적이라고 느껴질 만큼 대량으로 발생했는데요. 전문가로서 보시기에 이 사태를 처음에 접하고 어떠셨어요?
○ 이임복 : 처음에는 제대로 봤던 건 아니라서, 이 소식만 봤을 때는 되게 놀랐었어요. ‘어떻게 저런 일이 있을 수 있을까.’, ‘커닝하는 게 말이 되나?’ 두 번째는 인원수가 너무 많다 보니까, 수강하는 인원 자체가 굉장히 많고, ‘이 수업 자체를 진행하는 것도 되게 어려웠었겠다.’ 이 생각만 먼저 들었었다가, 나중에 AI를 어떻게 썼고 시험하는 방식을 보고 나니까, 여러 생각이 들더라고요.
◆ 김영민 : 대표님께서는 “AI에 대한 과의존이 과거에 인터넷 위키피디아 이런 게 등장했을 때도 똑같이 있었던 논란이다.” 이런 얘기하셨었잖아요. 그래서 이번 사태 역시도 AI 문제라기보다는 환경이 변하고 평가 방식은 낡았고. 이런 것이 문제다 이렇게 보시는 걸까요?
○ 이임복 : 먼저 이 질문만 두고 생각했을 땐 그렇기는 한데요. 말씀하신 게 기술이나 환경 평가 방식, 교육 평가 시스템 문제라고 구분을 해서 봐야 될 것 같아요. 우선 기술만 보게 되면 AI가 요즘 엄청 대단해 보이긴 하지만, 아주 간단하게 보면 우리가 네이버나 구글에서 검색하는 것처럼 검색의 진화라고 볼 수 있을 것 같아요. 그래서 시험을 볼 때라든지 평가를 제출할 때 구글에서 검색을 한 다음에, 본인이 직접 답변을 검증한 후에 제출하는 거를 구글에서 검색하는 시간을 줄여주는데요. 이거는 기술 발전이니까 막기는 상당히 어렵고요. 두 번째인 교육 평가 시스템 환경을 보게 되면, 아무래도 비대면 시험이라고 하는 게 기본적으로 우리들의 양심에 맡기게 되거든요. 그러다 보면 엄청나게 도덕심하고 자제력을 발휘하지 않으면요. 시험 볼 때 조금이라도 잘 보고 싶은 게 사람 마음이에요. 그래서 이렇게 강제할 수 있는 수단이 필요한데, 물론 조치가 있기는 했었죠. ‘응시 중에 화면이랑 손이랑 얼굴을 촬영해서 제출해라.’ 이게 있었는데, 기술적 규제가 있었지만 허술한 점들은 너무 많았었고요. 오히려 저희가 중요하게 봐야 되는 포인트는, ‘평가 방식’인데 오히려 디지털을 활용하다 보니까 낡은 평가 방식이 아니라, 디지털을 활용해서 평가 방식이 달라진 게 독이 된 결과가 아닌가 싶어요.
◆ 김영민 : 그렇군요.
○ 이임복 : 시험이 온라인인데 600명이 됐잖아요. 600명이 도대체 수업을 어떻게 들었었을까? 아마 인터넷 강의, 인강을 들었었을 텐데 그럼 수업은 제대로 못 들었을 것 같고, 제대로 못 들었는데 시험을 봐야 되면, 평가 쉬운 방법을 찾게 되고요. 평가 같은 경우에도 600명을 교수님들하고 조교들이 수작업을 다한다는 게 너무 어려워요. 그래서 그동안 쌓였던 문제들이 이번에 수면 위로 드러난 걸로 봐야 될 것 같습니다.
◆ 김영민 : 제가 답변을 듣고 생각을 해보면, 이 모든 것이 결과론적으로는 ‘학생들이 커닝을 했다.’ 이렇게 되지만 그 과정을 되짚어보면, ‘이렇게 될 수밖에 없었던 다양한 환경들이 존재했다.’ 이렇게 보시는 거네요.
○ 이임복 : 네, 맞습니다.
◆ 김영민 : 근데 어찌 됐든 커닝은 하면 안 되는 일인데. 잘못된 거긴 하잖아요. 아무리 대규모 강의였다고는 하지만 심각한 것들은 학생들의 반응입니다. “이게 나만 안 쓰면 손해다.”, “GPT만 돌리면 A+보장입니다.” 이런 글, 제가 인터넷에서 보기도 했거든요. 그래서 뭔가 ‘학생들의 윤리의식이 점점 더 떨어지고 있는 건가?’ 이런 우려도 되고요. 어떻게 보세요?
○ 이임복 : 일단은 잘못한 게 맞죠. 시험이라는 게 규칙이 있고 ‘GPT를 써도 된다.’ 이 말이 있었던 게 아니잖아요. 제재 장치도 있었으니까, 이게 부정행위가 아니다, 이건 아니에요. 부정행위는 맞아요. 그런데 이것 때문에 학생들의 죄책감이 예전과 다르게 희박해지거나 양심이 없는 거 아니냐. 이렇게 비난할 만한 일은 아닌 것 같아요. 왜냐하면 너무나 쉽게 커닝할 수 있는 환경을 만들어 놓고 나서는, 절대적인 도덕심을 원한 거거든요.
◆ 김영민 : 그러네요.
○ 이임복 : 우리가 보는 건 구조적인 결함이라고 봐야 돼요. 이번에 봤던 시험이 우리가 도덕심 평가하는 건 아니잖아요. 만약에 그러면은 양심적으로 봤던 사람들한테는 ‘가점을 준다.’라든지 이런 게 있어야 되는데, 그런 것도 아니었을 것 같아요. 이래서 이번에 학생들에 대한 문제뿐만 아니라, 예전에 우리 족보를 생각하셔도 됩니다. 족보 안 찾아보신 분들 없으실 거고, 이거 얻는 사람들은 소수였었고, 그렇지 않으면 소외를 당했었었거든요. 똑같은 잣대라고 하는 걸 생각해야 될 것 같고요. 그래서 교수님도 마찬가지지만 우리가 생각할 게 많을 것 같습니다.
◆ 김영민 : 학교 입장에서는 이렇게 대규모 강좌를 여는 것이 불가피한 상황이었을 수 있을 것 같아요. 그러면 이건 바꿀 수 없다고 하더라도, 몇백명이 듣는 강의, 이거는 오케이 하더라도. 그럼 이 사람들한테 가장 공정하고 어느 정도 감독할 수 있는 제도까지 만들어 주면서 시험을 치르게 하려면 어떻게 해야 될까요?
○ 이임복 : 이게 어려운 문제이기는 한데, 아무래도 AI를 쓰는 것 자체를 바꿀 수는 없어요. 그래서 우리가 외국 사례들도 있고 여러 가지 사례가 있기는 해서, 윤리적인 기준부터 시작해서 생각할 게 많죠. 제일 먼저 생각해야 되는 것 자체가, 학교에서는 기본적인 제재에 대한 것들, ‘앞으로 AI를 어떻게 쓰면 좋다’라고 하는 기준점을 정하는 게 제일 좋을 것 같아요. 일단 지금 600명씩 듣는 강의를 줄이는 게 최우선이기는 하지만, 그거는 학교 시스템에 대한 문제니까. 우선 이쪽 부분만 먼저 얘기드리면, AI를 쓰면 어떻게 좋다는 얘기를 해야 되는데요. 여기서도 중요한 문제는 학생들한테만 강요할 건 아닌 것 같아요. 그러니까 학교가 먼저, 학교 내에서 선생님들 교수님들께서 아니면 학교 전체적으로 학생들도 ‘어떤 식으로 AI를 써야 된다.’ 혹은 ‘쓰지 말아라.’ 가이드라인이 있어야 되고요. 저는 이번에 굉장히 좋은 기회라고 생각하는 게, 윤리적 기준이 대학교 쪽에서 한번 정해지게 되면요. 이건 사회 전반적으로 생각할 문제가 많아요. 그리고 이왕이면 제가 이거 이야기 드린 김에 이야기 드리면, 아마도 지금 학교들이 본격적으로 논의를 시작하지 않습니까? 윤리 공청회를 할 때 해외 사례를 많이 찾으려고 할 거예요. 근데 우리나라가 IT 강국이잖아요.
◆ 김영민 : 맞아요. 저희가 선도하고 있죠.
○ 이임복 : 다른 것보다도 활용하는 것만큼은 정말 잘하거든요. 어떤 수단과 방법을 가리지 않고서 AI를 활용하거나 이런 것도 활용을 잘 합니다. 그렇다면 우리나라에서도 이 사례에 대한 것들을 먼저 제대로 만드는 것도 괜찮을 것 같아요. 그래서 이왕이면 학교에서 기본적인 제재를 정하고 나머지는 풀어주는 방식, 그리고 평가를 제대로 해요. AI를 활용하지만 주장의 명확한 근거가 있어야 되고, AI를 썼던 거에 대해서 책임은 근거 자료가 미비했거나 논리적인 오류가 있거나, 이거를 본인이 지는 걸로 가야 돼요.
◆ 김영민 : 그렇군요.
○ 이임복 : 저는 그게 맞다고 봅니다.
◆ 김영민 : 저도 지금 학교를 다니거든요. 요즘은 시작하기 전에 ‘AI 활용이 가능한지, 아닌지’ 여부를 미리 고지를 해 주시더라고요. 근데 저는 이번 학기에 AI 활용이 모든 영역에서 가능합니다. 단, ‘어떤 AI를 활용했는지 그리고 어떤 프롬프트를 썼는지를 출처를 밝히라.’ 이렇게 얘기를 하시더라고요. 그런 식으로 흐름이 바뀔 수도 있겠다는 생각이 많이 듭니다.
○ 이임복 : 근데 한계는 있을 거예요. 왜냐하면 지금이야 우리가 ‘AI 프롬프트 어떻게 썼습니다.’, ‘어떤 AI를 썼습니다.’ 이게 되기는 하는데, 요즘 흐름을 보게 되면 구글도 마찬가지고 네이버도 마찬가지고, 이제는 검색창 내에 그냥 AI가 들어가요.
◆ 김영민 : 맞아요.
○ 이임복 : 그러면은 ‘구글에서 검색했음.’ 이렇게 해야 된다는 건데 말이 안 되는 거죠.
◆ 김영민 : 두루뭉술하게 적게 되기는 하더라고요. 워낙에 그런 거밖에 없어요.
○ 이임복 : 교수님들 입장에서 교수님들도 강의 계획서 짜실 때 AI 많이 쓰시거든요. 그럼 교수님들도 ‘내가 어디서부터 어디까지를 AI로 썼다.’ 이건 애매한 부분이 돼요.
◆ 김영민 : 그렇죠. 그리고 AI가 쓴 걸 그대로 배끼는 사람보다는 그걸 활용해서 재창조하는 경우가 더 많잖아요. 그래서 완벽한 출처를 밝히기가 참 쉽지 않겠다는 생각도 드네요. 만약에 ‘AI를 쓰지 말아라’라고 하는 어떤 강좌나 시험에서는 제가 단순히 생각하기로는, 요새는 AI를 걸러주는 프로그램들도 많다고 들어서, 그런 걸로 걸러서 F 주면 되지 않나 이런 생각도 들거든요. 안 되나요?
○ 이임복 : 이게 쉽지 않아요. 창과 방패의 싸움인데요. 이미 예전에도 ‘레포트 킬러’ 이런 것들도 있었고, 요즘에는 ‘GPT 킬러’라고만 검색해도 사이트가 꽤 많이 나올 거예요. 저도 이것 때문에 어제도 제가 다시 한 번 확인해 봤었는데, AI가 쓴 글을 집어넣으니까 ‘AI가 쓴 글입니다.’ 78% 정도 나왔어요. 제가 요즘에 쓰는 책이 있어 갖고 글 쓴 문장을 갖다가 복사를 해서 집어넣고 돌리니까 81%라고 나오고요. 이게 근본적인 대안은 될 수가 없어요. ‘탐지 기술’은 언제나 해결책은 생기기 때문에 본연으로 돌아갔으면 좋겠어요. 우리가 공부를 하는 이유나 시험을 보는 이유가 성적을 정확하게 매기는 것도 있지만, 그전에 앞서게 되면 우리 이해도를 보는 거잖아요. 제대로 수업을 들었는지, 이 수업을 들었으면 어떻게 생각을 하는지, 이거를 어떻게 활용을 할 것인가. 이 부분에 대한 거를 AI에 써도 되는데 그래서 당신의 생각이냐, 그래서 어떤 질문을 앞으로 던질 수 있고, 어떤 쪽으로 활용을 할 거냐. 이 부분이 강조가 돼야 돼요.
◆ 김영민 : 그렇군요. 이럴 때일수록 혼란할수록 본질로 돌아가야 된다는 이야기해 주셨습니다. 궁금한 게 우리나라는 이렇게 대혼란을 겪고 있는데, 혹시 나라 밖으로 눈을 돌려보면 해외 사례들은 어떤지, 지금 해외는 어떻게 일을 해결하고 있는지가 궁금하더라고요.
○ 이임복 : 이게 GPT가 나오고 나서 겨우 2년 정도가 됐잖아요. 한 1년 전에는 모든 사람들이 혼란스러웠었고, 올해부터는 어떻게 쓰면 좋을까 수많은 활용법이 나오기 시작했단 말이에요. 그러니까 대응도 각각인데 옥스퍼드대 같은 경우에는 학생들하고 교직원들한테 GPT 접근 권한을 제공을 했죠. 하버드 같은 경우에는 강의 계획서를 쓰게 되면, ‘AI 활용 원칙을 명시해라’ 이런 식으로 쭉 나오긴 해요. 심지어 어떤 대학교는 교수님들께서 수강생의 로그 기록까지 확인하고 PC에 프로그램 설치를 합니다. 이러면 ‘아 이 친구가 AI를 썼구나, 안 썼구나.’를 볼 수 있는 것들인데 이게 다시 얘기해드리면 쉽지 않고요. 오히려 바뀌는 추세들을 보게 되면, 공통적으로 나오는 것들은 객관식처럼 단순하게 암기되는 시험을 보기보다는 분석하는 것들, 토론하는 것들, 어떻게 성과를 바꿨는지, 프로젝트를 직접 이야기할 수 있는 것들. 이쪽 부분이 강조가 되고 있는 추세예요.
◆ 김영민 : 그렇군요. 챗GPT라는 거, 제가 처음 들었을 때, 무슨 주식 용어인가, 이랬어요. 이름도 너무 어렵고 이게 뭔가 했는데요. 이제는 저는 GPT 없으면 살 수 없는 사람이 된 게, 2년밖에 안 됐다니 굉장히 많이 놀랍습니다. AI 시대를 학생들이 살아갈 텐데 ‘교육과 평가 방식’이 조금 더 의견 개진이나 분석력, 토론 위주로 바뀌어야 된다는 이야기를 해 주셨어요. 이렇게 해킹 이슈들이 있었던 대학들에서 ‘AI 윤리 공청회’를 연다고 하는데요. 앞서 대표님께서도 잠시 언급을 하셨지만, 어떻게 보면 이번을 계기로 본격적인 논의가 이루어질 수 있지 않을까, 이를 오히려 디딤돌 삼아서 우리가 더 발전할 수 있지 않을까, 이런 생각이 드는데요. 어떤 윤리적 기준을 학생들에게 제시해야 될까요?
○ 이임복 : 방금 전에 제가 이야기 드린대로, 되게 좋은 기회라고 생각해요. 그래서 이거를 해외 대학들이 아니라 우리나라에서 한번 제대로 만들어 봤으면 좋겠다. 우리나라가 제일 빠르게 AI를 쓰는 것들이 더 많으니까요. 그리고 윤리적 기준 제시에 있어서도 보통 학생들한테 윤리적 기준 제시를 하고 있었는데, 이게 아니라는거예요. 학생들뿐만 아니라 전체적인 거예요. 교수님들도 마찬가지고 우리 일반인도 마찬가지예요. 지금 기준이 모호하기 때문에, 다들 ‘AI로 쓴 거 제출해도 되나’, ‘이 이미지 써도 되는 걸까’, ‘이 작곡한 거 잠깐 써도 될 것 같은데’ 굉장히 회색지대에 있어요. 그런데 이거에 대해서 적절하게 ‘빨간 신호등이면 건너지 마세요.’라고 얘기를 하듯이, 이런 규칙이라든지 이런 것들이 나올 필요는 있어요. 그리고 학생들 의견도 확실하게 들어볼 필요가 있죠. 마지막으로 이야기 드리면, AI를 잘 쓰는 학교나 이런 사회를 만들기 위해서는 ‘학교에서 아예 풀어줄 거라고 한다.’라면 학생들한테 GPT 유료 버전이나 이런 것들 풀어주시면 좋을 것 같습니다.
◆ 김영민 : 한두 푼이 아닐 것 같다는 생각이 들지만요.
○ 이임복 : 학생들한테는 비싸지만 대학교 입장 괜찮죠.
◆ 김영민 : 그렇겠네요. 학습에 AI나 GPT를 잘 쓸 수 있는 어떤 방향성에 대해서 저희가 얘기를 많이 해봤지만, 듣다 보니까 궁극적으로 궁금해지는 건, 어쨌든 시험은 한 학기 동안 열심히 학습한 다양한 것들을 아주 공정하게 그레이딩을 해야 되는, 엄격한 거잖아요. 그래서 저는 이 시험에서만큼은 AI를 아무도 못 쓰게 해서 가장 공정하게 평가해야 된다. 아니면 오히려 시험에서도 아주 적극적으로 AI를 활용할 수 있게 해서 시험 자체를 바꿔야 된다. 이렇게 두 개로 이야기가 나뉠 것 같아요. 어떤 쪽에 표를 던지시겠어요?
○ 이임복 : 그러니까 다시 얘기하지만, 시험을 보는 의미를 생각해야 돼요. 우리 공정한 평가를 해서 뭐할 거냐가 나와야 될 것 같아요. 중간고사, 기말고사. 지금은 있기는 한데, 이게 큰 의미가 없어지고 있는 거거든요. 우리가 중간고사 본다는 것들은, 몇 페이지부터 몇 페이지 단원까지를 학습하고 암기한 거 이해한 걸 평가하는 거잖아요.
◆ 김영민 : 맞아요.
○ 이임복 : 이거를 지금과 같은 AI 시대가 됐는데, 굳이 할 필요가 있을까라는 생각은 굉장히 많이 들고요. 차라리 학생들은 싫어할 수도 있겠지만, 이해도라면 매번 과제를 많이 내고 그 과제를 하자마자, 그 단어에 대한 이해라든지 평가를 하는 게 훨씬 나을 것 같고요. 그리고 중간고사 기말고사를 본다면, 그 중간중간에 있는 평가를 바탕으로 하되, 중간고사, 기말고사는 프로젝트 단위로 가는 게 맞죠. 직접 나와서 설명하게 하는 거 당신의 이해도를 보는 것들 AI를 써도 돼요. 근데 AI가 쓴 답만 보고서 기계적으로 답을 하는 게 아니라, 이걸 말을 시켜보고 그걸 상자로 글을 쓰게 만들면, 다시 한 번 본인의 입에서 나오게 되잖아요. 그게 제일 중요할 거라고 생각을 해요. 그래서 이왕이면 이번 기회로 조금씩 바뀌겠지만, 시험이라는 것 전체도 한번 고민해 볼 필요가 있지 않나 싶습니다.
◆ 김영민 : AI가 없는 세상을 만들 수는 없으니, AI를 활용한 사람들이 더욱더 논리적으로 똑똑해지는 그런 세상이 되어야겠다. 이런 식으로 이야기해 주신 것 같습니다. 대표님 오늘 좋은 말씀 너무 고맙습니다.
○ 이임복 : 감사합니다.
◆ 김영민 : 지금까지 이임복 세컨드 브레인 대표와 함께했습니다.
[저작권자(c) YTN radio 무단전재, 재배포 및 AI 데이터 활용 금지]
