호 이달의 기사 전체보기

제8회 디지털 인재양성 100인 토론회 생성형 AI, 보조교사·학습 코치로 올바른 활용에 주목

글_편집실 / 사진 제공_이화여자대학교 미래교육연구소


기사 이미지


  교육부는 7월 21일 서울 중구 코트야드 메리어트 서울 남대문 호텔에서 이화여대 미래교육연구소와 함께 ‘제8차 디지털 인재양성 100인 토론회’를 개최했다. 이 토론회는 디지털 역량을 갖춘 미래인재 양성에 대한 종합적 논의를 위한 토론회로 시도교육청, 대학, 관련 산업협회 전문가, 학생 등 180여 명이 참여해 2022년 1월부터 시작해 왔다. 

  ‘생성형 인공지능(AI) 기술의 교육적 활용과 윤리’를 주제로 열린 이번 토론회에서는 챗지피티(ChatGPT)로 대표되는 생성형 AI가 교육 현장에 가져온 변화와 그로 인해 발생한 윤리적 쟁점에 대해 논의했다.



 학생-교수자-학교 간 협력·소통 필요 

  류태호 버지니아대학교 교수는 ‘미국 대학의 생성형 AI 활용방안과 윤리적 쟁점(이슈) 대응전략’ 발표에서 “초기에는 학생 스스로 학습하는 게 아니라 보조적 도구에 의존해 학력이 저하되는 건 아닌지 걱정이 컸다. 그러나 지금은 프로그래밍, 글쓰기, 조사·연구, 학습계획 수립 등 크게 4가지 방향에서 생성형 AI를 활용하고 있다.”라며 “대학들은 생성형 AI를 규제하거나 올바른 사용 방안을 제시하는 방향으로 윤리적 이슈에 대응하고 있다.”라고 전했다. 


  특히, 류 교수는 미국 대학 사례를 통해 교수자 대상 가이드가 생성형 AI 활용보다 부정행위 방지에 중점을 두고 있다며 학교에서 일방적으로 챗GPT 정책을 제시하는 문제를 지적했다. 이어 학생 입장에서 챗GPT 활용방안을 담은 가이드와 챗GPT 활용에 대한 개별 교수들의 자율권 보장 등이 필요하다고 제안했다. 


  이어진 발제에서 이상은 성균관대학교 교육개발센터 부센터장은 성균관대 사례를 통해 챗GPT의 윤리적 활용을 제시했다. 이 부센터장은 “지난 3월 성균관대 학생 798명을 대상으로 설문조사한 결과, 96.4% 학생이 챗GPT에 대해 듣거나 테스트해 봤으며, 53%는 수강과목 학습을 위해 사용한다고 답했다. 특히, 챗GPT가 유용한 학습도구가 될 만하냐는 질문에 91.3%가 긍정적으로 답했다.”라고 설명했다. 이에 성균관대는 지난 2월 처장단 회의인 챗GPT 연구위원회와 대응팀(T/F)을 구성하고 AI 기술의 학습 접목 모델 연구와 챗GPT의 교내 확산에 신속히 대응해 왔다. 3월 30일에는 챗GPT 종합안내 누리집(chatgpt.skku.edu)을 개통하고 챗GPT 대응 중간시험 가이드라인, 챗GPT와 학습윤리 영상 등을 제작해 올렸다. 이 과정에서 학생, 교수자, 학교는 유기적인 협력 주체로서 서로 소통해 나갔다. 학생들은 챗GPT 활용의 실천 주체로서 학습윤리 영상 등 콘텐츠 개발에 직접 참여했으며, 교수자는 누리집 등을 통해 지속해서 정보를 확인하고 생성형 AI에 대한 이해를 높였다. 학교는 유관 팀을 모아 대책 본부를 구성하고, 민원 예측과 사전 대응을 맡으면서 챗GPT의 윤리적 활용을 위해 노력했다. 이 부센터장은 “AI의 윤리적 활용은 교수자와 학교가 학습 과정과 결과에 더 관심을 갖기를, 더 정교하게 설계하기를 요구하고 있다.”라고 말했다. 



 생성형 AI의 교육적 활용 가이드라인 제시 

  마지막으로 정제영 이화여자대학교 미래교육연구소장은 ‘생성형 인공지능 기술의 교육적 활용방안’을 주제로 윤리적 쟁점과 주체별 교육적 활용방안에 대한 연구 결과를 발표했다. 정 소장은 “생성형 AI의 무분별한 사용으로 인해 학습 주도성 감소, 개인정보 침해 등의 문제가 꾸준히 제기됐다. 교육부는 2022년 8월 ‘교육분야 인공지능 윤리원칙’을 발표했으나, 생성형 AI 등 급격한 기술 변화를 반영할 필요가 있다.”라고 지적했다. 


  미래교육연구소에서 생성형 AI 활용 실태를 조사한 결과*를 바탕으로 생성형 AI의 교육적 활용을 위한 교수자·학습자 가이드라인을 제시한 정 소장은 “생성형 AI는 교수자에게 보조교사로서 학생상담과 생활지도, 연구 활용 등에서 다양하게 활용될 수 있다. 학습자에게는 학습 코치이자 개인 튜터로서 학습 목표 설정부터 평가 및 피드백까지 가능하다.”라고 제시했다. 특히, 정 교수는 생성형 AI를 교육으로 활용할 시 △주도성 △안전성 △정확성 △창의성 △정보보호 △책임성 △다양성 △공공성 등 8가지 기준을 새롭게 제시했다. 


  이날 토론자들은 생성형 AI의 교육적 활용에 주목하면서도 윤리적 활용을 위한 교육과 연수를 강조했다. 도재우 한국교육개발원 부연구위원은 “생성형 AI는 학생들을 AI의 직접적 사용자로 만들고 있다. 이는 생성형 AI의 바람직한 활용을 넘어 AI 윤리를 학습할 수 있는 도구로서 디지털 인재 양성의 기반이 될 것”이라고 전망했다. 박정희 서울특별시교육청 장학사는 “챗GPT의 기술적 원리를 이해하고 부정확한 정보를 포함하는 답변 발생 가능성에 대한 교육이 필수적으로 이뤄져야 한다. 이에 서울시교육청은 인공지능 리터러시 교육을 강화하고 있다.”라고 전했다.



*생성형 AI 활용 실태 조사 주요 내용

  미래교육연구소에서 지난 7월 12일부터 14일까지 3일간 교사 (300명), 학생(600명), 학부모(800명) 총 1,700명을 대상으 로 생성형 AI 활용 실태를 조사한 결과, 학생 79.2%, 교사 61%, 학부모 46% 순으로 생성형 AI를 사용했다고 답했다. 특히, 수 업 중 생성형 AI 사용 여부에 대해서는 교사가 38.3%, 학생이 60%가 사용한다고 답했지만, 사용 빈도로는 교사가 81.2%로 학생(66.3%), 학부모(43.5%)보다 높았다.생성형 AI를 사용한 후에는 ‘사용이 편리하다’, ‘답변 내용이 흥미롭다’, ‘답변 내용이 유용하다’ 순으로 높게 평가했다. 


  생성형 AI의 향후 활용성에 대해서는 ‘자료수집 및 검색’, ‘데이 터 생성/처리’, ‘이미지/영상 만들기’, ‘외국어 학습 보조’, ‘코딩/ 프로그래밍 등의 정보교육’, ‘글쓰기(글 수정/교정)’, ‘교과 학습 보조’ 순으로 나타났다. 생성형 AI의 문제 심각성으로는 저작권 침해, 허위정보 확산과 오개념 발생, 창의성 역량 감소, 부정행 위, 개인정보 유출 순으로 높게 나타났는데, 교사는 향후 활용 성과 문제 심각성에 대해 가장 높게 인식했다. AI 부정행위 사 용 가능성에 대해서는 교사, 학생, 학부모 모두 가능성이 있다 는 답변이 80%를 넘었다. 

열람하신 정보에 만족하시나요?