살펴보고 고민하기
현재 대한민국 교육계의 주요 화두들 중 하나는 ‘AI 디지털 교과서’를 도입하는 것입니다. 교육부에서는 AI 디지털 교과서의 빠른 도입을 추진하고 있지만, 성급한 추진에 대한 우려와 비판의 목소리도 높습니다.
이번 글에서는 “김어준의 뉴스공장” 채널에서 2023년부터 최근까지 AI 디지털 교과서의 도입과 관련하여 어떠한 문제점을 제기해 왔는지 살펴보고, 올바른 도입과 활용을 위해서 학부모님들이 교육부와 학교를 대상으로 어떠한 요구를 해야 할 지 고민해 보겠습니다.
일어날 법한 일들
Scene #1
지민은 AI 디지털 교과서를 사용하여 수학 문제를 풀고 있었다. 평소 수학을 어려워하는 지민에게 AI는 마치 개인 과외 선생님처럼 느껴졌다. AI가 제시한 풀이 과정을 그대로 따라가면 답이 나왔고, 지민은 점점 자신감이 붙었다.
그러나 중간고사가 끝난 후, 지민의 성적은 오히려 떨어졌다. 어머니는 이상하게 여겨 지민이 풀었던 문제를 김 선생님에게 가져갔다. 김 선생님은 문제를 보고 놀랐다. “지민이가 따라간 풀이 방식이 완전히 틀렸어요. 이건 전혀 다른 수학 개념인데, AI가 잘못된 정보를 제공했나 봐요.”
지민의 어머니는 학교에 항의했지만, 학교 측도 AI 프로그램을 통해 제공된 정보의 오류를 바로잡기 어려웠다. 지민은 AI 디지털 교과서에서 배운 방식이 틀렸다는 사실을 나중에야 깨달았지만, 성적은 이미 나빠진 후였다. 어머니는 AI의 신뢰성에 대해 크게 실망했다.
Scene #2
수연은 항상 공부를 스스로 해결하는 스타일이었다. 어려운 문제가 있으면 시간을 들여 고민하고 친구들과 토론하며 답을 찾아갔다. 그러나 학교에서 AI 디지털 교과서가 도입되면서 상황이 달라졌다. 수연이 문제를 풀다가 막히는 순간마다 AI가 맞춤형 힌트와 풀이를 제공해주었고, 수연은 처음에는 그 기능이 편리하게 느껴졌다.
하지만 점차 수연은 스스로 생각하지 않고 AI의 답을 그대로 받아들이기 시작했다. 수연의 문제 해결 능력은 점점 약해졌고, 스스로 해결해보려는 의지가 사라졌다. 학교에서 창의적 사고를 요구하는 프로젝트를 할 때마다 수연은 혼란스러워하며 AI에 의존했다.
선생님은 이를 눈치채고, 수연과 상담을 나누었다. “수연아, 너 원래 스스로 문제 해결을 잘하던 아이였잖아. 요즘엔 왜 모든 걸 AI에 맡기는 것 같니?”
Scene #3
미정은 AI 디지털 교과서가 도입된 후 교실에서 교사로서의 역할이 축소되는 것을 느꼈다. 학생들이 어려운 문제를 만날 때마다 교사에게 질문하기보다는 AI에게 의존했다. 특히 현우는 미정의 수업을 들을 때마다 AI가 더 빠르고 효율적이라며 교사보다는 AI에게 배운다고 자랑했다.
미정은 현우에게 직접 설명을 해주려 했지만, 현우는 “선생님, AI가 더 정확해요. 선생님이 설명하시는 건 오래 걸려요”라며 AI의 설명을 더 선호했다.
시간이 지나면서 미정은 자신의 역할이 단순히 AI가 부족한 부분을 보충해주는 존재로 축소되는 것을 느꼈다. 학생들과의 상호작용도 줄어들었고, 감정적인 유대도 희미해졌다. 미정은 교사로서의 자존감이 떨어졌고, 자신이 더 이상 학생들에게 필요한 존재가 아닌 것 같아 깊은 고민에 빠졌다.
Scene #4
다은은 AI 디지털 교과서를 통해 세계사 과제를 준비하고 있었다. AI는 다은에게 매우 효율적으로 정보를 제공했고, 다은은 이를 그대로 보고서에 사용했다. 그러나 친구들 중 한 명이 재미 삼아 AI 시스템을 조작할 수 있다는 사실을 알게 되었고, 다은이 사용하는 교과서의 일부 정보를 조작했다.
다은은 자신도 모르게 조작된 정보를 받아들이고, 그대로 보고서에 포함시켰다. 발표 날, 다은은 잘못된 내용을 발표했고, 선생님과 친구들 앞에서 망신을 당했다. 그제서야 다은은 자신이 AI를 너무 맹신했다는 것을 깨달았다. 다은은 친구들 앞에서 무시당하는 수치심을 느꼈고, AI에 대한 신뢰가 완전히 무너졌다.
제기되는 문제들
2023년 1월부터 3월 사이의 기간은 AI 디지털 교과서의 기본적 문제(신뢰성, 자율성, 접근성 문제)를 인식하는 단계로 보이며, 같은 해 4월부터 9월 사이에는 AI의 급속한 발전과 통제 문제로 논의가 확장되면서 AI의 취약성 및 법적, 윤리적 논란이 본격적으로 부각됩니다. 2023년 10월부터 2024년 6월 사이에는 저작권 문제, 정보 검증 능력, 교육적 가치 부족 등 다양한 문제가 구체적으로 논의되었고 가장 최근인 2024년 7월에서 9월 사이에는 사회적 우려와 학생 보호에 대한 목소리가 구체화되면서 AI 디지털 교과서에 대한 신중한 접근 요구가 점점 강화되고 있습니다.
각 기간 별로 세부 내용을 살펴보면 다음과 같습니다.
2023년 1월~2023년 3월
이 시기에 언급된 AI 디지털 교과서의 문제점은 크게 보아 3가지입니다. [1]
첫째, AI의 신뢰성 문제입니다. AI가 제공하는 정보가 항상 정확하거나 신뢰할 수 있는 것은 아닙니다. AI가 잘못된 정보를 제공할 경우, 학생들이 이를 그대로 받아들여 잘못된 지식을 습득할 위험이 있습니다. 따라서, 사용자가 AI의 답변을 검증해야 하는 문제가 발생합니다.
둘째, AI 디지털 교과서가 개인화된 학습 경험을 제공할 수 있다고 하지만, 이는 학생들의 자율성을 저해할 수 있습니다. AI가 학생의 학습 패턴을 분석하여 맞춤형 학습을 제공하는 것은 긍정적일 수 있지만, 학생들이 스스로 문제를 해결하고 사고하는 능력을 기르는 데 방해가 될 수 있습니다.
셋째, AI 디지털 교과서는 기술적 문제로 인해 접근성에 제한이 있을 수 있습니다. 모든 학생이 최신 기술에 접근할 수 있는 것은 아니며, 기술적 결함이나 인터넷 연결 문제로 인해 학습에 어려움을 겪을 수 있습니다.
2023년 4월~2023년 6월
이 시기에는 AI 디지털 교과서의 사용에 있어 신중한 접근이 필요함을 강조하고 있습니다.
AI 연구를 중단할 필요는 없지만, AI 기반 서비스의 배포에 대해서는 신중해야 한다는 의견이 제시되었습니다. AI가 다양한 응용 프로그램에 API 형태로 무분별하게 배포되고 있다는 점이 지적되고 있습니다. 이러한 배포는 AI 디지털 교과서에서도 비슷한 문제를 야기할 수 있습니다. AI가 교육 도구로 사용될 때, 그 사용이 적절히 통제되지 않으면 부작용이 발생할 수 있습니다. [2]
AI가 인간의 통제를 벗어나 스스로 판단을 내릴 수 있는 상황이 우려되고 있습니다. AI 디지털 교과서가 학생들에게 제공될 때, AI가 인간 교사의 역할을 대신하거나 인간의 통제를 벗어날 경우, 교육의 질이나 방향이 왜곡될 수 있다는 우려가 있습니다. [3]
AI 관련 법안의 충분한 검토가 이루어지지 않은 상황에서 AI 개발을 서두르는 것에 대한 우려가 제기되었습니다. 이는 AI 디지털 교과서가 법적 및 윤리적 기준을 충족하지 못할 경우, 교육 현장에서 문제가 발생할 수 있음을 시사합니다. AI 기술이 빠르게 발전하고 있지만, 그에 따른 법적, 윤리적 기준이 충분히 마련되지 않은 상태에서의 사용은 위험할 수 있습니다. [4]
2023년 7월~2023년 9월
AI는 쉽게 속이거나 조작할 수 있는 취약성을 가지고 있으며, 이를 더 견고하게 만들기 위한 노력이 필요하다고 합니다. 이는 AI 디지털 교과서에서도 비슷한 문제로 나타날 수 있습니다. AI가 제공하는 정보가 정확하지 않거나 조작될 가능성이 있기 때문에, 학생들이 잘못된 정보를 학습할 위험이 있습니다. 따라서 AI 디지털 교과서를 사용할 때는 이러한 취약성을 인지하고, 정보의 정확성을 검증하는 과정이 필요합니다. [5]
2023년 10월~2023년 12월
이 시기에는 AI의 발전과 관련된 법적 논란에 대한 내용이 포함되어 있습니다. AI가 발전하면서 저작권 문제와 관련된 법적 논란이 발생하고 있으며, 이는 AI 디지털 교과서에서도 중요한 문제로 작용할 수 있습니다. AI 디지털 교과서가 저작권이 있는 자료를 무단으로 사용할 경우, 법적 문제가 발생할 수 있습니다. [6]
또한 AI와 인간의 관계에 대한 철학적 논의가 포함되어 있습니다. AI가 인간처럼 행동하는 것보다 인간이 AI처럼 사고하는 것이 더 위험하다는 의견이 제시되고 있습니다. 이는 AI 디지털 교과서가 인간의 사고방식을 지나치게 기계적으로 만들 수 있다는 우려로 해석될 수 있습니다. [7]
2024년 1월~2024년 3월
정부가 에듀테크에만 초점을 맞추어 AI를 활용한 디지털 교육을 추진하고 있다는 내용이 있습니다. 또한 이러한 추진이 너무 과도하게 이루어지고 있다는 우려가 제기되고 있습니다. 이는 AI 디지털 교과서가 너무 빠르게 도입되면서 발생할 수 있는 문제점들을 암시합니다. 예를 들어, 기술의 과도한 의존으로 인해 교육의 질이 저하되거나, 학생들이 AI에 지나치게 의존하게 될 수 있습니다. [8]
AI 리터러시(AI literacy)의 중요성도 강조되고 있습니다. AI 디지털 교과서가 제공하는 정보의 진위 여부를 판단하는 것은 사용자에게 달려 있다는 점에서, AI가 제공하는 정보가 항상 정확하거나 신뢰할 수 있는 것은 아니라는 문제를 제기합니다. 이는 AI 디지털 교과서가 잘못된 정보를 제공할 가능성이 있으며, 사용자가 이를 비판적으로 평가할 수 있는 능력이 필요하다는 것을 의미합니다. [9]
2024년 4월~2024년 6월
AI 디지털 교과서가 창의력, 사고력, 문제 해결 능력 등과 같은 중요한 교육적 가치를 충분히 반영하지 못하고, 학생들이 컴퓨터와 디지털 기기만을 바라보게 만들어 인간성을 저해할 수 있다는 우려가 제기되었습니다. 이는 2022년 교육 과정 개정의 정신과는 무관하게, 학생들이 디지털 기기에 지나치게 의존하게 될 수 있다는 문제를 지적하고 있습니다. [10]
AI 디지털 교과서 도입 과정에서 발생한 개인정보 유출 문제가 언급되고 있습니다. 특히, 12,000명의 교사에 대한 개인정보가 유출되었다는 점에서 보안상의 심각한 문제가 드러났습니다. 이는 AI 디지털 교과서의 기술적 구현 과정에서 개인정보 보호가 충분히 고려되지 않았음을 보여줍니다. [11]
AI 디지털 교과서의 도입이 기업의 상업적 이익을 위한 수단으로 사용될 수 있다는 우려가 제기되었습니다. AI를 활용한 교육의 방향성에 대해서는 동의할 수도 있지만, 절차적 합리성과 동의가 필요하다는 점을 강조하고 있습니다. 이는 AI 디지털 교과서가 교육적 가치보다는 상업적 이익을 우선시할 수 있다는 문제를 지적합니다. [12]
2024년 7월~2024년 9월
이 시기에는 사회적 우려와 요구가 점차 구체화되고 있습니다.
일부 사회 단체들은 AI 디지털 교과서가 학생들을 실험 대상으로 삼을 수 있다는 우려를 표명하며, 도입을 중단할 것을 요구하고 있습니다. [13]
AI 디지털 교과서는 학생들의 개인 정보가 노출될 위험이 있으며, 디지털 기기에 과도하게 노출됨으로써 학습에 방해가 될 수 있다는 우려가 있습니다. 이는 다른 국가에서도 논의되고 있는 문제입니다. 또한 이 내용은 대규모 예산이 투입된 교사 훈련 프로그램에서도 언급되고 있습니다. [14][15]
AI 디지털 교과서의 개발 과정에서 저작권 문제가 해결되지 않았다는 지적이 있습니다. 이는 급하게 진행된 프로젝트에서 발생한 문제로 보입니다. [16]
요구사항
이와 같은 내용을 종합해 보면, 학부모들은 AI 디지털 교과서를 도입하려는 교육부와 관련 공무원에게 다음과 같은 요구를 할 필요가 있습니다.
1. AI 디지털 교과서의 신뢰성 검증
학부모들은 AI가 제공하는 정보가 정확하고 신뢰할 수 있도록 독립적인 전문가 집단이 AI 콘텐츠를 검토하는 시스템을 요구할 수 있습니다. 이로써 잘못된 정보로 인해 학생들이 혼란을 겪는 것을 방지할 수 있습니다.
2. 학생 자율성을 보장하는 학습 환경 제공
AI 디지털 교과서가 지나치게 학생들의 사고력이나 문제 해결 능력을 저해하지 않도록, AI 사용과 전통적 학습법을 병행하는 방식을 요구해야 합니다. 학교에서 학생들이 AI에 지나치게 의존하지 않고, 스스로 생각하고 문제를 해결할 수 있는 학습 환경을 제공하는지 확인해야 합니다.
3. 기술적 지원과 디지털 격차 해소
일부 가정이 최신 기술이나 안정적인 인터넷 연결을 갖추지 못할 경우, 학생들이 학습에서 뒤처지지 않도록 인터넷 연결 지원, 기기 대여 프로그램 등을 요구할 수 있습니다. 교육기관이 이러한 문제를 해결할 수 있도록 기술적 지원을 요구해야 합니다.
4. 개인정보 보호 정책 강화
AI 시스템이 수집하는 학생들의 개인정보에 대한 명확한 보호 조치와 투명한 데이터 관리 정책을 요구해야 합니다. 또한, 개인정보가 외부로 유출되거나 부당하게 사용되지 않도록 정기적인 보안 점검과 피해 대응 절차를 마련할 것을 촉구해야 합니다.
5. AI 교육 윤리 기준 수립
AI가 윤리적으로 올바르게 사용되고, 학생들의 학습 환경에 부정적인 영향을 미치지 않도록 명확한 윤리 기준을 마련하고, 이를 준수할 수 있는 제도적 장치를 요구해야 합니다. AI가 교사와 학생의 인간적 상호작용을 완전히 대체하는 것을 방지하는 정책이 필요합니다.
6. AI 디지털 교과서의 법적 규제 마련
AI 디지털 교과서와 관련된 저작권 문제, 데이터 보호 문제 등을 해결하기 위해 법적 기준을 수립하고, 이 기준에 따라 교과서가 개발 및 배포되는지 확인할 수 있는 감독 체계를 요구해야 합니다. AI 도입이 법적 기준을 충족하지 않으면 교육 현장에서 사용되지 않도록 규제를 강화해야 합니다.
7. AI 리터러시 교육 도입
AI가 어떻게 작동하는지, 그 한계와 윤리적 문제는 무엇인지에 대한 기본 교육을 학생들이 받도록 요구할 수 있습니다. AI 리터러시는 학생들이 AI에 의존하지 않고 비판적으로 활용할 수 있게 도울 중요한 부분이므로, 이를 정규 교육 과정에 포함시키는 것이 필요합니다.
8. AI의 학습 부작용에 대한 대응 체계 마련
학부모들은 AI 사용으로 인해 발생할 수 있는 학습 저하나 부작용을 사전에 모니터링하고, 문제가 발생했을 때 학교와 교육부가 신속히 대응할 수 있도록 감시 및 피드백 체계를 요구할 수 있습니다. 정기적 설문조사나 학습 평가를 통해 학생들이 AI로부터 어떤 영향을 받는지 확인해야 합니다.
9. 학부모와 교사의 참여 확대
AI 디지털 교과서가 학부모와 교사의 의견을 반영하지 않고 일방적으로 도입되면 문제를 초래할 수 있습니다. 학부모와 교사가 정책 결정 과정에서 적극적으로 의견을 제시할 수 있는 기회를 요구하고, 이를 통해 자녀의 교육 환경에 영향을 미치는 결정을 함께 만들어 나갈 수 있도록 해야 합니다.
참고자료
- [1] 2023-01-10: AI의 신뢰성과 문제점
- [2] 2023-04-04: AI 연구 중단 필요성에 대한 의견
- [3] 2023-06-06: AI의 인간 통제 문제
- [4] 2023-04-18: AI 관련 법안 논의
- [5] 2023-08-15: AI의 취약성과 사회적 영향
- [6] 2023-12-29: That Actually Open AI Now AI Learning Because of the controversy over unauthorized data theft
- [7] 2023-12-09: Digital is the coexistence of our analog and digital
- [8] 2024-01-18: EdTech와 AI 디지털 교육 추진
- [9] 2024-03-26: AI 리터러시와 정보의 진위 판단
- [10] 2024-06-27: AI 디지털 교과서의 교육적 가치 문제
- [11] 2024-06-20: AI 디지털 교과서 개인정보 유출 문제
- [12] 2024-05-30: AI 디지털 교과서의 상업적 이익 문제
- [13] 2024-09-12: Education Citizens Social groups call for a halt to the introduction of AI digital textbooks
- [14] 2024-08-08: AI digital textbooks are personal Information or exposure to digital devices
- [15] 2024-08-22: The digital textbook training was conducted on a large scale
- [16] 2024-08-16: AI digital textbook copyright issue
답글 남기기