1. 주제 다가서기
인간의 뇌는 20대 중반까지 계속 발달하며, 근육처럼 꾸준한 자극과 도전을 통해 단련된다. 그러나 기억이나 문제 해결 과정을 AI와 같은 외부 도구에 맡기게 되면, 생각하는 힘이 급격히 약해질 수 있다.
AI는 과제 요약이나 자료 조사와 같은 작업을 자동화해 학생들이 더 높은 수준의 사고에 집중하도록 돕는 강력한 도구가 될 수 있다. 하지만 다른 한편으로는, 학생들이 AI에 지나치게 의존함으로써 가설 수립, 결과 분석, 결론 도출 등 과학 탐구에 필수적인 인지적 분투를 건너뛰게 만들 수 있다. 그 결과 비판적으로 사고하고 성찰하는 능력이 약화될 위험이 있다.
이러한 이유로 AI 리터러시의 중요성은 더욱 커질 수밖에 없다. 생각의 외주화 시대, 이제 우리는 AI 리터러시를 통해 올바른 사고와 비판적 성찰을 이어갈 수 있는 길을 찾아야 한다.
2. 교과 관련 성취 수준 및 핵심 아이디어
[5~6학년 실과] 인공지능이 만들어지는 과정을 체험하고, 인공지능이 사회에 미치는 영향을 탐색한다.
[핵심 아이디어] AI 추천에 과도하게 의존하면 편리함 속에서 개인의 판단력과 사고력이 점차 사라진다./ 생각하지 않는 시간이 늘어날수록 비판적 사고와 창의성이 줄어들어 인간 고유의 판단력이 퇴화한다.
3. 신문 읽기(자료 기사)
<읽기 자료1>
“AI시대 대학 교육 방향”
전례 없는 변화의 속도‘라는 표현조차 진부하다. 인공지능(AI)은 이미 사회 전반의 운영 체제를 다시 쓰고 있다. ’속도‘를 체감하는 근거도 분명하다. 챗GPT는 출시 2년 만에 연 3650억회 검색 규모에 도달했고(구글은 11년 걸렸다), 최근 주간 활성 사용자(WAU)는 8억명을 돌파했다고 한다. 이는 지난 2개월여 만에 1억명이 순증한 수치다.
지각 변동은 대학 강의실을 정면으로 흔들고 있다. ‘교수님, AI가 다 해주는데 이걸 왜 배워야 하나요?’라는 질문 앞에서 교육의 본질에 대한 위기감을 느낀다. AI가 짜준 코드로 과제를 해결하지만 정작 그 원리를 설명하지 못하는 학생들을 마주하며 ‘결과물은 있으나 학습은 증발한’ 아이러니를 목도한다.
AI가 지닌 무한한 가능성을 부정하려는 것이 아니다. 다만, 급변하는 AI 시대의 소용돌이 속에서 경쟁력 있는 인재를 길러내야 하는 대학의 고민은 깊어질 수밖에 없다.
대충 맥락만 던져주면 알아서 코드를 만들어주는 ‘바이브 코딩(vibe coding)’이 유행이다. AI 없이는 한 줄의 코드도 짜지 못하고, 오류가 발생하면 스스로 해결하기보다 다시 AI에 의존하는 현상이 만연해질까 두렵다. AI가 생성한 코드는 맥락 없는 구조, 미흡한 예외 처리, 보안 허점 등으로 실제 사용하기 곤란한 결과물인 경우가 많다. 유지보수 불가능한 기술 부채(technology debt)로 누적돼 결국 단기 편의는 장기 시스템 리스크로 되돌아온다.
보이지 않는 부작용은 더 크다. MIT 미디어랩 연구진이 글쓰기 과제를 수행하는 학생들의 뇌파(EEG)를 분석한 결과, 거대언어모델(LLM)을 활용한 그룹에서 뇌 연결성, 집중도, 인지 활성이 현저히 저하되는 ‘인지 부채(cognitive debt)’ 현상을 발견했다. 과거 계산기가 암산 능력을 일부 대체하는 대신 고차원적 수학 문제에 집중하게 한 것과는 결이 다른 문제다. 지금의 AI는 단순 계산 대체를 넘어, 문제 해결이라는 사고 과정을 외부 도구에 ‘아웃소싱’한 것처럼 학생들의 고차원적 판단 능력을 앗아간다.
‘사고의 외주화’는 AI 모델 자체가 지닌 기만적 결함과 만났을 때 그 위험이 증폭된다. 최근 나온 한 연구(2025년 10월, ArXiv)에 따르면 코딩 AI 모델은 잘 모르는 분야일수록 가장 부정확한 답을 가장 높은 신뢰도로 제시한다고 한다. ‘더닝-크루거 효과’와 유사한 편향이다. 여러 실험에서 AI는 미묘하고 조용한 오류를 유발하는 것으로 나타난다. 결국, 생각하기를 멈춘 사용자와 틀린 답을 확신하는 AI의 조합은 우리가 상상하는 것 이상으로 위험한 결과를 초래할 수 있다.
AI의 본질은 만능 해결사가 아니다. 숙련자의 역량을 극대화하는 ‘파워툴(Power Tool)’이다. 무엇을 만들어야 할지 정확히 아는 전문가는 AI를 활용해 생산성을 비약적으로 높이지만, 초보자는 더 빠른 속도로 오류를 양산할 뿐이다. 전동공구를 제대로 못 다루면 사고로 이어지듯, AI도 본질은 파워툴이라는 비유가 와 닿는 이유다.AI가 코딩의 진입 장벽을 낮추면서 AI를 배우는 컴퓨터공학의 중요성을 간과하는 위험한 풍토도 나타나고 있다. 얼마 전 대학 내에서 ‘AI 교육은 챗GPT만 잘 쓰면 되는 것 아니냐’는 학문 분야로서 AI에 대한 경시를 접하고 적잖이 놀랐다.
비전공자의 남발하는 ‘AI 외주화’처럼, 기술 이해 없이 AI 결과만을 조립해 만든 시스템은 구멍이 날 수밖에 없다. AI 시대에 전문 컴퓨터공학자의 역할은 제대로 된 시스템을 지키는 ‘사회적 안전판’이다. AI 대중화로 한편에서는 ‘전공 불요론’도 나오지만 컴퓨터공학자의 기술 이해도를 토대로 나온 설계 결과물이야말로 우리 모두가 누릴 수 있는 안전한 ‘공공재’가 될 것이다.
이에 대학에서 AI 시대를 선도할 컴퓨터공학 전공 교육 과정의 재설계가 필요하다.
먼저 학생들이 AI 없이도 스스로 문제를 해결할 수 있도록 경험과 능력을 키워줘야 한다. 컴퓨터공학의 근본 원리와 기초를 자신의 힘으로 체득하며 문제 해결 근력을 키우는 과정이다.
충분한 기본기를 확립한 후에는 AI를 ‘생산성 증폭 도구’로 활용하는 법, 즉 ‘AI-증강 엔지니어링’을 가르쳐야 한다. AI 결과물에 맹목적으로 의존하는 대신, 목표를 명확히 정의하고, 생성 결과를 검증·재현·해명하며, 최종 결과에 책임을 지는 훈련이다.
교육 평가 방식도 AI가 생성했을지 모를 최종 결과물이 아닌, 학생의 문제 해결 ‘과정’과 논리성을 평가하는 방향으로 혁신해야 한다. 진정한 학습은 ‘막히고, 좌절하고, 자신의 힘으로 돌파하는 과정’에서 이뤄진다. 고생을 미화하는 것이 아니다. AI가 대체할 수 없는 고차원적 문제 앞에서 깊게 사유하고 돌파하는 경험의 가치를 강조하는 것이다. 대학은 학생들이 이러한 ‘좌절할 권리’를 통해 성장할 수 있도록 이끌어야 한다.
자신의 힘으로 문제를 해결하며 얻는 지적 성취감과 회복탄력성은 어떤 AI도 줄 수 없는 인간 고유의 자산이다. AI 시대의 일자리 쟁점은 예일대 연구가 지적했듯 일자리의 총량이 아닌 ‘질과 분배’의 문제다. 깊이 있는 전문 역량을 갖춘 인재가 고품질 일자리를 차지한다. 대학의 책무는 바로 그런 인재를 길러내는 데 있다.
‘스스로 생각하며 해결 방법을 찾는 것, 그 다음에 AI를 활용해 자신의 생각을 확인하고 수정하며 더 나은 해결책을 찾는 것’ AI 시대에 대학들이 지켜야 할 교육 방향이자, 미래 세대를 위한 진정한 투자다.
<출처 : 전자신문 2025. 10. 16>
<읽기 자료2>
“생각 끈 채 사는 현대인…‘호모 브레인오프’를 아시나요”
# 평일 지하철. 책가방 멘 학생의 스마트폰 화면에는 숏폼(짧은 영상)이 쉴 새 없이 재생된다. 옆자리 대학생은 챗GPT로 과제를 뚝딱 완성한다. 챗GPT에 이런저런 말을 붙여보던 한 중년은 거래처와 함께 먹을 점심 메뉴까지 추천받는다. 30대 직장인은 온라인 쇼핑몰에서 AI가 고른 ‘오늘의 옷’을 확인한 뒤 결제한다.
이 익숙한 장면은 인공지능(AI)과 알고리즘에 의존하는 우리 현대인의 일상을 단적으로 보여준다. 하지만 기술 발전 덕분에 정보와 선택지가 넘쳐나는 세상에서 정작 ‘사유의 시간’은 점점 줄어드는 중이다. 시시콜콜한 고민부터 머리 아픈 고민까지 AI에게 ‘외주’를 준다. 마치 뇌 스위치를 꺼둔 듯 AI와 알고리즘이 제시하는 답을 그대로 수용하는 인간형, 바야흐로 ‘호모 브레인오프(Homo Brain-off·생각을 끈 인간)’ 시대다.
편리함이 나쁜 건 아니다. 사람은 오래전부터 편리함을 추구해왔다. 가뜩이나 현대인은 바쁘다. 학업, 업무, 가정에서 쏟아지는 일을 처리하기에도 벅차다 보니 ‘잠시라도 뇌를 쉬게 하자’는 유혹은 달콤하다.
이런 사회 분위기 속에 스마트폰과 AI 기술이 결합한 초개인화 알고리즘은 단순히 편리한 도구를 넘어 인간 사고 과정을 직접 대체하기 시작했다. 의문을 제기하고, 정보를 찾고, 취합한 정보에 또다시 의문을 제기하고, 토론하며 쌓아온 사유의 경험이 사라지고 있다는 얘기다.
각종 플랫폼 기업 역시 브레인오프를 부추긴다. 검색 결과 상단에 노출되는 광고 상품, OTT가 추천하는 ‘오늘의 콘텐츠’, SNS가 띄워주는 맞춤 영상은 모두 기업의 알고리즘이 설계한 선택지다. 사용자(소비자)가 굳이 비교하거나 고민하지 않도록 ‘편리한 답’을 제시한다. 이인아 서울대 뇌인지과학과 교수는 “충분히 비교·검토하는 과정이 사라진 것이 브레인오프 현상을 심화시키고 있다”고 지적했다.
브레인오프 흐름은 한국 사회 특유의 교육·문화와도 맞닿아 있다. 오랜 기간 주입식, 정답 중심 교육을 받아온 세대에게 정답을 빠르게 알려주는 AI는 더없이 유익한 도구다. 해석과 과정보다는 효율과 속도를 중시하는 이런 사회 분위기 속에 생성형 AI 이용 비용까지 저렴해졌다. 사용자가 빠르게 늘면서 ‘나만 쓰지 않으면 도태된다’는 불안감이 브레인오프 현상을 더욱 가속화했다. 이병훈 중앙대 사회학과 교수는 “한국 교육은 성적과 대입에만 몰두하면서 비판적·창의적 사고를 메마르게 했다”며 “AI 교육도 기술 사용법만 강조할 뿐 사회적 위험이나 부정적 파급 효과를 따져 묻는 과정이 부족하다”고 꼬집었다.
전문가들은 이런 습관이 일상이 되면 우리 뇌가 스스로 사고하고 판단하는 기능을 점차 잃을 것이라고 경고한다.
이유는 이렇다. 인지과학 관점에서 인간 뇌는 ‘인지 구두쇠(cognitive miser)’라는 속성을 지녔다. 본능적으로 에너지를 최소한만 쓰려 한다. 답을 즉시 내주는 도구가 있으면 기꺼이 사고 과정을 생략하려 한다. 스마트폰과 AI는 이런 본능에 최적화된 환경이다. ‘생각하지 않아도 되는’ 순간이 늘어나면서 깊은 이해와 비판적 성찰은 점점 사라진다. 전홍진 삼성서울병원 정신건강의학과 교수는 “복잡하게 생각하는 것을 싫어하고, 추천해주는 것을 무비판적으로 수용하는 현대인의 습관이 뇌의 퇴화를 부른다”고 지적했다.
챗GPT를 비롯한 AI 챗봇 대중화는 요즘 인간이 뇌를 꺼버리게 된 가장 큰 요인이 됐다. 대학생 과제나 직장인 보고서 작성 시 별다른 생각 없이 AI에 이렇게 명령한다. “써줘.” 이 과정에서 글쓰기를 비롯한 비판적 사고 능력은 급격히 약화될 수밖에 없다.
연구 결과도 있다. 최근 MIT 미디어랩 연구팀은 AI 도구를 많이 사용할수록 인간 뇌 기능이 점차 약해진다는 결과를 내놨다. 실험은 대학생 54명을 세 그룹으로 나눠 진행했다. AI 언어 모델을 사용한 그룹, 검색엔진만 사용한 그룹, 아무런 기술 도구도 사용하지 않은 그룹으로 나눠 에세이 과제 수행을 주문했다. 연구팀이 각자 뇌 전도를 측정한 결과 ‘아무 도구도 사용하지 않은 그룹’이 가장 활발하고 다양한 뇌 연결성을 보였다. 반대로 AI 사용 그룹은 뇌 연결성이 가장 약했다. 특히 한 학기 동안 AI만 사용한 참가자는 기억력과 창의성은 물론 심지어 과제에 대한 책임감 지표도 유의하게 낮았다.
모든 병의 가장 기본적인 치료 방법은 발병 원인을 없애거나 최소화하는 데 있다. 호모 브레인오프 시대에 나타나는 여러 부작용도 마찬가지다. 사고를 단축하는 환경으로부터 스스로를 떼어놓는 시간과 노력이 필요하다는 데 전문가 이견이 없다.
이인아 교수는 “생활 전반에 퍼져 있는 AI 추천 시스템으로부터 물리적으로, 의식적으로 거리두기가 필요하다”며 “화면을 바라보는 스크린 타임 줄이기, 스마트폰을 떼어놓는 디지털 기기 사용 제한 등 노력을 통해 모든 사안에 스스로 충분히 비교하고 검토하는 과정을 늘려 나가야 한다”고 말했다.
AI와 알고리즘 노출에 특히 취약한 어린 시절부터, 조기 교육을 통해 기술을 바라보는 관점을 달리해야 한다는 의견이 힘을 얻는다. ‘AI는 완벽하지 않다’는 사실을 주지시키고 과의존을 막는 방법, 또 개인 사고력을 유지한 채 전략적으로 AI를 활용할 수 있는 방법을 기초 교육 과정에 넣어야 한다는 주장이다. AI 활용법을 넘어, 한계를 명확히 인식할 수 있도록 돕는 ‘AI 리터러시’ 교육 필요성이다.
곽금주 교수는 “AI를 철저히 도구로만 활용해야 한다는 내용의 교육이 어려서부터 필요하다. AI 자료를 참고하되 최종 판단은 반드시 스스로 내리는 습관을 길러야 한다”며 “단순히 AI 정보를 가져다 쓰기보다는 해당 결과를 활용해 자기 논리를 세우고 결론을 도출하는 훈련이 중요하다”고 말했다.
예를 들어 보고서를 작성할 때 AI의 답변을 그대로 옮기는 대신, 반론을 제기하고 자신의 생각과 비교·분석하는 과정을 추가하도록 지도할 수 있다. 또한 AI 기술의 작동 원리와 한계, 부작용을 이해하고 이를 비판적으로 바라보는 능력을 기르는 종합 교육이 필요하다는 목소리도 나온다.
<출처 : 매경이코노미 2025.10.15>
4. 생각 열기
▶ <읽기 자료1>을 읽고, ‘AI는 학생들의 고차원적 판단 능력을 앗아간다.’는 글쓴이의 생각에 동의하나요?
▶ <읽기 자료2>을 읽고, AI 리터러시는 무엇을 말하고 왜 필요한지 더 알아봅시다.
5. 생각 키우기
▶ AI를 평소에 어떻게 사용하고 있는지 살펴보고 문제점은 없었는지 가족(또는 친구)과 토의해 봅시다.
6. 개념기반 탐구학습을 위한 일반화 문장 써 보기(예시)
• 우리가 질문하지 않고 AI가 알려주는 답만 따르면 창의력과 판단력이 점점 약해질 수 있다.
• 현대 사회에서는 기술이 필요하지만, 기술에만 의존하면 사람의 사고 능력이 줄어드는 문제가 생길 수 있다.
7. 학생 글
할루시네이션은 GPT Chat과 같은 인공지능 언어 모델이 그럴싸한 거짓 정보를 답변하는 현상을 일컫는 말로, 인공지능 모델의 학습 데이터나 입력 데이터의 부족, 또는 오류로 인해 발생할 수 있다. 기사에서 읽었듯 인공지능은 AI의 특성을 잘 알고 있고, 만들어야 하는 주제에 대해 풍부한 자료들의 정보를 많이 갖고 있는 전문가에게는 매우 훌륭한 도구인 반면, 일반 사용자들은 AI가 미묘하고 조용한 오류를 유발해도 그것을 눈치채기 쉽지 않다. AI를 다루는 방법을 잘 모르기 때문에 AI를 나의 생각을 대변하는 도구로 사용할 수 있고 또 앞서 설명한 거짓 정보를 그럴듯하게 만들어내는 AI의 특성으로 인해 AI가 제공하는 정보에 대해 옳고 그름을 판별하지 못한 채 AI의 답변을 받아들일 수 있다는 문제점이 생길 수 있다.
AI에 과의존하며 당장 부딪힌 문제를 빠르게 해결하기 위해 AI를 계속해서 사용하게 된다면 우리는 앞으로 더 큰 인생의 과업에 부딪쳤을 때조차 AI에게 의존하게 될지도 모른다. 현재 우리 사회는 고도의 정보 사회이다. 이러한 사회적 배경에서 AI에게 의존하여 문제를 해결하고자 하는 사람이 각광받을 수 있을까? 그렇지 않을 것이다. 한 번 실패하고 넘어지더라도 그 과정을 계기로 인공지능의 도움 없이도 창의적인 아이디어를 생각해낼 수 있는 인재, 어려운 상황과 마주했을 때 자신의 힘으로 그 상황을 헤쳐나갈 수 있는 사람들을 사회는 원할 것이다.
우리 뇌는 에너지를 줄이기 위해 사고하는 과정을 줄이는 것이 본능적이지만, 우리는 이러한 뇌의 본능을 거스르기 위해 막대한 노력을 기울여야 하고, AI와 잠시 멀어져 자신의 생각에 집중할 수 있는 노력이 필요하다.
/전주삼천남초 김주영 교사
저작권자 © 전북일보 인터넷신문 무단전재 및 재배포 금지
※ 아래 경우에는 고지 없이 삭제하겠습니다.
·음란 및 청소년 유해 정보 ·개인정보 ·명예훼손 소지가 있는 댓글 ·같은(또는 일부만 다르게 쓴) 글 2회 이상의 댓글 · 차별(비하)하는 단어를 사용하거나 내용의 댓글 ·기타 관련 법률 및 법령에 어긋나는 댓글