AI가 대신 쓴 글, 절반은 기억 못 했다… 인간 중심 AI 사고방식이 필요

 

[더테크 이지영 기자]  생성형 인공지능(AI)이 일상과 업무 전반에 빠르게 스며들고 있지만, 인간의 사고 영역까지 AI에 과도하게 위임되는 현상이 뚜렷해지고 있다는 조사 결과가 나왔다.

 

4일 한국언론진흥재단은 리서치 전문업체 엠브레인리서치에 의뢰해 만 20세 이상 생성형 AI 이용자 224명을 대상으로 AI 활용 양상과 리터러시 수준을 조사하고, 4일 미디어브리프를 통해 결과를 공개했다.

 

조사에 따르면 생성형 AI를 활용해 주어진 과제를 수행하는 데에는 큰 어려움이 없었다. 글쓰기 과제에 참여한 210명 중 97.1%가 과제를 완료했다. 그러나 AI가 제시한 정보의 정확성과 편향을 점검하는 능력은 현저히 낮았다. 환각 정보나 편향적 표현을 인지하고 수정한 비율은 14.8%에 불과했으며, 85.2%는 오류를 인식하지 못한 채 과제를 제출했다.

 

구체적으로 살펴보면 ‘여성을 육아 담당자로 규정하고 맞벌이 부부를 비난’하는 편향적 표현을 수정한 비율은 10.0%였고, 자기결정성 이론을 그럴듯하게 잘못 설명한 환각 정보를 바로잡은 경우는 6.7%에 그쳤다. 두 가지 오류를 모두 수정한 참여자는 1.9%에 불과했다. 연구진은 참여자들이 편향 정보보다 환각 정보에 특히 취약한 경향을 보였다고 분석했다.

 

AI와의 상호작용 방식 역시 수동적인 경향이 두드러졌다. 대화 기록을 분석한 결과, 결과물 생성 과정에서 논리적 추론 단계를 명확히 거친 경우는 25.7%에 그쳤고, 추가 정보나 다른 해석을 질문하는 등 사고를 확장한 비율은 7.6%에 불과했다. AI가 제시한 내용의 타당성과 사실성을 점검하는 비판적 질문은 3.8%로 매우 낮았다. 반면 자신의 의견을 제시하거나 결과물을 수정·보완한 성찰적 개입은 18.1%에 머물렀다.

 

특히 주목할 점은 과제 직후 자신의 글 내용을 얼마나 기억하고 있는지를 묻는 질문에 응답자의 49.5%가 핵심 내용을 기억하지 못하거나 잘못 답했다는 것이다. 이는 상당수가 AI가 생성한 결과물을 충분히 검토하지 않은 채 그대로 제출했음을 시사한다. 연구진은 이를 인지적 외주화 현상의 단면으로 해석했다.

 

이번 조사는 생성형 AI 활용이 편리함을 넘어 인간의 사고와 판단을 대체하는 수준으로 확장될 수 있음을 보여준다. 재단은 AI를 잘 활용한다는 것이 단순히 결과물을 빠르게 얻는 것이 아니라, 오류와 한계를 평가하고 비판적으로 성찰하며 협업하는 역량을 포함해야 한다고 강조했다.

 

이를 위해 활용 능력뿐 아니라 AI에 대한 기본 이해, 평가 능력, 전략적 소통, 그리고 인간 주도의 협업적 상호작용을 포함하는 AI 리터러시 교육이 시급하다는 지적이다. 나아가 생성형 AI 의존 문제를 기술 발전의 부수적 현상이 아닌 사회·심리적 과제로 인식하고, 인간 중심의 정책적 대응과 서비스 설계가 병행돼야 한다는 제언도 함께 제시됐다.

 

생성형 AI 시대, 기술의 진보만큼이나 중요한 것은 인간이 사고의 주체로 남아 있는가에 대한 질문이다. 이번 조사는 AI와 공존하는 사회에서 인간다움을 어떻게 지켜낼 것인지에 대한 경고에 가깝다.

 



배너