[더테크 서명수 기자] 인공지능(AI)이 정보 생산과 소비의 핵심 인프라로 자리 잡으면서, 알고리즘 편향이 사회적 갈등을 증폭시키는 구조적 문제로 부상하고 있다. 한국지능정보사회진흥원(NIA)이 발간한 'AI 편향으로 인한 사회적 갈등과 정책적 대응' 보고서는 AI 편향을 단순한 기술적 오류가 아니라 민주주의, 젠더 갈등, 여론 형성 전반에 영향을 미치는 사회적 위험 요소로 규정했다.
보고서는 추천 알고리즘과 생성형 AI가 이용자의 기존 선호를 강화하는 방식으로 정보 노출을 설계하고 있으며, 이 과정에서 ‘필터버블’과 ‘에코챔버’ 현상이 구조적으로 고착화된다고 분석했다. 특히 정치 영역에서는 특정 이념 성향이 반복적으로 증폭되며 뉴스 회피와 정치적 불신을 심화시키고, 성별 영역에서는 고정관념적 콘텐츠가 남녀 이용자에게 차별적으로 노출되면서 사회적 갈등을 확대하는 양상이 확인됐다고 지적했다.
생성형 AI의 편향 문제 역시 주요 쟁점으로 제기된다. 일부 연구에서는 대중적으로 활용되는 AI 챗봇이 특정 정치 성향에 치우친 응답을 보이는 경향이 있으며, 이러한 특성이 검색·교육·저널리즘 등 다양한 영역에서 여론 형성에 장기적인 영향을 미칠 수 있다고 경고한다. 이에 따라 AI를 가치 중립적인 도구로 인식해 온 기존의 관점에 대한 재검토가 필요하다는 지적도 나온다.
해외 주요국은 이미 제도적 대응에 나서고 있다. EU는 AI Act와 디지털서비스법(DSA)을 통해 고위험 AI 시스템과 대형 플랫폼을 규제하고, 데이터 대표성 확보와 편향 관리, 알고리즘 투명성을 법적 의무로 명시했다. 미국은 행정명령과 가이드라인을 중심으로 한 사후 관리 체계를 유지하면서도, 최근에는 AI의 정치·이념적 중립성을 둘러싼 논의가 정책 쟁점으로 확대되는 모습이다. 영국은 단일 법률 규제 대신 공정성·책임성·설명가능성을 핵심 원칙으로 하는 유연한 거버넌스 전략을 채택했다.
보고서는 AI 편향이 더 이상 기술 개발자 개인의 문제가 아니라 사회 전체가 공동으로 관리해야 할 위험 요소라고 강조한다. 설계와 데이터 구축, 배포와 운영에 이르는 전 과정에서의 체계적인 대응과 함께, 이용자의 비판적 사고 역량을 강화하는 정책적 접근이 병행돼야 한다는 점을 핵심 과제로 제시했다.















