뜨거운 AI 개발 경쟁 속 '윤리 문제' 안전할까

사용자 취약성에 대한 생성형 AI의 편향, 개인정보 등의 데이터 보호 의무 우려
글로벌 동향에 따라 인공지능법 제정, 신뢰성 인증제도 추진 확대돼야

 

[더테크=전수연 기자] 인공지능(AI)의 영역 확대와 함께 이를 활용할 때 발생하는 ‘AI 윤리’에 대한 고민이 국내·외로 증가하고 있다. AI 윤리는 AI의 책임감 있고 공정한 사용을 규율하는 원칙과 지침을 뜻하는데 최근 중소·중견기업과 정부 기관 등에서 특별히 신경 쓰는 요소이기도 하다.

 

실제로 IBM이 진행한 글로벌 AI 도입 지수 2023 보고서에 따르면 기업의 40%는 아직 AI를 검토하는 수준에 머물러있는 것으로 나타났다. 조사 대상자들은 도입을 늦추는 요소로 AI 스킬, 전문성 부족과 함께 ‘윤리 문제’를 언급했다.

 

한국 딜로이트 그룹이 발간한 아시아·태평양 지역의 생성형 AI 적용 및 규제 보고서에는 금융업계가 AI 관련 위험을 식별하는 것에 집중하고 있다고 조사됐다. 이들은 사용자 취약성에 대한 생성형 AI의 편향, 개인정보 등의 데이터 보호 의무를 우려하고 있었다.

 

자세히 살펴보면 금융관계자들은 AI를 도입했을 때 훈련한 데이터·패턴과 편견을 연관시키면서 차별적이거나 오해의 소지가 있는 콘텐츠를 생성할 수 있다고 내다봤다. 또한 모델에 객관적 진실이 내재돼 있지 않아 부정확하거나 유해한 콘텐츠 생성이 가능하다고 판단했다.

 

이 때문에 아시아·태평양 지역 금융 기관들은 AI 사용과 관련된 위험을 위한 가이드라인을 수립하고 있으며 향후 AI 규제, 법제화를 위한 첫 단계에 돌입할 것을 언급한 바 있다.

 

(관련기사: AI 만난 금융업 “신중한 AI 프레임워크 필요해”)

 

이렇듯 ‘AI 윤리’가 떠오르면서 이를 규정하기 위한 기업들의 노력도 이어졌다. 카카오는 내부 논의를 거쳐 ‘공동체 기술윤리 보고서’를 발간했다. 

 

앞서 기술윤리 위원회를 신설한 데 이어 11번의 정기 회의를 통한 주요 활동 결과와 성과를 보고서에 담았다. 특히 카카오 공동체 기술윤리 거버넌스 체계를 고도화했으며 기술 안정·투명성 강화 측면에서 AI 개발 원칙 수립, AI 윤리규정 자가점검 도구 개발을 통한 서비스 개발 토대 마련을 목표로 했다.

 

이에 더해 ‘카카오 공동체의 책임 있는 AI를 위한 가이드라인’도 새롭게 제정됐다. 가이드라인은 기존 알고리즘 윤리 현장의 중요 원칙을 계승하면서 AI 기술이 한층 더 안전성을 갖춰 다양한 서비스에 적용될 수 있도록 했다.

 

해당 내용에는 △윤리 기반 데이터 수집, 학습 △사회적 편향 경계 △알고리즘 설명 가능성 확대 등으로 원칙의 실천을 위해 내부 조직, 실행 체계가 고도화되기도 했다. 또 카카오는 자사 홈페이지를 통해 온라인 매거진 ‘Tech Ethics’를 발간하며 AI 윤리 실천에 나서는 모습이었다.

 

LG AI 연구원도 자체 실적을 기반으로 LG AI 윤리원칙의 이행 성과를 담은 ‘AI 윤리 책무성 보고서’를 발간했다. AI 윤리원칙은 △인간존중 △공정성 △안전성 △책임성 △투명성 등 AI를 개발·활용하는 사내 모든 구성원이 지켜야 할 행동, 가치 판단의 기준이 되는 내용이다.

 

이와 함께 LG는 AI 연구 허브인 LG AI 연구원 내에 기술, 법학, 정책 등 다양한 분야의 내·외부 전문가들이 참여하는 AI 윤리위원회를 비롯해 실질적인 윤리 실행을 담당하는 ‘AI 윤리사무국’, AI 알고리즘, 모델 편견, 오류, 시스템의 취약점을 찾아내는 ‘레드팀’, 임직원들의 자발적인 AI 윤리 실천 조직 ‘AI 윤리 연구/활동 그룹’ 등을 운영 중이다.

 

또한 AI 연구개발 전 과정에서 발생할 수 있는 잠재 위험을 사전에 파악, 해결하기 위해 AI 위험 관리 프로세스를 만들어 관리하고 있다. 학습 데이터 내의 개인정보를 모두 익명 처리하기 때문에 민감 정보가 학습에 활용되지 않게 된다.

 

국내 기업들의 내부 윤리 강화뿐만 아니라 과학기술정보통신부(이하 과기부), 한국정보통신기술협회(TTA) 등도 ‘인공지능 윤리정책 포럼 공개 세미나’를 개최하며 관련 논의를 이어갔다.

 

인공지능 윤리정책 포럼은 AI의 윤리적 개발, 활용 촉진을 위해 다양한 전문가들이 참여한 조직으로 AI 윤리영향평가 운영방안, 일반인 대상 AI 윤리교육 교재 등 다양한 내용을 추진하고 있다.

 

포럼을 통해 글로벌 차원의 AI 규제 동향에 따라 인공지능법 제정, 신뢰성 인증제도 추진, 글로벌 AI 거버넌스 참여 등이 확대돼야 한다는 의견도 도출됐다.

 

또한 과기부와 개인정보보호위원회는 윤리·신뢰성 확보 추진계획으로 △민간 자율 AI 윤리·신뢰성 확보 지원 △AI 기술·제도적 기반 마련 △사회 전반의 책임 있는 AI 의식 확산 등을 선정했다.

 

이처럼 현재 다양한 기업·기관이 우려하고 있는 AI 윤리는 ‘유네스코 AI 윤리 글로벌 포럼’과 함께 점차 하나의 제도로 자리 잡는 모습이다. 최근 메타의 생성형 AI 이미지 워터마크 도입, AI 관련 소비자 보호법 등의 움직임 역시 그 일환으로 볼 수 있다.

 

(관련기사: [현장] 기술포럼, '전문인력 양성과 제도 마련' 강조)

 


관련기사

93건의 관련기사 더보기

배너