[더테크=조재호 기자] 네이버가 인공지능(AI) 안전성 실천 체계를 공개했다. 지난 윤리 준칙과 자문 프로세스보다 한층 더 나아간 내용이다. 회사는 향후 세계의 문화적 다양성을 반영한 안전성 체계로 글로벌 AI 발전에 이바지한다는 계획이다.
네이버가 17일 자체 기술 채널인 ‘채널 테크’를 통해 ‘네이버 ASF(AI Safety Framework)’를 발표했다. 네이버 ASF는 네이버가 AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 잠재적 위험을 인식·평가·관리하기 위한 대응 체계다.
네이버 ASF는 AI 시스템이 초래할 수 있는 위험을 △통제력 상실 △악용으로 정의하고 이에 대응할 방법을 설계했다.
먼저 통제력 상실 위험에 대해 ‘AI 위험 평가 스타일’을 통해 시스템의 위험을 주기적으로 평가하고 관리한다. 이는 현존 최고 AI 시스템을 ‘프런티어 AI’로 정의하고 해당 수준에 대해서 3개월마다 위험 평가를 시행한다. 시스템의 능력이 기존보다 6배 이상 급격히 상승한 때도 추가 평가를 진행한다는 내용이다.
악용 가능성은 ‘AI 위험 평가 매트릭스’를 적용한다. 이는 AI 시스템의 사용 목적과 안전 조치 필요성에 따라 다른 방식으로 위험을 관리하는 내용이다. 가령 생화학 물질 개발과 같은 목적으로 활용되는 AI 시스템은 자격이 있는 사용자에게만 제공해 위험을 완화한다. 안전 조치의 필요성이 높은 AI 라면 추가적인 기술적·정책적 위험이 완화될 때가지는 배포하지 않는다는 원칙이다.
향후 네이버는 문화적 다양성을 반영한 AI 안전성 체계로 네이버 ASF를 발전시켜나갈 계획이다. 소버린(Sovereign) AI를 추구하며 특정 문화권에서 성립될 수 있는 AI 시스템의 위험을 식별한다는 것이다. 벤치마크에도 각각의 문화권의 특성을 반영해 고도화할 예정이다.
이와 관련 지난해 네이버는 세계 최고 권위의 자연어처리 학회 중 하나인 ACL 2023에서 사회적으로 첨예한 이슈에 대해 AI가 편향적인 모습을 보이는 문제를 완화하기 위한 한국어 데이터셋을 제안한 연구를 발표한 바 있다.
이어 문화권에 따라 차이를 보일 수 있는 문제를 고려해 다른 언어 기반으로도 데이터셋을 구축할 수 있도록 설계 프로토콜을 함께 제안했는데, 글로벌 AI 커뮤니티에 기여했다는 평가와 함께 학계의 주목을 받았다.
최수연 네이버 대표이사는 “네이버는 ‘하이퍼클로바X’라는 소버린 AI를 통해 문화적·지정학적 상황과 지역적 이해가 AI의 성능뿐만 아니라 안전성에도 영향을 미친다는 점을 실증했다”며 “향후 글로벌시장에서도 네이버 ASF를 개선해 다양한 지역의 문화와 가치를 반영한 AI 모델이 공존하는 지속 가능한 AI 생태계를 위해 적극적으로 기여할 것”이라고 말했다.