2024.11.21 (목)
T 뉴스
멀티미디어
독자 · 소통
[더테크=전수연 기자] 인공지능(AI)의 영역 확대와 함께 이를 활용할 때 발생하는 ‘AI 윤리’에 대한 고민이 국내·외로 증가하고 있다. AI 윤리는 AI의 책임감 있고 공정한 사용을 규율하는 원칙과 지침을 뜻하는데 최근 중소·중견기업과 정부 기관 등에서 특별히 신경 쓰는 요소이기도 하다. 실제로 IBM이 진행한 글로벌 AI 도입 지수 2023 보고서에 따르면 기업의 40%는 아직 AI를 검토하는 수준에 머물러있는 것으로 나타났다. 조사 대상자들은 도입을 늦추는 요소로 AI 스킬, 전문성 부족과 함께 ‘윤리 문제’를 언급했다. 한국 딜로이트 그룹이 발간한 아시아·태평양 지역의 생성형 AI 적용 및 규제 보고서에는 금융업계가 AI 관련 위험을 식별하는 것에 집중하고 있다고 조사됐다. 이들은 사용자 취약성에 대한 생성형 AI의 편향, 개인정보 등의 데이터 보호 의무를 우려하고 있었다. 자세히 살펴보면 금융관계자들은 AI를 도입했을 때 훈련한 데이터·패턴과 편견을 연관시키면서 차별적이거나 오해의 소지가 있는 콘텐츠를 생성할 수 있다고 내다봤다. 또한 모델에 객관적 진실이 내재돼 있지 않아 부정확하거나 유해한 콘텐츠 생성이 가능하다고 판단했다. 이 때문에 아시아·
더테크는 ‘스마트 테크 전문‘ 미디어입니다. AI, 사물인터넷, 미래모빌리티 등 인더스트리 4.0 시대를 이끌어갈 딥테크 분야를 중심으로 다양한 ICT 산업컨텐츠를 제공하고 있습니다. 뉴스레터 발송을 위한 최소한의 개인정보를 수집하고 있습니다. 수집된 정보는 발송 외 다른 목적으로 이용되지 않으며 서비스 종료가 되거나 구독을 해지할 경우 즉시 파기됩니다.