[현장]전문가들이 제시한 AI 시대 보안 패러다임

과기정통부, 글로벌 보안 컨퍼런스 개최
생성형 AI, LLM(거대언어모델) 등의 보안 현황 공유
데이터의 해킹 및 유출을 막기 위한 대응책 소개

 

[더테크=전수연 기자] 인공지능(AI)에 대한 보안 문제가 커지는 상황에서 대응 방안을 공유하는 컨퍼런스가 열렸다. 다양한 정보 유출 가능성을 예방하고 데이터 보안을 유지하기 위한 사례를 확인할 수 있었다.

 

과학기술정보통신부는 서울 강남구 코엑스에서 'AI 시대 보안 패러다임을 열다'를 주제로  글로벌 보안 컨퍼런스를 25일 개최했다. 

 

(관련기사: 생성형AI 보안문제 다룬 '코드게이트 2023' 개최)

 

이번 컨퍼런스에서는 ‘AI’를 토대로 다양한 발표가 진행됐다. 첫 번째 세션은 고우영 국가보안기술연구소 선임연구원의 ‘거대언어모델과 보안: ChatGPT에서 LLM까지’였다.

 

고우영 연구원은 거대언어모델(LLM)의 흐름부터 짚었다. 그는 “텍스트로 이뤄진 입력 데이터를 거대 모델로 만든 것이 LLM”이라며 “요즘은 LLM 중에서도 작은 파라미터 사이즈를 모은 sLLM이 개발되고 있다”고 말했다.

 

LLM을 구성할 때 중요한 요소도 설명했다. 고 연구원은 “LLM은 구조가 중요하다. 효율적인 병렬화와 매커니즘을 가능하게 만드는 트랜스포머를 만들고, 대량의 텍스트에서 사전 훈련 및 도메인 최적화 튜닝이 필요하다”고 전했다.

 

AI를 대하는 자세에 대해서는 “AI는 우리를 대체할 수 없지만, AI를 잘 쓰는 사람은 언제든 우리를 대체할 수 있다고 생각한다”며 “LLM에 뛰어들고 보안에 힘쓴다면 좋은 결과를 낼 수 있을 것”이라고 말했다.

 

다음으로 ‘NEXT 포털, 모두를 위한 AI’를 주제로 현지웅 뤼튼테크놀로지스 리드가 발표에 나섰다. 그는 LLM의 보안을 통제할 때 중요한 요소로 △유해한 콘텐츠 생성 시 대응 △프롬프트 이슈 및 유출되는 현상 예방 △API 활용 위험성 인식을 꼽았다.

 

보안 유출 방지를 위한 대처로는 △사용자 발화에 대해 프롬프트 유출 시도 패턴 차단 △생성된 결과물과 시스템 프롬프트 간 유사성 비교 △규칙 기반 탐지 등을 제시했다.

 

현지웅 리드는 “오픈AI 경우 사용자의 인풋, 아웃풋에 대해 콘텐츠 유해성 판단 알고리즘이 기본으로 탑재돼 있다”며 “사용자 요청에 대한 실질적인 카테고리를 파악하고 판단하며 위험을 막고 있다”고 말하기도 했다.

 

 

이후 단상에 오른 양승도 AWS(Amazon Web Service) 리더는 ‘AI를 위한 보안, 그리고 보안을 위한 AI’를 주제로 강연했다.

 

양 리더는 과거와 현재 AI의 차이부터 소개했다. 그는 “과거 머신러닝은 특정한 업무를 수행하기 위한 목적을 가지고 만들어졌다”며 “최근 생성형 AI를 지원하는 파운데이션 모델, LLM 등은 정제되지 않은 거대 데이터를 사전 학습하고 다양한 범용 업무를 동시에 수행할 수 있다”고 전했다.

 

이와 함께 양 리더는 ‘생성형 AI 생태계‘ 구성을 설명했다.  △LLM을 직접 만드는 비즈니스 모델 프로바이더 △기업, 오픈 소스 등을 통해 목적에 맞는 모델을 반드는 파인 튜너 △만들어진 모델을 사용하는 컨슈머 등이 그것이다.

 

양 리더는 “생성형 AI를 사용하는 사례를 보면 많은 사람들이 데이터를 모델에 단순 투입하는 형식으로 활용하고 있다”며 “데이터는 경쟁력이기 때문에 모델을 데이터로 가져오는 플랫폼을 만드는 게 중요하다”고 설명했다.

 


관련기사

93건의 관련기사 더보기

배너