레거시 IT 시스템과 다르게 AI 개발시 주기적인 보안 검증 필요
한국인터넷진흥원(KISA)은 11일 용산에서 '사이버보안 성과 발표회'를 개최해 정부의 'AI 보안' 가이드라인 추진 현황을 소개했다. △생성형 AI 모델 내 취약점 공격 △AI를 악용한 사이버범죄 △기업기밀과 개인정보 유출 등 AI 관련 공격이 증가하는 글로벌 추세에 맞춰 KISA는 올해부터 AI 보안 가이드라인을 개발 중이다.
AI 시스템은 레거시 IT 시스템과 다르기 때문에 새로운 보안 가이드라인을 제정해야 한다. AI 시스템은 AI 모델에 기반하며, 데이터수집 → 데이터전처리 → AI 모델 설계·학습 → AI 모델 검증의 과정을 반복한다. 레거시 IT 시스템은 한번의 개발 과정에서 일회성의 보안 검증만 필요한 반면, AI 시스템은 위 과정을 반복함에 따라 주기적인 보안 검증이 필요하다.
KISA는 과학기술정보통신부가 개발한 AI 신뢰 가이드라인의 구성과 미국과 유로존(EU) 같은 선진국 프레임워크를 참조해 AI 보안 가이드라인을 만들고 있다. 가이드라인 대상자는 AI 개발자뿐 아니라 AI 서비스 공급자와 사용자까지 포함한다.
개발자에 대한 가이드라인은 AI 개발 생명주기 6단계에서 55개 보안 항목을 제시한다. 6단계는 △계획·설계 △데이터 수집 △모델 개발 △모델 배포 △모니터링·유지보수 △파기다. 특히 파기 단계에서는 완성된 AI 시스템이 상용화되지 않고 파기되더라도 주요 데이터를 보호하는 항목이 존재한다.
공급자의 경우 △서비스 기획·설계 △서비스 개발·구축 △서비스 운영 △유지보수 △피드백·개선과 같이 5단계의 생명주기에서 44개 항목을 도출했다.
사용자의 경우 캐나다와 일본의 가이드라인을 바탕으로 국내 실정에 맞게 정보보호 수칙을 개발했다. 이는 3단계로 구성되며, ①AI 서비스 접속 ②AI 서비스 이용 ③ AI 악용 피해 예방이 이에 해당된다.
KISA는 올해 가이드라인에서 8가지 AI 리스크 사전분석과 미래전략 보고서를 추진하고, 내년에는 AI 보안 포럼 개최와 AI 보안 정책 수립 등 본격 구체화할 계획이다.
김성원 KISA 정책연구팀장은 "AI 일상화 시대를 대비해 AI 악용 방지를 해야 한다"며 "KISA는 선제적으로 AI 보안 정책을 수립하고 추진 중이다"고 언급했다.
저작권자 © 전자부품 전문 미디어 디일렉 무단전재 및 재배포 금지