국가 차원 'AI 보안' 중요성 대두... 국내 정책 방향은?
국가 차원 'AI 보안' 중요성 대두... 국내 정책 방향은?
  • 이석진 기자
  • 승인 2024.12.11 17:34
  • 댓글 0
이 기사를 공유합니다

레거시 IT 시스템과 다르게 AI 개발시 주기적인 보안 검증 필요
한국인터넷진흥원(KISA)은 11일 용산에서 '사이버보안 성과 발표회'를 개최해 정부의 'AI 보안' 가이드라인 추진 현황을 소개했다. △생성형 AI 모델 내 취약점 공격 △AI를 악용한 사이버범죄 △기업기밀과 개인정보 유출 등 AI 관련 공격이 증가하는 글로벌 추세에 맞춰 KISA는 올해부터 AI 보안 가이드라인을 개발 중이다.
(자료=디일렉)
(자료=디일렉)
AI 시스템은 레거시 IT 시스템과 다르기 때문에 새로운 보안 가이드라인을 제정해야 한다. AI 시스템은 AI 모델에 기반하며, 데이터수집 → 데이터전처리 → AI 모델 설계·학습 → AI 모델 검증의 과정을 반복한다. 레거시 IT 시스템은 한번의 개발 과정에서 일회성의 보안 검증만 필요한 반면, AI 시스템은 위 과정을 반복함에 따라 주기적인 보안 검증이 필요하다. KISA는 과학기술정보통신부가 개발한 AI 신뢰 가이드라인의 구성과 미국과 유로존(EU) 같은 선진국 프레임워크를 참조해 AI 보안 가이드라인을 만들고 있다. 가이드라인 대상자는 AI 개발자뿐 아니라 AI 서비스 공급자와 사용자까지 포함한다.  개발자에 대한 가이드라인은 AI 개발 생명주기 6단계에서 55개 보안 항목을 제시한다. 6단계는 △계획·설계 △데이터 수집 △모델 개발 △모델 배포 △모니터링·유지보수 △파기다. 특히 파기 단계에서는 완성된 AI 시스템이 상용화되지 않고 파기되더라도 주요 데이터를 보호하는 항목이 존재한다. 공급자의 경우 △서비스 기획·설계 △서비스 개발·구축 △서비스 운영 △유지보수 △피드백·개선과 같이 5단계의 생명주기에서 44개 항목을 도출했다.  사용자의 경우 캐나다와 일본의 가이드라인을 바탕으로 국내 실정에 맞게 정보보호 수칙을 개발했다. 이는 3단계로 구성되며, ①AI 서비스 접속 ②AI 서비스 이용 ③ AI 악용 피해 예방이 이에 해당된다.  KISA는 올해 가이드라인에서 8가지 AI 리스크 사전분석과 미래전략 보고서를 추진하고, 내년에는 AI 보안 포럼 개최와 AI 보안 정책 수립 등 본격 구체화할 계획이다. 김성원 KISA 정책연구팀장은 "AI 일상화 시대를 대비해 AI 악용 방지를 해야 한다"며 "KISA는 선제적으로 AI 보안 정책을 수립하고 추진 중이다"고 언급했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 서울특별시 강남구 언주로 709 (송암빌딩) 13F
  • 대표전화 : 02-2658-4707
  • 팩스 : 02-2659-4707
  • 청소년보호책임자 : 이수환
  • 법인명 : 주식회사 디일렉
  • 대표자 : 한주엽
  • 제호 : 디일렉
  • 등록번호 : 서울, 아05435
  • 사업자등록번호 : 327-86-01136
  • 등록일 : 2018-10-15
  • 발행일 : 2018-10-15
  • 발행인 : 한주엽
  • 편집인 : 장지영
  • 전자부품 전문 미디어 디일렉 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 전자부품 전문 미디어 디일렉. All rights reserved. mail to [email protected]
온라인바카라 온라인바카라 파라다이스 카지노 온라인 도박 사이트 카지노 온라인 아시아 카지노 한국 스포츠 베팅 카지노 도박 사이트 온라인 도박 스포츠 베팅 게임 카지노 서울 제왕 카지노 사이트 오딘 카지노 노구라 카지노 토르 카지노 마카오 카지노 게임 카지노 슬롯 트 머신 해외 카지노 사이트 엠 세븐 카지노 미국 카지노