조지아공과대학과 함께 기술 협업
인텔이 보안 역량을 끌어올리기 위해 머신러닝(ML) 프로그램에 참가한다. 인텔은 취약성 식별 등 시스템 건전성을 개선하고 효과적 방어를 가능케 하는 이론적 ML 시스템 기반을 확립할 수 있을 것이라고 전망했다.
13일 인텔은 조지아공과대학교와 함께 미국 국방성 산하 방위고등연구계획국(DARPA)이 진행하는 GARD(Guaranteeing AI Robustness against Deception) 프로그램에 공동으로 참가한다고 밝혔다.
GARD 프로그램은 ML 모델을 겨냥한 기만 공격용 방어 기술을 개선하기 위해 수백만 달러 상당 자금을 바탕으로 출범한 4년 기간 프로그램이다. GARD는 기만 공격에 대비해 엄격한 기준의 ML 방어 기술을 만드는 것이 목표다. 인텔은 GARD 프로그램 주계약업체다. 조지아공과대학교와 함께 GARD 프로그램 1단계에서 공간적, 시간적, 의미론적 일관성을 기반으로 정지 화상 및 영상 자료를 통해 객체 탐지 기술을 강화하고 있다.
현재 방어 체계는 사전 정의된 특정 공격을 막는 것에 집중돼 있다. 따라서 사전 정의 범주 외 공격에는 취약하다. GARD는 ML 모델이 데이터를 잘못 해석할 수 있는 시나리오를 기반으로 가능한 많은 공격을 다루는 방어 체계를 개발할 방침이다.
제이슨 마틴 인텔 랩스 수석 엔지니어는 "인텔과 조지아공과대학은 AI와 ML 취약성에 대한 생태계 공동의 이해와 완화 능력을 올리기 위해 협력하고 있다"고 설명했다.
저작권자 © 전자부품 전문 미디어 디일렉 무단전재 및 재배포 금지