AI 개발 과정에 ‘보안내재화’ 원칙 천명... 설계‧운영 등 단계별 행동 요령 상세 제시
국정원, “주요 사이버안보기관 간 협력해 AI 안전성 위협 대비”
국정원, “주요 사이버안보기관 간 협력해 AI 안전성 위협 대비”
국가정보원은 영국 국가사이버안보센터(NCSC), 미국 사이버안보‧인프라보호청(CISA) 및 파이브아이즈(Five-Eyes)를 비롯한 주요국 23개 기관이 참여한 ‘안전한 AI 시스템 개발 가이드라인’을 공동으로 발표했다고 28일 밝혔다.
국정원에 따르면, 해당 가이드라인은 英 NCSC‧美 CISA가 주도하고 국정원 등 주요국 사이버안보 기관이 협력 파트너로 대거 참여했다. 지침서에는 AI 시스템 제공업체의 IT 기술자들이 안전하게 개발하는 데 도움을 주는 실용적인 조언 등이 담겨있다.
구체적으로 개발 과정 전반에 걸쳐 ‘보안내재화’를 강조하면서 ▲보안에 대한 책임 ▲책임성‧투명성 보장 ▲기업 영업 시 보안내재화 최우선적 고려 등 3개 원칙을 제시했다. 또 안전한 AI 시스템 개발 방법에 대해 설계‧개발‧배포‧운영 등 4단계로 구분해 각 단계별로 상세한 조치 사항을 알려준다.
백종욱 국정원 3차장은 “국정원은 주요국들과 사이버안보 파트너십을 바탕으로 AI 등 신기술 등장에 따른 ‘신종 공격 위협’에 적극 대응해 나갈 계획”이라고 밝혔다. [김성태 마켓뉴스 기자]
저작권자 © 마켓뉴스 무단전재 및 재배포 금지