인공지능(AI) 시대에 필요한 개인정보 보호 체계를 선진화하기 위해 민·관이 함께 머리를 맞댔다.
개인정보보호위원회는 8일 서울 서초구에 있는 서울 AI 허브에서 민간 전문가와 유관 부처 관계자 등이 참석한 가운데 인공지능 프라이버시 민·관 정책협의회 제4차 전체회의를 열어 인공지능 프라이버시 리스크 진단 및 인증 방안 연구와 생성형 인공지능 개발·활용을 위한 개인정보 처리 안내서(안)에 대해 논의했다고 밝혔다.
개인정보보호위원회는 7월 8일 오후 서울 서초구 서울 AI 허브에서 AI 프라이버시 민·관 정책협의회 전체회의를 개최했다.(제공=개인정보위원회)
이번 회의는 인공지능(AI) 대전환이라는 시대적 흐름과 신기술 발전에 걸맞게 개인정보 보호 체계의 선진화를 위한 '신뢰' 기반의 가드레일 구축 방안을 마련하기 위해 개최했다.
인공지능의 발전은 국민 일상에 편의성과 혁신을 안겨주고 있지만 지속가능한 발전을 위해서는 기술로부터 발생할 수 있는 개인정보 침해 위험 등 잠재적 부작용을 예방하고 완화할 수 있는 제도적 안전장치가 필요하다.
개인정보위는 지난해 12월 인공지능 프라이버시 리스크 관리 모델을 통해 인공지능 모델에 내재한 프라이버시 리스크 관리 절차와 리스크 유형 및 경감 조치 등을 안내한 바 있다.
다만, 이를 체계적으로 진단·측정할 수 있는 기준 제시는 후속 과제로 유보해 현재 국내 인공지능 환경에 적합한 사전적·예방적 관점의 구체적 안전관리 체계 구축 방안을 다방면에서 검토하고 있다.
이번 전체회의에서 김병필 카이스트 교수(정책협의회 1분과장)는 인공지능 프라이버시 리스크에 대한 구체적 진단과 인증 방안에 대해 제언했다.
이 자리에서는 산업계·학계 중심으로 논의되는 프라이버시 리스크 진단의 최신 기술 및 우수 사례를 비교·분석한 결과와 인공지능에 내재된 프라이버시 리스크를 체계적으로 진단·평가할 수 있는 프레임워크 구축 방안 등에 대한 관점을 공유했다.
개인정보위는 이날 제시한 의견을 검토·반영하고, 후속 정책연구를 추진해 향후 인공지능 프라이버시 리스크에 대한 체계적 진단·평가 체계 기반 마련을 위한 구체적인 방법론을 마련할 계획이다.
이와 함께, 생성형 인공지능 개발·활용을 위한 개인정보 처리 안내서(안)도 논의했다.
이번 안내서에는 생성형 인공지능의 수명주기 각 단계에서 개인정보 처리 및 보호를 위해 고려해야 할 적법성·안전성 확보 기준 등을 소개해 현장의 법적 불확실성을 최소화하고, 생성형 인공지능 개발·활용에 개인정보 보호 관점이 체계적으로 반영될 수 있도록 했다.
특히, 이 안내서 내용들이 실무 현장에 곧바로 적용할 수 있도록 ▲생성형 인공지능 관련 개인정보 보호법 주요 내용 ▲인공지능 개인정보 처리 안내서 ▲조사·처분 등 집행 사례 ▲규제샌드박스 등 혁신지원 사례를 포함한 그동안의 정책적 경험을 활용해 인공지능 개발·구현 단계에 맞춰 도출한 개인정보 처리 및 보호 관련 고려 사항을 알기 쉽게 안내했다.
또한, 미국·영국·유럽연합(EU) 등 주요국 최신 정책자료를 참고해 국제적 흐름도 반영했다.
생성형 인공지능 개발·활용 단계별 고려 사항(제공=개인정보위원회)
개인정보위는 이번 전체회의 논의에서 제시된 시민단체, 관계부처, 전문가들의 의견을 반영해 생성형 인공지능 개발·활용을 위한 개인정보 처리 안내서를 이달 말까지 마련할 계획이다.
고학수 개인정보위 위원장은 "안전한 가드레일 구축은 신뢰할 수 있는 인공지능 발전의 선결 조건이며, 이러한 전제를 바탕으로 인공지능 혁신을 위한 프라이버시와 프라이버시를 위한 인공지능 혁신이라는 두 과제가 상호 발전적인 관계 속에서 기술 수용성과 사회적 신뢰를 높이는 기제가 될 수 있을 것"이라고 밝혔다.