개인정보보호위원회는 생성형 인공지능(AI) 서비스를 개발·활용하는 기업과 기관을 위한 개인정보 안전 처리 기준을 마련했다.
개인정보위는 6일 서울 중구 정동 1928 아트센터에서 '생성형 인공지능과 프라이버시' 오픈 세미나를 개최하고 생성형 인공지능 개발·활용을 위한 개인정보 처리 안내서를 공개했다.
지난 3월 9일 서울 중구 동대문디자인플라자(DDP) 아트홀1관에서 열린 '서울 AI페스타 2025'에서 참가자들이 생성형 인공지능(AI) 기반 인간로봇상호작용(HRI)를 체험하고 있다.(사진=저작권자(c) 연합뉴스, 무단 전재-재배포 금지)
개인정보위는 안내서가 생성형 인공지능 개발과 활용의 전 과정에서 개인정보 보호법 적용의 불확실성을 해소하고, 기업·기관의 자율적 법준수 역량을 높이는 데 큰 역할을 할 것으로 보고 있다.
챗GPT 등 상용 대규모언어모델(LLM) 서비스를 활용하거나 라마(Llama) 등의 오픈소스 LLM을 미세조정해 서비스를 개발·제공하는 사업자 등이 안내서를 활용할 수 있다.
우리나라에 축적된 의료·공공·금융분야 등의 데이터는 세계 최고 수준이며, 이들 데이터는 생성형 인공지능 발전을 견인하는 핵심 재료로 활용된다.
그러나 생성형 AI의 발전은 프라이버시 침해 위험을 동반할 우려가 있어 개인정보 처리에 관한 명확한 기준 마련이 필수다.
일선 현장에서도 생성형 인공지능 활용과 관련한 개인정보 보호법 적용의 불확실성을 해소할 수 있는 체계적 안내가 필요하다는 요구가 제기돼 왔다.
이에 개인정보위는 올해 초부터 내부 검토와 외부 전문가 의견 수렴으로 안내서 초안을 마련하고 AI 프라이버시 민·관 정책협의회와 개인정보위 제16회 전체회의를 거쳐 공개본을 확정했다.
생성형 인공지능 개발·활용 단계별 고려 사항(이미지=개인정보위 제공)
이번 안내서에 개인정보위는 크게 세 가지에 초점을 맞췄다.
먼저, 생성형 인공지능을 개발·활용하는 생애주기를 4단계로 분류하고 단계별로 확인할 최소한의 안전조치를 체계적으로 제시했다.
아울러 인공지능 시스템을 실제로 개발·활용하는 방식과 맥락을 유형화하고 각 유형에 따른 법적 기준과 안전성 확보 기준도 제시했다.
구체적으로 목적 설정 단계에서 인공지능 개발 목적을 명확히 하고, 개인정보 종류·출처별 인공지능 학습에 필요한 적법 근거를 다룬다.
전략 수립 단계는 개발 방식을 나눠 유형별 리스크 경감 방안을 안내한다.
학습 및 개발 단계는 데이터오염, 탈옥 등 리스크를 고려한 다층적 안전조치를 제시하고 인공지능 에이전트의 관리 방안도 포함했다.
적용 및 관리 단계는 정보주체 권리 보장 등을 중점적으로 다룬다.
마지막으로 전체 과정에서의 개인정보 보호 관점을 내재화하기 위해 필수적인 개인정보보호책임자(CPO) 중심의 거버넌스 구축 방안을 제시한다.
이러한 기반에서 기업·기관은 이 과정을 반복하며 시스템을 고도화·개발하는 것을 권장한다.
이어서 개인정보위는 이용자 개인정보를 인공지능에 학습할 수 있는 법적 기준 등 생성형 인공지능 개발·활용 과정에서 불확실성이 높은 이슈들에 대해 개인정보위의 정책 및 집행 사례를 바탕으로 구체적인 해결방안을 제시했다.
그동안 생성형 인공지능에 대한 ▲안내자료 마련 ▲사전실태점검 등 집행 사례 ▲규제샌드박스 및 사전적정성 검토 등을 통해 다양한 정책적 경험을 축적해 구체적 사례에 기반한 법 해석 기준과 안전조치 기준을 안내서에 반영해 유용성을 높였다.
고학수 개인정보위원장은 "명확한 안내서로 실무 현장의 법적 불확실성을 해소하고 생성형 인공지능 개발·활용에 개인정보 보호 관점을 체계적으로 반영할 수 있을 것으로 기대된다"며 "앞으로도 개인정보위는 프라이버시와 혁신 두 가치가 공존할 수 있도록 정책 기반을 마련해 나가겠다"고 밝혔다.