[디지털투데이 백연식 기자] 생성형 인공지능(AI) 모델 개발 시 활용되는 ‘인터넷상 공개 데이터’를 안전하게 처리할 수 있는 정부 차원의 기준이 나왔다.

<!-- -->

개인정보보호위원회는 AI 개발에 필수적인 공개 데이터가 현행 개인정보 규율체계 내에서 적법하고 안전하게 처리될 수 있도록 ‘AI 개발·서비스를 위한 공개된 개인정보 처리 안내서’(이하 ‘안내서’)를 마련해 공개했다.

공개 데이터는 인터넷상 누구나 합법적으로 접근할 수 있는 데이터로서, 챗지피티(ChatGPT) 등 생성형 인공지능(AI)을 개발하기 위한 학습데이터의 핵심원료로 쓰인다. 인공지능(AI) 기업들은 커먼크롤(common crawl), 위키백과(wikipedia), 블로그, 웹사이트 등에 있는 공개 데이터를 웹 스크래핑 등의 방식으로 수집해 AI 학습데이터로 활용하고 있다.

이러한 공개 데이터에는 주소, 고유식별번호, 신용카드번호 등 여러 개인정보(‘공개된 개인정보’)가 포함될 수 있어, 국민의 프라이버시가 침해될 우려가 크다. 하지만 현행 개인정보 보호법(이하 ‘보호법’)에는 이러한 공개된 개인정보 처리에 적용될 수 있는 명확한 기준이 없다.

예를 들어, AI 학습에 공개 데이터가 대규모로 처리되는 상황에서 현행 보호법 상의 정보주체 개별 동의나 계약 체결 등의 조항을 적용하는 것은 사실상 어렵다. 또한 AI 학습이 전통적인 개인정보 처리방식과 다르다 보니, 보호법상의 안전성 확보조치 등의 규정도 그대로 적용하는 것에 일정한 한계가 존재했다.

이에 개인정보위는 공개된 개인정보 수집‧활용의 법적기준을 명확화하고 인공지능(AI) 개발 및 서비스 단계에서 어떤 안전조치를 취하는 것이 적정한지에 대해 기업이 참고할 수 있는 최소한의 기준을 제시하는 안내서를 마련하게 됐다고 밝혔다. 공개된 개인정보를 활용하는 기업들의 개인정보 침해 이슈를 최소화하는 동시에 법적 불확실성을 해소해 기업의 혁신성장을 돕겠다는 취지다.

개인정보위는 지난해 8월 AI 시대 안전한 개인정보 활용 정책방향을 발표한 이후 AI 프라이버시 민·관 정책협의회를 중심으로 안내서에 관한 논의를 진행하는 한편, 학계·산업계·시민단체와도 소통하며 광범위한 의견수렴을 병행했다.

특히, 유럽연합(EU), 미국 등 인공지능(AI) 혁신과 안전의 균형을 꾀하는 해외 주요국에서도 최근 공개 데이터 처리를 포함한 인공지능(AI)·데이터 처리 전반에 대하여 개인정보 보호 규율체계를 형성해나가고 있는 점을 고려해, 국제적으로 상호운용성 있는 기준을 마련하는 데 중점을 뒀다는 것이 개인정보위 측 설명이다.

먼저, 보호법 제15조에 따른 ‘정당한 이익’ 조항에 의해 공개된 개인정보를 AI 학습·서비스 개발에 활용할 수 있다는 점을 분명히 했다.

또한 이러한 ‘정당한 이익’ 조항이 적용되기 위해서는, AI 개발 목적의 정당성, 공개된 개인정보 처리의 필요성, 구체적 이익형량이라는 세 가지 요건을 충족하여야 한다. 개인정보위는 이번 안내서를 통해 세 가지 요건의 내용과 적용사례도 안내했다.

따라서, ‘정당한 이익’ 조항의 합리적 해석기준을 마련하는 것은 유럽연합 일반 개인정보보호법(EU GDPR)이나 최근 AI 안전성 규범 논의 등 글로벌 스탠다드와의 상호 운용성을 높이게 되는 측면이 있다. 영국, 프랑스 등 유럽연합(EU) 주요국도 ‘정당한 이익’이 공개된 개인정보의 처리 근거가 될 수 있다는 입장이다.

또한 개인정보위는 안내서를 통해 AI 기업이 ‘정당한 이익’을 근거로 공개된 개인정보를 처리하기 위해 고려할 수 있는 기술적‧관리적 안전성 확보조치와 정보주체 권리보장 방안을 구체적으로 안내했다.

다만, 빠른 AI 기술변화 등을 고려해세부적 안전조치 등을 유연하게 도입·시행할 수 있도록 했다. AI 기업은 모든 안전조치를 의무적으로 시행해야 하는 것은 아니며, 안내서에 제시된 여러 안전조치의 순기능과 AI 성능저하, 편향성 등 부작용과, 기술 성숙도를 고려하여 기업의 특성에 맞는 안전조치의 최적 조합을 스스로 선택해 이행할 수 있다.

개인정보위는 지난 3월 AI 사전실태점검을 통해 파악한 주요 대규모 언어모델(LLM) 사업자의 실제 안전조치 이행사례를 안내해, 기업이 최적 조합을 판단하는 데 참고할 수 있도록 했다.

개인정보위는 AI 개발을 위한 학습데이터 처리와 관련한 인공지능(AI) 기업과 개인정보보호책임자(CPO)의 역할을 강조했다. 개인정보보호책임자(CPO)를 구심점으로 하는 ‘(가칭)인공지능(AI) 프라이버시 담당조직’을 자율적으로 구성·운영하고 안내서에 따른 기준 충족 여부를 평가하여 그 근거를 작성‧보관하도록 권고했다. AI 성능 개선 등 중대한 기술적 변경이나 개인정보 침해 발생 우려 등 위험 요인을 주기적으로 모니터링하고, 개인정보 유·노출 등 침해사고 발생 시 신속한 권리구제 방안도 마련하도록 했다.

안내서는 추후 개인정보 관련 법령 제·개정, AI 기술발전 추이, 해외 규제정비 동향 등을 고려해 지속 업데이트될 예정이다. 또한 공개된 개인정보와 함께 AI 학습데이터의 주요 원천을 이루는 이용자 개인정보의 적법한 처리 근거와 기준 등에 대해서는 학계, 산업계, 시민단체 등의 의견수렴을 거쳐 구체화해 나갈 방침이다.

이 밖에 개인정보위는 사전적정성 검토제, 규제샌드박스, 개인정보 안심구역 등 혁신지원제도를 통해 AI 기업과 수시로 소통하면서 기술발전과 시장상황을 모니터링하고, 이를 통해 축적된 사례와 경험을 토대로 보호법을 AI 시대에 맞게 정비하는 작업도 추진할 예정이다.

고학수 개인정보위 위원장은 “AI 기술 진보가 빠르게 이루어지고 있지만 AI 개발의 핵심 관건인 공개 데이터 학습이 보호법에 비춰적법하고 안전한지 여부는 공백인 상황이었다”면서 “이번 안내서를 통해 국민이 신뢰하는 AI·데이터 처리 관행을 기업 스스로 만들어 나가고 이렇게 축적된 모범사례가 안내서에 지속적으로 반영될 수 있기를 기대한다”고 말했다.

[db:圖片]