AI(인공지능) 대전환 시대에 발맞춰 인터넷 종합 미디어 <더팩트>와 <개인정보보호법학회>가 손잡고 '인공지능 대전환시대 데이터법제의 발전'을 주제로 한 기획 칼럼 시리즈를 연재합니다. 이번 기획은 AI 혁신을 위한 필수 과제인 데이터의 활용과 보호 간 균형을 맞추는 정교한 법제도 정비의 중요성에 주목했습니다. 특히 AI 시대에 맞는 개인정보보호법 재설계의 필요성에 대한 심도 있는 논의를 이끌어낼 예정입니다. 데이터가 어떻게 수집되고, 활용되며, 보호돼야 하는지에 대해 전문가들의 학문적 분석과 사회적 담론을 제공합니다.<편집자 주>
인공지능(AI)은 이제 국가의 경쟁력과 사회의 신뢰를 좌우하는 핵심 기술이 되었다. AI의 성능은 결국 데이터의 양과 질에서 비롯된다. 아무리 뛰어난 알고리즘이라도 학습할 데이터가 부족하면 정교한 판단이 불가능하다. 문제는 우리 법제가 인공지능 생태계에서 데이터를 원활하게 활용하면서도 권리를 보호하는데 점차 한계를 드러낸다는 점이다. 수백만 건의 데이터가 비선형적으로 결합·분석되는 인공지능 개발 과정에서 데이터 처리의 목적을 미리 특정하고, 개별 동의를 얻는 것은 기술적으로 거의 불가능할 뿐만 아니라 정보주체의 권리보호 관점에서도 무용하다.
그럼에도 현행 법제와 이를 집행하는 주체들은 여전히 ‘사전동의’ 중심의 체계에 과몰입하고 있다. 법원도 개인정보의 합법적 처리를 위한 다른 근거를 해석함에 있어서도 "정보주체의 동의가 있었다고 객관적으로 인정되는 범위내에서만" 허용된다며 엄격해석하고 있다.
AI가 작동하는 방식은 예측과 반복 학습이다. 데이터는 끊임없이 재활용되며, 새로운 연관성과 의미를 생성한다. 그러나 현행 법제는 여전히 데이터를 "한 번 수집, 한 번 이용"의 정적 구조로 이해한다. 이런 괴리는 결국 산업의 위축으로 이어지고 있다. 특히 스타트업과 연구기관들은 법적 불확실성으로 인해 실험을 멈추고, 혁신의 기회를 놓치고 있다. 정부가 ‘규제샌드박스’를 통해 제한된 요건하에 예외를 허용했지만, 제도적 안정성을 보장하지는 못했다.
이러한 한계를 극복하기 위해 최근 인공지능 개발을 위한 개인정보 처리 특례를 신설하는 것을 골자로 하는 개인정보 보호법 개정안(민병덕 의원 대표발의, 고동진 의원 대표발의)이 발의되었다. 인공지능 기술 개발의 목적이 "공공의 이익 증진을 목적으로 하거나 정보주체 또는 제3자의 이익을 보호하거나 인공지능 기술 혁신을 촉진하는" 등 사회적 이익 증진을 목적으로 하는 경우 이미 적법하게 수집된 개인정보 원본을 일정한 요건과 통제 아래 인공지능 개발 및 성능 개선 목적으로 활용할 수 있도록 한 것이다.
익명화나 가명정보로는 기술적 한계가 분명한 영역에서 강화된 안전조치를 전제로 개인정보보호위원회의 사전 심의·의결을 거친 경우에 원본 데이터를 인공지능 개발에 사용할 수 있도록 하자는 취지다. 이는 개인정보에 대한 무제한적 활용이 아닌 행정책임하에서 ‘통제된 활용’을 제도화하려는 것으로 이해된다. 개인정보보호위원회가 심의·의결을 통해 개별 사안을 판단하고, 공익성과 권익 침해 가능성, 안전조치 수준 등을 종합적으로 검토하도록 한 점이 핵심이기 때문이다. 데이터 활용이 극대화되는 디지털 심화기에는 개인정보 문제를 단순히 ‘정보주체 대 정보처리자’의 양자 대립적 관계로만 접근해서는 안된다. 정부가 공적 심사와 감독을 통해 보호와 활용의 균형을 조율하는 행정책임의 영역을 적극 형성해 나가야 한다.
이 법안에 대해 시민단체는 개인정보의 추가적 이용을 광범위한 사유로 허용할 경우, 실질적으로 정보주체의 통제권이 사라지고 기업이 수집한 개인정보를 무제한 활용하는 길을 열어줄 수 있다며 반대하고 있다. 이러한 우려는 과거 일부 기업의 무분별한 데이터 활용으로 국민의 신뢰가 크게 손상된 경험에서 비롯된다. 따라서 특례는 단순한 ‘활용의 확대’가 아니라, ‘활용의 책임화’에 방점을 두어야 하고, 불법적이거나 편법적인 개인정보 처리에 대해서는 지금보다 더 강력한 제재로 응답해야 한다.
특례 법안이 제시하는 체계는 개인정보보호위원회를 중심으로 한 새로운 공적 거버넌스 모델이다. 위원회는 단순한 규제기관이 아니라, 기술혁신의 방향을 사회적 가치와 조화시키는 ‘조정자’의 역할을 수행해야 한다. 시민사회의 감시와 참여가 병행될 때, 특례 제도는 오히려 사회적 신뢰를 회복하는 계기가 될 수 있다. 따라서 심의 절차의 투명성을 강화하고, 승인된 사례와 기준을 공개하며, 정보주체가 AI 학습에 자신의 정보가 활용되었는지를 사후적으로 알 수 있는 절차를 강화하는 것이 중요하다. 개인정보보호위원회는 그간 규제샌드박스 시행을 통해 축적한 경험적 자산을 특례의 적정 운용에 투영하여야 하고, 다시 특례를 통해 검증된 새로운 기준을 개인정보 보호법의 개선을 위한 단초로 활용하는 선순환 구조를 마련해야 한다.
인공지능 시대의 개인정보보호는 ‘통제냐 자유냐’의 이분법으로 접근할 수 없다. 정부가 행정책임을 통해 공익적 조화를 이루어 내야 할 사명의 영역이다. 개인정보보호위원회는 바로 그 조화의 중심축이 되어야 한다.
인공지능 대전환은 거스를 수 없는 시대의 흐름이다. 그러나 기술의 속도를 법과 제도가 따라가지 못할 때, 그 사회는 신뢰를 잃는다. 개인정보 처리 특례는 그 간극을 메우기 위한 사회적 실험이다. 특례의 도입은 단순한 규제의 완화가 아니라, 책임 있는 데이터 활용을 위한 새로운 법적 질서의 시작으로 설계되어야 한다. 법이 기술의 가치를 인정하고, 행정이 사회의 신뢰를 지켜낼 때, 우리는 비로소 AI 강국을 넘어 신뢰받는 디지털 국가로 나아갈 수 있을 것이다.
▶AI 대전환시대 공동 기획 칼럼 관련 시리즈
[기획 칼럼⑬] 인공지능 시대, 개인정보처리 근거로서 ‘계약의 이행’
[기획 칼럼⑫] 인공지능 대전환에 따른 '개인정보 보호법'의 변화 필요성
[기획 칼럼⑪] AI 시대를 사는 정보주체의 개인정보 자기결정권
[기획 칼럼⑩] 아동·청소년의 권리 보호, 잊힐 권리의 보장으로부터
[기획 칼럼⑨] 고인의 사생활 vs 유족의 추억...법의 공백에 방치된 ‘디지털 유산’
발로 뛰는 더팩트는 24시간 여러분의 제보를 기다립니다.
▶카카오톡: '더팩트제보' 검색
▶이메일: jebo@tf.co.kr
▶뉴스 홈페이지: http://talk.tf.co.kr/bbs/report/write