본문 바로가기 메인메뉴 바로가기

전자정부이 누리집은 대한민국 공식 전자정부 누리집입니다.

브리핑룸

콘텐츠 영역

인공지능(AI) 시대의 개인정보보호, 체계적인 리스크 평가·관리 방안 모색

2024.11.21 개인정보보호위원회
글자크기 설정
목록

인공지능(AI) 시대의 개인정보보호, 체계적인 리스크 평가·관리 방안 모색

- 개인정보위, AI 프라이버시 민·관 정책협의회 제3차 전체회의 개최

- AI 프라이버시 리스크 평가·관리 모델 마련, 생체인식정보 규율체계 개선 등 안전하고 책임감 있는 AI 활용을 지원



  인공지능 시대에 AI 기업의 자율적인 프라이버시 위험관리를 지원하고, 생체인식기술의 안전한 활용 방안을 모색하기 위해 민관이 머리를 맞댄다.


  개인정보보호위원회(위원장 고학수, 이하 ‘개인정보위’)는 11월 22일(금) 오전, 민간 전문가 및 관계부처 등이 참석한 가운데 「AI 프라이버시 민·관 정책협의회*」(이하 ‘정책협의회’) 제3차 전체회의(이하 ‘전체회의’)를 개최하고 「인공지능(AI) 프라이버시 리스크 평가·관리 모델(안)」, 「생체인식정보 규율체계 개선(안)」에 대해 논의한다고 밝혔다.


   * 학계, 법조계, 산업계, 시민단체 등 AI 분야 차세대 전문가로 구성되었고, ▲1분과(데이터 처리기준) ▲2분과(리스크 평가) ▲3분과(투명성 확보) 운영 중(‘23.10월~)


  먼저 「인공지능(AI) 프라이버시 리스크 평가·관리 모델(안)」에 대한 논의가 시작된 것은, 최근 AI 기술이 기술적 혁신을 넘어 국민의 일상, 사회·경제 전반에 깊숙이 영향을 미침에 따라 AI 위험을 적정 관리해야 하고, 특히 AI 기술이 개인정보를 포함하는 대규모 데이터에 기초하고 있어 전통적 방식과는 다른 복잡한 데이터처리를 수반함에 따라 AI의 대표적 위험 중 하나로 프라이버시 위협이 대두되고 있기 때문이다.


  이에 개인정보위는 AI 기업 등의 자율적인 프라이버시 위험관리를 지원하고자 「인공지능(AI) 프라이버시 리스크 평가·관리 모델(안)」을 준비해왔다. AI 기업 등은 동 모델을 자율적으로 참고하여 개별 AI 모델·서비스의 용례, 처리하는 데이터의 특성 등 구체적 맥락에 따라 보다 안전하고 책임감 있는 리스크 관리체계를 구축할 수 있다.


  동 모델은 지난해 12월부터 정책협의회 2분과(리스크 평가 분과) 논의를 중심으로, 국내외 학계, 정부, 연구기관 등에서 논의되고 있는 AI 데이터처리 특성, 프라이버시 위험의 유형, AI 리스크 관리체계 등에 대한 종합적 검토를 토대로 마련되었다.


  이번 전체회의에서는 동 모델 초안에 담긴 AI 프라이버시 리스크 평가의 절차, 리스크의 유형 및 리스크 경감 방안, 리스크 평가·관리 체계 등을 공유하고 의견을 수렴한다. 개인정보위는 이날 민간 전문가 및 관계부처 등에서 제시된 의견을 검토·반영하여 12월 중 「인공지능(AI) 프라이버시 리스크 평가·관리 모델」 최종안을 발표할 예정이다.


  아울러, 「생체인식정보 규율체계 개선(안)」에 대해서도 논의한다. 최근 얼굴·음성·지문 등 생체정보를 이용한 생체인식 기술(출입통제·금융결제·AI 음성비서 등)이 다양한 영역에서 활용되고 있으나, 생체인식정보는 그 자체로 개인식별이 가능하고 변경 불가능하여, 다른 정보에 비해 오·남용 및 유출에 따른 위험이 더 크다. 이에 따라 생체인식정보의 처리요건이 엄격하게 규율되어 있어 관련 기술 발전에 비해 활용에 제약이 있었다. 


  이에 개인정보위는 지난해부터 학계, 법조계, 산업계 전문가들로 구성된 연구반을 중심으로, 산업의 발전과 정보주체의 권리보호를 균형있게 고려하여 안전하게 생체인식정보 활용할 수 있는 방안을 마련해왔다. 이번 개선안에는 생체인식정보의 명확한 정의 규정, 합리적 처리요건, 공개된 장소에서 불특정 다수에 대한 실시간 얼굴인식 제한 규정 등을 반영하였다. 이번 전체회의 논의를 통해 제시된 시민단체, 관계부처, 전문가들의 의견을 반영하여 생체인식정보의 합리적 규율체계(안) 역시 12월 중 마련할 계획이다.


  박상철 서울대 교수(리스크 평가 분과장)는 “전세계적으로 빠르게 발전하는 AI 기술과 기존 개인정보보호 규제 간에 간극과 긴장이 발생하고 있어 대응이 필요한 시점이다.”라며, “국내외 정책, 연구 선례가 부족한 상황에서 각계 전문가와 함께 유연하고 체계적인 프라이버시 리스크 평가·관리체계를 제시했다는 점에서 의미가 있다.”라고 밝혔다.


  배경훈 정책협의회 공동의장(LG AI연구원장)은 “개인정보 보호와 AI 기술 발전의 균형을 맞추고, 이해관계자의 합의에 이르는 것이 매우 중요하다.”라며, “이번에 제안된 「AI 프라이버시 리스크 평가·관리 모델」은 기업들이 자율적으로 위험 요소를 평가하고 관리하는 데에 있어 유용한 기준이 될 것이며, 특히 사용 목적에 따라 차별화된 리스크의 평가, 관리 방안이 제시됨으로써, 기업들에게는 실질적인 도움이 될 것으로 기대한다.”고 밝혔다.


  고학수 개인정보위 위원장은 “기술의 사회적 편익과 위험이 복잡하게 얽혀있는 AI 환경에서는 구체적 맥락에 따라 프라이버시 리스크를 식별하고 관리하는 기업의 책임 있는 노력이 특히 강조된다.”라며,


  “개인정보위는 AI 기업 등이 잠재적 위협과 그로 인한 영향을 사전에 고려하는 리스크 기반 접근 방식(Risk-based approach)을 실천하면서 혁신 활동을 지속할 수 있도록 적극 지원하겠다.”라고 밝혔다.



* 기타 자세한 내용은 첨부파일을 확인해주시기 바랍니다.


- 담당자 : 인공지능프라이버시팀 임수연(02-2100-3078)

             신기술개인정보과 김지영(02-2100-3062)

“이 자료는 개인정보보호위원회의 보도자료를 전재하여 제공함을 알려드립니다.”

이전다음기사

다음기사[보도자료] 기업현장 규제 불편 해소방안 보도자료

히단 배너 영역

추천 뉴스

국민과 함께하는 민생토론회
정부정책 사실은 이렇습니다

많이 본, 최신, 오늘의 영상 , 오늘의 사진

정책브리핑 게시물 운영원칙에 따라 다음과 같은 게시물은 삭제 또는 계정이 차단 될 수 있습니다.

  • 1. 타인의 메일주소, 전화번호, 주민등록번호 등의 개인정보 또는 해당 정보를 게재하는 경우
  • 2. 확인되지 않은 내용으로 타인의 명예를 훼손시키는 경우
  • 3. 공공질서 및 미풍양속에 위반되는 내용을 유포하거나 링크시키는 경우
  • 4. 욕설 및 비속어의 사용 및 특정 인종, 성별, 지역 또는 특정한 정치적 견해를 비하하는 용어를 게시하는 경우
  • 5. 불법복제, 바이러스, 해킹 등을 조장하는 내용인 경우
  • 6. 영리를 목적으로 하는 광고 또는 특정 개인(단체)의 홍보성 글인 경우
  • 7. 타인의 저작물(기사, 사진 등 링크)을 무단으로 게시하여 저작권 침해에 해당하는 글
  • 8. 범죄와 관련있거나 범죄를 유도하는 행위 및 관련 내용을 게시한 경우
  • 9. 공인이나 특정이슈와 관련된 당사자 및 당사자의 주변인, 지인 등을 가장 또는 사칭하여 글을 게시하는 경우
  • 10. 해당 기사나 게시글의 내용과 관련없는 특정 의견, 주장, 정보 등을 게시하는 경우
  • 11. 동일한 제목, 내용의 글 또는 일부분만 변경해서 글을 반복 게재하는 경우
  • 12. 기타 관계법령에 위배된다고 판단되는 경우
  • 13. 수사기관 등의 공식적인 요청이 있는 경우