[미디어스=김홍열 칼럼] 지난 6일 개인정보 보호에 관한 사무를 독립적으로 수행하기 위해 만들어진 국무총리 산하 개인정보보호위원회(개인정보위)가 흥미로운 보도자료를 발표했다. ‘인공지능(AI)시대, 개인정보 안전장치 시행된다’라는 제목의 열두 페이지짜리 보도자료에서 개인정보위는 개인정보보호법 시행령 개정안이 3월 6일 국무회의에서 의결되어 앞으로는 AI가 결정한 사항에 대하여 정보 주체인 국민이 거부할 수 있게 되었다고 밝히고 있다. 즉 사람이 최종 결정하지 않고 AI가 ‘독자적으로’ 결정한 것에 관해서는 설명 또는 검토 요구를 할 수 있고 중요한 사안에 대해서는 거부할 수 있게 법적 제도를 만들어 놓았다는 것이다. 

개인정보위는 보도자료에서 사람이 이의를 제기할 수 있는 AI의 자동화된 결정의 사례로 세 가지를 들었다. 첫 번째는 AI 면접만을 통해서 응시자의 개인정보를 분석하여 불합격 결정을 하는 경우다. 두 번째는 AI 배차 등의 분야에서 개인정보 분석 등의 처리 과정을 거쳐 계약 해지 등 불이익을 주는 결정을 한 경우다. 세 번째는 공공기관이 복지수당 지급 후 ‘AI 부정수급자 탐지시스템’만으로 수급자의 개인정보를 분석하는 처리 과정을 통해, 수급자에 대한 복지수당 지급을 취소하는 최종 결정을 한 경우다. 개인정보위는 쉬운 이해를 위해 세 개의 사례를 열거했지만 한마디로 말하면 사람의 최종 판단 없는 결정에 대해서 이의를 제기할 수 있다는 내용이다. 

2022년 4월 21일 서울 강남구 세텍(SETEC)에서 열린 2022 상반기 글로벌일자리대전에서 구직자가 AI 모의면접을 보고 있다. [연합뉴스 자료사진]
2022년 4월 21일 서울 강남구 세텍(SETEC)에서 열린 2022 상반기 글로벌일자리대전에서 구직자가 AI 모의면접을 보고 있다. [연합뉴스 자료사진]

개인정보위가 위 세 개의 사례를 열거한 이유는 실제 이와 같은 일이 발생하고 있기 때문이다. AI 면접관의 경우 실제 도입되어 운영하는 기업들이 여러 곳 있고, 도입에 따른 사회적 문제 역시 존재하고 있다. 그러나 이런 경우 대부분의 기업은 AI는 단지 자료 검토 및 분석 차원에서 활용할 뿐 최종 결정은 경영진이 내린다고 주장하고 있다. 사실 그 내막을 정확히 알기란 쉽지 않다. 불합격한 면접대상자의 처지에서는 이의를 제기하기도 쉽지 않다. 채용에 관한 모든 권리는 기업에 있다는 것이 일반적 통념이기 때문이다. 일부 석연치 않은 과정이 분명히 있다고 해도 구체적 물증을 확보하기란 사실상 불가능하다. 

그러나 두 번째 사례는 좀 다르다. 대리운전이나 택시, 배달 서비스의 경우 플랫폼 회사의 AI 시스템에 의해 불이익을 받을 수 있고 불이익으로 판명될 경우 어느 정도는 입증이 가능할 수도 있다. 같은 일을 하는 다른 사람들의 데이터를 분석하면 비교할 수 있고 그 과정에서 불이익 여부를 판단할 수도 있다. 넓은 의미의 긱 노동자(Gig worker)에 포함되는 이들 플랫폼 노동자들은 노동조합 등과 같은 사회적 연대를 조직하는 경우도 있어 AI 할당 시스템의 알고리즘 공개를 요구하기도 하고 필요시 시스템 개선 내용을 단체 협약에 포함하기도 한다. 실제로 카카오모빌리티와 택시 4단체가 AI 배차 시스템 도입을 협의하기로 한 사례도 있다. 

이미지 출처=Pixabay.com
이미지 출처=Pixabay.com

세 번째 사례는 AI의 결정이 복지수당 지급 중단과 같은 중대한 영향을 미치는 경우다. 이런 케이스가 발생하면 결정 주체와 상관없이 피해자는 동원할 수 있는 모든 법적, 제도적 장치들을 활용해 문제를 제기하게 된다. 문제를 제기하고 규명하는 과정에서 AI에 의한 자동화된 결정의 결과라고 확인되면 AI 운영 기관은 그에 합당한 책임을 지고 즉시 개선안을 마련해야 한다. 최종 결정은 책임질 수 있는 주체가 법과 양심에 따라 실행하는 고도의 판단행위다. 일단 결정하면 그에 따르는 모든 책임을 져야 하는데 책임을 물을 수 없는 AI에게 중요한 결정을 맡기고 방관한다는 것은 분명 문제가 있다. 

개인정보 보호가 주 업무인 개인정보위가 위와 같은 정책을 추진한 이유는 일견 분명해 보인다. 국민 대다수는 자신의 개인정보가 어떤 과정을 거쳐 어떻게 이용되는지 잘 모른다. 문제가 발생한 경우 사후적으로 인지하게 되는 경우가 대부분이다. 이 경우에도 적절한 법적 제도적 구제장치가 없어 막대한 비용을 들어 변호사를 선임하거나 불이익을 감내하는 수밖에 없다. 이를 예방하거나 사후에라도 관련 법령에 의해 구제받을 수 있도록 시행령 개정을 통해 최소장치를 마련한 것이다. 이런 의도는 보도자료에 잘 나와 있다. 개인정보처리자는 “정보주체인 국민의 요구가 있는 경우에는 어떤 기준과 절차에 따라 개인정보를 처리하고 결정이 이루어졌는지를 설명” 할 의무가 있다. 

개인정보보호위원회 명패 [개인정보보호위원회 제공=연합뉴스]
개인정보보호위원회 명패 [개인정보보호위원회 제공=연합뉴스]

그러나 개인정보위의 이번 정책 배경에는 '개인정보 보호'라는 취지 말고 좀 더 본질적 측면이 있다. 개인정보위는 ‘사람의 개입 없이 이루어지는 완전히 자동화된 결정’이 근본적으로 불완전할 수 있다는 것을 이해하고 있다. 불완전하기 때문에 최종 결정을 AI에 위임해서는 안 되고, 불가피하게 또는 특수한 상황에서 결정을 위임한 경우에라도 그 피해 또는 사후 뒤처리 등의 책임 주체는 반드시 '사람'이어야 한다는 것을 명문화한 것이다. 개인정보위의 이번 조치가 실제 현장에서 효력을 발휘할지는 지켜봐야 하겠지만, 적어도 AI에 의한 결정 남발을 막을 수 있는 하나의 장치인 것만은 분명해 보인다. 

☞ 네이버 뉴스스탠드에서 ‘미디어스’를 만나보세요~ 구독하기 클릭! 

저작권자 © 미디어스 무단전재 및 재배포 금지