line

미디어스

Updated 2021.9.19 일 13:09
상단여백
HOME 뉴스 뉴스
방통위의 AI 추천 서비스 '자율규제' 원칙, 반응은알고리즘 공개 제외, 소비자단체 "실효성 의문"… 플랫폼 업계 "시장논리 반해"
송창한 기자 | 승인 2021.05.20 22:56

[미디어스=송창한 기자] 방송통신위원회가 '인공지능(AI) 기반 추천 서비스 이용자 보호를 위한 기본원칙(안)'을 공개했다. 투명성·공정성·책무성을 기본원칙으로 미디어 콘텐츠 추천 서비스 제공자(플랫폼 사업자 등)가 자율적인 조치에 나서도록 하는 안이다. 

방통위와 정보통신정책연구원(KISDI)은 20일 오후 서울 더케이호텔에서 '인공지능 기반 추천 서비스 이용자 보호를 위한 기본원칙(안)' 공개 토론회를 개최했다. 방통위는 지난해 말부터 AI 알고리즘 기반 추천 서비스에 의해 발생하는 차별, 편향, 불공정성 등의 역기능으로부터 이용자를 보호하기 위한 기본원칙 마련에 나섰다. 방통위는 각계 전문가로 구성된 협의회를 출범시키고 관련 논의와 의견수렴을 진행해왔다. 

권은정 KISDI 부연구위원이 20일 서울 더케이호텔에서 열린 '인공지능 기반 추천 서비스 이용자 보호를 위한 기본원칙(안)' 공개 토론회에 기본원칙을 설명하고 있다. (방송통신위원회 유튜브 방송화면 갈무리)

이날 권은정 KISDI 부연구위원 발표에 따르면 기본 원칙은 투명성·공정성·책무성 등이다. 이에 따라 ▲이용자를 위한 정보공개 ▲이용자 선택권 보장 ▲자율검증 실행 ▲불만처리·분쟁 해결 ▲내부규제 제정 등 총 5가지 실행원칙이 마련됐다. 

기본원칙에 따르면 서비스 제공자는 알고리즘 추천 시스템을 이용해 서비스를 제공하고 있다는 사실을 이용자에게 통지·표시해야 하고, 콘텐츠의 배열순서와 방식을 결정하는 '주요 기준'을 이용자가 이해하기 쉬운 형태로 게시하거나 약관에 명시해야 한다. 이 때 공개하는 '주요 기준'은 알고리즘 자체를 의미하는 것이 아닌 알고리즘이 이용자에게 콘텐츠 추천을 하는 일련의 기준을 의미한다. 

연장선상에서 서비스 제공자는 미디어 콘텐츠를 소비하는 이용자가 콘텐츠 배열 기준과 적용여부 등을 간편하게 수정·변경할 수 있도록 '이용자 선택권'을 보장해야 한다. 

자율규제 측면에서는 서비스 제공자에게 AI 알고리즘 자율검증 체계 구축이 요구된다. 서비스 제공자가 AI 알고리즘으로 발생할 수 있는 위험성을 상시 관리할 수 있도록 하는 방안이다. 서비스 제공자는 AI 추천 서비스가 이용자에게 미치는 영향을 지속 확인·관리하기 위한 내부 전담조직을 마련하고, 서비스가 유발 위험을 사전에 예측·평가해 통제수단을 구축해야 한다. 또 추천 시스템의 개발·적용 과정을 검증 가능한 수준으로 기록·보관해 자율검증 때 활용해야 하고, 자율검증 결과와 후속조치를 포함하는 운영 보고서를 정기적으로 발간해야 한다. 

아울러 서비스 제공자는 AI 추천 서비스에 대한 이용자 불만이나 이용자 간 분쟁을 해결하기 위해 전담조직을 설치해 운영해야 한다. '이용자' 개념에는 소비자에 더해 콘텐츠 제공자도 포함된다. 추천 시스템 운영과 관리에 관한 내부규칙은 자율적으로 제정해 공개하도록 했다.  

권 부연구위원은 이번 기본원칙은 '선언'의 의미가 큰 만큼 향후 기본원칙 실행을 위한 가이드라인 마련 등의 과정에서 사업자·콘텐츠별로 원칙 적용을 달리해야 하는 과제가 남았다고 설명했다. 

추상적인 기본원칙, 투명성·공정성·책무성의 실현 가능성은 

이어진 토론에서 구체적 실행단계에서 발생할 수 있는 제도적 불확실성과 사업자 자율검증의 한계 등이 문제로 지적됐다. 이수영 카이스트 교수는 "공정성 실행원칙은 이용자 선택권과 충돌할 수 있는 가능성이 있다. 예를 들어 공상과학영화를 많이 보면, 공상과학영화만 추천하는 것이 과연 공정한가"라며 "추천 시스템의 가장 큰 위험요소는 이용자를 학습시키는 효과, 이용자 편향 증폭 위험인데 그 위험성을 없애고자 하면 이용자 선택권을 보장하지 않는 것이다. 사회적으로 커먼센스(common-sense), 가이드라인이 형성되어야 하고 이를 위해 알고리즘과 주요 기준을 구체화 할 필요가 있다"고 제안했다. 

이 교수는 투명성 원칙에 대해 "AI가 어떤 형태로 개발되어왔는지 확인할 수 있게 해달라는 요구와 AI가 어떤 이유로 추천하게 됐느냐를 설명할 수 있어야 한다는 요구가 섞여 있다"면서 "AI 학습 데이터를 어떻게 구성했고, 이를 어떻게 가공해 학습에 사용했느냐에 대한 명확한 과정을 설명해주는 것이 투명성에서 핵심요소가 될 수 있을 것"이라고 했다. 

황용석 건국대 교수는 "추상의 개념을 구체화할 때 개념누수가 생긴다"며 "공정성 개념은 확률적 판단의 개념과 사회적 공정의 개념이 다의적으로 충돌하면서 가장 논쟁이 많다. 책무성은 수행가능한 책무의 수준이 기업 단위로 굉장히 다르다"고 지적했다. 

이수영 카이스트 교수(왼쪽), 윤혜선 한양대 교수 (방송통신위원회 유튜브 방송화면 갈무리)

윤혜선 한양대 교수는 "자율적 실천규범의 형태를 띠고 있는 이 원칙은 개발혁신 리스크 관리수단으로 고려하는 오늘날의 규제논의 동향에도 부합하는 합리적 방안"이라고 평가하면서도 자율검증을 서비스 제공자에게 맡기는 것은 한계가 있다고 밝혔다. 

윤 교수는 "대부분의 기업이 리스크를 평가하고 있지만 규제적 차원에서 리스크를 관리하기 위한 평가는 제3의 독립적 기관에서 객관적으로 이뤄져야 한다는 게 정론"이라며 "평가의 객관성 훼손이 우려된다. 기술에 대한 리스크 평가는 공신력 제3의 기관에서 수행하고 그 결과에 상응하는 리스크 관리 조치를 플랫폼 사업자에게 권고하는 것이 더 나은 접근"이라고 강조했다. 

이어 윤 교수는 사업자가 자율적으로 원칙을 준수할만한 인센티브가 보이지 않는다며 "실행지침을 만들 때 사업잗르이 준수할 수 있도록 노력을 기울여달라. 국내 사업자를 위한 재원적·정책적 지원마련이 필요하다"고 조언했다.

플랫폼 업계 "시장논리 반해"…소비자단체 "알고리즘 공개해야"

플랫폼 업계 관계자들은 방통위 기본원칙안에 대해 반대입장을 분명히 했다. 시장경제 논리와 소비자 선택에 반하는 원칙으로 국내 플랫폼 업계 경쟁력을 저하시킬 수 있다는 주장이다. 

권세화 한국인터넷기업협회 실장은 "회사는 이윤을 창출하는 곳이다. 디지털미디어 추천은 소비자에게 더 좋은 제품을 소개해 수익을 창출하는 데에 목적이 있다"며 "이번 기본원칙은 시장경제논리에 반한다. 경쟁시장의 특수성을 무시한 채 모두에게 똑같은 추천 결과가 나와야 하는 것인지, 그것이 공정한 것인지 의문"이라고 말했다. 

또한 권 실장은 방통위 기본원칙이 기업의 영업기밀과 경영을 침해하는 안이라고 목소리를 높였다. 권 실장은 "알고리즘을 제외한다고 돼 있지만 결국 기업의 영업기밀 하나하나를 공개하게 할 여지가 있다. 또 내부 전담조직을 운영하게 해 사실상 정부가 언젠가 기업을 관리하고 감독하겠다는 의지"라며 "통제가능한 범위 내에서 AI를 성장시키고 규율하려는 것으로 보여 우려스럽다"고 했다. 

권 실장은 콘텐츠 제공자와 이용자 간 분쟁까지 AI 알고리즘 추천 서비스 문제로 볼 수 없다며 사실상 분쟁관리에 대해 문제를 제기했다. 권 실장은 "가령 우수한 콘텐츠 소비하고 싶은 소비자 욕구와 소비자의 선택을 받지 못한 콘텐츠도 유통하고 싶은 공급자가 서로 충돌하게 될 것이다. 어느쪽도 불만이 나올 수 있다"며 "소비자 선택에 대한 인과적 요소는 배제한 채 불만이라는 이름으로 모든 서비스와 피해를 추천서비스 때문에 나타났다고 하는 건 지나친 발상"이라고 했다. 

박정석 KT 정책팀장은 "미디어 추천이 잘못될 경우 위험성에 대한 논의가 필요한데, 폭력적인 비디오를 많이 볼 수 있는 사람에게 그런 비디오를 추천할 때 이것이 과연 리스크인가"라며 "모든 추천의 기본은 그 사람이 좋아하는 것을 많이 보여 주는 것이다. 그 사람의 성향이고, 성인이 해당 콘텐츠를 보겠다고 돈을 지불했는데 관련 콘텐츠를 추천하는 것이 과연 리스크일 수 있냐는 것"이라고 말했다. 

권세화 한국인터넷기업협회 실장(왼쪽), 정지연 한국소비자연맹 사무총장 (방송통신위원회 유튜브 방송화면)

그러나 소비자시민사회의 지적은 플랫폼 업계 주장과 달랐다. 정지연 한국소비자연맹 사무총장은 "방통위가 마련한 핵심원칙과 실행원칙에 대체적으로 공감하지만, 투명성 부분에 있어 알고리즘을 제외하는 부분을 강조하고 있는 것이 의문"이라며 "AI 기반 추천서비스의 핵심은 알고리즘이다. 어떤 문제가 발생했을 때 기업들이 알고리즘이라고 뒤에 숨는 경우를 너무 많이 봐왔다"고 지적했다. 

정 사무총장은 "콘텐츠 자동배열 주요기준이 담기더라도 알고리즘 제외를 지나치게 강조하고 있어 자칫 이용자 보호라는 본질을 빗겨나지 않을지 우려된다"면서 "소비자 AI 추천서비스 거부 권리도 분명하게 보장되어야 한다. 어린이·청소년의 경우 성인에 비해 합리적 구매 판단이 미흡할 수 있기 때문에 이에 대한 대안마련도 함께 고민해달라"고 주문했다. 

윤명 소미자시민모임 사무총장은 공정성 원칙에 대해 사회적 합의가 필요하다는 데에는 공감을 표하면서도 책무성 원칙에 대해서는 주체를 분명히 해야한다고 강조했다. 윤 사무총장은 "소비자의 기본적인 알권리와 선택할 권리를 지향하는 차원에서 책무성은 가장 중요한 기본원칙이다. 문제가 발생했을 때 책임지는 주체가 명확해져야 한다"며 "개발자, 서비스 제공자 등등이 있으면 소비자가 문제제기를 누구에게 해야하고, 누가 책임질 것인가를 규정하는 것에 대해 고민해야 한다"고 말했다. 

이어 윤 사무총장은 "책무성에 있어 이용자와 기업 간 정보의 비대칭성이 너무도 크기 때문에 문제 발생 시에 소비자가 문제를 판단하고 증명할 수 없다"며 "이때 기업이 제시하는 방법들을 소비자가 신뢰할 수 있는가도 고민이다. 객관적으로 신뢰할 수 있는 규제기구나 관련 논의기구가 지속적으로 필요할 것"이라고 덧붙였다. 

☞ 네이버 뉴스스탠드에서 ‘미디어스’를 만나보세요~ 구독하기 클릭!

송창한 기자  sch6966@gmail.com

<저작권자 © 미디어스, 무단 전재 및 재배포 금지>

송창한 기자의 다른기사 보기
icon인기기사
기사 댓글 0
전체보기
첫번째 댓글을 남겨주세요.
여백
여백
여백
여백

서울특별시 영등포구 국회대로 72길 22 가든빌딩 608호 (우) 07238  |  대표전화 : 02-734-9500  |  팩스 : 02-734-2299
등록번호 : 서울 아 00441  |  등록일 : 2007년 10월 1일  |  발행인 : 안현우  |  개인정보책임자 : 안현우  |  청소년보호책임자 : 윤수현

「열린보도원칙」 당 매체는 독자와 취재원 등 뉴스이용자의 권리 보장을 위해 반론이나 정정 보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알려드립니다.
고충처리인 안현우 02-734-9500 webmaster@mediaus.co.kr

미디어스 후원 계좌 안내 : 하나은행 777-910027-50604 안현우(미디어스)
Copyright © 2011-2021 미디어스. All rights reserved. mail to webmaster@mediaus.co.kr

ND소프트
Back to Top