[미디어스=송경재 경희대 공공거버넌스연구소] 공정거래위원회가 10월 6일 국내 1위 포털사인 네이버에 267억 원의 과징금을 부과했다. 공정위는 검색 결과 노출 순위를 부당하게 바꾼 부분을 적발하고, 시정명령과 함께 쇼핑(265억 원), 동영상(2억 원) 등 총 267억 원의 과징금을 부과한다고 밝혔다.

공정위는 조사를 통해 2010년부터 2017년까지 네이버가 쇼핑과 동영상 검색 알고리즘을 인위적으로 바꿔 네이버 관련 동영상과 쇼핑 콘텐츠에 유리하게 했다고 지적했다. 그에 따라 당연히 다른 쇼핑이나 동영상 콘텐츠는 손해를 보게 되었다. 그 결과 공정위는 <독점규제 및 공정거래에 관한 법률> 상의 “시장지배적지위 남용행위 중 다른 사업자의 사업활동 방해행위”에 속한다고 과징금 부과의 이유를 설명했다.

네이버 사옥과 공정위 CI (사진=연합뉴스)

이에 대해 네이버 측은 검색 조작이 아니라 알고리즘 조정과 개선이라고 항변하고 있다. 네이버는 쇼핑이나 동영상 검색 알고리즘을 수시로 개선해왔고, 2010년~2017년 사이에도 50여 차례에 걸친 개선 작업이 있었는데 공정위는 그중에 5개만을 임의로 골라서 조사했다고 지적했다. 검색 알고리즘의 개선은 경쟁사업자를 배제하려는 것이 아니라 전면적인 수정과 조정 과정에서 나타난 현상이라는 것이다. 이를 소명하기 위해 네이버는 행정소송을 제기하겠다고 밝혔다.

결과적으로 이 문제는 법리적 소송전에서 완결될 것으로 보인다. 하지만 분명한 것은 공정위 조사에서도 확인되지만, 결과론적으로 네이버 스마트쇼핑이나 동영상에 유리한 결과가 도출된 것은 분명한 사실이다. 이에 대해서 공정위는 구체적 데이터를 통해서 증명하고 있다. 지난 2018년 네이버 쇼핑 내 오픈마켓 사업자별 노출 점유율(PC 기준)은 네이버가 2015년 대비 12.34%포인트 증가했지만, 경쟁사들은 오히려 감소한 것으로 나타났다. 그리고 2017년 네이버가 동영상 검색 알고리즘 조정에서 최상위에 노출된 네이버 TV 동영상 수는 전주 대비 22% 증가했는데, 동일 기간 티빙은 53%, 곰TV는 51%, 판도라TV는 46% 감소한 것으로 제시해 분명한 증거가 있다고 밝히고 있다.

알고리즘의 신뢰성과 투명성

이번 사건은 단순히 알고리즘에 의한 노출 순위를 바꾼 문제가 중요한 것이 아니다. 더 핵심적인 것은 바로 검색 알고리즘의 투명성과 신뢰성이 근본적으로 부정당했다는 것이다. 네이버는 플랫폼으로서 투명성을 강조했는데 알고리즘을 조작(네이버 주장은 조정이나 개편)할 수 있다는 점이 확인된 것이다. 그렇다면 알고리즘의 인위적 개입이 현시점에서도 검색과 쇼핑, 뉴스 선택과 노출에서도 가능하냐는 의문이 제기되고 있다.

이미 공정위가 검색 알고리즘의 인위적 개입 가능성을 발표하자 일부 언론과 정치권에서는 포털뉴스 배열편집 역시 가능하지 않으냐는 의문을 제기하고 있다. 과거와 같은 알고리즘이 아니라 인공지능(AI)이라고 할지라도 현실적으로 개발자나 편집자가 개입할 소지가 있다는 의혹이다. 결국 이 사건으로 포털뉴스 인공지능 편집의 투명성과 신뢰성 문제가 다시금 수면 위로 떠 오른 것이다.

필자는 이미 오래전부터 인공지능을 이용한 포털뉴스가 저널리즘의 가치 측면이나, 인공지능의 현 기술 수준에서 문제점이 크다고 지적한 바 있다. 그렇지만 여전히 다수 사용자는 인공지능이 과거(인간이 배열하는 방식)보다 편집이나 배열에서 객관적이라고 평가하고 있다. 여기에는 ‘인공지능의 환상’이라고 할 수 있는 지나친 과학기술의 맹신도 한몫하고 있다.

(사진=연합뉴스)

설명할 수 없는 인공지능은 위험하다

보통 인공지능이라고 하면 가치 중립적이고 공정할 것으로 생각하지만 현실은 그렇지 않다. 대표적으로 별도의 추천 알고리즘과 인공지능으로 동영상을 추천하는 유튜브의 경우 오히려 알고리즘이 뉴스의 편향성이나 양극화를 강화한다는 것은 잘 알려진 사실이다. 특정 이슈의 동영상을 시청하면 계속 연관된 뉴스만 나오기 때문에 가치 중립적이지 않은데도, 인간이 아니라 인공지능 알고리즘이 개입됐기에 공정하고 가치 중립적으로 보인다. 그리고 인공지능을 이용한 얼굴 인식에서도 백인이 흑인보다 훨씬 긍정적인 평가를 받는 것으로 나왔다. 이 연구 결과는 아직 인공지능이 인간의 다양한 가치관과 사회적 책임성, 그리고 고려할 가치(인종, 환경, 젠더, 장애인, 노약자 등)에 대해 기계적 평가만이 가능하다는 것을 의미한다.

누누이 강조하지만, 인공지능의 알고리즘도 결국에는 기술자인 인간이 설계하는 것이고, 알고리즘은 부여하는 가중치 조정을 통해서 계속 오류가 수정된다. 인공지능이 절대 가치 중립적이지 않은데 사용자들은 인공지능이 공정하고 가치 중립적인 알고리즘이라고 판단하고 있다. 지나친 낙관 또는 기대일 수 있다. 만약 그런 정도의 인공지능 기술이 발전했다면 이미 우리 일상의 상당 분야가 인공지능으로 대체되었을 것이다. 그렇다고 인공지능의 가능성을 부정하는 것은 아니다. 더욱 방대한 자료의 검색이나 정해진 알고리즘에 따른 정열, 그리고 조정 등은 얼마든지 가능하다.

현재 네이버와 다음 뉴스에서 사용되는 인공지능의 수준이 어느 정도인지 확인할 수 없지만, 저널리즘 가치나 사회적 책임성까지 반영한 인공지능이라면 엄청난 수준이라 할 수 있다. 하지만 역시 인공지능 알고리즘은 영업비밀이기 때문에 어떤 변인이 투입되어 학습, 수정되는지 알 길은 없다. 인공지능은 수많은 뉴스데이터 속에서 사물을 분별하고 자기 학습하면서 추천시스템을 발전시키고 있다. 예를 들어, 뉴스 생산량, 역사, 신뢰도 조사 결과, 사용자가 많이 보는 뉴스, 신뢰도 높은 뉴스, 많이 추천하는 뉴스, 댓글 많은 뉴스 등을 취합해 기존의 알고리즘을 갱신할 것이다.

네이버 포털뉴스 자료사진 (사진=연합뉴스)

포털뉴스 투명성 제고를 위한 대책 필요

인공지능의 기술적 혁신에 놀라면서 많은 연구자가 주목하는 것은 이른바 ‘설명 가능성’이다. 보통 뉴스를 보면서 자신의 의사를 결정할 때, 인간은 결정을 위한 여러 선택지를 제시하고 선택지 간의 토론과 논쟁, 설득과정이 필요했다. 하지만 인공지능이 등장하면서 이런 과정이 생략돼버린 점은 위험이 될 수 있다. 즉 인공지능이 검색해 주었으니, 또는 인공지능이 추천한 뉴스니까 중요한 뉴스일 것이라는 사고가 어느 사이엔가 인식되고 있다는 것이다.

MIT의 데이비드 에델만(R. David Edelman) 기술 경제 국가안보(TENS) 프로젝트 디렉터는 인공지능의 가능성도 크지만, 인공지능이 해결할 과제도 많다고 지적한 바가 있다. 그는 <서울 AI 정책 컨퍼런스 2019> 기조연설에서 설명 가능성의 문제를 해결하지 못하면 인공지능을 활용하더라도 신뢰성과 투명성을 보장하기 어렵다는 지적을 했다. 이 지적은 현재 인공지능을 가장 많이 일반에게 서비스하는 포털사에 적용되는 말이라고 할 수 있다.

그런 맥락에서 인공지능에 모든 것을 맡긴다는 생각은 애초에 잘못된 환상일 수 있다. 속보성 뉴스를 제외하고, 인공지능은 1단계에서 인간의 능력을 뛰어넘는 분류나 체계화, 기술적 가산점과 감점 계산 등을 전문으로 하고, 2단계에서는 중요한 사회적‧저널리즘 가치를 고려한 전문가 지성에 기반한 뉴스 배열 방식은 정말 힘든 것일까?

한국 사회가 안고 있는 가치는 너무 다양하다. 차별과 젠더, 환경, 장애인, 노약자, 프라이버시권 등이 새롭게 등장하고 있다. 이를 모두 인공지능의 알고리즘 기준을 정립한다는 것은 쉬운 일이 아니다. 오히려 앞서 제시한 인공지능과 전문가의 협업이 더욱 효과적일 수 있다. 그리고 이 과정은 반드시 설명 가능해야 하고 그 결과가 투명해야 한다. 포털뉴스의 여론형성 영향력을 고려한다면, 자칫 오해를 살수도 있기 때문이다. 따라서 후속 작업으로 포털뉴스 배열의 근거와 방식은 사후에 검증 가능한 시스템이나 데이터 공개의 과정도 필요하다. 이를 위한 포털뉴스의 전향적 조치와 필요하다면 전문가, 시민사회, 법조계, 언론계 등의 논의를 거쳐 법 제도적 보완도 해야 할 것이다.

저작권자 © 미디어스 무단전재 및 재배포 금지