인공지능(artificial intelligence) 시대라 해도 과언이 아니다. 최신 기술 트렌드에서 인공지능은 중요한 화두가 되고 있다. 2020년 1월 개최된 전자제품 박람회 CES에서도 인공지능이 주요한 화두가 되고 있다. 미디어 분야 역시 인공지능의 활용이 확장되고 있다. 이러한 시대적 환경을 고려하여 포털뉴스의 인공지능 적용 실태와 장단점을 구체적으로 살펴보는 시리즈를 작성하고자 한다. 지난 칼럼에 이어 이번 칼럼에서는 미디어와 민주주의 차원에서의 인공지능 뉴스 편집의 문제점을 진단하고자 한다.

[미디어스=송경재 경희대 공공거버넌스연구소] 지난 1월 30일 민언련 모니터 보고서가 발간되었다. 내용은 신종 코로나바이러스로 인해 무분별한 중국인 혐오 정서가 만연하고 있다는 모니터 보고서였다. 모니터에서 주목한 것은 대림동 차이나타운을 취재한 뉴스가 지나치게 중국인들이 잠재적 전염원이며 이것은 혐오와 차별 보도라고 비판했다. 그리고 언론사의 보도 시각 자체도 문제는 있지만, 더 심각한 것은 바로 이 뉴스가 최소한 1시간 이상 다음 포털의 첫 화면의 톱 보도 위치에 노출되어 있었다는 것이다. 알려져 있다시피 다음 뉴스 서비스는 인공지능 시스템을 적용해 편집과 뉴스 추천 등에 활용하고 있다.

이 사건에서 확인할 수 있는 것은 그동안 주요 포털사들이 인공지능 편집의 우수성을 그렇게 강조했지만 아직은 부족한 부분이 많고, 특히 급변하는 사회적인 기준을 따라가지 못한 상황임을 잘 알려준다. 물론 이 사건 하나로 모든 것을 단정할 수는 없다. 인공지능의 알고리즘에서 혐오와 차별에 대한 로직이 작동하지 않았을 수도 있다. 하지만 현대의 사회 현상을 바라보는 시각은 점차 복잡해지고, 기자의 시각에서도 고려할 여러 문제가 난마처럼 얽혀 있다. 그것을 인공지능이 어느 정도 해결할 수는 있을 것이지만 모든 것을 완전하게 해결하기는 한계가 있을 수밖에 없다.

(사진=연합뉴스)

새로운 민주주의와 저널리즘의 위기

사회적으로는 인공지능에 대한 기대감은 매우 고조되고 있다. 이제 TV 광고에서도 인공지능을 장착한 자동차와 가전제품이 소개될 정도로 많은 주목을 받는 것이 사실이다. 하지만 여전히 과학자들조차 인공지능의 가능성은 있지만, 과도한 기대와 섣부른 판단은 경계하고 있다. 기술적으로 인간의 능력을 넘어서는 강한 인공지능(strong AI)이 아니더라도 인공지능은 아직 미완성 분야이기 때문에 앞으로 실생활에 적용되려면 많은 시간이 필요하다고 진단한다.

물론 공공부문이나 기업의 마케팅, 로봇 저널리즘 등의 영역에서는 인공지능이 인간을 대체하고 있는 것도 사실이다. 하지만 보다 큰 사회적 가치를 고려한다면 인공지능의 한계는 분명하다. 여전히 사회의 운영이나 작동, 문제해결에서 인공지능은 보조적인 도구에 그친다는 것이다. 실제 UN 사무총장 안토니우 구테흐스(António Guterres)가 지적한 바와 같이 기계학습에서부터 인공지능에 이르기까지 신기술이 인간의 삶을 개선하는 잠재력을 지닌 동시에 더 큰 사회 불평등과 혼란을 초래할 수 있다고 경고한다.

그리고 2019년 8월 미국 매사추세츠공과대학(MIT)의 데이비드 에델만(R. David Edelman) 기술 경제 국가안보(TENS) 프로젝트 디렉터가 한국 <서울 AI 정책 컨퍼런스 2019>에서 기조연설에서 지적한 바와 같이 인공지능이 스스로 할 수 있는 일이 무궁무진하다고 말하는 것은 어느 정도 사실일 수 있지만, 한편으로는 오해를 불러일으킬 수도 있다. 그는 이른바 설명 가능성의 문제를 해결하지 못하면 인공지능을 활용하더라도 신뢰성과 공정성을 보장하기 어렵다는 지적을 했다.

정치봇의 등장과 민주주의, 저널리즘의 위기

이런 이유 때문에 인공지능이 장기적으로 민주주의 그리고 저널리즘의 위협요인이 될지 모른다는 견해가 설득력을 얻어가고 있다. 이미 2016년 미국 대선에서 나타난 인공지능 로봇을 이용한 이른바 정치봇(political bots)은 그 위험성이 심각하다. 정치봇을 분석한 송태은(2018)의 연구에 따르면, 방식도 다양하다. 팔로워 수를 늘리는 팔로워 봇(follower bots), 온라인에서 이루어지는 대화에 대한 주의를 다른 이슈로 분산시켜 관심을 돌리게 하는 길 차단 봇(roadblock bots) 등이 이미 알려진 인공지능 기반의 봇이다.

이러한 인공지능 기반의 정치봇은 단순히 가짜뉴스를 생산하는 데 그치지 않고, 비슷한 관점이나 생각을 가진 사람들끼리 반복적으로 소통함으로써 더욱 편향된 사고가 고착화되고 동의하는 의견만을 수용하게 되는 현상인 반향실 효과(echo chamber effect)를 가속화시킨다. 현재 유튜브의 뉴스 추천 알고리즘이 반향실 효과로 인한 정치적 분극화를 심화시킨다는 비판도 같은 맥락이다.

이러한 인공지능은 자유롭게 생각과 의견이 소통되어야 하는 온라인 공론장(public sphere)에서 정치적으로 편향된 정보와 메시지를 확산시켜 여론을 특정 방향으로 유도하는 현상을 야기하고 있다. 인공지능은 사람들의 정치적 의사결정 과정에 영향을 끼칠 수 있고 민주주의의 정상적인 작동과 민주주의 제도에 대한 신뢰를 하락시킬 수 있는 위험한 도구가 될 수도 있다. 온라인 공론장에서 알고리즘이 개인 성향과 맞는 정보 위주로 추천하고, 생각이 유사한 사람들끼리만 소통을 강화해 확증편향을 불러일으킬 우려가 크다

유발 하라리는 인공지능으로 인해 인간은 새로운 진화 단계에 직면하게 될 것을 경고하기도 했다(Harari). 그는 인공지능과 빅데이터 발전으로 인해 인류에게 변화가 시작되었고, 특히 정치와 언론 분야에서 민주주의를 병들게 하고 있다는 우려를 제기하고 있다.

인공지능과 전문가의 지성 결합

민주주의 측면에서 위험요인이 많은 인공지능은 포털뉴스 편집만이 아니라 여러 저널리즘의 영역에 이미 도입되어 있다. 저널리즘 차원에서 포털의 인공지능 편집은 시대적인 흐름이지만 아직 보완할 부분도 많고, 고려해야 할 변인도 많다. 특히 앞서 사례에서도 확인되지만 최근 한국 사회에서 새롭게 제기되는 저널리즘 기준은 매우 다양하다. 차별과 젠더, 생명, 그리고 동물권 이슈까지 다양한 사회적 가치가 등장하고 있다. 이를 모두 인공지능의 알고리즘으로 편집기준을 정립한다는 것은 쉬운 일이 아니다.

오히려 이럴 경우 인공지능과 전문가의 협업이 더욱 효과적일 수 있다. 예컨대 편집기준에 근거한 1차 편집은 인공지능이 하지만, 최종 포털뉴스 서비스는 전문가의 감수 후에 하는 방식도 고려대상이다. 아니면 사후에라도 검증할 수 있는 시스템을 만드는 것도 하나의 대안이다. 무조건 인공지능에 맡길 경우 새로운 사회적 가치를 따라가지 못할 수도 있다.

포털의 인공지능 뉴스 편집이 정답일 수는 없다. 하지만 이왕 기술적인 편집을 시도한다면 과거보다 새로운 내용의 서비스가 진행되어야 할 것이다. 그런 차원에서 포털 뉴스 서비스는 현재의 알고리즘에 대한 끊임없는 보완과 저널리즘의 심층성 등을 제고할 수 있는 포털뉴스 편집 변인에 대해 고려가 필요하다. 한두 번의 검증이 아니라 계속 확장된 변인을 투입하고, 이를 기반으로 향후 편집 가이드라인을 정립하는 데 사용자(시민)의 평가와 생각을 반영해야 할 것이다. 그것이 자칫 인공지능의 문제점을 최소화할 방법이기 때문이다. 이에 더하여 언론단체와 노조, 학계, 시민사회의 끊임없는 포털뉴스에 대한 감시와 견제가 진행되어야 할 것이다.

저작권자 © 미디어스 무단전재 및 재배포 금지