[미디어스=윤수현 기자] 유튜브 알고리즘은 뜨거운 감자다. 유튜브 알고리즘이 이용자에게 편향된 정보를 제공하고, 확증편향에 빠질 수 있다는 진단이 지속적으로 나오고 있다. 이른바 필터버블 현상(이용자가 필터링 된 정보만을 접하게 되는 현상)에 대한 우려다. 하지만 유튜브 알고리즘 필터버블 우려가 과장된 측면이 있을 수 있다는 연구결과가 나왔다.

필터버블은 미국 시민단체 ‘무브온’ 이사장 엘리 프레이저가 창시한 개념이다. 엘리 프레이저는 저서 <생각 조종자들>에서 알고리즘이 필터링 된 정보만을 이용자에게 제공하고, 이용자 가치관에 왜곡이 일어날 수 있다고 밝혔다.

유튜브 알고리즘 작동 원리 (사진=<유튜브 추천 알고리즘과 저널리즘> 연구서, 자료 = Covington et al. 2016)

유튜브는 이용자의 동영상 시청 행태를 분석해 자동으로 추천 영상을 제공한다. 예컨대 문재인 대통령 관련 동영상에는 뉴스 프로그램, 반려동물 관련 동영상에는 동물 예능 프로그램, 극우 유튜브 영상에는 또 다른 극우 유튜버 영상이 연결되는 식이다. 이를 두고 ‘이용자가 필터링된 정보만 접해 확증편향에 빠질 우려가 있다’는 우려가 나오고 있다.

하지만 “필터버블 효과가 과장된 측면이 있을 수 있다”는 지적이 나왔다. 유튜브 알고리즘은 이용자에게 다양한 영상을 제공하고 있으며, 이용자들 역시 알고리즘을 그대로 믿지 않는다는 것이다.

한국언론진흥재단은 유튜브 알고리즘의 효과를 분석한 <유튜브 추천 알고리즘과 저널리즘> 연구서를 발간했다. 이번 연구팀에는 오세욱 언론재단 선임 연구원, 송해엽 군산대 조교수, 유은 카이스트 박사 수료, 현일성 서울대 박사 수료 등이 참여했다.

연구팀은 유튜브 알고리즘 추천 영상을 수집하고 분석하는 작업을 진행했다. 또 유튜브를 사용하는 이용자 설문조사를 통해 알고리즘 추천 방식이 어떤 영향을 끼치고 있는지 살펴봤다. 연구팀은 “선행 연구들을 통해 필터버블 등의 문제는 이미 제기되어 있다”면서 “하지만 유튜브에서 실제로 어떤 영상들이 추천되고 있으며, 그 영상들이 어떠한 특징을 가졌는지 등이 폭넓게 분석된 적은 그리 많지 않다”고 설명했다.

연구팀은 문재인·방탄소년단·유시민·홍준표·조국 관련 영상에 제공되는 알고리즘 추천 영상 33만 4425개를 분석했다. 분석 결과 정치적 키워드 뒤에는 YTN·연합뉴스TV·JTBC·SBS 등 레거시 미디어 채널이 추천되는 경향이 강했다. 연구팀은 “전통적 언론사의 영상을 자주 추천하고 있는 것으로 파악된다”면서 “다만 전통적 언론사 중에서도 신문보다는 방송사의 영상이 많이 추천되고 있었다”고 밝혔다.

연구팀은 유튜브가 다양한 장르의 영상을 추천하고 있다고 설명했다. 연구팀은 “유튜브가 장르적 다양성을 의도하는 모습이 보였다”면서 “정치적 키워드에 대해 엔터테인먼트 등 다른 장르의 영상을 관련 영상으로 추천하는 현상이 나타났다. 이는 시청 시간을 중요시하면서 다양성을 확보하려는 유튜브의 전략이라고 추측할 수 있다”고 분석했다.

연구팀이 조사한 문재인 대통령 키워드 관련 추천 영상 (사진=<유튜브 추천 알고리즘과 저널리즘> 연구서)
연구팀이 조사한 방탄소년단 키워드 관련 추천 영상 (사진=<유튜브 추천 알고리즘과 저널리즘> 연구서)

연구팀은 “특정 기간에 특정 이슈 영상을 집중적으로 추천하는 경향을 발견할 수 있었다”면서 “특히 정치적 키워드에서는 수집 기간 중 가장 큰 이슈였던 조국 전 장관과 관련한 영상들이 집중적으로 추천되었다. 추천되는 영상도 비교적 동일했다. 정치적 키워드보다 비정치적 키워드에서 더 다양한 영상과 채널이 추천되고 있는 것으로 나타났다”고 밝혔다.

연구팀은 “개별 키워드의 이념적 성향에 따른 추천 결과에 있어서 유의미한 차이를 발견하지 못했다”면서 “한국어라는 점을 전제할 때, 유튜브의 추천 알고리즘이 키워드의 맥락성은 고려하지 못하고 단순히 제목의 일치도 등으로 영상을 추천하고 있다는 분석이 가능하다”고 말했다.

연구팀은 “유튜브의 추천 알고리즘이 한국어 환경에서는 생각보다는 단순하게 작동하고 있다는 느낌을 받았다”면서 “비로그인 환경이라 이용자 맞춤형 요인을 감안하지 못했기에 단순해 보일 수 있다는 한계는 분명 존재한다. 그럼에도 제목, 제목 내 키워드 등 간단한 요인들이 강력하게 작동하고 있다는 점은 분명해 보였다”고 강조했다.

유튜브 알고리즘 작동 원리 (사진=<유튜브 추천 알고리즘과 저널리즘> 연구서, 자료 = Covington et al. 2016)

유튜브 이용자 역시 알고리즘에 큰 영향을 받지 않는 것으로 조사됐다. 연구팀이 유튜브 이용자 996명을 대상으로 조사한 결과 알고리즘 신뢰도에 대해서는 유보적인 판단을 취한 응답자가 많았다. ‘유튜브 알고리즘을 신뢰하고 있냐’는 질문에 절반이 넘는 응답자(58.4%)는 중립적인 태도(보통)를 보였다. 알고리즘을 신뢰한다는 응답자는 24%, 신뢰하지 않는다는 답은 17.6%였다. ‘알고리즘의 정확성에 한계가 있냐’는 질문에 50.7%는 “그렇다”고 답했다. “알고리즘 정확성에 한계가 있지 않다(알고리즘 정확성을 신뢰한다)”는 답은 5.7%에 불과했다.

유튜브 알고리즘 추천 영상을 시청한다는 응답은 15.4%에 불과했다. 응답자 84.6%는 알고리즘 추천 영상 대신 본인이 원하는 영상을 직접 찾아서 시청한다고 밝혔다. 연구팀은 “알고리즘 기반 추천으로 인해 이용자의 정보 접근이 제한될 수 있다는 우려가 있으나 실제 이용자들은 스스로 영상을 선택하는 방식을 더 선호한다고 답했다”면서 “알고리즘으로 인한 필터버블효과가 우려와 다르게 제한적일 수도 있다는 가능성을 제시한다”고 분석했다.

(사진=연합뉴스)

연구팀은 “필터버블은 이념적 대립이 증가하는 상황에서 현실의 문제점이 어떤 이유로 발생했는지를 설명할 수 있는 강력한 개념이었다. 이해할 수 없는 정치적 결과에 대한 인지 부조화를 해결하기 위한 훌륭한 선택이기도 했다”면서 “하지만 기술이 모든 현상의 원인이라고 말할 수 있는지에 대한 지속적인 논쟁이 존재한다”고 밝혔다.

연구팀은 “이용자들은 필터버블 관련 우려와 달리 ‘알고리즘이 제시하는 영상의 범위가 모든 영역을 다루지 못한다’는 것을 알고 있었으며 오히려 관심 영역에서는 다양한 영상을 제공해준다고 느끼고 있었다”면서 “또 이용자들은 추천 알고리즘이 허위정보 확산에 이바지한다는 점에서도 동의하지 않았다. 필터버블에 대한 문제 제기가 과장된 측면이 있을 수 있다”고 강조했다.

저작권자 © 미디어스 무단전재 및 재배포 금지