나는 오늘 유튜브 자동재생 버튼을 끄기로 했다

2019-11-07 10:39
유튜브 알고리즘이 만들어내는 '필터버블'...집단간 의사소통을 방해할 수도

자정께 침대에 누웠지만 새벽 2시가 다 돼서야 잠자리에 들었다. 발단은 한 극우 유튜버의 영상이었다. 이성보다는 감정을, 납득보다는 일방적 주장을 앞세웠다. 그러나 자극적인 소재로 10분 동안 이어지는 화려한 말 기술에 눈과 귀를 뗄 수 없었다. 영상이 끝나고 나의 다음 행동은 추천 동영상 시청으로 이어졌다. 5·18 북한군 개입설을 주장하는 또 다른 극우 유튜버의 영상이었다. 시계를 보니 1시간가량이 지나 있다. 위기다. 이토록 내가 한쪽으로 편향된 정보에 머무른 이유는 무엇일까. 난 '필터 버블'이란 결말에 이르렀다.

 

[사진=게티이미지 제공]


필터 버블은 사용자에 맞춰 걸러진 정보로 사용자를 가둬버린 걸 말한다. 즉, 사용자와 반대되는 뉴스, 클릭하지 않을 정보는 제외하고 그들이 좋아할 만한 정보만 보여주는 이른바 정보 편식이다. 예를 들어 검색창에 똑같이 '문재인 대통령'을 입력하더라도 광화문 집회에 참석한 누군가와 서초동 집회에 참여한 어떤 이의 검색 결과는 다르게 나타난다. 그들의 정치 성향에 맞춰 유튜브가 맞춤형 검색 결과를 도출하기 때문이다.

이용자 체류 시간 확보는 플랫폼 생존과 직결된다. 이용자가 머무르지 않는 플랫폼은 사망 선고와 마찬가지다. 그래서 유튜브 알고리즘은 사람들이 더 오래 체류하도록 설계됐다. 그러다 보니 사용자의 영상 시청 시간, 방문 페이지, 검색 이력 등을 파악해 내가 본 영상과 비슷한 주제의 영상을 끊임없이 내 눈앞에 내놓는다. 책 '생각 조종자들'의 저자 엘리 프레이저는 필터 버블이란 용어로 이러한 유튜브 알고리즘의 문제점을 지적했다.

물론 이용자가 좋아할 만한 콘텐츠를 미리 내놓는 게 무슨 문제냐고 묻는 이들도 있다. 그러나 필터 버블이 만들어내는 정보 편향은 의견 교환을 어렵게 만들어 비민주적인 사회를 초래할 수 있다. 한쪽으로 기울어진 정보 편식은 사람들의 생각 폭을 좁히고 대립을 심화시킬 수 있는 문제점을 안고 있기 때문이다. 엘리 프레이저도 "반대 성향을 가진 사람들의 글이나 새로운 정보, 평소에 보지 않던 분야의 뉴스를 접할 기회를 박탈 당하기 때문에 필터 버블이 가치관 확대를 방해할 수 있다"고 경고했다.

어제도 잠들기 전 유튜브에 접속했다. 다만 달라진 점이라면 자동재생 버튼을 꺼놨다는 점이다. 추천 알고리즘의 덫에서 벗어나 필터 버블을 깨기 위한 소심한 대응책이었다. 물론 유튜브 알고리즘은 시간과 비용 측면에서 합리적일 수도 있다. 그러나 합리적 선택이 반드시 합리적인 결과를 가져오진 않는다. 유튜브를 통해 무의식적으로 받아들이는 뉴스와 정보들이 우리의 정보 편식을 부추기는 건 아닌지 필터 버블에 대한 합리적 의심이 필요한 때다.