거품 속의 진실
필터 버블에서 탈출하라
필터 버블(Filter Bubble)은 대형 인터넷 정보 기술(IT) 업체가 개인 성향에 맞춘(필터링된) 정보만을 제공하여
비슷한 성향 이용자를 한 버블 안에 가두는 현상을 말한다. 자신이 필터 버블에 갇혔는지도 모른 채
편향된 시각으로 세상을 살아가도 괜찮은 걸까?
글 구승준 칼럼니스트·번역가
한국인이 중국에 가면 이따금 듣는 말이 있다. ‘중국에 온 김에 소고기를 많이 먹고 가라’는 것이다. 실제로 중국인들 상당수는 한국인이 소고기를 명절에만 먹을 수 있는 줄 안다. 2023년 10월 중국 여러 매체에서는 한우의 가격이 1kg에 145,900원까지 치솟았다고 보도했다. 2023년 중국국가통계국 발표에 따르면 중국 인구의 60%가 약 1,000위안(현재 환율로 18~19만 원 사이) 이하의 돈을 버니, 한우는 평균 수입의 중국인이 한국에 온다면 도저히 사 먹을 수 없는 ‘그림의 고기’다. 중국에서는 자국산 소고기가 수입산보다 다섯 배나 저렴하기 때문에, 한우도 한국에서 가장 저렴한 소고기일 것이라고 지레짐작하는 것이다. 하지만 실제로는 중국인보다 한국인이 고기를 많이 먹는다. 매킨지보고서 등 여러 보고 자료에 따르면 한국의 1인당 육류 소비량은 연간 133.8kg인 데 비해 중국은 62.1kg에 그친다.
황당하지만 조회 수는 폭발적
문제는 한국인이 고기를 잘 먹지 못한다는 근거 없는 낭설이 이미 널리 퍼졌다는 점이다. 이 외에도, 한국인이 공자를 한국인이라고 생각한다거나, 단오제를 훔쳐 세계문화유산에 등재했다거나, 고구려와 발해를 포함한 한반도가 수천 년간 중국의 지방 정권이었다거나, 한국이 중국의 전통문화인 김치와 한복을 도용해 자국의 것이라고 주장한다는 등의 황당한 내용이 중국의 대형 포털 사이트인 바이두(百度)와 소후(搜狐)는 물론, 더우인(抖音)과 빌리빌리(哔哩哔哩) 같은 동영상 플랫폼에서도 폭발적인 조회 수를 기록하고 있다. 설마 진짜일까 싶은데 중국의 포털 사이트에서 ‘韩国(한국)’이라고만 검색해도 이와 같은 사실을 알 수 있다.
중국의 인플루언서들은 조회 수를 늘이기 위해 한국을 폄하하는 콘텐츠를 대거 생성하고 있다. 전문가들은 중국의 청년층이 맞닥뜨린 현실이 너무 암울하기 때문에 외부에 ‘가상의 적’을 만들어 공격하고 있다고 말한다. 참고로 2023년 6월 중국의 청년 실업률은 21.3%였으며, 같은 해 1,200만 명의 대학교 졸업생이 배출되었다. 최상위 0.1%만 입학하는 베이징대나 칭화대를 졸업하고 나서도 배달업이나 임시직에 종사하는 사람들이 늘어나고 있다.
하이브리드 모델로 진화한 추천 알고리즘
이런 황당한 콘텐츠가 이토록 광범위하게 소비되는 원인으로 동영상 플랫폼이나 포털 등에서 사용하는 추천 알고리즘이 한 몫 하고 있다. 내가 특정 주제의 영상을 봤다면, 해당 플랫폼에서는 다음에 어김없이 비슷한 주제의 영상을 추천한다. 과거에는 비슷한 취향을 가진 사람들을 묶어서 일괄 추천하는 협업 필터링(Collaborative Filtering)이나 과거 검색 취향 등을 반영한 콘텐츠 기반 필터링(Content-based Filtering)을 사용했다. 그런데 최근에는 위의 두 가지 필터링은 물론 딥러닝 및 강화 학습(Deep Learning & Reinforcement Learning)을 이용한 하이브리드 모델을 이용해 더욱 정교하고 촘촘하게 취향을 ‘저격’한다.
이런 알고리즘은 유튜브, 넷플릭스, 더우인, 빌리빌리는 물론 바이두, 구글, 네이버 등에서 광범위하게 사용하고 있다. 목적은 사용자의 체류 시간과 재방문율을 높여 자사 플랫폼의 수익률을 높이는 데 있다. 각종 플랫폼은 사용자가 흥미를 가질 법한 동영상만 ‘콕’ 찍어 봐 달라고 구애한다. 사용자들은 자신이 좋아하는 내용이기 때문에 호기심이 생겨 저도 모르게 알림을 클릭한다.
필터 버블에 갇히다
우리는 어느덧 자신도 모르게 세뇌되고 있다. 정치 견해가 다르더라도 상대 논리가 타당하면 들을 기회가 있어야 한다. 그러나 추천 알고리즘은 결코 이를 허락하지 않는다. 사용자가 마치 공기 방울처럼 외부와 차단된 정보 환경에 갇혀, 자신이 원하는 방향으로 필터링된 정보만을 지속적으로 접하는 상황을 두고 필터 버블(Filter Bubble)이라고 한다.
이 개념은 2011년 엘리 프레이저의 저서 『필터 버블(The Filter Bubble)』에서 처음 소개되었다. 이런 현상은 인터넷 플랫폼들이 사용자가 선호할 만한 콘텐츠만 제공하는 과정에서 발생한다. 이로 인해 사용자는 자신의 관심사나 신념에 부합하는 정보만을 지속적으로 접하게 되고, 반대되는 의견이나 다양한 관점을 접할 기회를 상실하게 되어 이른바 ‘확증 편향’에 빠지게 된다. SNS상에서도 같은 현상이 발생하고 있다.
특히, 딥페이크 기술이 발전하면서 필터 버블의 문제는 점점 심각해지고 있다. 딥페이크(Deepfake)는 딥러닝(Deep Learning) 기술을 활용하여 사람의 얼굴, 목소리, 행동 등을 조작하는 기술을 의미한다. ‘딥러닝’과 ‘페이크’의 합성어로, 실제로 일어나지 않은 일을 마치 진짜처럼 보이게 하는 기술이다. 컴퓨터 알고리즘이 엄청난 양의 데이터를 학습하여 사람의 얼굴이나 목소리를 정교하게 합성하는 방식으로 작동한다.
미디어 리터러시 능력 필요
이를테면 올해 7월 미국 민주당의 대통령 선거 후보였던 조 바이든이 재선 출마를 포기하고 경선에서 물러났다는 발표 이후, 대중을 향해 심한 욕설을 퍼부으며 자신에 대한 비판을 강하게 비난하는 딥페이크 영상이 SNS에서 확산되었다. 이 영상에서 바이든은 자신의 인지 능력 저하를 비판하는 사람들을 향해 모욕적인 언어를 사용한 것으로 묘사되었으나, 이 영상은 AI를 이용해 조작된 것이었으며, PBS 뉴스는 이 영상이 자신들의 로고가 포함된 가짜라고 확인했다. 또한 새로운 미국 민주당 대통령 선거 후보 카멀라 해리스나 공화당 후보 도널드 트럼프의 가짜 영상도 떠돌고 있다. 이런 영상을 접한 이들 중 일부가 이를 진짜로 여기고 있다는 점에서 문제가 심각하다.
필터 버블로 사람들이 비판력을 잃으면서 가짜 뉴스가 더 확산되고, 시각이 편향되어 사회가 양극화되고 있다. 필터 버블은 법안으로만 막을 수는 없다. 이로 인한 확증 편향에 빠지지 않으려면 미디어 리터러시(Media Literacy)능력을 기르는 게 중요하다. 이는 다양한 매체에서 제공되는 정보를 이해하고, 분석하며, 비판적으로 평가할 수 있는 능력을 의미한다. 여러 성향의 미디어나 플랫폼에서 뉴스를 교차 검증하고, 의미를 파악하여 스스로 분석할 수 있어야 한다.