※ NPR의 「YouTube, Facebook and TikTok Try To Contain Livestreaming Misinformation」을 번역한 글입니다.
지난달, 수백만 시청자의 시선은 대선 결과를 보도하는 케이블 뉴스 채널에 고정되었습니다. 최신 집계를 확인하기 위해 트위터 피드를 새로고침하는 사람들도 있었죠.
그 와중에도 자신의 채널로 30만 시청자를 끌어들인 유튜버가 있습니다. 음모론 웹사이트 인포워즈(Infowars) 기자 출신 밀리 위버(29세)는 선거 다음날 장장 7시간에 걸쳐 라이브 스트리밍을 통해 자신의 팔로워들과 우파적 분석을 나누었습니다. 때로는 그녀의 친 트럼프적 코멘터리가 잘못된 정보의 확산을 낳기도 했죠.
라이브 방송 중 그녀는 디트로이트의 개표소에 한 남성이 붉은 색 수레를 끌고 들어가는 장면을 내보냈습니다. 이는 온라인 상에서 우파들이 불법 투표의 증거라고 주장하는 짤이지만, 이 주장을 뒷받침할 근거는 없습니다. 실제로 확인해보니 TV 방송국의 카메라맨이 장비를 옮기는 장면일 뿐이었죠. 그러나 밀리 위버는 부정 선거에 대한 의혹을 계속해서 제기했습니다.
선거와 관련된 확인되지 않은 정보와 소문이 온라인 상에서 확산되자, 페이스북, 트위터, 유튜브 등 주요 소셜미디어 플랫폼들은 잘못된 정보의 확산을 막기 위해 보다 적극적인 조치를 취하기 시작했습니다. 그러나 관계자들에게 점점 더 골칫거리가 되어가는 문제가 있습니다. 바로 위버와 같은 보수 인플루언서들의 라이브 스트리밍이죠.
스탠포드대 인터넷 관측소 (Internet Observatory)의 연구원 르네 디레스타는 “그곳이 바로 콘텐츠 관리(content moderation)의 최전선”이라고 표현합니다. 폭력적인 콘텐츠를 삭제하고, 잘못된 정보의 노출도를 줄이고, 가짜 뉴스에 경고 딱지를 붙이는 등의 해결책을 라이브 영상에 적용하기란 거의 불가능에 가깝기 때문입니다. “지우고, 줄이고, 정보를 주는(remove, reduce, inform)” 솔루션은 실시간 동영상에 적용하기가 매우 어렵다는 것이 디레스타 연구원의 설명입니다.
소셜미디어들은 사람들의 관심을 오래 붙들어놓기 위해 실시간 동영상 서비스 쪽으로 관심을 쏟기 시작했습니다. 녹화 영상보다 라이브 영상을 위로 밀어 올려주었고, 사용자들은 자신이 구독한 채널이 라이브 방송을 시작하면 푸시 알림을 받기도 합니다.
하지만 라이브 동영상은 플랫폼의 자동화된 감지 시스템이나 콘텐츠 관리 인력이 재빨리 추적해내기 힘든, 이른바 ‘회색 지대’에 위치합니다. 이 분야를 연구해온 하버드 로스쿨 강사 에블린 두에크는 “문제는 영상이 문자에 비해 검색하기 어렵다는 데 있다”고 설명합니다. 의견이나 추측, 코멘터리 위주로 흘러가던 방송이 갑자기 음모론을 제기하는 경우도 있고, 때로는 그런 영상이 실시간으로 수백만 시청자를 끌어들이기도 합니다.
이런 점을 적극 악용하는 사람들도 있습니다. 인기 있는 트렌딩 해시태그를 붙여 관계없는 주제에 묻어가거나, 다른 시간, 장소의 영상에 ‘라이브’ 딱지를 붙이는 식으로요. 디레스타 연구원의 설명입니다.
저 시위 영상은 1년 전 건데, 라든지 저 영상은 포틀랜드가 아니라 워싱턴 DC에서 촬영된 건데, 하는 식으로 바로바로 팩트체크하기가 너무 어렵죠.
라이브 동영상의 이 같은 위험성은 선거일에 그대로 드러났습니다. 유튜브에서 가짜 선거 결과 라이브 방송으로 시청자를 확보한 계정도 여럿 있었죠. 그 가운데는 65만 명의 구독자를 보유한 한 채널도 있있고, 구글 검색 결과에서 다섯 번째 안에 들어가는 채널도 있었습니다. 결국은 스팸을 금지하고 거짓 정보를 규제하는 유튜브 규정에 따라 이 방송들은 삭제되었습니다.
때로는 거짓이나 음모론, 심지어는 폭력적인 위협이 라이브 방송을 타기도 합니다. 플랫폼이 개입한 시점에는 이미 수 많은 사람이 해당 방송을 보고난 후죠.
지난 목요일, 전 백악관 보좌관인 스티브 배넌은 자신의 라이브 방송에서 국립알레르기전염병 연구소 소장인 앤서니 파우치 박사와 FBI 국장인 크리스토퍼 레이의 목을 베어야 한다고 말하기도 했습니다. 한바탕 소동 끝에 트위터는 배넌의 계정을 중지시키고, 페이스북과 유튜브도 배넌의 영상을 삭제했지만, 이는 수십만 명이 지켜본 생방송이 끝난 뒤의 일이었습니다.
유튜브는 해당 계정에 “경고”와 함께 최소 1주일 간 새 영상을 업로드하지 못하도록 했습니다. 월요일이 되어서야 페이스북은 배넌의 페이지를 링크해 선거 부정에 대한 음모론을 펼친 페이지들을 내렸지만, 배넌의 계정을 삭제하지는 않았습니다. 새로운 게시물이나 영상을 올릴 수 없는 페널티를 주기는 했지만요.
디레스타 연구원은 플랫폼들의 콘텐츠 규제가 강화되는 와중에도 라이브 방송에 대한 지침은 훨씬 느슨할 뿐 아니라 제대로 집행되지 않는다고 지적합니다. 틱톡 같은 앱에서는 다른 사람의 포스팅을 끌어와 나란히 붙이는 “듀엣” 기능이 인기인데, 라이브 방송에서 잘라온 근거없는 주장이 플랫폼 전체에 일파만파 퍼지는 일이 종종 발생합니다.
‘인터넷에서 사람들이 그러는데, 이런 얘기가 있던데, 정말이야?’ 하고 묻는 형태의 영상으로 잘못된 정보가 퍼져나가기도 합니다.
진보 계열 매체 감시 비영리 기구인 “미디어 매터스(Media Matters)”의 앤절로 카루손 소장은 이번 스티브 배넌 사건이 플랫폼들이 가진 “동영상 구멍”을 잘 보여준다고 말합니다. 동영상이 다른 종류의 콘텐츠만큼이라도 관리 대상이 된다면 이런 사태를 막을 수 있을 거라고요.
규제가 적용될 가능성이 높다는 인식이 생기게 되면, 이런 종류의 콘텐츠가 아예 사라지지는 않아도 기본적인 규범들을 따르는 방향으로 가게 됩니다.
유튜브 대변인 파샤드 샤들루는 배넌의 동영상이 폭력을 조장하면 안 된다는 유튜브의 규정을 어겼다고 말합니다. 선거일을 잘못 안내하거나 문자로 선거를 할 수 있다는 식의 “투표에 대한 오해를 초래할 수 있는” 동영상을 삭제한다는 규정도 웹사이트에서 찾아볼 수 있습니다. “민주주의 과정에 대한 참여 방해를 독려하는 행위” 역시 규제 대상입니다.
샤들루 대변인은 이 같은 규정을 위반한 생방송 및 동영상을 삭제했다고 밝혔지만, 많은 이가 삭제 전에 이미 이 같은 동영상을 보고 말았죠. 민주당이 선거를 조작한다거나, 부정 투표가 있었다는 근거 없는 주장을 담은 동영상들은 여전히 유튜브에서 쉽게 찾아볼 수 있습니다. 그러나 유튜브는 이런 영상들이 규정 위반은 아니라는 입장입니다.
이번 선거 결과나 개표 과정에 대해 의견을 표출하는 것은 규정 위반이 아닙니다.
조 바이든 승리 확정이 나오기 전에 유튜브는 위버의 생방송 코멘터리 같은 콘텐츠 아래 규정 위반이 아니라는 안내문을 달았습니다. 최종 결과가 나오지 않았다는 설명과 함께 AP 같은 언론사 링크를 달았죠. AP가 바이든 승리를 발표한 뒤에는 두 번째 안내문이 달렸습니다. “적극적인 안전 장치가 선거와 선거 결과를 보호한다”는 문구와 함께, 투표에 대한 잘못된 정보를 바로잡는 정부 웹사이트로의 링크가 달렸습니다. 유튜브는 또 이른바 “경계선”에 있다고 판단되는 동영상의 확산을 막기 위해, 추천에서 제외하거나 검색 결과에서 나오지 않게 하는 방법을 쓴다고 밝혔습니다.
페이스북 역시 선거 다음 주, 선거와 관련된 모든 라이브 동영상의 확산을 제한한다고 밝혔죠. 페이스북의 크리스틴 모레아 대변인은 페이스북이 규정에 맞는 동영상 검토를 우선순위로 여긴다고 말했습니다.
결과 확정 전 선거 관련 콘텐츠의 배포를 줄여 잘못된 정보의 확산을 제한하는데 진전을 이루었으며, 잘못된 정보를 줄 수 있는 콘텐츠에 대응하기 위한 규정을 강화했습니다.
한편 보수 유튜버 밀리 위버는 자신의 선거일 방송을 변호하고 나섰습니다. NPR과의 인터뷰에서 위버는 자신의 방송이 “독립 언론인의 질문 제기”였다고 밝혔습니다. 위버는 “트위터의 선거 부정 의혹을 모니터링하면서 관련 영상을 내 소셜미디어에서 나눈 것”이고, “거짓 정보는 거짓이라고 밝히고, 타당성이 있다고 생각하는 자료는 그대로 보여준 것”이라며, “이성이 있는 사람이라면 이번 선거에 이상한 점이 많다는 결론에 이를 것”이라고 밝혔습니다.
한편 연방 정부와 주 정부 차원의 양 당 관계자들은 이번 선거에 특별한 변칙 사례는 없었다고 말합니다.
한 기업이 동영상의 확산을 제한할 수 있는 능력에는 한계가 있을 수 밖에 없습니다. 유튜브의 라이브 방송이나 틱톡 게시물이 트위터나 인스타그램에 다시 올라올 수도 있고, 이런 경우 규제라는 것은 끝없는 두더지잡기와 마찬가지입니다. 샤들루 대변인 역시 유튜브 영상의 트래픽 대부분이 사이트 자체의 추천이 아니라 링크를 건 다른 사이트로부터 발생한다고 말합니다.
하버드 로스쿨의 두에크는 하나의 플랫폼이 인터넷 전체의 생태계에서 할 수 있는 것에는 한계가 있을 수 밖에 없다며, “플랫폼바이플랫폼(platform-by-platform)” 시각의 한계를 지적합니다. 동시에 그럼에도 각자의 플랫폼이 피해를 줄이기 위해 할 수 있는 일이 정확히 무엇인지를 생각해볼 책임이 있다고 주장합니다.
비영리 기구 “애틀란틱 카운슬(Atlantic Council)”의 디지털 포렌식 연구소에서 일하는 에머슨 브루킹 연구원은 플랫폼이 라이브 동영상의 위험성을 오랫동안 알았다고 지적합니다. 페이스북 생방송으로 중계된 2019년 뉴질랜드 크라이스트처치의 총기 난사 테러처럼, 카메라 앞에서 폭력적인 행위가 이루어진 사례가 여러 건 있었죠.
페이스북은 크라이스트처치 사건 이후 “가장 심각한 규정 위반” 사례에 대해 원스트라이크아웃제를 실시하는 등, 새로운 규정을 만들었습니다. 그럼에도 전문가들은 라이브 동영상의 문제점이 여전하다고 지적합니다. “새로 부상한 문제는 사람들이 라이브 동영상의 일부를 잘라서 아무런 규제가 없는 다른 플랫폼으로 옮기는 것입니다.”
댄스 챌린지로 인기를 끈 짧은 동영상 중심의 틱톡과 게이머들의 라이브 스트리밍 사이트인 트위치는 이 같은 “리포스트 비디오”가 많이 올라오는 플랫폼입니다. 틱톡은 “해로운 콘텐츠”를 올리는 계정의 생방송 권한을 중지시킵니다. 폭력이나 혐오를 조장하는 동영상, 음모론이나 잘못된 정보를 담은 콘텐츠도 이에 해당합니다.
그러나 바이럴이 된 동영상의 경우 틱톡이 삭제를 해도 다른 리포스트로 재등장하는 경우가 있습니다. 물론 원본에 비하면 아주 소수가 볼 뿐이지만, 잘못된 정보의 확산을 막는다는 것이 얼마나 막막한 일인지를 알 수 있습니다.
디레스타 연구원은 소셜미디어의 생방송 기능을 미니 프로파간다 확성기로 사용하는 사용자들을 처벌하는 것이 바람직하다고 말합니다. 생방송 기능을 사용하지 못하게 하거나, 추천에서 삭제되는 식으로요.
페이스북의 전 최고보안담당자 알렉스 스태모스는 기업들이 현재 머신러닝을 이용한 동영상 모니터링 기술을 개발 중이라고 소개합니다. 궁극적으로는 라이브 동영상에도 적용할 수 있도록 하는 것이 목표입니다.
동영상 녹취록에 대한 접근이 가능하다면 더 빠른 대응이 가능하겠죠. 연구자들은 다양한 거짓 정보 트렌드 역시 모니터링 중입니다. “20대를 잔뜩 고용해서 하루 종일 틱톡을 모니터링 하라고 할 수도 있겠지만, 이런 것은 확장가능한 해결책이 아닙니다.”
원문: 뉴스페퍼민트
함께 보면 좋은 글