거짓이 진실이 되는 만델라 효과와 알고리즘의 위험성

 유튜브, 인터넷 뉴스, 팟캐스트 등 요즘 시대의 사람들은 너무나 많은 정보에 노출되고 있습니다. 게다가 알고리즘이라는 것에 의해 유사한 정보들만 지속적으로 노출됨에 따라서 무엇이 옳고 그른 것인지를 판단하기도 어려운 상황에 이르렀습니다.

 또한 이러한 점을 이용한 가짜 뉴스를 만들어 배포하거나 댓글 부대를 활용해서 여론을 선동하는 등 정보를 조작하기 위한 활동들까지도 빈번하게 발생하고 있습니다. 더 큰 문제는 이러한 잘못된 정보 또는 왜곡된 정보를 진실이라고 믿는 사람들이 많아지고 있다는 점입니다.

 이번 포스트를 통해 거짓을 진실로 만드는 만델라 효과에 대한 소개와 함께 알고리즘의 위험성에 대해서 공유드리고자 합니다.

거짓이 진실이 되는 만델라 효과와 알고리즘의 위험성
거짓이 진실이 되는 만델라 효과와 알고리즘의 위험성 (이미지 출처 : 프리픽)


1. 만델라 효과(Mandela Effect)란?

 만델라 효과는 진실이 아닌 거짓된 정보를 많은 사람들이 진실이라고 기억하는 현상을 의미합니다. 집단적 오기억(Collective False Memory)라고도 부르는데요. 

반응형

 과거 흑인 인권 운동가로 남아프리카 공화국 최초의 흑인 대통령으로 당선되었던 넬슨 만델라(nelson Mandela)의 이름을 따서 생긴 용어입니다. 2009년 9년경 넬슨 만델라의 투병 소식이 뉴스를 통해 보도되었는데, 대다수의 미국인들이 넬슨 만델라는 이미 세상을 떠난 사람이라고 기억하고 있어 혼란을 느꼈던 현상을 통해 용어가 만들어졌습니다.

 대표적인 예시로는 영화 터미네이터의 명대사인 "I will be back"과 영화 곡성의 "와타시와 아쿠마데스"가 있습니다.

 영화 터미네이터를 기억하시는 분들이라면, 아널드슈왈츠 제네거의 명대사인 "I will be back"을 기억하실 겁니다. 그런데 해당 대사가 어느 장면에서 나왔는지 물어본다면, 대부분의 사람들은 터미네이터가 용광로에 스스로 들어가면서 엄지손가락을 올리는 장면을 떠올리실 겁니다.

 하지만 실제 영화에선 다른 장면에서 "I will be back"이라는 대사가 등장했었는데요. 당시 어느 한 예능 프로그램에서 용광로에 들어가는 장면을 묘사하면서 "I will be back"이라는 대사를 외치는 개인기를 한 적이 있었는데, 그 이후로 많은 사람들이 실제 영화에서도 그랬을 것이라고 착각하게 만든 것입니다.

 영화 곡성의 경우에도 위와 유사합니다. 영화 곡성의 외지인(악마) 캐릭터의 대사 중 기억나시는 게 있으신가요? 대다수의 사람들은 "와타시와 아쿠마데스"를 떠올리실 것입니다. 하지만 실제로 영화상의 대사는 "마사니 와타시다(바로 나다)"입니다.

 그렇다면 왜 우리는 "와타시와 아쿠마데스"라고 기억을 하는 것일까요? 바로 과거 무한도전 귀곡성편에서 박명수 씨가 외지인을 패러디하면서 외쳤던 대사가 널리 퍼지게 되었고, 신서유기와 같은 다른 예능에서도 사용되면서 많은 대중들이 실제와는 다르게 기억하게 되는 계기가 되었습니다.

 아! 그리고 여러분 프랑켄슈타인을 아시나요? 머리에 나사가 꽂힌 기괴한 형태의 괴물을 바로 떠올리셨을까요? 하지만 실제 소설에서의 프랑켄슈타인은, 바로 그 괴물을 만들어낸 박사의 이름입니다. 우리가 흔히 알고 있는 괴물 프랑켄슈타인은 소설상에서는 이름도 등장하지 않고 "크리처"라고만 불립니다.

 물론 이제는 프랑켄슈타인을 괴물의 이름으로 받아들여지고는 있지만, 이것도 하나의 만델라 효과의 사례라고 할 수 있습니다.


2. 알고리즘의 위험성

 알고리즘은 문제를 해결하기 위한 절차 또는 사고의 흐름을 의미하는 것입니다만, 최근에는 유튜브나 인스타, 인터넷 쇼핑 등에서 개인의 행동패턴이나 관심사에 따라 콘텐츠를 추천하는 것을 의미하는 것으로 주로 사용되고 있습니다.

 이러한 알고리즘은 개인이 자주 보는 콘텐츠의 특징에 따라서 유사한 콘텐츠를 반복적으로 노출시키며 플랫폼에 지속적으로 머무르며 많은 콘텐츠를 소비하게 하는데요. 사용자 입장에서도 수많은 콘텐츠들 중에서 내가 관심이 있을만한 것들만 골라서 볼 수 있기 때문에 좋은 부분이 있습니다.

 하지만 이러한 알고리즘은 필터 버블(Filter Bubble) 현상이 발생할 위험이 있습니다. 사용자가 유튜브와 같은 콘텐츠 제공 플랫폼으로부터 필터링된 정보만을 접하게 되는 현상을 말합니다. 이는 자신의 생각이나 견해에 도움이 되는 정보들만 선택적으로 받아들이고, 자신과 반대되는 의견이나 믿고 싶지 않은 정보들은 부정해 버리는 확증 편향을 불러오게 됩니다.

 이러한 확증 편향의 결과로 최근에는 극단적인 성향을 갖게 되는 사람들이 많이 생겨나고 있습니다. 정치적 성향도 중도층보다는 극단적인 보수, 극단적인 진보로 나뉘고 있고, 젠더갈등이나 세대갈등과 같은 대립된 의견들 뿐만 아니라 개인의 기호나 취미들도 한쪽으로 치우쳐지는 경향들이 나타나고 있는 것 같습니다.

 이는 알고리즘을 통해 지속적으로 유사한 콘텐츠에 노출되고 있기 때문이고, 인간의 본성이 자신을 합리화하는 것이기 때문에 한쪽으로 치우침이 점점 심해지는 것이라고 생각됩니다.

 또한 최근에는 다양한 SNS나 플랫폼들을 통해 생성되고 퍼져나가는 허위사실이나 가짜뉴스들로 인한 피해들이 많이 발생하고 있습니다. 사이버렉카라고 불리는 미디어들은 찌라시나 거짓정보를 마치 사실인 것처럼 콘텐츠를 제작해 유통시키고 그것을 본 많은 사람들이 사실이라고 믿어버리는 경우가 발생하고 있습니다.

 문제는 이러한 가짜뉴스들에 지속적으로 여러 대중들이 노출되면서, 실제 진실이라고 사회적으로 인식되는 만델라 효과가 발생하는 것이라 할 수 있습니다.


 이미 해외에서는 인터넷 플랫폼이나 언론사 등에도 알고리즘을 조작하여 자신들에게 유리한 콘텐츠를 의도적으로 노출하는 것이 문제가 되고 있습니다. 국내에서도 말이 많이 나오고 있는 문제이기도 합니다.

 콘텐츠를 생성하거나 이를 중개하는 사람 또는 기업들은 결국 자신의 이익에 따라 움직이게 됩니다. 이를 소비하는 입장에서는 자신의 주관을 지키면서 객관적인 시각에서 이해하고 받아들이는 자세가 필요할 것 같습니다.

 마치 지속적으로 주변 사람들의 추천과 사이비 교주의 설교에 노출되어 그것이 진리라 믿고 사이비 종교에 몸을 담그는 피해자가 되지 않기 위해서는 인터넷상에 있는 콘텐츠들을 100% 신뢰해서는 안되며, 알고리즘이 추천하는 콘텐츠 외에도 다양한 시각에서 콘텐츠를 소비할 수 있어야겠습니다.
 

참고자료
1) 가짜뉴스 믿는 중장년… 유튜브 알고리즘의 무서움 - 브라보마이라이프(2023.04)
2) 알고리즘의 위험한 이유 - KnowT(2022)
반응형