
여러분은 페이스북, 유튜브 틱톡 등등 소셜미디어의 알고리즘으로부터 안전하다고 생각하시나요?
아래 사진은 세계 최대 규모의 난민캠프 쿠투팔롱(Kutupalong refugee camp)입니다. 이곳의 이야기는 2017년, 이웃 나라 미얀마에서 발생한 인종 청소로 인해 수백만 명의 로힝야 무슬림 가족들이 방글라데시로 대피하면서 시작되었습니다.

미얀마는 과거부터 여러 민족 사이의 갈등이 많았던 나라였습니다.
하지만 로힝야 무슬림을 난민 캠프로 몰아넣은 폭력 사태의 경우는 좀 달랐어요.
이는 불교 민족주의자, 극단주의자, 심지어 미얀마 군의 선동적인 허위 정보와 혐오 메세지들 때문에 발생한 사건이었습니다.

그리고 이 사건은
소셜미디어 플랫폼 상의 잘못된 정보와 과격화에 대한 이야기 입니다.
미얀마 인터넷 보급과 페이스북
과거 독재 정치에서 벗어나, 새로운 지도부의 개방 정책과 함께, 미얀마의 휴대폰 보급은 급속도로 늘어나게 되었습니다.

미얀마의 휴대폰 보급률은 2013년 약 10% 정도에서 2016년에 90%까지 올랐는데요.
페이스북은 이 기회를 놓치지 않고, 미얀마라는 새로운 시장을 개척해 나갔죠.
페이스북은 현지 휴대폰 서비스 제공업체와 계약을 맺었습니다. 스마트폰을 보급할 때 페이스북 앱을 사전에 설치하게 했죠. 그리고 사람들이 페이스북을 사용할 때 값비쌌던 모바일 데이터 비용을 무료로 제공했습니다.
곧 미얀마에서는 페이스북 = 인터넷, 페이스북 = 뉴스가 되었습니다.
선동과 날조로 도배된 알고리즘
페이스북의 보급과 동시에 한 영상이 페이스북 알고리즘을 타기 시작했습니다.

알고리즘을 탄 영상의 주인공은 아신 위라투(Ashin Wirathu), 자신을 '미얀마의 빈 라덴'이라고 부르며, 미얀마 전역에서 종교적 갈등을 불러일으키고 있는 불교 승려였습니다.
'아신 위라투'는 반 로힝야족 설교자로, 거짓말과 음모를 퍼뜨리기 위해 과거에는 책들을 배포하며 선전했지만, 이후 페이스북의 등장으로 이를 활용하여 사람들을 선동하기 시작했습니다.

무슬림 소수민족에 대한 증오는 페이스북의 알고리즘을 타기 시작했고, 정말 많은 관련 컨텐츠들이 미얀마 페이스북을 뒤덮었습니다.
"로힝야 무슬림들이 불교 신자들과 싸우기 위해 무기를 비축하고 있다. 침략을 준비하고 있다"
이렇게 이야기는 퍼지면서 왜곡되었고, 갈등은 심해졌습니다. 결국 이러한 선동으로 일반 미얀마 시민들이 앞장서 로힝야 마을을 습격하고 불태우는 사건이 발행했죠.

보안군이 개입해서 막았어야 했지만, 이들은 방관했습니다. 목격자의 진술에 따르면 보안군은 로힝야 족의 집에 불을 지르고 있었는데도, 신경 쓰지 않았다고 해요.
이 2012년 사건으로 인해 정부는 공식적으로 192명이 사망하고 8600채의 가옥이 파괴되었다고 하지만 전문가들은 보고된 것보다 훨씬 큰 피해가 있었다고 합니다.
이 당시에 페이스북이 엄청난 영향력을 끼쳤다고 할 수는 없습니다. 하지만 페이스북 유저가 점점 늘어나면서,
거짓된 음모, 선동, 날조 > 페이스북 알고리즘 > 실제 폭력 사건 으로 이어지는 패턴은 지속적으로 더 많이 발생하기 시작했습니다.
페이스북은 귀를 막았다
저널리스트이자 디지털 연구자 엘라 캘런(Aela Callan)은 온라인 혐오 발언 관련 연구 중 이 사건에 대해 알게 되었고, 실리콘 밸리에 있는 페이스북을 찾아갔습니다.

"당신들은 지금 굉장히 위험한 일을 하고 있습니다. 미얀마가 아주 취약한 순간에 이 나라를 굉장히 불안정하게 만들고 있어요"
하지만 페이스북은 무시했습니다. 그리고 엘라 켈런은 페이스북에 버마어(미얀마어)를 구사하는 담당자가 딱 한 명 밖에 없다는 사실을 알게 되었습니다.
군의 개입, 그리고 대량 학살
페이스북은 미얀마를 방치했고, 상황은 악화되었습니다.
미얀마 군이 직접 페이스북 페이지를 개설하여 동조하기 시작했습니다.

미얀마 군은 페이스북 페이지를 뉴스 페이지로 둔갑한 후 로힝야 무슬림에 관한 선동과 날조를 계속했습니다. 위에 언급했던 것처럼 미얀마에서 페이스북은 곧 뉴스입니다.
몇 년 간 지속된 선동은 지역 주민들까지 로힝야 무슬림에 대한 분노가 가득 차도록 만들었습니다.
2017년 여름
로힝야 무슬림의 반군(ARSA)의 공격에, 보안군 12명이 살해되는 사건이 있었습니다. 그리고 이 사건은 군이 직접 개입할 명분으로 충분했습니다.

로힝야족 마을을 불태우며 이들을 몰아냈습니다. 군대가 주도하고 수년간 이어져 온 선전과 혐오 발언으로 급진화된 지역 주민들도 동참해서 피해는 더욱 컸어요.
수만명이 죽었고 79만명 이상이 이웃 나라 방글라데시 난민 캠프에 수용되었습니다.

UN은 이 상황을 인종 청소의 교과서적 사례라고 언급했습니다.
그리고 이런 참혹한 상황이 벌어지고 나서야 페이스북이 대응했습니다.

2018년, 페이스북은 마침내 폭력을 선동했던 미얀마 군 페이스북 페이지들을 정지시켰어요.
외부인의 시각에서는 이 사건은 자발적인 폭력 사건처럼 보일 수 있지만, 실제로는 수백만명과 연결되어 있는 알고리즘에 접근 가능했던 몇몇 사람들이 저지른 참사였습니다.
여러분은 안전하다고 생각하시나요?
미국 트위터에서 가짜 뉴스가 진짜 뉴스보다 6배 빨리 퍼진다는 조사 결과가 있었습니다.
과거처럼 가족들이 모여 텔레비전에서 같은 뉴스를 보는 것이 아닌,
알고리즘의 추천에 의해 내 취향에 맞게 선별된 뉴스만 보는 시대입니다.
여러분이 모르는 사이에, 알고리즘에 의해 거짓된 뉴스에 선동되지 않도록
건강한 소셜미디어 사용이 어느 때보다 중요한 시점인 것 같습니다.

알고루틴(algoroutine)은
유튜브 쇼츠, 틱톡, 인스타그램 등 보이지 않는 '디지털 도파민 자극제'와 건강한 관계를 맺을 수 있도록 도와주기 위해 탄생한 스타트업입니다. 현재 디지털 도파민을 유발시키는 소셜미디어 서비스(유튜브) 알고리즘을 한 눈에 파악하고, 측정할 수 있는 앱을 개발 중에 있습니다!
알고루틴 뉴스레터를 구독하시거나, 홈페이지에 이메일을 남겨주시면 앱을 런칭하기 전 가장 먼저 알고루틴 서비스를 이용할 수 있는 링크를 보내드리겠습니다!
여러분은 페이스북, 유튜브 틱톡 등등 소셜미디어의 알고리즘으로부터 안전하다고 생각하시나요?
아래 사진은 세계 최대 규모의 난민캠프 쿠투팔롱(Kutupalong refugee camp)입니다. 이곳의 이야기는 2017년, 이웃 나라 미얀마에서 발생한 인종 청소로 인해 수백만 명의 로힝야 무슬림 가족들이 방글라데시로 대피하면서 시작되었습니다.
미얀마는 과거부터 여러 민족 사이의 갈등이 많았던 나라였습니다.
하지만 로힝야 무슬림을 난민 캠프로 몰아넣은 폭력 사태의 경우는 좀 달랐어요.
이는 불교 민족주의자, 극단주의자, 심지어 미얀마 군의 선동적인 허위 정보와 혐오 메세지들 때문에 발생한 사건이었습니다.
그리고 이 사건은
소셜미디어 플랫폼 상의 잘못된 정보와 과격화에 대한 이야기 입니다.
미얀마 인터넷 보급과 페이스북
과거 독재 정치에서 벗어나, 새로운 지도부의 개방 정책과 함께, 미얀마의 휴대폰 보급은 급속도로 늘어나게 되었습니다.
미얀마의 휴대폰 보급률은 2013년 약 10% 정도에서 2016년에 90%까지 올랐는데요.
페이스북은 이 기회를 놓치지 않고, 미얀마라는 새로운 시장을 개척해 나갔죠.
페이스북은 현지 휴대폰 서비스 제공업체와 계약을 맺었습니다. 스마트폰을 보급할 때 페이스북 앱을 사전에 설치하게 했죠. 그리고 사람들이 페이스북을 사용할 때 값비쌌던 모바일 데이터 비용을 무료로 제공했습니다.
곧 미얀마에서는 페이스북 = 인터넷, 페이스북 = 뉴스가 되었습니다.
선동과 날조로 도배된 알고리즘
페이스북의 보급과 동시에 한 영상이 페이스북 알고리즘을 타기 시작했습니다.
알고리즘을 탄 영상의 주인공은 아신 위라투(Ashin Wirathu), 자신을 '미얀마의 빈 라덴'이라고 부르며, 미얀마 전역에서 종교적 갈등을 불러일으키고 있는 불교 승려였습니다.
'아신 위라투'는 반 로힝야족 설교자로, 거짓말과 음모를 퍼뜨리기 위해 과거에는 책들을 배포하며 선전했지만, 이후 페이스북의 등장으로 이를 활용하여 사람들을 선동하기 시작했습니다.
무슬림 소수민족에 대한 증오는 페이스북의 알고리즘을 타기 시작했고, 정말 많은 관련 컨텐츠들이 미얀마 페이스북을 뒤덮었습니다.
"로힝야 무슬림들이 불교 신자들과 싸우기 위해 무기를 비축하고 있다. 침략을 준비하고 있다"
이렇게 이야기는 퍼지면서 왜곡되었고, 갈등은 심해졌습니다. 결국 이러한 선동으로 일반 미얀마 시민들이 앞장서 로힝야 마을을 습격하고 불태우는 사건이 발행했죠.
보안군이 개입해서 막았어야 했지만, 이들은 방관했습니다. 목격자의 진술에 따르면 보안군은 로힝야 족의 집에 불을 지르고 있었는데도, 신경 쓰지 않았다고 해요.
이 2012년 사건으로 인해 정부는 공식적으로 192명이 사망하고 8600채의 가옥이 파괴되었다고 하지만 전문가들은 보고된 것보다 훨씬 큰 피해가 있었다고 합니다.
이 당시에 페이스북이 엄청난 영향력을 끼쳤다고 할 수는 없습니다. 하지만 페이스북 유저가 점점 늘어나면서,
거짓된 음모, 선동, 날조 > 페이스북 알고리즘 > 실제 폭력 사건 으로 이어지는 패턴은 지속적으로 더 많이 발생하기 시작했습니다.
페이스북은 귀를 막았다
저널리스트이자 디지털 연구자 엘라 캘런(Aela Callan)은 온라인 혐오 발언 관련 연구 중 이 사건에 대해 알게 되었고, 실리콘 밸리에 있는 페이스북을 찾아갔습니다.
"당신들은 지금 굉장히 위험한 일을 하고 있습니다. 미얀마가 아주 취약한 순간에 이 나라를 굉장히 불안정하게 만들고 있어요"
하지만 페이스북은 무시했습니다. 그리고 엘라 켈런은 페이스북에 버마어(미얀마어)를 구사하는 담당자가 딱 한 명 밖에 없다는 사실을 알게 되었습니다.
군의 개입, 그리고 대량 학살
페이스북은 미얀마를 방치했고, 상황은 악화되었습니다.
미얀마 군이 직접 페이스북 페이지를 개설하여 동조하기 시작했습니다.
미얀마 군은 페이스북 페이지를 뉴스 페이지로 둔갑한 후 로힝야 무슬림에 관한 선동과 날조를 계속했습니다. 위에 언급했던 것처럼 미얀마에서 페이스북은 곧 뉴스입니다.
몇 년 간 지속된 선동은 지역 주민들까지 로힝야 무슬림에 대한 분노가 가득 차도록 만들었습니다.
2017년 여름
로힝야 무슬림의 반군(ARSA)의 공격에, 보안군 12명이 살해되는 사건이 있었습니다. 그리고 이 사건은 군이 직접 개입할 명분으로 충분했습니다.
로힝야족 마을을 불태우며 이들을 몰아냈습니다. 군대가 주도하고 수년간 이어져 온 선전과 혐오 발언으로 급진화된 지역 주민들도 동참해서 피해는 더욱 컸어요.
수만명이 죽었고 79만명 이상이 이웃 나라 방글라데시 난민 캠프에 수용되었습니다.
UN은 이 상황을 인종 청소의 교과서적 사례라고 언급했습니다.
그리고 이런 참혹한 상황이 벌어지고 나서야 페이스북이 대응했습니다.
2018년, 페이스북은 마침내 폭력을 선동했던 미얀마 군 페이스북 페이지들을 정지시켰어요.
외부인의 시각에서는 이 사건은 자발적인 폭력 사건처럼 보일 수 있지만, 실제로는 수백만명과 연결되어 있는 알고리즘에 접근 가능했던 몇몇 사람들이 저지른 참사였습니다.
여러분은 안전하다고 생각하시나요?
미국 트위터에서 가짜 뉴스가 진짜 뉴스보다 6배 빨리 퍼진다는 조사 결과가 있었습니다.
과거처럼 가족들이 모여 텔레비전에서 같은 뉴스를 보는 것이 아닌,
알고리즘의 추천에 의해 내 취향에 맞게 선별된 뉴스만 보는 시대입니다.
여러분이 모르는 사이에, 알고리즘에 의해 거짓된 뉴스에 선동되지 않도록
건강한 소셜미디어 사용이 어느 때보다 중요한 시점인 것 같습니다.
알고루틴(algoroutine)은
유튜브 쇼츠, 틱톡, 인스타그램 등 보이지 않는 '디지털 도파민 자극제'와 건강한 관계를 맺을 수 있도록 도와주기 위해 탄생한 스타트업입니다. 현재 디지털 도파민을 유발시키는 소셜미디어 서비스(유튜브) 알고리즘을 한 눈에 파악하고, 측정할 수 있는 앱을 개발 중에 있습니다!
알고루틴 뉴스레터를 구독하시거나, 홈페이지에 이메일을 남겨주시면 앱을 런칭하기 전 가장 먼저 알고루틴 서비스를 이용할 수 있는 링크를 보내드리겠습니다!