페이스북과 마이크로소프트, 트위터, 유튜브 등 글로벌 IT 기업은 앞으로 테러나 극단주의자들의 콘텐츠를 규제하는 데 합의했다. 모니터링 요원이 별도의 확인 절차를 거치지 않아도 인공지능(AI) 기술을 적용해 자동으로 테러나 선정적인 장면의 콘텐츠 삭제가 가능하도록 할 계획이다.

우선 페이스북 AI는 테러리즘과 관련한 잔인한 이미지와 영상을 식별한 후 업로드를 제재하는 업무부터 수행할 것으로 보인다. AI 스스로 테러와 관련한 단어나 문구, 사진 등을 학습해 관련 사이트를 추적해 제재하거나 악성 콘텐츠 유포자를 색출하는 등 자체 검열을 점차 확대할 방침이다. 페이스북은 그동안 전 세계적으로 잔혹하고 해로운 콘텐츠를 걸러내고자 4,500명의 모니터링팀을 운영해 왔다. 여기에 3,000명을 추가 고용할 예정이다. 페이스북은 현재 테러 관련 콘텐츠만 따로 모니터링하는 직원이 현재 150여명 정도 근무하고 있는 것으로 파악되고 있다.

 (출처 : Miss Ty / shutterstock.com)

구글과 유튜브도 이에 동참했다. 두 기업은 머신러닝 기술을 활용해 테러 및 극단주의자들의 동영상을 1차적으로 자동식별을 거친 후 차단한다. 이후 2차적으로 실제 관련 전문가를 통해 관련 조치를 더 빠르고 면밀하게 진행할 것으로 알려졌다. 특히 유튜브는 자동화된 기술을 이용해 이미 테러 관련 콘텐츠를 자체 삭제 및 근절에 앞장서고 있다. 지난해 7월부터 12월까지 내부 툴을 이용해 삭제한 콘텐츠만 약 37만 6,890건에 이를 정도다.

이들 기업은 또 정부와 시민사회단체, 학계 등 반(反)테러 전문가들과 테러에 대한 대응, 학습을 함께 하기로 했다. 대표적으로 유엔 대테러사무국(UN CTED)과 파트너십을 통해 테러 정보를 공유하는 워크숍을 가질 계획을 밝혔다.

4개사는 중소기업과 협력방안도 내놓았다. 이들 기업은 중소기업들이 테러리스트 콘텐츠를 막을 수 있도록 지도하며 이에 필요한 기술개발도 지원할 것을 약속했다. 그동안 성공적으로 진행돼 온 유튜브의 ‘변화를 위한 크리에이터(Creators for Change)’, 페이스북의 ‘온라인 시민의식 이니셔티브(OCCI)’, 트위터의 ‘글로벌 NGO 교육 프로그램’ 등 올바른 콘텐츠를 위한 기존의 교육들도 계속될 예정이다.

이처럼 글로벌 기업들은 온라인 상의 테러리즘과 자극적인 콘텐츠 확산을 예방하기 위해 기술 및 운영 차원의 협조와 공유를 상호 간에 진행할 것으로 합의했으며, 이미지나 영상이 갖는 해시값을 이용해 공동 대응하기로 했다. 해시값은 각각의 고유 정보를 갖고 있어 디지털 지문이라 불리기도 한다.

한편, 유럽연합(EU)은 구글, 페이스북, 트위터 등이 능동적으로 불법 콘텐츠 제거를 할 수 있는 방안을 마련했다. 이 방안의 가이드라인에는 ‘온라인 플랫폼은 테러나 자극적인 콘텐츠 문제를 해결하기 위해 대응력을 높이고, 불법 콘텐츠 제거와 효과적인 제재, 조치 및 절차를 수립해 사용자와 효과적으로 커뮤니케이션할 수 있는 인터페이스를 구축해야 한다’고 소개하고 있다.

 

 

Leave A Reply