메타, 스냅챗, 틱톡이 드디어 그들의 플랫폼에서 호스팅되는 일부 콘텐츠의 해로운 영향에 대해 뭔가를 하기로 함께 했다. 그리고 이제야 할 일이다.
정신 건강 연합과 협력하여 세 브랜드는 자살 및 자해와 관련된 콘텐츠를 표기하고 안전하게 공유하기 위해 설계된 '쓰라이브'라는 프로그램을 사용하고 있다.
메타 블로그 게시물에는 "다른 유형의 잠재적으로 문제가 될 수 있는 콘텐츠와 마찬가지로, 자살 및 자해 콘텐츠는 특정 플랫폼에 국한되지 않는다... 그래서 우리는 정신 건강 연합과 협력하여 자살 및 자해 콘텐츠를 위반하는 신호를 공유하는 첫 번째 신호 공유 프로그램인 '쓰라이브'를 설립했다"고 적혀 있다.
"쓰라이브를 통해 참여하는 기술 회사들은 자살 또는 자해 콘텐츠를 위반하는 신호를 공유할 수 있어, 다른 회사들이 그들의 플랫폼에서 동일하거나 유사한 콘텐츠가 공유되고 있는지 조사하고 조치를 취할 수 있다. 메타는 쓰라이브의 기술 인프라를 제공하고 있으며, 이를 통해 신호를 안전하게 공유할 수 있다."
참여 회사인 메타가 앱에서 해로운 콘텐츠를 발견하면, 자해 또는 자살과 관련된 콘텐츠 조각에 대한 익명화된 코드인 해시를 다른 기술 회사와 공유하여 그들이 자신의 데이터베이스에서 동일한 콘텐츠를 조사할 수 있도록 한다. 이러한 콘텐츠는 플랫폼 간에 퍼지는 경향이 있다.
분석: 좋은 시작
사용자가 자신의 콘텐츠를 업로드하는 플랫폼이 존재하는 한, 규정을 위반하고 온라인에서 해로운 메시지를 퍼뜨리는 이들이 있을 것이다. 이는 사기꾼들이 가짜 강의를 판매하려 하거나, 어린이를 대상으로 한 채널에서 부적절한 콘텐츠를 게시하거나, 자살 또는 자해와 관련된 콘텐츠를 포함할 수 있다. 이러한 콘텐츠를 게시하는 계정은 일반적으로 규칙을 피하고 목표 청중에게 도달하기 위해 매우 능숙하다. 콘텐츠는 종종 너무 늦게 삭제된다.
소셜 미디어 플랫폼이 사용자들을 중독시키기 위해 포괄적인 알고리즘과 카지노 같은 구조를 사용하고, 그들이 참여할 콘텐츠를 자동으로 제공하는 것에 대해 실제로 책임을 지고 함께 일하는 모습을 보니 좋다. 이러한 인기 있는 소셜 미디어 앱 간의 윤리적 협력이 절실히 필요하다. 그러나 이것은 성공으로 가는 첫 번째 단계일 뿐이다.
사용자 생성 콘텐츠의 문제는 지속적으로 감시해야 한다는 것이다. 인공지능이 해로운 콘텐츠를 자동으로 표기하는 데 도움을 줄 수 있지만, 여전히 일부는 통과할 것이다. 이 콘텐츠는 미묘한 경우가 많아, 체인 어딘가에 있는 인간이 이를 보고 해로운 것으로 표기해야 한다. 메타, 틱톡 및 기타 회사들이 해로운 콘텐츠에 대한 정책을 발전시키는 모습을 계속 지켜볼 것이다.