A system for offensive language detection and automatic feedback with correction

Research

정보 교환 및 의견 공유를 위한 온라인 소셜 플랫폼의 활성화와 더불어, 인터넷을 매개로 한 언어 폭력이 심각한 사회 문제로 대두되고 있다. 건전한 온라인 소통 문화를 구축하기 위하여 유해 언어를 검열할 수 있는 연구들이 선행되어 왔으나, 성능이나 활용 범위에 있어 여전히 괄목할만한 성과를 나타내고 있지 못하다.

본 연구팀이 목표하는 솔루션은, 개개인이 독자의 입장에 있을 때 특정 플랫폼과 관계없이 스스로 판단하기에 원하지 않는, 그리고 잠재적인 피해를 만들어낼 수 있다고 생각하는 종류의 텍스트를 “읽지 않고자” 선택할 수 있도록 하는 기능을 제공하며, 동시에 개개인이 화자의 입장에 있을 때는 누군가 무고한 희생자를 만들어낼 수 있을 말에 대해 미리 인식할 수 있도록 도움을 받고, 이를 통해 피해를 만들어낼 수 있는 표현을 “쓰지 않고자” 선택할 수 있도록 한다. 개개인이 독자의 위치에서 제공받는 기능과 화자의 위치에서 제공받는 기능을 가능한 한 많은 사용자가 활용하게 되면 어느 시점 이후 상승효과를 가지게 되어 결국 유해 언어로 인한 피해 현상을 근절시킬 수 있을 것이라 판단한다. 그리고 강요없이 제공되는 개개인 중심적 선택지 제공이 인간 심리에 있어 플랫폼 중심적인 검열 방식에 비해 훨씬 더 높은 효과를 보일 것이라 판단한다.
  구체적으로, 제안하는 시스템은 다양한 언어학적 분석 결과에 근거하여 온라인상의 텍스트가 가지는 유해도를 맥락과 화자 독자의 특성을 기반으로 분석하고, 독자 입장에서 불편할 수 있는 콘텐츠를 경고 및 차단하는 것을 사용자가 선택할 수 있도록 하며, 화자 입장에서 작성되고 있는 글로 인해 피해를 받을 수 있는 잠재 집단을 명시하는 방식의 자세한 설명을 사용자가 선택하여 받을 수 있도록 하며 동시에 이를 대체할 수 있는 순화된 표현을 사용자가 선택하여 받을 수 있도록 한다. 제안하는 시스템은 인터넷을 매개로 시민들이 서로 주고받을 수 있는 직간접적인 언어 피해에 대한 방어벽을 사용자가 스스로 자유롭게 만들어낼 수 있도록 한다.
  본 연구팀은 제안하는 연구 기술 개발을 통해 개개인이 콘텐츠의 제공에 있어 독자로서 “보지 않을 권리” 혹은 “읽지 않을 권리”를 보다 적극적으로 행사할 수 있도록 하며 동시에 화자로서 (그리고 나아가 특정 대상의 사람들이 불쾌하게 느낄 수 있는 표현들에 대해서도) 개개인의 “표현할 권리”를 전혀 침해하지 않는 방식으로 동시에 개개인의 동기와 그 결정들이 낳을 수 있는 결과들에 대한 자세한 정보를 적극적으로 제공함을 통해 순화된 표현들을 선택할 수 있도록 적극적으로 독려한다. 그리고 제안하는 시스템은 화자가 본 연구팀이 제작한 시스템의 “선택 보조를 희망한다는 종류의 의사 표현”을 “보지 않을 권리” 혹은 “읽지 않을 권리” 역시 적극적으로 보장한다. 본 연구팀은 인터넷 상에서 유해 언어를 통해, 특히 맥락에 따라 누군가가 의도하지 않았지만 부적절한 의미 전달을 통해 무고한 피해가 발생하는 것을 근본적으로 해결하고자 하는 개개인 주도 방식의 IT 솔루션을 구축하고자 한다.