Augmented Communication by Natural Language Processing

Research

자연 언어를 통해 이루어지는 일상 생활에서의 의사 표현을 발화자/수신자의 유형 및 환경에 따라 변형하거나 증강하여 보다 효과적인 의사 전달을 가능하게 하는 기술을 연구합니다. 또한 정확하고 자연스러운 표현을 위하여 전달 내용을 심층 분석하는 기술을 연구합니다.

  • 텍스트(문자)의 내용을 음성, 수화, 애니메이션 등의 다양한 형태로 표현하는 기술
  • 내용에 관련된 배경 음악과 그림 등의 효과를 삽입하여 표현을 증강하는 기술
  • 텍스트의 내용에 대한 심층 분석을 통하여 문형, 의미, 감정 등의 정보를 정확하게 파악하고 이를 응용하는 기술
  • 치매 및 언어장애 환자의 말과 글에서 언어 사용 특성을 자동으로 파악하고 문제점을 진단하여 언어재활 및 적응을 도와주는 기술

대표 연구

수화 자동 번역 연구

TV, 인터넷과 같은 대중 매체에서 전달하는 텍스트 형태의 정보를 농인(청각장애인)을 위한 수화 형태로 변형하기 위해, 주어진 문헌의 감정, 문형 등을 파악하여 보다 자연스러운 수화로 생성하는 기술을 연구합니다. 특히 음성 언어와 다른 수화의 고유한 특징인 공간성, 동시성 등을 고려하여 한국어 문장을 적절한 수화 표현으로 대응시키는 연구를 진행하고 있습니다.

언어 장애 진단 및 재활 연구

치매 환자와 같이 언어 사용에 제약이 있는 사람들의 언어 사용 특성을 파악하여 언어 장애를 전산학적으로 진단할 수 있는 기술을 연구합니다. 즉, 이러한 연구에서는 언어 장애가 있는 사람들은 어떤 어휘를 선택하여 문장을 구성하는지 또는 대화 속에 나타나는 내용어들 간의 관계를 제대로 표현하고 있는지 등을 분석하여 이들의 언어 사용 특성을 모형화하고 있습니다. 또, 진단 기술에 의해 파악된 언어 장애 유형에 따라 어떤 언어 자극이 언어 장애 재활에 도움을 주는지도 연구하고 있습니다.

발화문장 상의 감정에 자연스러운 감정 음성 합성 연구

로봇과 사용자간의 상호작용에 있어 발화 의도와 분위기를 살린 로봇의 음성을 합성하기 위하여 감정이 실린 음성을 합성하는 기술을 연구합니다. 로봇이 발화할 내용으로부터 감정 상태를 자동으로 파악하고, 발화문장의 문형과 감정 상태에 따라 기본 음성(Text-to-Speech) 시스템을 통해 합성된 음성이나 미리 녹음된 육성)을 감정이 실린 음성으로 변환하는 연구를 진행하고 있습니다. 합성된 음성은 얼굴표정, 제스처와 같은 모달리티와 동기화되어 로봇의 감정/상황/의도를 자동으로 표현하는 기술을 개발하는 과제에 활용되고 있습니다.

리소스

http://nlp.kaist.ac.kr/resources