KR20180039371A - 자동 통역 시스템 - Google Patents

자동 통역 시스템 Download PDF

Info

Publication number
KR20180039371A
KR20180039371A KR1020160130599A KR20160130599A KR20180039371A KR 20180039371 A KR20180039371 A KR 20180039371A KR 1020160130599 A KR1020160130599 A KR 1020160130599A KR 20160130599 A KR20160130599 A KR 20160130599A KR 20180039371 A KR20180039371 A KR 20180039371A
Authority
KR
South Korea
Prior art keywords
translation
result
error
unit
interpretation
Prior art date
Application number
KR1020160130599A
Other languages
English (en)
Inventor
김운
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020160130599A priority Critical patent/KR20180039371A/ko
Publication of KR20180039371A publication Critical patent/KR20180039371A/ko

Links

Images

Classifications

    • G06F17/289
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 자동 통역 시스템에 관한 것으로, 본 발명의 실시 예에 따른 자동 통역 시스템은, 자동 통역 시스템은, 사용자로부터의 음성 혹은 테스트를 입력받고, 음성인식 결과 혹은 번역 결과를 제공하는 인터페이스부; 입력되는 음성에 대한 인식을 수행하는 한편, 텍스트에 대한 번역을 수행하고, 번역 결과에 대해 음성 합성을 수행하는 통역부; 및 상기 인터페이스로부터 제공되는 음성 혹은 텍스트를 상기 통역부로 제공하는 한편, 상기 통역부로부터 제공되는 음성인식 결과 혹은 번역 결과에 대한 검증을 수행하여, 음성인식 결과 혹은 번역 결과에 오류가 있는 것으로 판단하면, 오류 내용 및 오류 교정 요청을 상기 인터페이스를 통해 표시하는 에이전트부를 포함한다.

Description

자동 통역 시스템{Automatic Interpretation System}
본 발명은 자동 통역 시스템에 관한 것으로, 상세하게는 사용자와의 상호 작용을 통하여 자동 통역의 오류를 교정할 수 있는 자동 통역 시스템에 관한 것이다.
실시간 통역함에 있어서 가장 중요한 것은 발화자의 대화 의도 혹은 대화 내용을 정확하게 통역하여 상대방에게 전달하는 것이다. 통역이 정확히 이루어지지 않는 경우, 대화나 강의를 더 한다는 것은 아무 의미가 없다.
통역 과정에서 다양한 종류의 예상치 못한 이유로 인하여 통역이 제대로 이루어지지 않는 경우가 발생한다.
통역 과정에서 발생하는 오류는 통역 시스템의 기술적 한계에 기인하는 경우도 있으나, 그 외에도 사용자 발화에 내포되어 있는 언어적 또는 음성적 모호성에 기인하는 경우도 있다.
따라서, 언어적 또는 음성적 모호성을 통역 시스템과 사용자의 상호 작용을 통해 해소한다면, 통역 시스템은 보다 더 정확한 통역을 할 수 있게 된다.
음성적 모호성은 발음 속도, 주변 잡음, 음성 인식이 어려운 왜곡된 발음(ex, ‘승리’를 ‘성리’로 발음하는 경우) 등에 기인하고, 언어적 모호성은 완전한 문장을 사용하지 않고 주어나 목적어가 없는 문장을 사용하거나, 어려운 용어를 사용하는 경우(ex, 외국인이 이해하기 어려운 ‘꿀팁’과 같은 용어를 사용)에 발생할 수 있다.
종래의 통역 시스템은 발화자의 음성을 입력으로 받아 발화 음성을 인식한 후 통역하고자 하는 언어로 변환하여 통역 결과를 출력한다.
따라서, 정확하지 않은 발음이 통역 시스템에 입력된다면, 음성 인식이 정확하게 이루어지지 않을 수 있고, 이에 따라 통역 결과도 정확하지 않게 된다.
또한, 정확한 음성 인식이 이루어질 수 있는 발음이 통역 시스템에 입력되더라도, 발화자가 어려운 용어나 문법에 맞지 않은 문장을 사용하였다면, 통역 시스템은 정확한 통역 결과를 출력할 수 없다.
한편, 대부분의 통역 시스템은 음성이 입력되는 경우, 음성의 정확성 등과 무관하게, 입력된 음성에 대한 통역 결과를 출력해야 하며, 사용자에게 통역 결과를 주지 않고 사용자가 통역하기 쉬운 형태나 정확한 표현을 사용하도록 유도하기는 더욱 어렵다.
최근 들어, 인터넷과 모바일 환경의 발달로 대용량 데이터가 서버에 수집되고 처리됨에 따라, 자동 번역 성능 또한 많이 향상되어, 자동 통번역 기능을 이용하는 이용자가 증가하고 있는 추세이다.
특히, 자동 통번역 기술 분야에서는, 오타 인식을 통한 사용자 입력 문장 후보 제시 서비스라든지, 번역 결과에 대한 사용자 평가 및 정확한 전문가 번역 등 사용자와의 상호 작용을 통해 자동 번역 시스템의 성능 향상을 도모하고 있다.
하지만, 현재 제공되는 서비스는 단순한 오타 분석이나 사용자가 번역 결과에 개입하도록 하는 단순한 서비스에 초점을 맞추고 있다. 또한, 통역 서비스는 음성 인식 기술과 자동 번역 기술이 결합된 기술로 자동으로 오류를 추정하기는 어려운 것이 현실이다.
따라서, 본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위하여 제안된 것으로, 본 발명의 목적은, 사용자와의 상호 작용을 통하여 자동 통역의 오류를 교정할 수 있는 자동 통역 시스템을 제공함에 있다.
상기와 같은 목적을 달성하기 위한 본 발명의 실시 예에 따른 자동 통역 시스템은, 사용자로부터의 음성 혹은 테스트를 입력받고, 음성인식 결과 혹은 번역 결과를 제공하는 인터페이스부; 입력되는 음성에 대한 인식을 수행하는 한편, 텍스트에 대한 번역을 수행하고, 번역 결과에 대해 음성 합성을 수행하는 통역부; 및 상기 인터페이스로부터 제공되는 음성 혹은 텍스트를 상기 통역부로 제공하는 한편, 상기 통역부로부터 제공되는 음성인식 결과 혹은 번역 결과에 대한 검증을 수행하여, 음성인식 결과 혹은 번역 결과에 오류가 있는 것으로 판단하면, 오류 내용 및 오류 교정 요청을 상기 인터페이스를 통해 표시하는 에이전트부를 포함한다.
이와 같은 본 발명의 실시 예에 따르면, 자동 통역 시스템은 통역을 하는 과정에서 음성 인식 결과에 오류가 있거나, 번역 결과에 오류가 있는 경우에, 오류 내용을 사용자에게 알려주고, 오류 교정을 위한 정보를 사용자로부터 입력받을 수 있다.
따라서, 자동 통역 시스템은 입력되는 음성 혹은 텍스트에 대해 독립적으로 결과를 생성하는 것이 아니라, 오류 발생한 대한 피드백을 사용자로부터 받기 때문에, 정확한 통역 결과를 제공할 수 있다.
이와 같이, 본 발명의 자동 통역 시스템은 자동 통역 시스템과 사용자 간의 상호 작용을 통해 정확한 통역 결과를 사용자에게 제공하기 때문에, 강의 혹은 대화 시, 사용자는 정확한 의사 전달이 가능하다.
도 1은 본 발명의 바람직한 실시 예에 따른 자동 통역 시스템의 구성의 일례를 도시한 도면이다.
도 2는 본 발명의 바람직한 실시 예에 따른 자동 통역 시스템에 의해 이루어지는 통역 과정을 순차적으로 도시한 순서도이다.
도 3은 본 발명의 바람직한 실시 예에 따른 자동 통역 시스템의 통역 과정에 따른 각 단계별 결과가 표시된 일례를 도시한 도면이다.
본문에 개시되어 있는 본 발명의 실시 예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시 예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시 예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시 예들에 한정되는 것으로 해석되어서는 안 된다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 “~사이에”와 “바로 ~사이에” 또는 “~에 이웃하는”과 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, “포함하다” 또는 “가지다” 등의 용어는 개시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
한편, 어떤 실시 예가 달리 구현 가능한 경우에 특정 블록 내에 명기된 기능 또는 동작이 순서도에 명기된 순서와 다르게 일어날 수도 있다. 예를 들어, 연속하는 두 블록이 실제로는 실질적으로 동시에 수행될 수도 있고, 관련된 기능 또는 동작에 따라서는 상기 블록들이 거꾸로 수행될 수도 있다.
이하, 본 발명에서 제안하는 자동 통역 시스템 및 이를 이용한 통역 방법에 대하여 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 바람직한 실시 예에 따른 자동 통역 시스템의 구성의 일례를 도시한 도면이다.
도 1을 참조하면, 본 발명의 바람직한 실시 예에 따른 자동 통역 시스템(100)은 기능 수행을 위한 적어도 하나 이상의 프로세서와 기능 수행에 필요한 정보 혹은 수행 결과를 저장하는 메모리를 포함한다.
구체적으로, 상기 시스템(100)은 인터페이스부(110), 에이전트부(120), 음성 인식부(130), 자동 번역부(140), 음성 합성부(150)를 포함한다. 이하에서는, 음성 인식부(130), 자동 번역부(140) 및 음성 합성부(150)를 포함하여 ‘통역부(190)’라고 명명한다.
이에 더하여, 상기 시스템(100)은 음성 인식 데이터베이스(160), 번역 정보 데이터베이스(170) 및 음성 합성 데이터베이스(180)를 포함한다.
상기 인터페이스부(110)는 대화자 또는 강의자(이하, 사용자로 통칭함)의 음성 혹은 사용자가 작성하는 텍스트를 입력받아 에이전트부(120)로 제공할 수 있도록 구현된다.
또한, 상기 인터페이스부(110)는 에이전트부(120)로부터 제공되는 음성인식 결과 또는 번역 결과를 제공하는 한편, 사용자와 시스템(100) 간의 상호 작용을 위한 과정 및 결과를 음성 또는 텍스트로 제공할 수 있도록 구현된다.
상기 에이전트부(120)는 인터페이스부(110)와 통역부(190) 사이에 위치하여, 인터페이스부(110)로부터 제공되는 정보를 통역부(190)로 전달하고, 통역부(190)로부터 제공되는 정보를 인터페이스부(110)로 전달한다.
또한, 상기 에이전트부(120)는 통역부(190)로부터 제공되는 정보에 대한 검증을 수행하여, 통역부(190)로부터 제공되는 정보에 오류(혹은 모호성)가 있는 것으로 판단하면, 오류 내용을 인터페이스부(110)로 제공하여, 인터페이스부(110)가 오류 내용을 표시하도록 함으로써, 사용자는 오류 내용을 확인할 수 있다.
또한, 상기 에이전트부(120)에는 오류 내용에 따라 오류 교정을 위해 사용자에게 의견을 구하는 내용의 요청이 기 설정되어 있기 때문에, 에이전트부(120)는 오류 내용과 함께 오류 교정 요청을 인터페이스부(110)로 제공하여, 인터페이스부(110)가 오류 내용과 함께 오류 교정 요청을 표시하도록 함으로써, 사용자는 오류 내용을 확인하고, 오류 교정 요청에 적절한 응답을 할 수 있다.
그리고, 상기 에이전트부(120)는 오류 교정 요청에 대한 응답을 인터페이스부(110)를 통해 제공받아, 응답을 반영하여 오류를 교정할 수 있도록 구현된다.
상기 음성 인식부(130)는 에이전트부(120)로부터 제공되는 음성에 대한 인식을 수행하여, 음성인식 결과를 에이전트부(120)로 제공한다.
이때, 상기 음성 인식부(130)는 음성 인식 데이터베이스(160)에 저장된 정보를 바탕으로 음성 인식을 수행할 수 있다.
상기 자동 번역부(140)는 에이전트부(120)로부터 제공되는 텍스트를 사용자가 원하는 타 언어로 번역하고, 번역 결과를 에이전트부(120)로 제공한다. 예를 들어, 상기 텍스트가 한국어로 되어 있는 경우에 영어로 번역할 수 있다.
이때, 상기 자동 번역부(140)는 번역 정보 데이터베이스(170)에 저장된 정보를 바탕으로 번역을 수행할 수 있다.
상기 음성 합성부(150)는 에이전트부(120)로부터 제공되는 번역 결과를 음성 합성하고, 음성합성 결과를 에이전트부(120)로 제공한다.
이때, 상기 음성 합성부(150)는 음성 합성 데이터베이스(180)에 저장된 정보를 바탕으로 음성 합성을 수행할 수 있다.
상기 음성 인식 데이터베이스(160)는 음성 인식부(130)가 음성 인식을 수행하는 데에 필요한 정보를 저장하고 있으며, 예를 들어, 음성 인식부(130)가 구현된 기술에 따라, 음성 발화 학습 모델, 인식된 단어가 어떤 단어인지를 결정하는 언어 모델 등을 저장할 수 있다.
상기 번역 정보 데이터베이스(170)는 자동 번역부(140)가 번역을 수행하는 데에 필요한 정보를 저장하고 있으며, 예를 들어, 자동 번역부(140)가 구현된 기술에 따라, 형태소분석 관련 정보, 구문분석 관련 정보, 대역어 및 변환 패턴 관련 정보, 생성 정보, 언어모델 정보 등을 저장할 수 있다.
상기 음성 합성 데이터베이스(180)는 음성 합성부(150)가 음성을 합성하는 데에 필요한 정보를 저장하고 있다.
이상에서는 본 발명의 바람직한 실시 예에 따른 자동 통역 시스템의 구성별 기능에 대해서 살펴보았다. 이하에서는 자동 통역 시스템의 구성 중 에이전트부의 기능에 대해서 좀 더 구체적으로 살펴보도록 한다.
상기에서 살펴보았듯이, 에이전트부(120)는 인터페이스부(110)와 통역부(190) 사이에 위치하여, 인터페이스부(110)로부터 제공되는 정보를 통역부(190)로 전달하고, 통역부(190)로부터 제공되는 정보를 인터페이스부(110)로 전달한다.
구체적으로, 상기 에이전트부(120)는 인터페이스부(110)로부터 제공되는 음성을 음성 인식부(160)로 제공한다.
그리고, 상기 에이전트부(120)는 음성 인식부(160)로부터 제공되는 텍스트 형태의 음성인식 결과에 대한 검증을 수행하여, 음성인식 결과로서의 텍스트에 오류가 없는 것으로 판단하면, 텍스트를 자동 번역부(140)로 제공한다.
반면, 상기 에이전트부(120)는 음성인식 결과로서의 텍스트에 오류가 있는 것으로 판단하면, 인식 오류 내용과 오류 교정 요청을 인터페이스부(110)로 제공하여, 인터페이스부(110)가 인식 오류 내용과 오류 교정 요청을 표시하도록 한다.
여기서, 오류가 있는지에 대한 판단 기준은 다양하게 설정될 수 있는데, 예를 들면, ‘갔다’와 ‘같다’와 같이, 표기는 다르나 발음이 동일하거나 유사한 단어가 사용된 경우는 모호성(다중인식이 가능)이 있기 때문에 오류가 있는 것으로 판단할 수 있다.
예를 들어, 상기 에이전트부(120)는 다중 인식이 되는 단어인 ‘갔다’와 ‘같다’를 표시하고, 어느 단어를 선택할 것인지를 문의하는 내용의 오류 교정 요청을 표시할 수 있다.
그리고, 상기 에이전트부(120)는 오류 교정 요청에 대한 응답을 인터페이스부(110)를 통해 제공받으면, 응답을 반영하여 오류를 교정한 후, 오류 교정된 텍스트를 자동 번역부(140)로 제공한다.
한편, 상기 에이전트부(120)는 자동 번역부(140)로부터 제공되는 번역 결과에 대한 검증을 수행하여, 번역 결과에 오류가 없는 것으로 판단하면, 번역 결과를 음성 합성부(150)로 제공한다.
반면, 상기 에이전트부(120)는 번역 결과에 오류가 있는 것으로 판단하면, 번역 결과와 오류 교정 요청을 인터페이스부(110)로 제공하여, 인터페이스부(110)가 번역 결과와 오류 교정 요청을 표시하도록 한다.
상기 에이전트부(120)는 다양한 내용의 오류 교정 요청을 제공할 수 있는데, 예를 들어, 상기 에이전트부(120)는 현재의 번역 결과를 그대로 사용할 것인지를 문의하는 내용의 오류 교정 요청을 할 수 있다.
또한, 상기 에이전트부(120)는 대역어가 없는 용어가 있는 경우에, 해당 용어가 인명인지, 지명인지 아니면 신조어인지를 문의하는 내용의 오류 교정 요청을 할 수 있다.
또한, 상기 에이전트부(120)는 다중 의미를 갖는 용어가 있고, 해당 용어의 의미를 문장 전체에서 결정할 수 없는 경우, 사용자의 선택을 요청하는 내용의 오류 교정 요청을 할 수 있다.
또한, 상기 에이전트부(120)는 번역 과정에서 구문적으로 분석이 안 된 경우가 있거나 번역 과정에 패턴이 부족할 경우, 사용자에게 입력 문장을 수정하도록 하는 내용의 오류 교정 요청을 할 수 있다.
그리고, 상기 에이전트부(120)는 오류 교정 요청에 대응 응답을 인터페이스(110)를 통해 제공받으면, 응답을 반영하여 이후의 동작을 수행하게 된다.
예를 들어, 현재의 번역 결과를 그대로 사용할 것인지를 문의하는 내용의 오류 교정 요청에 대한 응답으로, 현재의 번역 결과를 그대로 사용하겠다는 내용이 인터페이스부(110)를 통해 제공되면, 상기 에이전트부(120)는 현재의 번역 결과를 음성 합성부(150)로 제공한다.
반면, 현재의 번역 결과를 그대로 사용할 것인지를 문의하는 내용의 오류 교정 요청에 대한 응답으로, 현재의 번역 결과를 사용하지 않겠다는 내용이 인터페이스부(110)를 통해 제공되면, 상기 에이전트부(120)는 사용자가 음성 또는 텍스트 형태로 원문을 수정할 수 있는 수정 수단을 인터페이스부(110)를 통해 제공한다.
그러면, 사용자는 인터페이스부(110)를 통해 제공되는 수정 수단을 통해 원하는 내용을 음성 또는 텍스트로 입력한다.
이와 같이 새로 입력된 음성 또는 텍스트는 에이전트부(120)를 통해 음성 인식부(130) 혹은 자동 번역부(140)로 제공되어, 음성 인식되거나 번역된다.
이하에서는 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 따른 자동 통역 시스템의 통역 과정에 대해서 순차적으로 살펴보기로 한다.
도 2는 본 발명의 바람직한 실시 예에 따른 자동 통역 시스템에 의해 이루어지는 통역 과정을 순차적으로 도시한 순서도이다.
도 2에 도시되어 있는 과정은 도 1에 도시되어 있는 자동 통역 시스템(100)에 의해 수행될 수 있는 것으로서, 먼저, 통역의 대상인 음성 혹은 텍스트가 자동 통역 시스템(100)에 입력된다(S200).
상기 자동 통역 시스템(100)을 이용하여 통역 서비스를 제공받고자 하는 사용자가 원하는 내용을 발화를 통해 혹은 텍스트를 통해 자동 통역 시스템(100)에 입력한다.
그러면, 자동 통역 시스템(100)은 통역 대상의 종류에 따라 음성 인식을 수행하거나 번역을 수행하여, 수행 결과를 생성한다(S210).
구체적으로, 통역 대상이 음성인 경우, 자동 통역 시스템(100)은 음성 인식을 수행하여 음성인식 결과를 생성하고(S211), 통역 대상이 텍스트인 경우, 자동 통역 시스템(100)은 번역을 수행하여 번역 결과를 생성한다(S212).
상기 단계 S210 이후, 자동 통역 시스템(100)은 음성인식 결과 혹은 번역 결과에 대한 검증을 수행하여 오류 발생 여부를 판단한다(S220).
구체적으로, 통역 대상이 음성인 경우, 자동 통역 시스템(100)은 음성인식 결과에 대한 검증을 수행하여 오류 발생 여부를 판단하고(S221), 통역 대상이 텍스트인 경우, 자동 통역 시스템(100)은 번역 결과에 대한 검증을 수행하여 오류 발생 여부를 판단한다(S222).
상기 단계 S220에서의 판단 결과, 오류가 발생하지 않은 것으로 판단하면, 자동 통역 시스템(100)은 기 설정된 이후의 과정을 수행하고, 오류가 발생한 것으로 판단하면, 자동 통역 시스템(100)은 수행 결과와 오류 교정 요청을 표시한다(S230).
구체적으로, 통역 대상이 음성인 경우에 있어서는, 오류가 발생하지 않은 것으로 판단하면, 자동 통역 시스템(100)은 음성인식 결과에 대한 번역을 수행하고(S231), 오류가 발생한 것으로 판단하면, 자동 통역 시스템(100)은 음성인식 결과와 오류 교정 요청을 표시한다(S232).
그리고, 통역 대상이 텍스트인 경우에 있어서는, 오류가 발생하지 않은 것으로 판단하면, 자동 통역 시스템(100)은 번역 결과를 음성 합성하여, 음성합성 결과를 출력하고(S233), 오류가 발생한 것으로 판단하면, 자동 통역 시스템(100)은 번역 결과와 오류 교정 요청을 표시한다(S234).
상기 단계 S230에서 오류가 발생한 것으로 판단하여 자동 통역 시스템(100)이 수행 결과와 오류 교정 요청을 표시한 후(S232, S234), 오류 교정 요청에 대한 응답을 제공받으면, 자동 통역 시스템(100)은 응답을 반영하여 오류에 대한 교정을 수행하고, 기 설정된 순서에 따라, 번역을 수행하거나, 음성 합성을 수행한다(S240).
구체적으로, 상기 단계 S232에서의 오류 교정 요청에 대한 응답을 제공받으면, 자동 통역 시스템(100)은 오류 교정 요청에 대한 응답을 반영하여 음성인식 결과를 교정하고, 교정된 음성인식 결과에 대한 번역을 수행한다(S241).
그리고, 상기 단계 S234에서의 오류 교정 요청에 대한 응답을 제공받으면, 자동 통역 시스템(100)은 오류 교정 요청에 대한 응답을 반영하여 번역 결과를 교정하고, 교정된 번역 결과에 대해 음성 합성을 수행한다(S242).
한편, 상기 단계 S231에서의 번역 수행 결과와 단계 S241에서의 번역 수행 결과에 대해서 다른 언어로 통역하고자 하는 경우, 자동 통역 시스템(100)은 단계 S212로 피드백된다.
도 3은 본 발명의 바람직한 실시 예에 따른 자동 통역 시스템의 통역 과정에 따른 각 단계별 결과가 표시된 일례를 도시한 도면이다.
도 3을 참조하여 본 발명의 자동 통역 시스템의 통역 과정을 살펴보면, 자동 통역 시스템(100)은 입력되는 음성에 대한 인식을 수행하여 구문 ‘모두 갔다’를 인식하고(301), 다중 인식에 따른 인식 오류가 있음을 판단하면, 302와 같이 표기하는 한편, 사용자의 선택을 위한 오류 교정 요청을 표기한다(303).
사용자의 선택이 입력되면(304), 자동 통역 시스템(100)은 사용자의 선택을 반영하여, 음성 인식 결과에 대한 번역을 수행하여, 번역 결과를 표시하는 한편(305), 번역 오류가 있는 것으로 판단하면, 306과 같이 번역 오류가 있음을 표기하고, 사용자의 선택을 위한 오류 교정 요청을 표기한다(307).
사용자의 선택이 입력되면(308), 자동 통역 시스템(100)은 사용자의 선택에 따라 동작을 하는데, 본 실시 예에서는 사용자가 No를 선택하여 다시 음성을 입력한 것을 예로 들어 설명한다.
308에서와 같이, 사용자가 No를 선택함에 따라, 자동 통역 시스템(100)은 다시 음성을 입력받고, 입력되는 음성에 대한 인식을 수행하여(309), 음성 결과에 오류가 없다고 판단되면(310), 인식된 결과에 대해 번역을 수행하고(311), 번역 결과에 오류가 없으며(312), 번역 결과를 출력한다.
한편, 본 발명의 일 실시 예에 따른 자동 통역 시스템을 도시한 도 1의 블록들은 발명의 원리를 기능적 관점에서 구체화한 예로 이해되어야 한다.
이와 유사하게, 도 2에 도시된 동작은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.
프로세서 또는 이와 유사한 개념으로 표시된 도 1의 블록들과 도 2의 단계들은 전용 하드웨어뿐만 아니라 소프트웨어를 실행할 수 있는 하드웨어의 사용으로 구체화될 수 있다.
도 1의 블록들과 도 2의 단계들이 프로세서에 의해 구현될 때, 도 1에 도시한 각 블록들의 기능과 도 2의 각 단계에서 수행되는 처리 과정은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.
또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 수 있는 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 물론 주지관용의 다른 하드웨어도 포함될 수 있다.
이상에서와 같이, 본 발명에 따른 자동 통역 시스템을 실시 예에 따라 설명하였지만, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 본 발명과 관련하여 통상의 지식을 가진 자에게 자명한 범위 내에서 여러 가지의 대안, 수정 및 변경하여 실시할 수 있다.
따라서, 본 발명에 기재된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.
100 : 자동 통역 시스템 110 : 인터페이스부
120 : 에이전트부 130 : 음성 인식부
140 : 자동 번역부 150 : 음성 합성부
160 : 음성 인식 데이터베이스 170 : 번역 정보 데이터베이스
180 : 음성 합성 데이터베이스 190 : 통역부

Claims (1)

  1. 사용자로부터의 음성 혹은 테스트를 입력받고, 음성인식 결과 혹은 번역 결과를 제공하는 인터페이스부;
    입력되는 음성에 대한 인식을 수행하는 한편, 텍스트에 대한 번역을 수행하고, 번역 결과에 대해 음성 합성을 수행하는 통역부; 및
    상기 인터페이스로부터 제공되는 음성 혹은 텍스트를 상기 통역부로 제공하는 한편, 상기 통역부로부터 제공되는 음성인식 결과 혹은 번역 결과에 대한 검증을 수행하여, 음성인식 결과 혹은 번역 결과에 오류가 있는 것으로 판단하면, 오류 내용 및 오류 교정 요청을 상기 인터페이스를 통해 표시하는 에이전트부를 포함하는
    자동 통역 시스템.
KR1020160130599A 2016-10-10 2016-10-10 자동 통역 시스템 KR20180039371A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160130599A KR20180039371A (ko) 2016-10-10 2016-10-10 자동 통역 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160130599A KR20180039371A (ko) 2016-10-10 2016-10-10 자동 통역 시스템

Publications (1)

Publication Number Publication Date
KR20180039371A true KR20180039371A (ko) 2018-04-18

Family

ID=62082891

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160130599A KR20180039371A (ko) 2016-10-10 2016-10-10 자동 통역 시스템

Country Status (1)

Country Link
KR (1) KR20180039371A (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200090580A (ko) * 2019-01-21 2020-07-29 (주)한컴인터프리 스마트 의류를 이용하는 통번역 시스템
KR20220111825A (ko) * 2021-02-02 2022-08-10 주식회사 휴텍씨 분배모델을 기반으로 번역서비스를 제공하기 위한 시스템
KR20220111801A (ko) * 2021-02-02 2022-08-10 주식회사 휴텍씨 분배모델을 기반으로 통역서비스를 제공하기 위한 시스템
KR20230169608A (ko) * 2022-06-09 2023-12-18 김준수 컨텍스트 기반의 텍스트 오류 교정 방법 및 시스템
WO2024106934A1 (ko) * 2022-11-16 2024-05-23 삼성전자 주식회사 Tts(text to speech) 모델을 포함하는 전자 장치 및 이의 제어 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200090580A (ko) * 2019-01-21 2020-07-29 (주)한컴인터프리 스마트 의류를 이용하는 통번역 시스템
KR20220111825A (ko) * 2021-02-02 2022-08-10 주식회사 휴텍씨 분배모델을 기반으로 번역서비스를 제공하기 위한 시스템
KR20220111801A (ko) * 2021-02-02 2022-08-10 주식회사 휴텍씨 분배모델을 기반으로 통역서비스를 제공하기 위한 시스템
KR20230169608A (ko) * 2022-06-09 2023-12-18 김준수 컨텍스트 기반의 텍스트 오류 교정 방법 및 시스템
WO2024106934A1 (ko) * 2022-11-16 2024-05-23 삼성전자 주식회사 Tts(text to speech) 모델을 포함하는 전자 장치 및 이의 제어 방법

Similar Documents

Publication Publication Date Title
US11393476B2 (en) Automatically determining language for speech recognition of spoken utterance received via an automated assistant interface
KR102191425B1 (ko) 인터랙티브 캐릭터 기반 외국어 학습 장치 및 방법
KR20180039371A (ko) 자동 통역 시스템
US9336199B2 (en) Automatic sentence evaluation device using shallow parser to automatically evaluate sentence, and error detection apparatus and method of the same
KR101590724B1 (ko) 음성 인식 오류 수정 방법 및 이를 수행하는 장치
US10650810B2 (en) Determining phonetic relationships
US20140316764A1 (en) Clarifying natural language input using targeted questions
US11043213B2 (en) System and method for detection and correction of incorrectly pronounced words
US20140350934A1 (en) Systems and Methods for Voice Identification
US9984689B1 (en) Apparatus and method for correcting pronunciation by contextual recognition
US20080059147A1 (en) Methods and apparatus for context adaptation of speech-to-speech translation systems
JP6150268B2 (ja) 単語登録装置及びそのためのコンピュータプログラム
US11907665B2 (en) Method and system for processing user inputs using natural language processing
JPWO2011033834A1 (ja) 音声翻訳システム、音声翻訳方法および記録媒体
US11942091B2 (en) Alphanumeric sequence biasing for automatic speech recognition using a grammar and a speller finite state transducer
US9697834B2 (en) Text formatter with intuitive customization
Prasad et al. BBN TransTalk: Robust multilingual two-way speech-to-speech translation for mobile platforms
US20190279623A1 (en) Method for speech recognition dictation and correction by spelling input, system and storage medium
CN116806338A (zh) 确定和利用辅助语言熟练度量度
CN111128181B (zh) 背诵题评测方法、装置以及设备
JP6879521B1 (ja) 多言語音声認識およびテーマ−意義素解析方法および装置
US11341961B2 (en) Multi-lingual speech recognition and theme-semanteme analysis method and device
Kabra et al. Auto spell suggestion for high quality speech synthesis in hindi
KR102284903B1 (ko) 입력 시퀀스 생성 방법 및 장치
CN113312463A (zh) 语音问答的智能测评方法、装置、计算机设备及存储介质