KR102251832B1 - 번역 서비스를 제공하는 전자 장치 및 방법 - Google Patents
번역 서비스를 제공하는 전자 장치 및 방법 Download PDFInfo
- Publication number
- KR102251832B1 KR102251832B1 KR1020160075083A KR20160075083A KR102251832B1 KR 102251832 B1 KR102251832 B1 KR 102251832B1 KR 1020160075083 A KR1020160075083 A KR 1020160075083A KR 20160075083 A KR20160075083 A KR 20160075083A KR 102251832 B1 KR102251832 B1 KR 102251832B1
- Authority
- KR
- South Korea
- Prior art keywords
- input
- word
- text
- sentence
- electronic device
- Prior art date
Links
- 238000013519 translation Methods 0.000 title claims abstract description 151
- 238000000034 method Methods 0.000 title claims abstract description 48
- 230000035807 sensation Effects 0.000 claims abstract description 54
- 230000005236 sound signal Effects 0.000 claims description 20
- 238000004891 communication Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 14
- 239000000284 extract Substances 0.000 description 13
- 230000006870 function Effects 0.000 description 10
- 239000004576 sand Substances 0.000 description 6
- 241000283973 Oryctolagus cuniculus Species 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000010422 painting Methods 0.000 description 4
- 208000020016 psychiatric disease Diseases 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 3
- 238000007619 statistical method Methods 0.000 description 3
- 241000282320 Panthera leo Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003340 mental effect Effects 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 239000002023 wood Substances 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/53—Processing of non-Latin text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
번역 서비스를 제공하는 전자 장치 및 방법이 제공된다. 번역 서비스를 제공하는 전자 장치는, 제1 언어의 입력 센텐스를 수신하는 입력부; 상기 입력 센텐스를 메인 센텐스와 서브 센텐스로 구분하고, 상기 서브 센텐스의 의미를 기초로, 상기 입력 센텐스에 대응하는 제2 언어의 복수의 번역 후보 센텐스 중 하나를 결정함으로써 상기 제2 언어의 출력 센텐스를 생성하는 제어부; 및 상기 출력 센텐스를 출력하는 출력부를 포함할 수 있다.
Description
본 개시는 번역 서비스를 제공하는 전자 장치 및 방법에 관한 것으로서, 보다 상세하게는, 중의적 의미의 단어에 있어서 사용자의 의도에 부합하는 번역 결과를 제공하는 전자 장치 및 방법에 관한 것이다.
이동 단말기를 포함한 다양한 디바이스들은 복합적이고 다양한 기능들을 제공함에 따라, 디바이스를 통한 텍스트 또는 음성에 대한 자동 번역 기술에 대한 필요성이 증가되고 있다.
언어에는 중의적 의미를 가지는 단어 또는 문장이 존재하기 때문에, 실제 사용자들의 대화에서 참조될 수 있는 주변 컨텍스트에 대한 인지가 부족하면 번역 오류가 발생될 여지가 있다.
최근, 하나의 단어 또는 문장이 가질 수 있는 중의성에서 비롯되는 번역 오류를 방지하고, 번역의 정확도를 높이려는 연구 개발이 요구되고 있다.
본 개시는 중의적 의미의 단어에 있어서 사용자의 의도에 부합하는 번역 결과를 제공하는 전자 장치 및 방법을 제공한다.
본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기한 과제를 실현하기 위한 일 실시예에 따른 번역 서비스를 제공하는 전자 장치는, 제1 언어의 입력 센텐스를 수신하는 입력부, 상기 입력 센텐스를 메인 센텐스와 서브 센텐스로 구분하고, 상기 서브 센텐스의 의미를 기초로, 상기 입력 센텐스에 대응하는 제2 언어의 복수의 번역 후보 센텐스 중 하나를 결정함으로써 상기 제2 언어의 출력 센텐스를 생성하는 제어부, 및 상기 출력 센텐스를 출력하는 출력부를 포함할 수 있다.
또한, 상기 제어부는, 상기 입력 센텐스 중 상기 서브 센텐스를 제외한 상기 메인 센텐스에 대응하는 상기 출력 센텐스를 생성할 수 있다.
또한, 상기 제어부는, 상기 입력 센텐스를 구성하는 각 단어에 대응하는 상기 제2 언어의 번역 후보 단어를 추출하고, 상기 서브 센텐스의 의미와, 상기 메인 센텐스를 구성하는 단어에 대응하는 상기 제2 언어의 번역 후보 단어들 간의 유사한 정도를 나타내는 제1 웨이트를 결정할 수 있다.
또한, 상기 제어부는, 상기 메인 센텐스를 구성하는 단어들 중, 상기 제1 웨이트가 높은 상기 번역 후보 단어에 대응하는 단어를, 상기 서브 센텐스가 부연 설명을 제공하기 위한 목적 단어인 것으로 결정할 수 있다.
또한, 상기 제어부는, 상기 입력 센텐스를 구성하는 각 단어에 대응하는 상기 제2 언어의 번역 후보 단어를 추출하고, 상기 메인 센텐스를 구성하는 어느 하나의 단어에 대응하는 상기 제2 언어의 번역 후보 단어들이 복수 개인 경우, 상기 복수 개의 번역 후보 단어들 상호 간의 의미가 상이한 정도를 나타내는 제2 웨이트를 결정할 수 있다.
또한, 상기 제어부는, 상기 메인 센텐스를 구성하는 단어들 중, 상기 제2 웨이트가 큰 단어를, 상기 서브 센텐스가 부연 설명을 제공하기 위한 목적 단어인 것으로 결정할 수 있다.
또한, 상기 제어부는, 상기 입력 센텐스를 구성하는 각 단어에 대응하는 상기 제2 언어의 번역 후보 단어를 추출하고, 상기 메인 센텐스를 구성하는 어느 하나의 단어에 대응하는 상기 제2 언어의 번역 후보 단어들이 복수 개인 경우, 상기 복수 개의 번역 후보 단어들 각각이, 전, 후에 인접한 다른 번역 후보 단어들과 하나의 문장을 구성하기 위해 연속적으로 나열될 확률을 나타내는 제3 웨이트를 결정할 수 있다.
또한, 상기 제어부는, 상기 복수 개의 번역 후보 단어들 중, 상기 제3 웨이트가 높은 번역 후보 단어를 결정함으로써 상기 출력 센텐스를 생성할 수 있다.
또한, 상기 입력부는, 상기 입력 센텐스를 음성 신호 및 텍스트 중 적어도 하나로 수신할 수 있다.
또한, 상기 제어부는, 상기 수신한 입력 센텐스가 상기 음성 신호인 경우, 상기 음성 신호를 텍스트로 변환할 수 있다.
또한, 상기 제어부는, 상기 입력 센텐스에 미리 정해진 키워드가 포함된 경우, 상기 키워드 이전의 센텐스를 상기 메인 센텐스로 결정하고, 상기 키워드 이후의 센텐스를 상기 서브 센텐스로 결정할 수 있다.
또한, 상기 제어부는, 상기 입력 센텐스 중 미리 정해진 사용자 입력과 동시에 또는 상기 사용자 입력 이후에 입력된 부분을 상기 서브 센텐스로 결정할 수 있다.
또한, 상기 제어부는, 텍스트로 생성된 상기 출력 센텐스를 오디오 신호로 변환할 수 있다.
또한, 상기 출력부는, 상기 출력 센텐스를 상기 오디오 신호 및 상기 텍스트 중 적어도 하나로 출력할 수 있다.
또한, 상기한 과제를 실현하기 위한 일 실시예에 따른 전자 장치가 번역 서비스를 제공하는 방법은, 제1 언어의 입력 센텐스를 수신하는 단계, 상기 입력 센텐스를 메인 센텐스와 서브 센텐스로 구분하는 단계, 상기 서브 센텐스의 의미를 기초로, 상기 입력 센텐스에 대응하는 제2 언어의 복수의 번역 후보 센텐스 중 하나를 결정함으로써 상기 제2 언어의 출력 센텐스를 생성하는 단계, 및 상기 출력 센텐스를 출력하는 단계를 포함할 수 있다.
또한, 상기 출력 센텐스를 생성하는 단계는, 상기 입력 센텐스 중 상기 서브 센텐스를 제외한 상기 메인 센텐스에 대응하는 상기 출력 센텐스를 생성할 수 있다.
또한, 상기 출력 센텐스를 생성하는 단계는, 상기 입력 센텐스를 구성하는 각 단어에 대응하는 상기 제2 언어의 번역 후보 단어를 추출하는 단계, 및 상기 서브 센텐스의 의미와, 상기 메인 센텐스를 구성하는 단어에 대응하는 상기 제2 언어의 번역 후보 단어들 간의 유사한 정도를 나타내는 제1 웨이트를 결정하는 단계를 포함할 수 있다.
또한, 상기 출력 센텐스를 생성하는 단계는, 상기 메인 센텐스를 구성하는 단어들 중, 상기 제1 웨이트가 높은 상기 번역 후보 단어에 대응하는 단어를, 상기 서브 센텐스가 부연 설명을 제공하기 위한 목적 단어인 것으로 결정하는 단계를 포함할 수 있다.
또한, 상기 출력 센텐스를 생성하는 단계는, 상기 입력 센텐스를 구성하는 각 단어에 대응하는 상기 제2 언어의 번역 후보 단어를 추출하는 단계, 및 상기 메인 센텐스를 구성하는 어느 하나의 단어에 대응하는 상기 제2 언어의 번역 후보 단어들이 복수 개인 경우, 상기 복수 개의 번역 후보 단어들 상호 간의 의미가 상이한 정도를 나타내는 제2 웨이트를 결정하는 단계를 포함할 수 있다.
또한, 상기 출력 센텐스를 생성하는 단계는, 상기 메인 센텐스를 구성하는 단어들 중, 상기 제2 웨이트가 큰 단어를, 상기 서브 센텐스가 부연 설명을 제공하기 위한 목적 단어인 것으로 결정하는 단계를 포함할 수 있다.
또한, 상기 출력 센텐스를 생성하는 단계는, 상기 입력 센텐스를 구성하는 각 단어에 대응하는 상기 제2 언어의 번역 후보 단어를 추출하는 단계, 및 상기 메인 센텐스를 구성하는 어느 하나의 단어에 대응하는 상기 제2 언어의 번역 후보 단어들이 복수 개인 경우, 상기 복수 개의 번역 후보 단어들 각각이, 전, 후에 인접한 다른 번역 후보 단어들과 하나의 문장을 구성하기 위해 연속적으로 나열될 확률을 나타내는 제3 웨이트를 결정하는 단계를 포함할 수 있다.
또한, 상기 출력 센텐스를 생성하는 단계는, 상기 복수 개의 번역 후보 단어들 중, 상기 제3 웨이트가 높은 번역 후보 단어를 결정함으로써 상기 출력 센텐스를 생성하는 단계를 포함할 수 있다.
또한, 상기 입력 센텐스를 수신하는 단계는, 상기 입력 센텐스를 음성 신호 및 텍스트 중 적어도 하나로 수신할 수 있다.
또한, 상기 출력 센텐스를 생성하는 단계는, 상기 수신한 입력 센텐스가 상기 음성 신호인 경우, 상기 음성 신호를 텍스트로 변환하는 단계를 포함할 수 있다.
또한, 상기 메인 센텐스와 서브 센텐스로 구분하는 단계는, 상기 입력 센텐스에 미리 정해진 키워드가 포함된 경우, 상기 키워드 이전의 센텐스를 상기 메인 센텐스로 결정하고, 상기 키워드 이후의 센텐스를 상기 서브 센텐스로 결정할 수 있다.
또한, 상기 메인 센텐스와 서브 센텐스로 구분하는 단계는, 상기 입력 센텐스 중 미리 정해진 사용자 입력과 동시에 또는 상기 사용자 입력 이후에 입력된 부분을 상기 서브 센텐스로 결정할 수 있다.
또한, 상기 출력 센텐스를 생성하는 단계는, 텍스트로 생성된 상기 출력 센텐스를 오디오 신호로 변환하는 단계를 포함할 수 있다.
또한, 상기 출력 센텐스를 출력하는 단계는, 상기 출력 센텐스를 상기 오디오 신호 및 상기 텍스트 중 적어도 하나로 출력할 수 있다.
도 1은 일 실시예를 개략적으로 설명하기 위한 개념도이다.
도 2 및 도 3은 일 실시예에 따른 전자 장치의 번역 서비스 제공 방법의 흐름도이다.
도 4는 일 실시예에 따른 전자 장치가 입력 센텐스를 수신하는 예를 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 전자 장치가 출력 센텐스를 생성 할 때 고려하는 제1 웨이트를 결정하는 방법을 설명하는 흐름도이다.
도 6은 일 실시예에 따른 제1 웨이트를 설명하기 위한 개념도이다.
도 7 내지 도 8은 일 실시예에 따른 제1 웨이트를 결정하는 예를 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 전자 장치가 출력 센텐스를 생성 할 때 고려하는 제2 웨이트를 결정하는 방법을 설명하는 흐름도이다.
도 10은 일 실시예에 따른 제2 웨이트를 결정하는 예를 설명하기 위한 도면이다.
도 11은 일 실시예에 따른 전자 장치가 출력 센텐스를 생성 할 때 고려하는 제3 웨이트를 결정하는 방법을 설명하는 흐름도이다.
도 12는 일 실시예에 따른 제3 웨이트를 결정하는 예를 설명하기 위한 도면이다.
도 13 내지 도 14는 일 실시예와 관련된 전자 장치의 블록 구성도(block diagram)이다.
도 2 및 도 3은 일 실시예에 따른 전자 장치의 번역 서비스 제공 방법의 흐름도이다.
도 4는 일 실시예에 따른 전자 장치가 입력 센텐스를 수신하는 예를 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 전자 장치가 출력 센텐스를 생성 할 때 고려하는 제1 웨이트를 결정하는 방법을 설명하는 흐름도이다.
도 6은 일 실시예에 따른 제1 웨이트를 설명하기 위한 개념도이다.
도 7 내지 도 8은 일 실시예에 따른 제1 웨이트를 결정하는 예를 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 전자 장치가 출력 센텐스를 생성 할 때 고려하는 제2 웨이트를 결정하는 방법을 설명하는 흐름도이다.
도 10은 일 실시예에 따른 제2 웨이트를 결정하는 예를 설명하기 위한 도면이다.
도 11은 일 실시예에 따른 전자 장치가 출력 센텐스를 생성 할 때 고려하는 제3 웨이트를 결정하는 방법을 설명하는 흐름도이다.
도 12는 일 실시예에 따른 제3 웨이트를 결정하는 예를 설명하기 위한 도면이다.
도 13 내지 도 14는 일 실시예와 관련된 전자 장치의 블록 구성도(block diagram)이다.
아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 개시의 실시예를 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 또한, 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 개시에서 사용되는 용어는, 본 개시에서 언급되는 기능을 고려하여 현재 사용되는 일반적인 용어로 기재되었으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 다양한 다른 용어를 의미할 수 있다. 따라서 본 개시에서 사용되는 용어는 용어의 명칭만으로 해석되어서는 안되며, 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 해석되어야 한다.
또한, 제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 이 용어들에 의해 한정되어서는 안 된다. 이 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용된다.
또한, 본 개시에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것이며, 본 개시를 한정하려는 의도로 사용되는 것이 아니다. 단수의 표현은 문맥상 명백하게 단수를 뜻하지 않는 한, 복수의 의미를 포함한다. 또한, 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
본 명세서, 특히, 특허 청구 범위에서 사용된 “상기” 및 이와 유사한 지시어는 단수 및 복수 모두를 지시하는 것일 수 있다. 또한, 본 개시에 따른 방법을 설명하는 단계들의 순서를 명백하게 지정하는 기재가 없다면, 기재된 단계들은 적당한 순서로 행해질 수 있다. 기재된 단계들의 기재 순서에 따라 본 개시가 한정되는 것은 아니다.
본 명세서에서 다양한 곳에 등장하는 "일부 실시예에서" 또는 "일 실시예에서" 등의 어구는 반드시 모두 동일한 실시예를 가리키는 것은 아니다.
본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단” 및 “구성”등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.
또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.
도 1은 일 실시예를 개략적으로 설명하기 위한 개념도이다.
일 실시 예에 따라, 전자 장치(1000)는 자동 번역 기능을 제공할 수 있다.
일 실시예에 따른 전자 장치(1000)는 입력부(1800)로부터 사용자의 음성 신호 또는 텍스트를 수신할 수 있다. 전자 장치(1000)는 음성 신호가 수신되면, 자동 음성 인식(ASR, Automatic Speech Recognition)을 수행하여, 수신된 음성 신호를 텍스트로 변환할 수 있다.
자동 음성 인식은, 화자에 의해 발화된 음성 신호를 자동으로 인식해서, 텍스트로 변환하는 과정을 의미한다. 자동 음성 인식은 실시예에 따라 STT(Speech to Text)로 지칭될 수도 있으나, 전술한 용어에 한정되지 않는다.
전자 장치(1000)는, 기계 번역(MT, Machine Translation)을 수행하여, 제1 언어의 텍스트를 제2 언어의 텍스트로 번역할 수 있다.
기계 번역이 완료되면, 전자 장치(1000)는 음성 합성(TTS, Text to Speech)을 수행하여, 제2 언어의 텍스트를 제2 언어의 음성 신호로 변환할 수 있다.
전자 장치(1000)는, 제2 언어의 음성 신호를 음향 출력부(1220)를 통해 출력할 수 있다. 또는, 전자 장치(1000)는, 번역된 제2 언어의 텍스트를 디스플레이부(1210)을 통해 출력할 수 있다.
전술한 바와 같이, 전자 장치(1000)는 자동 번역 서비스를 제공할 수 있다.
이 때, 일 실시예에 따른 전자 장치(1000)는, 중의적 의미를 가지는 단어 또는 문장이 존재하는 언어의 특성에 따라, 기계 번역이 일으킬 수 있는 번역 오류를 최소화하고, 사용자의 번역 의도가 정확하게 반영된 번역 결과를 도출하기 위한 방법을 구현하고자 한다.
구체적으로, 도 1을 참조하면, 일 실시예에 따른 전자 장치(1000)는, 서브 센텐스(101b)의 의미를 기초로, 메인 센텐스(101a)에 대응하는 사용자의 의도에 부합하는 제2 언어의 번역 결과인 출력 센텐스(102)를 도출할 수 있다.
일 실시예에 따라 본 명세서에서, 사용자가 입력하는 제1 언어의 번역 대상을 입력 센텐스(input sentence), 전자 장치(1000)에 의해 제2 언어로 번역된 결과를 출력 센텐스(output sentence)로 설명할 수 있다.
일 실시예에 따라 센텐스(sentence)는, 마침표, 물음표, 느낌표 등으로 끝나는 완성된 문장을 의미할 수 있다. 또한, 센텐스(sentence)는, 완성된 문장이 아니더라도, 하나 이상의 단어 또는 단어들의 조합을 포함할 수 있다.
도 1에 도시한 바와 같이, 전자 장치(1000)는 제1 언어의 입력 센텐스(101)를 수신할 수 있다. 일 실시예에 따른 입력 센텐스(101)는 메인 센텐스(101a)와 서브 센텐스(101b)를 포함할 수 있다.
일 실시예에 따른 메인 센텐스(101a)는, 사용자가 번역하고자 하는 번역 대상일 수 있다. 서브 센텐스(101b)는, 사용자가 번역하고자 하는 메인 센텐스(101a)의 의미를 부연 설명하기 위해 덧붙인 센텐스일 수 있다.
예를 들어, 도 1을 참조하면, 입력 센텐스(101)가 “이번 프로젝트가 사장되는 일이 없도록 해주세요. 없어지는 일” 일 때, 출력 센텐스(102)는 “Please make sure there’s no work, which has been die out with the project.” 일 수 있다.
입력 센텐스(101) 중 “이번 프로젝트가 사장되는 일이 없도록 해주세요.”은 메인 센텐스(101a), “없어지는 일”은 서브 센텐스(101b)로 구분될 수 있다.
도 1의 예에서, 입력 센텐스(101)에 포함된 “사장”의 의미는, 제1 언어(한국어)에 있어서 중의적일 수 있다. 예컨대, 한국어에서 ‘사장’은, ‘회사의 책임자’, ‘모래 사장’, ‘사물 따위를 필요한 곳에 활용하지 않고 썩혀 둠’, ‘스승과 나이 많은 어른’ 등의 중의적인 의미를 가진다.
대화 문맥 상 입력 센텐스(100)에서 “사장”의 의미는 ‘활용하지 않고 썩혀 둠’의 의미인데, 만약에 번역 시스템이 주변 컨텍스트를 정확히 인지하지 못한 경우에 단순히 통계적인 방법에 의한 확률적 선택을 한다면, 사용자의 의도에 부합하지 않게 번역 결과를 도출할 수도 있고, 따라서 번역 오류의 위험을 잠재적으로 가지고 있다고 볼 수 있다.
일 실시예에 따른 전자 장치(100)는 번역 오류를 방지하기 위해, 메인 센텐스(101b)를 부연 설명하고 있는 서브 센텐스(“없어지는 일”)(101b)의 의미를 기초로, 메인 센텐스(101a)에 포함된 중의적 의미를 가지는 “사장”을 “die out”으로 정확하게 번역된 결과를 생성할 수 있다.
또 다른 예를 들어 설명하면, 한국어에서 “도장”이라는 단어는, 여러 가지의 의미 중 “문서에 찍는 고무 혹은 나무”(63%)의 의미로 사용되는 확률이 가장 높다. 다음으로 “무예를 연마하는 공간”의 의미로 사용되고, 또한, “도료를 칠하는 일”, “칼 만드는 장인”이라는 의미로 사용될 수 있다. 따라서, 통계적인 방법에 의한 번역만으로는 “도장”이라는 단어를 발성한 화자의 의도가 “문서를 찍는 고무 혹은 나무”의 의미로 사용한 것이 아닐 때, 번역 오류의 확률이 37%로 추정될 수 있다.
일 실시 예에 따르면, 중의적 의미를 갖는 단어를 번역하고자 할 때, 통계적인 방법에만 의존하는 것이 아니라, 그 단어에 대한 간단한 부연 설명을 부가함으로써 번역 오류를 최소화할 수 있다.
또한, 예를 들어, 사용자가 “공황이 뭔지 설명 좀 해주세요. 정신장애 말이에요” 라고 이야기한다면, “공황”이라는 단어는, 영어로 “Panic”을 의미하지만, “공황”이라는 단어는 경제 분야와 심리학에서도 사용될 수 있다. 이 때, 화자는 “정신장애”라는 부연 설명을 덧붙여 화자가 의도하는 의미를 정확하게 제공할 수 있다.
일상적인 대화 상황에서, 화자는 상대방이 오해할 수 있는 중의적 의미의 문장이나 단어를 이야기할 때는 부연 설명을 위한 말을 덧붙이기 때문에, 사용자는 일상적인 대화에서 덧붙이는 말 정도의 부연 설명을 추가적으로 입력하는 편리하고 자연스러운 방법을 통해, 사용자 의도에 부합하는 정확한 번역 결과를 제공받을 수 있게 된다.
또한, 전자 장치(1000)는 사용자가 입력하는 모든 센텐스를 번역 결과로 출력해야 할 대상으로 삼지 않을 수 있다. 도 1에 도시한 바와 같이, 전자 장치(1000)는 입력 센텐스(101) 중 서브 센텐스(101b)를 제외하고 메인 센텐스(101a)인 “이번 프로젝트가 사장되는 일이 없도록 해주세요.”에 대응하는 제2 언어(영어)의 번역 결과(“Please make sure there’s no work, which has been die out with the project.”)만을 출력할 수 있다.
사용자는 일상적인 대화 시, 중의적 의미를 갖는 단어 또는 문장을 얘기할 때 상대방이 오해가 없도록 부연 설명하는 단어 또는 문장을 덧붙일 수 있다. 그러나, 번역 대상의 제1 언어(한국어)에 있어서는 중의적인 의미를 가지나, 번역 결과인 제2 언어(영어)에 있어서는 중의적인 해석을 불러일으키지 않는다면, 사용자가 번역 대상의 부연 설명을 위해 덧붙인 말 까지 번역 결과로서 출력할 필요성이 적어진다.
예를 들어, 화자가 “공황이 뭔지 설명 좀 해주세요. 정신장애 말이에요” 라고 이야기할 때, 중의적 의미를 가지는 “공황”이라는 단어에 대해 “economic crisis”가 아닌, 정확하게 “mental panic”으로 번역이 된다면, 뒤에 오는 “정신장애”라는 말은 굳이 “mental disorder”로 중복해서 번역되어 상대방에게 전달될 필요가 적다.
또한, 예를 들어, 화자가 “도장을 찾고 있고 있는데 알려주실 수 있나요? 무술 수련하는 곳 말이에요.”라고 얘기할 때, 한국어에서는 “도장”이라는 단어가 중의적인 의미를 가지고 있고 잘못 이해될 수 있기 때문에 “수련하는 곳”이라는 부가 문장이 필요할 수 있다. 사용자가 “문서에 찍도록 만든 물건”이 아닌, 상대적으로 낮은 확률의 의미인 “무술을 수련하는 곳”의 의미로 사용하고자 하는 의도라면, 덧붙이는 말을 부가하는 것이 청자의 오해를 방지할 수 있다. 그러나, 번역 결과인 영어에서는, “a martial studio”는 무술 수련을 위한 장소로 사용되고 중의적 해석을 불러일으키지 않는다. 그럼에도 불구하고 입력 센텐스에 포함된 “수련하는 곳 말이에요”라는 문구를 번역 결과로 제공한다면, 영어의 관점에서는 오히려 사용자의 의도를 중복적으로 전달하는 느낌이 들 수 있다.
일 실시예에 따른 전자 장치(1000)는 입력된 센텐스를 모두 번역 결과로서 출력하는 것이 아니라, 사용자가 부연 설명을 위해 덧붙인 말을 제외하고, 사용자가 번역하고자 하는 대상만을 출력함으로써, 실제적인 사용 환경에서 보다 자연스러운 번역 결과를 제공할 수 있다.
도 2 및 도 3은 일 실시예에 따른 전자 장치의 번역 서비스 제공 방법의 흐름도이다.
도 2를 참조하면, 단계 S201에서, 일 실시예에 따른 전자 장치(1000)는 제1 언어의 입력 센텐스를 수신할 수 있다.
전자 장치(1000)는 입력 센텐스를 텍스트 형식으로 수신할 수 있다.
또한, 전자 장치(1000)는 입력 센텐스를 음성 신호로 수신할 수 있다. 전자 장치(1000)는 입력 센텐스가 음성 신호인 경우, 수신한 음성 신호를 텍스트로 변환할 수 있다.
또 다른 예로, 전자 장치(1000)는 광학식 문자 인식(OCR, Optical Character Recognition)을 수행하여, 이미지 형식의 파일에 포함된 텍스트를 텍스트 형식으로 추출함으로써 입력 센텐스를 획득할 수 있으며, 이에 한정되지 않는다.
도 2의 단계 S202에서, 전자 장치(1000)는 입력 센텐스를 메인 센텐스와 서브 센텐스로 구분할 수 있다.
도 1에서 설명한 바와 같이, 입력 센텐스(101)는 메인 센텐스(101a)와 서브 센텐스(101b)를 포함할 수 있다.
전자 장치(1000)는 입력 센텐스 중 미리 정해진 사용자 입력(예컨대, 미리 정해진 물리 버튼의 입력, 디스플레이부(1210)에 대한 터치 입력 등)과 동시에 또는 상기 사용자 입력 이후에 입력된 부분을 서브 센텐스로 결정할 수 있다. 이는, 도 4에 관한 설명에서 보다 상세히 설명하기로 한다.
또한, 전자 장치(1000)는 입력 센텐스에 미리 정해진 키워드가 포함된 경우, 상기 키워드 이전의 센텐스를 메인 센텐스로 결정하고, 상기 키워드 이후의 센텐스를 서브 센텐스로 결정할 수 있다. 예를 들어, 사용자가 “도장을 찾고 있습니다. 덧붙임. 수련하는 곳.” 이라고 이야기한 경우, 전자 장치(1000)는 특정 키워드(예컨대, ‘덧붙임’)를 기준으로 메인 센텐스와 서브 센텐스를 구분할 수 있다.
또한, 일 실시예에 따른 전자 장치(1000)는, 텍스트를 분석하여 다른 언어로 번역할 때 이용하는 수치로서 제1 웨이트(similar degree), 제2 웨이트(dramatic degree) 및 제3 웨이트(likelihood) 중 적어도 하나의 수치 값을 계산하여, 메인 센텐스와 서브 센텐스를 구분할 수 있다. 제1, 2, 3 웨이트에 대해서는 후술할 도 5 내지 도 12에 관한 설명에서 상술하기로 한다.
또한, 전자 장치(1000)는 입력 센텐스 중 중복되는 단어가 있는 것으로 판단된 경우, 예를 들어, 사용자가 “도장을 찾고 있습니다. 도장은 운동하는 곳을 말합니다.”라고 이야기한 경우, 전자 장치(1000)는 입력 센텐스 중 중복되는 단어인 “도장” 이후의 부분을 서브 센텐스로 결정할 수 있다. 또한, 전자 장치(1000)는 중복되는 단어인 “도장”을 메인 센텐스 중 서브 센텐스가 부연 설명을 제공하기 위한 목적 단어인 것으로 결정할 수 있다.
또 다른 예로, 전자 장치(1000)는 입력 센텐스를 음성 신호로 수신한 경우, 음성 신호의 에너지, 피치(pitch), 파형, 스펙트럼 등의 차이에 기초하여, 메인 센텐스와 서브 센텐스를 구분할 수 있다. 일반적으로 사용자가 번역 대상의 메인 센텐스를 더 크게 이야기하고, 부연 설명에 해당하는 서브 센텐스를 더 작게 이야기 하는 상황을 고려한 것이다.
또 다른 예로, 전자 장치(1000)는 입력된 센텐스가 완성된 하나의 문장으로 끝나지 않는 단어 열을 포함한 경우, 단어 열을 서브 센텐스인 가능성이 높은 것으로 판단할 수 있다. 또한, 전자 장치(1000)는 입력된 센텐스가 특정 어미를 동반한 경우 서브 센텐스일 가능성이 높은 것으로 판단할 수 있다. 예를 들어, 입력 센텐스가 “도장을 찾고 있습니다. 운동하는 곳”인 경우, 덧붙인 말(“운동하는 곳”)은 완성된 문장이 아니면서, “~곳/데, ~것, ~사람” 등과 같이 장소, 물건, 사람을 지칭하는 어휘(한국어의 경우, 의존명사)를 포함한 서브 센텐스일 수 있다.
또 다른 예로, 전자 장치(1000)는 입력된 센텐스에 포함된 단어들 중, 덧붙인 말과 거리가 가까운 단어를, 덧붙인 말이 설명하고자 하는 목적 단어일 확률이 높은 것으로 판단할 수 있다.
화자가 덧붙이는 말을 함께 발성한 경우, 중의적 의미를 갖는 목적 단어를 발성한 바로 직후에 부연 설명을 위한 덧붙이는 말을 부가할 확률이 높고, 목적 단어를 발성한 때로부터 멀어질수록 부연 설명을 부가할 확률이 낮아질 수 있다.
메인 센텐스에 포함된 각 단어와 서브 센텐스 사이의 거리가 멀수록, 해당 단어가 목적 단어일 가능성은 낮아질 수 있다. 이는, 메인 센텐스에 포함된 각 단어가 목적 단어일 가능성은, 각 단어와 서브 센텐스 간의 거리 차이와 반비례 관계를 가짐을 의미한다.
이를 식으로 나타내면 다음과 같다.
목적 단어일 가능성 = alpha / dist(서브 센텐스, Word[i])
이때, alpha는 실험적으로 추정되는 상수 값이다. dist(word1, word2)는 단어 word1과 word2와의 거리(distance)를 의미한다.
또 다른 예로, 전자 장치(1000)는 사용자에게 부연 설명을 입력하라는 요청 메시지를 출력할 수 있다. 전자 장치(1000)는 입력된 센텐스 중 중의적 의미를 가진 단어가 존재하여 번역의 정확도가 특정 임계치보다 낮을 경우, 부연 설명이 필요한 것으로 판단하고, 목적 단어에 대한 부연 설명을 제공하도록 사용자에게 요청할 수 있다.
또한, 화자는 말을 하고 난 뒤, 자신이 발성한 단어 중에서 특정 어휘가 중의적인 의미를 내포하거나, 청자로 하여금 오해를 불러일으킬 수 있다는 사실을 알 수도 있다. 이 때, 전자 장치(1000)가 화자의 발성을 모두 녹취하여 음성 신호를 텍스트로 변환하여 디스플레이부(1210)에 표시하면, 사용자는 디스플레이부(1210)에 표시된 센텐스 내에 목적 단어를 선택한 후 부연 설명을 위한 서브 센텐스를 발성할 수 있다.
도 2의 단계 S203에서, 전자 장치(1000)는 서브 센텐스의 의미를 기초로, 입력 센텐스에 대응하는 제2 언어의 복수의 번역 후보 센텐스 중 하나를 결정함으로써 제2 언어의 출력 센텐스를 생성할 수 있다.
전자 장치(1000)는 메인 센텐스를 부연 설명하는 서브 센텐스에 기초하여, 제1 언어의 입력 센텐스로부터 제2 언어의 출력 센텐스를 생성할 수 있다. 이 때, 전자 장치(1000)는 입력 센텐스 중 서브 센텐스를 제외한 메인 센텐스에 대응하는 출력 센텐스를 생성할 수 있다.
일 실시예에 따라, 전자 장치(1000)는 제1, 2 및 3 웨이트 중 적어도 하나에 기초하여, 복수의 번역 후보 센텐스 중 하나를 결정함으로써 출력 센텐스를 생성할 수 있다. 제1, 2 및 3 웨이트에 관해서는 도 5 내지 도 12에 관한 설명에서 상술하기로 한다.
도 2의 단계 S204에서, 전자 장치(1000)는 출력 센텐스를 출력할 수 있다.
일 실시예에 따른 전자 장치(1000)는, 음성 합성(TTS, Text to Speech)을 수행하여, 텍스트로 생성된 출력 센텐스를 오디오 신호로 변환할 수 있다. 음향 출력부(1220)는 오디오 신호로 변환된 출력 센텐스를 출력할 수 있다.
또한, 디스플레이부(1210)는 텍스트로 생성된 출력 센텐스를 표시할 수도 있다.
도 3은 일 실시예에 따른 전자 장치의 번역 서비스 제공 방법을 보다 상세하게 설명하는 흐름도이다.
도 3의 단계 S301에서, 일 실시예에 따른 전자 장치(1000)는 제1 언어의 입력 센텐스를 수신할 수 있다. 단계 S302에서, 전자 장치(1000)는 입력 센텐스가 음성 신호이면, 음성 신호를 텍스트로 변환할 수 있다. 이는, 도 2의 단계 S201에서 상술하였으므로 생략하기로 한다.
도 3의 단계 S303에서, 전자 장치(1000)는 텍스트로 변환된 입력 센텐스를 메인 센텐스와 서브 센텐스로 구분할 수 있다. 이는, 도 2의 단계 S202에서 상술하였으므로 생략하기로 한다.
도 3의 단계 S304에서, 전자 장치(1000)는 서브 센텐스의 의미를 기초로, 입력 센텐스에 대응하는 제2 언어의 복수의 번역 후보 센텐스 중 하나를 결정할 수 있다. 단계 S305에서, 전자 장치(1000)는 입력 센텐스 중 서브 센텐스를 제외한 메인 센텐스에 대응하는 제2 언어의 출력 센텐스를 생성할 수 있다. 이는, 도 2의 단계 S203에서 상술하였으므로 생략하기로 한다.
도 3의 단계 S306에서, 전자 장치(1000)는 텍스트로 생성된 상기 출력 센텐스를 오디오 신호로 변환할 수 있다. 단계 S307에서, 전자 장치(1000)는 출력 센텐스를 오디오 신호로 출력할 수 있다. 이는, 도 2의 단계 S204에서 상술하였으므로 생략하기로 한다.
도 1 내지 도 3에서 설명하는 예는 일 실시 예로서 이에 한정되지 않는다.
도 4는 일 실시예에 따른 전자 장치가 입력 센텐스를 수신하는 예를 설명하기 위한 도면이다.
일 실시예에 따라, 전자 장치(1000)는 미리 정해진 사용자 입력을 수신하면, 사용자 입력을 기준으로 메인 센텐스와 서브 센텐스를 구분할 수 있다.
도 4에 도시한 바와 같이, 전자 장치(1000)는, 예컨대, “이번 프로젝트가 사장되는 일이 없도록 해주세요”(401)를 입력 받을 수 있다. 전자 장치(1000)는 마이크로폰(1620)을 통해 사용자의 음성 신호를 입력 받을 수 있다. 또한, 전자 장치(1000)는 디스플레이부(1210)에 표시된 키보드 입력을 통한 텍스트를 입력 받을 수 있으며, 이에 제한되지 않는다.
전자 장치(1000)는, 디스플레이부(1210)에 표시된 아이콘(예컨대, ‘부연 설명’)(402)을 선택하는 사용자의 터치 입력을 수신한 상태에서, 입력되는 음성 신호의 입력 센텐스(예컨대, “없어지는 일”)(404)를 서브 센텐스로 결정할 수 있다.
또한, 전자 장치(1000)는 디스플레이부(1210)에 표시된 아이콘(예컨대, ‘부연 설명’)(402)을 선택하는 사용자의 터치 입력을 수신한 후에, 이어지는 입력 센텐스(예컨대, “업어지는 일”)를 서브 센텐스로 결정할 수 있다.
도 4는 일 실시 예를 도시한 것으로서 이에 한정되지 않는다.
도 5는 일 실시예에 따른 전자 장치가 출력 센텐스를 생성 할 때 고려하는 제1 웨이트를 결정하는 방법을 설명하는 흐름도이다. 도 6은 일 실시예에 따른 제1 웨이트를 설명하기 위한 개념도이다. 도 7 내지 도 8은 일 실시예에 따른 제1 웨이트를 결정하는 예를 설명하기 위한 도면이다. 도 5의 흐름도를 설명하면서, 도 6 내지 도 8의 도면을 함께 설명하기로 한다.
도 5의 단계 S501에서, 전자 장치(1000)는 입력 센텐스를 구성하는 각 단어에 대응하는 제2 언어의 번역 후보 단어를 추출할 수 있다.
도 8을 참조하여 설명하면, 전자 장치(1000)는 메인 센텐스(101a)를 구성하는 각 단어(예컨대, ‘이’, ‘사장’, ‘일’, ‘없’ 등)에 대응하는 제2 언어(영어)의 번역 후보 단어를 추출할 수 있다. 예를 들어, ‘이’의 경우, ‘Tooth/ Louse/ This/ Two’ 등의 후보 단어들이 추출될 수 있고, ‘사장’의 경우, ‘President/ Die out/ Sand beach’등의 후보 단어들, ‘일’의 경우, ‘Work/ Day/ One’, ‘없’의 경우, ‘Remove/ Die out’ 등의 후보 단어가 추출될 수 있다.
또한, 전자 장치(1000)는 서브 센텐스(101b)인 ‘없어지는 일’에 대응하는 제2 언어의 후보 단어로 ‘remove’를 추출할 수 있다. 일 실시예에 따른 전자 장치(1000)는 입력 센텐스를 구성하는 다른 단어 또는 형태소 등에 대응해서도 각각 후보 단어들을 추출할 수 있다.
도 5의 단계 S502에서, 전자 장치(1000)는 서브 센텐스의 의미와, 메인 센텐스를 구성하는 단어에 대응하는 상기 제2 언어의 번역 후보 단어들 간의 유사한 정도를 나타내는 제1 웨이트를 결정할 수 있다.
일 실시예에 따른 제1 웨이트(similar degree)는 하나의 단어가 다른 단어와 어떤 관계를 가지는 공간 내에서의 거리 차를 나타내는 수치 값을 의미할 수 있다. 도 6을 참조하면, 언어를 이루는 단어들은 가상의 공간에서 임의의 위치(position)를 가질 수 있다.
예컨대, “토끼”와 “사자” 와의 거리가 “토끼”와 “자동차 “보다 가깝다면, “토끼”는 “사자”와 더 높은 제1 웨이트(similar degree)를 가질 수 있다.
도 7을 참조하면, “없”의 후보 단어 중 “remove”, “사장”의 후보 단어 중 “Die out”이, “없어지는 일:Work to lose”과 근 거리에 위치함으로써, 다른 후보 단어들에 비해 높은 제1 웨이트(similar degree)를 가질 수 있다.
도 8을 참조하면, 전자 장치(1000)는 서브 센텐스(101b)의 의미(없어지는 일, remove)에 기초하여, 메인 센텐스를 구성하는 단어들 중 ‘사장 : die out’과 ‘없 : remove, die out’의 유사한 정도를 나타내는 제1 웨이트를 다른 단어에 비하여 높게 결정할 수 있다.
도 5의 단계 S503에서, 전자 장치(1000)는 메인 센텐스를 구성하는 단어들 중, 제1 웨이트가 높은 번역 후보 단어에 대응하는 단어를, 서브 센텐스가 부연 설명을 제공하기 위한 목적 단어인 것으로 결정할 수 있다.
도 8을 참조하면, 전자 장치(1000)는 메인 센텐스 중 제1 웨이트가 높은 ‘사장, ‘없’이라는 단어를, 서브 센텐스가 부연 설명을 제공하기 위한 목적 단어로 결정할 수 있다. 또한, 전자 장치(1000)는 제1 웨이트 뿐 아니라, 후술할 제2 웨이트 및 제3 웨이트 중 적어도 하나를 함께 고려함으로써, ‘사장’을 목적 단어로 결정할 수 있다.
일 실시예에 따라, 전자 장치(1000)는 목적 단어를 결정한 경우, 목적 단어의 번역 후보 단어들 중 서브 센텐스의 의미와 유사한 정도를 판단함으로써, 번역 결과인 출력 센텐스를 생성할 수 있다.
도 9는 일 실시예에 따른 전자 장치가 출력 센텐스를 생성 할 때 고려하는 제2 웨이트를 결정하는 방법을 설명하는 흐름도이다. 도 10은 일 실시예에 따른 제2 웨이트를 결정하는 예를 설명하기 위한 도면이다. 도 9의 흐름도를 설명하면서, 도 10의 도면을 함께 설명하기로 한다.
도 9의 단계 S901에서, 전자 장치(1000)는 입력 센텐스를 구성하는 각 단어에 대응하는 제2 언어의 번역 후보 단어를 추출할 수 있다.
예를 들어, 도 8에서 설명한 바와 같이, ‘사장’의 경우, ‘President/ Die out/ Sand beach’등의 후보 단어들, ‘없’의 경우, ‘Remove/ Die out’ 등의 후보 단어가 추출될 수 있다. 전자 장치(1000)는 입력 센텐스를 구성하는 다른 단어 또는 형태소 등에 대응 해서도 각각 후보 단어들을 추출할 수 있다.
도 9의 단계 S902에서, 전자 장치(1000)는 메인 센텐스를 구성하는 어느 하나의 단어에 대응하는 제2 언어의 번역 후보 단어들이 복수 개인 경우, 상기 복수 개의 번역 후보 단어들 상호 간의 의미가 상이한 정도를 나타내는 제2 웨이트를 결정할 수 있다.
도 10을 참조하면, “사장”이라는 단어와 “없”이라는 단어는 각각 번역 후보 단어들을 복수 개 가지고 있고, “사장”의 번역 후보 단어들이 만드는 공간상의 넓이가 “없”의 번역 후보 단어들이 만드는 공간상의 넓이 보다 더 넓은 것을 확인할 수 있다. 이는, “사장”이라는 단어의 제2 웨이트(dramatic degree)가 “없”이라는 단어의 제2 웨이트보다 크다는 것을 의미할 수 있다.
번역 후보 단어들이 만드는 공간 상의 넓이 차이가 큰 것은 서브 센텐스를 통해 얻을 수 있는 이득이 크다는 것과 번역 후보 단어를 잘못 선택했을 때 발생하는 번역 오류의 위험이 훨씬 크다는 것을 의미한다.
일 실시예에 따라, 제2 웨이트(dramatic degree)는 하나의 단어에 대응하는 복수 개의 번역 후보 단어들 간에 하나의 번역 후보 단어와 다른 번역 후보 단어와 관련성이 낮은 정도를 의미한다. 또한, 제2 웨이트는 복수 개의 번역 후보 단어들 중 번역 후보 단어를 잘못 선택했을 때 의미가 달라지는 정도를 의미할 수 있다.
따라서, 제2 웨이트(dramatic degree)가 큰 단어일 수록 부연 설명을 통해 상대방에게 명확한 의미를 전달하고자 하는 필요성이 높은 단어라고 판단될 수 있다.
도 9의 단계 S903에서, 전자 장치(1000)는 메인 센텐스를 구성하는 단어들 중, 제2 웨이트가 큰 단어를, 상기 서브 센텐스가 부연 설명을 제공하기 위한 목적 단어인 것으로 결정할 수 있다.
도 10을 참조하면, 일 실시예에 따른 전자 장치(1000)는 서브 센텐스가 부연 설명을 제공하기 위한 목적 단어로 “없”이라는 단어를 선택하는 것보다 “사장”이라는 단어를 선택함으로써 번역의 정확도를 높일 수 있다.
일 실시예에 따라, 전자 장치(1000)는 목적 단어를 결정한 경우, 목적 단어의 번역 후보 단어들 중 서브 센텐스의 의미와 유사한 정도를 판단함으로써, 번역 결과인 출력 센텐스를 생성할 수 있다.
도 5 내지 도 9는 일 실시예에 관한 것으로서 이에 한정되지 않는다.
도 11은 일 실시예에 따른 전자 장치가 출력 센텐스를 생성 할 때 고려하는 제3 웨이트를 결정하는 방법을 설명하는 흐름도이다. 도 12는 일 실시예에 따른 제3 웨이트를 결정하는 예를 설명하기 위한 도면이다. 도 11의 흐름도를 설명하면서, 도 12의 도면을 함께 설명하기로 한다.
도 11의 단계 S1101에서, 전자 장치(1000)는 입력 센텐스를 구성하는 각 단어에 대응하는 제2 언어의 번역 후보 단어를 추출할 수 있다.
예를 들어, 도 8에서 설명한 바와 같이, ‘사장’의 경우, ‘President/ Die out/ Sand beach’등의 후보 단어들이 추출될 수 있다. 전자 장치(1000)는 입력 센텐스를 구성하는 다른 단어 또는 형태소 등에 대응 해서도 각각 후보 단어들을 추출할 수 있다.
도 11의 단계 S1102에서, 전자 장치(1000)는 메인 센텐스를 구성하는 어느 하나의 단어에 대응하는 제2 언어의 번역 후보 단어들이 복수 개인 경우, 상기 복수 개의 번역 후보 단어들 각각이, 전, 후에 인접한 다른 번역 후보 단어들과 하나의 문장을 구성하기 위해 연속적으로 나열될 확률을 나타내는 제3 웨이트를 결정할 수 있다.
일 실시예에 따른 제3 웨이트(Likelihood)는 하나의 문장이나 구를 이루는 연속적인 단어 열이 올 가능성이 얼마나 큰가를 내는 수치일 수 있다. 예를 들어, “토끼가 풀을 뜯어먹는다”라는 단어 열은 “토끼가 모래를 뜯어먹는다”라는 단어 열보다 확률적으로 훨씬 높다.
도 12를 참조하면, “사장”이라는 단어의 번역 후보 단어들인 “president”, “sand beach”, “die out” 각각이, 전, 후에 인접한 “has”, “been”, “with”라는 다른 번역 후보 단어들과 하나의 문장을 구성하기 위해 연속적으로 나열될 확률이 계산될 수 있다.
P(X3|X1, X2)는 X1, X2가 연속적으로 나열된 이후에 X3이 연속하여 나열될 확률을 의미할 수 있다.
도 12를 참조하면, “사장”이라는 단어의 번역 후보 단어들 중 “die out”이라는 단어가, “has”, “been”, “with”라는 다른 번역 후보 단어들과 연속적으로 나열될 확률인 제3 웨이트(likelihood)가 높을 수 있다.
도 11의 단계 S1103에서, 전자 장치(1000)는 상기 복수 개의 번역 후보 단어들 중, 제3 웨이트가 높은 번역 후보 단어를 결정함으로써 출력 센텐스에 생성할 수 있다.
도 12를 참조하면, 전자 장치(1000)는 제3 웨이트가 높은 “die out”을 선택함으로써, “Please make sure there's no work, which has been die out with the project.”이라는 출력 센텐스를 생성할 수 있다.
도 11 내지 도 12는 일 실시예에 관한 것으로서 이에 한정되지 않는다.
도 13 내지 도 14는 일 실시예와 관련된 전자 장치의 블록 구성도(block diagram)이다.
도 13에 도시된 바와 같이, 일 실시예에 따른 전자 장치(1000)는, 제어부(1300), 입력부(1800) 및 출력부(1200)를 포함할 수 있다.
그러나, 도 13에 도시된 구성 요소 모두가 전자 장치(1000)의 필수 구성 요소인 것은 아니다. 도 13에 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있고, 도 13에 도시된 구성 요소보다 적은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있다.
예를 들어, 도 14에 도시된 바와 같이, 일 실시예에 따른 전자 장치(1000)는, 제어부(1300), 입력부(1800) 및 출력부(1200) 이외에 사용자 입력부(1100), 센싱부(1400), 통신부(1500), A/V 입력부(1600) 및 메모리(1700)를 더 포함할 수도 있다.
도 13의 입력부(1800)는, 도 14의 사용자 입력부(1100)와, 카메라(1610), 마이크로폰(1620)을 포함하는 A/V 입력부(1600)를 포함할 수 있다.
사용자 입력부(1100)는, 사용자가 전자 장치(1000)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(1100)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
일 실시예에 따라, 사용자 입력부(1100)는, 번역 대상이 되는 입력 센텐스를 수신할 수 있다.
출력부(1200)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(1200)는 디스플레이부(1210), 음향 출력부(1220), 및 진동 모터(1230)를 포함할 수 있다.
디스플레이부(1210)는 전자 장치(1000)에서 처리되는 정보를 표시 출력한다.
예를 들어, 디스플레이부(1210)는, 번역 서비스를 제공하기 위한 애플리케이션을 실행하기 위한 사용자 인터페이스, 번역 대상인 입력 센텐스를 수신하기 위한 사용자 인터페이스, 메인 센텐스와 서브 센텐스를 구별하여 입력 받기 위한 사용자 인터페이스, 번역 결과인 출력 센텐스를 출력하기 위한 사용자 인터페이스 등을 디스플레이할 수 있다.
또한, 일 실시예에 따라, 디스플레이부(1210)는, 제1 언어의 입력 센텐스를 번역한 결과인 제2 언어의 출력 센텐스를 표시할 수 있다.
한편, 디스플레이부(1210)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(1210)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(1210)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 전자 장치(1000)의 구현 형태에 따라 전자 장치(1000)는 디스플레이부(1210)를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 디스플레이부(1210)는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다.
음향 출력부(1220)는 통신부(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(1220)는 전자 장치(1000)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(1220)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
일 실시예에 따라, 음향 출력부(1220)는, 번역 대상인 제1 언어의 입력 센텐스를 제2 언어로 번역한 결과인 출력 센텐스를 음향으로 출력할 수 있다.
진동 모터(1230)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(1230)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(1230)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.
제어부(1300)는, 통상적으로 전자 장치(1000)의 전반적인 동작을 제어한다. 예를 들어, 제어부(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(1100), 출력부(1200), 센싱부(1400), 통신부(1500), A/V 입력부(1600) 등을 전반적으로 제어할 수 있다.
구체적으로, 제어부(1300)는, 입력 센텐스를 메인 센텐스와 서브 센텐스로 구분할 수 있다.
또한, 제어부(1300)는, 서브 센텐스의 의미를 기초로, 입력 센텐스에 대응하는 제2 언어의 복수의 번역 후보 센텐스 중 하나를 결정함으로써 제2 언어의 출력 센텐스를 생성할 수 있다.
또한, 제어부(1300)는, 입력 센텐스 중 서브 센텐스를 제외한 메인 센텐스에 대응하는 출력 센텐스를 생성할 수 있다.
또한, 제어부(1300)는, 입력 센텐스를 구성하는 각 단어에 대응하는 제2 언어의 번역 후보 단어를 추출할 수 있다.
또한, 제어부(1300)는, 서브 센텐스의 의미와, 메인 센텐스를 구성하는 단어에 대응하는 제2 언어의 번역 후보 단어들 간의 유사한 정도를 나타내는 제1 웨이트를 결정할 수 있다.
또한, 제어부(1300)는, 메인 센텐스를 구성하는 단어들 중, 제1 웨이트가 높은 번역 후보 단어에 대응하는 단어를, 서브 센텐스가 부연 설명을 제공하기 위한 목적 단어인 것으로 결정할 수 있다.
또한, 제어부(1300)는, 입력 센텐스를 구성하는 각 단어에 대응하는 제2 언어의 번역 후보 단어를 추출하고, 메인 센텐스를 구성하는 어느 하나의 단어에 대응하는 제2 언어의 번역 후보 단어들이 복수 개인 경우, 복수 개의 번역 후보 단어들 상호 간의 의미가 상이한 정도를 나타내는 제2 웨이트를 결정할 수 있다.
또한, 제어부(1300)는, 메인 센텐스를 구성하는 단어들 중, 제2 웨이트가 큰 단어를, 서브 센텐스가 부연 설명을 제공하기 위한 목적 단어인 것으로 결정할 수 있다.
또한, 제어부(1300)는, 입력 센텐스를 구성하는 각 단어에 대응하는 제2 언어의 번역 후보 단어를 추출하고, 메인 센텐스를 구성하는 어느 하나의 단어에 대응하는 제2 언어의 번역 후보 단어들이 복수 개인 경우, 복수 개의 번역 후보 단어들 각각이, 전, 후에 인접한 다른 번역 후보 단어들과 하나의 문장을 구성하기 위해 연속적으로 나열될 확률을 나타내는 제3 웨이트를 결정할 수 있다.
또한, 제어부(1300)는, 복수 개의 번역 후보 단어들 중, 제3 웨이트가 높은 번역 후보 단어를 결정함으로써 출력 센텐스를 생성할 수 있다.
또한, 제어부(1300)는, 수신한 입력 센텐스가 음성 신호인 경우, 음성 신호를 텍스트로 변환할 수 있다.
또한, 제어부(1300)는, 입력 센텐스에 미리 정해진 키워드가 포함된 경우, 상기 키워드 이전의 센텐스를 메인 센텐스로 결정하고, 상기 키워드 이후의 센텐스를 서브 센텐스로 결정할 수 있다.
또한, 제어부(1300)는, 입력 센텐스 중 미리 정해진 사용자 입력과 동시에 또는 상기 사용자 입력 이후에 입력된 부분을 서브 센텐스로 결정할 수 있다.
또한, 제어부(1300)는, 텍스트로 생성된 출력 센텐스를 오디오 신호로 변환할 수 있다.
센싱부(1400)는, 전자 장치(1000)의 상태 또는 전자 장치(1000) 주변의 상태를 감지하고, 감지된 정보를 제어부(1300)로 전달할 수 있다.
센싱부(1400)는, 지자기 센서(Magnetic sensor)(1410), 가속도 센서(Acceleration sensor)(1420), 온/습도 센서(1430), 적외선 센서(1440), 자이로스코프 센서(1450), 위치 센서(예컨대, GPS)(1460), 기압 센서(1470), 근접 센서(1480), 및 RGB 센서(illuminance sensor)(1490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
통신부(1500)는, 전자 장치(1000)와 다른 장치(미도시) 또는 전자 장치(1000)와 서버(미도시) 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(1500)는, 근거리 통신부(1510), 이동 통신부(1520), 방송 수신부(1530)를 포함할 수 있다.
근거리 통신부(short-range wireless communication unit)(151)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부(1520)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부(1530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 전자 장치(1000)가 방송 수신부(1530)를 포함하지 않을 수도 있다.
A/V(Audio/Video) 입력부(1600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)은 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
카메라(1610)에서 처리된 화상 프레임은 메모리(1700)에 저장되거나 통신부(1500)를 통하여 외부로 전송될 수 있다. 카메라(1610)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
마이크로폰(1620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1620)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1620)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
일 실시예에 따라, 마이크폰(1620)은 화자로부터 번역 대상인 제1 언어의 입력 센텐스에 대응하는 음성 신호를 수신할 수 있다.
메모리(1700)는, 제어부(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다.
메모리(1700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(1710), 터치 스크린 모듈(1720), 알림 모듈(1730) 등으로 분류될 수 있다.
UI 모듈(1710)은, 애플리케이션 별로 전자 장치(1000)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(1720)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(1300)로 전달할 수 있다. 일부 실시예에 따른 터치 스크린 모듈(1720)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(1720)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.
또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.
근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.
알림 모듈(1730)은 전자 장치(1000)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 전자 장치(1000)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(1730)은 디스플레이부(1210)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(1220)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(1230)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.
한편, 상술한 실시예는, 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터에 의해 판독 가능한 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 실시예에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 또한, 상술한 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로 구현될 수 있다. 예를 들어, 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 컴퓨터가 읽고 실행할 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다.
컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 기록 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 포함할 수 있다. 컴퓨터 판독 가능 매체는 마그네틱 저장매체, 예를 들면, 롬, 플로피 디스크, 하드 디스크 등을 포함하고,) 광학적 판독 매체, 예를 들면, 시디롬, DVD 등과 같은 저장 매체를 포함할 수 있으나, 이에 제한되지 않는다. 또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 및 통신 매체를 포함할 수 있다.
또한, 컴퓨터가 읽을 수 있는 복수의 기록 매체가 네트워크로 연결된 컴퓨터 시스템들에 분산되어 있을 수 있으며, 분산된 기록 매체들에 저장된 데이터, 예를 들면 프로그램 명령어 및 코드가 적어도 하나의 컴퓨터에 의해 실행될 수 있다.
본 개시에서 설명된 특정 실행들은 일 실시예 일 뿐이며, 어떠한 방법으로도 본 개시의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 및 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다.
전술한 본 개시의 설명은 예시를 위한 것이며, 본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 개시에서 모든 예들 또는 예시적인 용어, 예들 들어, “등등”의 사용은 단순히 본 개시를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 개시의 범위가 한정되는 것은 아니다.
또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 개시에 기재된 구성 요소들은 본 개시의 실행을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
본 개시의 실시예들과 관련된 기술 분야에서 통상의 지식을 가진 자는 상기 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다.
본 개시는 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 본 개시는 명세서에 기재된 특정한 실시 형태에 의해 한정되는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물이 본 개시에 포함되는 것으로 이해되어야 한다. 그러므로, 개시된 실시예들은 한정적인 관점이 아닌 설명적 관점에서 이해되어야 한다.
본 개시의 범위는 발명의 상세한 설명보다는 특허 청구 범위에 의하여 나타나며, 특허 청구 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.
본 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
"부", "모듈"은 어드레싱될 수 있는 저장 매체에 저장되며 프로세서에 의해 실행될 수 있는 프로그램에 의해 구현될 수도 있다.
예를 들어, “부”, "모듈" 은 소프트웨어 구성 요소들, 객체 지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들에 의해 구현될 수 있다.
본 명세서에서, "A는 a1, a2 및 a3 중 하나를 포함할 수 있다"는 기재은, A라는 엘리먼트(element)에 포함될 수 있는 예시적인 엘리먼트가 a1, a2 또는 a3라는 넓은 의미이다.
상기 기재로 인해 엘리먼트 A를 구성할 수 있는 엘리먼트가 반드시 a1, a2 또는 a3로 국한된다는 것은 아니다. 따라서 A를 구성할 수 있는 엘리먼트가, a1, a2 및 a3 이외에 예시되지 않은 다른 엘리먼트들을 배제한다는 의미로, 배타적으로 해석되지 않음에 유의하여야 한다.
또한, 상기 기재는, A는 a1를 포함하거나, a2를 포함하거나, 또는 a3를 포함할 수 있다는 의미이다. 상기 기재가 A를 구성하는 엘리먼트들이 반드시 소정 집합 내에서 선택적으로 결정된다는 것을 의미하지는 않는다. 예를 들어 상기 기재가, 반드시 a1, a2 및 a3를 포함하는 집합으로부터 선택된 a1, a2, 또는 a3가 컴포넌트 A를 구성한다는 것으로, 제한적으로 해석되지 않음에 유의하여야 한다.
또한 본 명세서에서, "a1, a2 및 a3 중 적어도 하나"라는 기재는, "a1", "a2", "a3", "a1 및 a2", "a1 및 a3", "a2 및 a3", 및 "a1, a2 및 a3" 중에서 한 가지를 나타낼 수 있다.
따라서, "a1 중 적어도 하나, a2 중 적어도 하나 및 a3 중 적어도 하나"라고 명시적으로 기재되지 않는 이상, "a1, a2 및 a3 중 적어도 하나"라는 기재는 "a1 중 적어도 하나", "a2 중 적어도 하나" 및 "a3 중 적어도 하나"라고 해석되지 않음에 유의하여야 한다.
전술한 실시예들은 예시적인 것이며, 한정적이 아닌 것으로 이해될 수 있다. 또한, 도 2, 3, 5, 9, 11의 흐름도에서 도시한 동작들의 순서에 한정되는 것이 아니며, 다양한 실시예에 따라, 일부 단계가 생략되거나 부가될 수 있음은 물론, 일부 단계의 순서가 변경될 수 있는 것으로 이해될 수 있다.
1000 : 전자 장치
1300 : 제어부
1300 : 제어부
Claims (25)
- 번역 서비스를 제공하는 전자 장치에 있어서,
디스플레이;
제1 언어의 입력 센텐스를 상기 디스플레이 상의 사용자 입력을 통해 수신하고,
미리 정해진 기준에 기초하여 상기 입력 센텐스로부터 제1 입력 텍스트와 제2 입력 텍스트를 검출하고,
상기 검출된 제2 입력 텍스트의 의미를 기초로, 상기 검출된 제1 입력 텍스트에 대응하는 제2 언어의 복수의 번역 후보 센텐스 중 하나를 결정하고,
상기 검출된 제1 입력 텍스트에 대응하는 상기 결정된 번역 후보 센텐스를 포함하는 상기 제2 언어의 출력 센텐스를 생성하고,
상기 생성된 출력 센텐스를 상기 디스플레이를 통해 출력하는 제어부를 포함하고,
상기 제어부는,
상기 입력 센텐스 중 키워드 전에 입력된 텍스트를 상기 제1 입력 텍스트로 결정하고 상기 키워드 이후에 입력된 텍스트를 상기 제2 입력 텍스트로 결정하고,
상기 제1 입력 텍스트는 상기 제2 언어로 번역될 대상이 되는 텍스트를 포함하고,
상기 제2 입력 텍스트는 상기 제1 입력 텍스트의 의미를 설명하는 텍스트를 포함하는, 전자 장치.
- 삭제
- 제1 항에 있어서,
상기 제어부는,
상기 입력 센텐스를 구성하는 각 단어에 대응하는 상기 제2 언어의 번역 후보 단어를 추출하고,
상기 제2 입력 텍스트의 의미와, 상기 제1 입력 텍스트를 구성하는 단어에 대응하는 상기 제2 언어의 번역 후보 단어들 간의 유사한 정도를 나타내는 제1 웨이트를 결정하는, 전자 장치.
- 제3 항에 있어서,
상기 제어부는,
상기 제1 입력 텍스트를 구성하는 단어들 중, 상기 제1 웨이트가 높은 상기 번역 후보 단어에 대응하는 단어를, 상기 제2 입력 텍스트가 부연 설명을 제공하기 위한 목적 단어인 것으로 결정하는, 전자 장치.
- 제1 항에 있어서,
상기 제어부는,
상기 입력 센텐스를 구성하는 각 단어에 대응하는 상기 제2 언어의 번역 후보 단어를 추출하고,
상기 제1 입력 텍스트를 구성하는 어느 하나의 단어에 대응하는 상기 제2 언어의 번역 후보 단어들이 복수 개인 경우, 상기 복수 개의 번역 후보 단어들 상호 간의 의미가 상이한 정도를 나타내는 제2 웨이트를 결정하는, 전자 장치.
- 제5 항에 있어서,
상기 제어부는,
상기 제1 입력 텍스트를 구성하는 단어들 중, 상기 제2 웨이트가 큰 단어를, 상기 제2 입력 텍스트가 부연 설명을 제공하기 위한 목적 단어인 것으로 결정하는, 전자 장치.
- 제1 항에 있어서,
상기 제어부는,
상기 입력 센텐스를 구성하는 각 단어에 대응하는 상기 제2 언어의 번역 후보 단어를 추출하고,
상기 제1 입력 텍스트를 구성하는 어느 하나의 단어에 대응하는 상기 제2 언어의 번역 후보 단어들이 복수 개인 경우, 상기 복수 개의 번역 후보 단어들 각각이, 전, 후에 인접한 다른 번역 후보 단어들과 하나의 문장을 구성하기 위해 연속적으로 나열될 확률을 나타내는 제3 웨이트를 결정하는, 전자 장치.
- 제7 항에 있어서,
상기 제어부는,
상기 복수 개의 번역 후보 단어들 중, 상기 제3 웨이트가 높은 번역 후보 단어를 결정함으로써 상기 출력 센텐스를 생성하는, 전자 장치.
- 삭제
- 삭제
- 제1 항에 있어서,
상기 제어부는,
상기 입력 센텐스 중 미리 정해진 사용자 입력과 동시에 또는 상기 사용자 입력 이후에 입력된 부분을 상기 제2 입력 텍스트로 결정하는, 전자 장치.
- 제1 항에 있어서,
상기 제어부는,
텍스트로 생성된 상기 출력 센텐스를 오디오 신호로 변환하고,
상기 출력 센텐스를 상기 오디오 신호 및 상기 텍스트 중 적어도 하나로 출력하도록 제어하는, 전자 장치.
- 전자 장치가 번역 서비스를 제공하는 방법에 있어서,
제1 언어의 입력 센텐스를 디스플레이 상의 사용자 입력을 통해 수신하는 단계;
미리 정해진 기준에 기초하여 상기 입력 센텐스로부터 제1 입력 텍스트와 제2 입력 텍스트를 검출하는 단계;
상기 검출된 제2 입력 텍스트의 의미를 기초로, 상기 검출된 제1 입력 텍스트에 대응하는 제2 언어의 복수의 번역 후보 센텐스 중 하나를 결정하는 단계;
상기 검출된 제1 입력 텍스트에 대응하는 상기 결정된 번역 후보 센텐스를 포함하는 상기 제2 언어의 출력 센텐스를 생성하는 단계; 및
상기 생성된 출력 센텐스를 상기 디스플레이를 통해 출력하는 단계를 포함하고,
상기 제1 입력 텍스트와 제2 입력 텍스트를 검출하는 단계는,
상기 입력 센텐스 중 키워드 전에 입력된 텍스트를 상기 제1 입력 텍스트로 결정하고 상기 키워드 이후에 입력된 텍스트를 상기 제2 입력 텍스트로 결정하고,
상기 제1 입력 텍스트는 상기 제2 언어로 번역될 대상이 되는 텍스트를 포함하고,
상기 제2 입력 텍스트는 상기 제1 입력 텍스트의 의미를 설명하는 텍스트를 포함하는, 방법.
- 삭제
- 제13 항에 있어서,
상기 출력 센텐스를 생성하는 단계는,
상기 입력 센텐스를 구성하는 각 단어에 대응하는 상기 제2 언어의 번역 후보 단어를 추출하는 단계; 및
상기 제2 입력 텍스트의 의미와, 상기 제1 입력 텍스트를 구성하는 단어에 대응하는 상기 제2 언어의 번역 후보 단어들 간의 유사한 정도를 나타내는 제1 웨이트를 결정하는 단계를 포함하는, 방법.
- 제15 항에 있어서,
상기 출력 센텐스를 생성하는 단계는,
상기 제1 입력 텍스트를 구성하는 단어들 중, 상기 제1 웨이트가 높은 상기 번역 후보 단어에 대응하는 단어를, 상기 제2 입력 텍스트가 부연 설명을 제공하기 위한 목적 단어인 것으로 결정하는 단계를 포함하는, 방법.
- 제13 항에 있어서,
상기 출력 센텐스를 생성하는 단계는,
상기 입력 센텐스를 구성하는 각 단어에 대응하는 상기 제2 언어의 번역 후보 단어를 추출하는 단계; 및
상기 제1 입력 텍스트를 구성하는 어느 하나의 단어에 대응하는 상기 제2 언어의 번역 후보 단어들이 복수 개인 경우, 상기 복수 개의 번역 후보 단어들 상호 간의 의미가 상이한 정도를 나타내는 제2 웨이트를 결정하는 단계를 포함하는, 방법.
- 제17 항에 있어서,
상기 출력 센텐스를 생성하는 단계는,
상기 제1 입력 텍스트를 구성하는 단어들 중, 상기 제2 웨이트가 큰 단어를, 상기 제2 입력 텍스트가 부연 설명을 제공하기 위한 목적 단어인 것으로 결정하는 단계를 포함하는, 방법.
- 제13 항에 있어서,
상기 출력 센텐스를 생성하는 단계는,
상기 입력 센텐스를 구성하는 각 단어에 대응하는 상기 제2 언어의 번역 후보 단어를 추출하는 단계; 및
상기 제1 입력 텍스트를 구성하는 어느 하나의 단어에 대응하는 상기 제2 언어의 번역 후보 단어들이 복수 개인 경우, 상기 복수 개의 번역 후보 단어들 각각이, 전, 후에 인접한 다른 번역 후보 단어들과 하나의 문장을 구성하기 위해 연속적으로 나열될 확률을 나타내는 제3 웨이트를 결정하는 단계를 포함하는, 방법.
- 제19 항에 있어서,
상기 출력 센텐스를 생성하는 단계는,
상기 복수 개의 번역 후보 단어들 중, 상기 제3 웨이트가 높은 번역 후보 단어를 결정함으로써 상기 출력 센텐스를 생성하는 단계를 포함하는, 방법.
- 삭제
- 삭제
- 제13 항에 있어서,
상기 제1 입력 텍스트와 제2 입력 텍스트를 검출하는 단계는,
상기 입력 센텐스 중 미리 정해진 사용자 입력과 동시에 또는 상기 사용자 입력 이후에 입력된 부분을 상기 제2 입력 텍스트로 결정하는, 방법.
- 제13 항에 있어서,
상기 출력 센텐스를 생성하는 단계는,
텍스트로 생성된 상기 출력 센텐스를 오디오 신호로 변환하는 단계; 및
상기 출력 센텐스를 상기 오디오 신호로 출력하는 단계를 포함하는, 방법.
- 제13 항의 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160075083A KR102251832B1 (ko) | 2016-06-16 | 2016-06-16 | 번역 서비스를 제공하는 전자 장치 및 방법 |
US15/619,989 US10572605B2 (en) | 2016-06-16 | 2017-06-12 | Electronic device for providing translation service and method thereof for determining translation candidate text from a plurality of candidate texts |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160075083A KR102251832B1 (ko) | 2016-06-16 | 2016-06-16 | 번역 서비스를 제공하는 전자 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170141970A KR20170141970A (ko) | 2017-12-27 |
KR102251832B1 true KR102251832B1 (ko) | 2021-05-13 |
Family
ID=60659479
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160075083A KR102251832B1 (ko) | 2016-06-16 | 2016-06-16 | 번역 서비스를 제공하는 전자 장치 및 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10572605B2 (ko) |
KR (1) | KR102251832B1 (ko) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6775202B2 (ja) * | 2017-06-19 | 2020-10-28 | パナソニックIpマネジメント株式会社 | 処理方法、処理装置、及び処理プログラム |
US11900072B1 (en) * | 2017-07-18 | 2024-02-13 | Amazon Technologies, Inc. | Quick lookup for speech translation |
CN110800046B (zh) * | 2018-06-12 | 2023-06-30 | 深圳市合言信息科技有限公司 | 语音识别及翻译方法以及翻译装置 |
RU2767965C2 (ru) * | 2019-06-19 | 2022-03-22 | Общество С Ограниченной Ответственностью «Яндекс» | Способ и система для перевода исходной фразы на первом языке целевой фразой на втором языке |
CN113947092A (zh) * | 2020-07-16 | 2022-01-18 | 阿里巴巴集团控股有限公司 | 一种翻译方法及装置 |
US12094448B2 (en) * | 2021-10-26 | 2024-09-17 | International Business Machines Corporation | Generating audio files based on user generated scripts and voice components |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3327674B2 (ja) | 1994-04-01 | 2002-09-24 | 松下電器産業株式会社 | プログラム翻訳装置及び方法 |
JP2004334791A (ja) * | 2003-05-12 | 2004-11-25 | Internatl Business Mach Corp <Ibm> | 機械翻訳装置、データ処理方法及びプログラム |
US20060074987A1 (en) | 2003-10-30 | 2006-04-06 | Microsoft Corporation | Term database extension for label system |
US20140188456A1 (en) * | 2012-12-27 | 2014-07-03 | Abbyy Development Llc | Dictionary Markup System and Method |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0773185A (ja) | 1993-09-06 | 1995-03-17 | Toshiba Corp | 機械翻訳装置及び方法 |
ATE211277T1 (de) * | 1997-05-28 | 2002-01-15 | Shinar Linguistic Technologies | Übersetzungssystem |
US6356865B1 (en) * | 1999-01-29 | 2002-03-12 | Sony Corporation | Method and apparatus for performing spoken language translation |
JP2001100788A (ja) | 1999-09-30 | 2001-04-13 | Sony Corp | 音声処理装置および音声処理方法、並びに記録媒体 |
JP2002032367A (ja) | 2000-07-14 | 2002-01-31 | Jisedai Joho Hoso System Kenkyusho:Kk | 文章解釈を支援するための情報付加方法及び文章提示装置 |
EP1576586A4 (en) * | 2002-11-22 | 2006-02-15 | Transclick Inc | LANGUAGE TRANSLATION SYSTEM AND METHOD |
US6993482B2 (en) * | 2002-12-18 | 2006-01-31 | Motorola, Inc. | Method and apparatus for displaying speech recognition results |
JP4829702B2 (ja) | 2006-07-06 | 2011-12-07 | 日本電信電話株式会社 | 機械翻訳装置、機械翻訳方法、および生成規則作成装置、生成規則作成方法、ならびにそれらのプログラムおよび記録媒体 |
US8195447B2 (en) * | 2006-10-10 | 2012-06-05 | Abbyy Software Ltd. | Translating sentences between languages using language-independent semantic structures and ratings of syntactic constructions |
KR100890404B1 (ko) | 2007-07-13 | 2009-03-26 | 한국전자통신연구원 | 음성 인식을 이용한 자동 번역 방법 및 장치 |
CN101727904B (zh) | 2008-10-31 | 2013-04-24 | 国际商业机器公司 | 语音翻译方法和装置 |
US8484218B2 (en) | 2011-04-21 | 2013-07-09 | Google Inc. | Translating keywords from a source language to a target language |
KR101288900B1 (ko) | 2011-11-21 | 2013-07-24 | (주)펀노마드 | 단어의 중의성 해소 방법, 중의성 해소 시스템, 및 이를 이용한 수화 시스템 |
WO2014087703A1 (ja) | 2012-12-06 | 2014-06-12 | 楽天株式会社 | 単語分割装置、単語分割方法、及び単語分割プログラム |
US9443005B2 (en) * | 2012-12-14 | 2016-09-13 | Instaknow.Com, Inc. | Systems and methods for natural language processing |
-
2016
- 2016-06-16 KR KR1020160075083A patent/KR102251832B1/ko active IP Right Grant
-
2017
- 2017-06-12 US US15/619,989 patent/US10572605B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3327674B2 (ja) | 1994-04-01 | 2002-09-24 | 松下電器産業株式会社 | プログラム翻訳装置及び方法 |
JP2004334791A (ja) * | 2003-05-12 | 2004-11-25 | Internatl Business Mach Corp <Ibm> | 機械翻訳装置、データ処理方法及びプログラム |
US20060074987A1 (en) | 2003-10-30 | 2006-04-06 | Microsoft Corporation | Term database extension for label system |
US20140188456A1 (en) * | 2012-12-27 | 2014-07-03 | Abbyy Development Llc | Dictionary Markup System and Method |
Also Published As
Publication number | Publication date |
---|---|
US20170364512A1 (en) | 2017-12-21 |
KR20170141970A (ko) | 2017-12-27 |
US10572605B2 (en) | 2020-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102251832B1 (ko) | 번역 서비스를 제공하는 전자 장치 및 방법 | |
US11081107B2 (en) | Contextual entity resolution | |
US10733987B1 (en) | System and methods for providing unplayed content | |
US10878824B2 (en) | Speech-to-text generation using video-speech matching from a primary speaker | |
JP6463825B2 (ja) | 多重話者音声認識修正システム | |
US10462545B2 (en) | Voice activated electronic device | |
EP2821991B1 (en) | Apparatus and method for recognizing voice and text | |
CN111226224B (zh) | 用于翻译语音信号的方法及电子设备 | |
US9484034B2 (en) | Voice conversation support apparatus, voice conversation support method, and computer readable medium | |
US9594744B2 (en) | Speech transcription including written text | |
US20110276327A1 (en) | Voice-to-expressive text | |
US20140025381A1 (en) | Evaluating text-to-speech intelligibility using template constrained generalized posterior probability | |
US10586528B2 (en) | Domain-specific speech recognizers in a digital medium environment | |
US10699706B1 (en) | Systems and methods for device communications | |
JP2007094086A (ja) | 入力装置、入力方法および入力プログラム | |
JP6841239B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20180288109A1 (en) | Conference support system, conference support method, program for conference support apparatus, and program for terminal | |
US20150269930A1 (en) | Spoken word generation method and system for speech recognition and computer readable medium thereof | |
JP2019023690A (ja) | 言語識別装置、言語識別方法、及び言語識別プログラム | |
US10841411B1 (en) | Systems and methods for establishing a communications session | |
KR101840363B1 (ko) | 오류 발음 검출을 위한 단말 및 음성 인식 장치, 그리고 그의 음향 모델 학습 방법 | |
KR20160055059A (ko) | 음성 신호 처리 방법 및 장치 | |
US20190259375A1 (en) | Speech signal processing method and speech signal processing apparatus | |
KR20130116128A (ko) | 티티에스를 이용한 음성인식 질의응답 시스템 및 그것의 운영방법 | |
KR102476497B1 (ko) | 언어 대응 화상 출력 장치, 방법 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |