KR20110032394A - Portable interpretation apparatus and method based on uer's situation - Google Patents
Portable interpretation apparatus and method based on uer's situation Download PDFInfo
- Publication number
- KR20110032394A KR20110032394A KR1020090089861A KR20090089861A KR20110032394A KR 20110032394 A KR20110032394 A KR 20110032394A KR 1020090089861 A KR1020090089861 A KR 1020090089861A KR 20090089861 A KR20090089861 A KR 20090089861A KR 20110032394 A KR20110032394 A KR 20110032394A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- speaker
- user
- situation
- translation
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000013519 translation Methods 0.000 claims abstract description 154
- 238000004891 communication Methods 0.000 claims abstract description 34
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 13
- 230000015572 biosynthetic process Effects 0.000 claims description 10
- 238000003786 synthesis reaction Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Information Transfer Between Computers (AREA)
Abstract
Description
아래의 실시예들은 사용자의 상황에 기반한 휴대용 통역 장치 및 방법에 관한 것이다.The following embodiments relate to a portable interpreter device and method based on the user's situation.
자동 통역 장치는 사용자가 번역하고자 하는 제1 언어로 된 문장을 음성으로 입력 받으면, 입력된 음성을 자동으로 텍스트로 변환하여 기계적으로 번역을 수행하고, 번역된 결과물인 제2 언어로 된 문장을 다시 음성으로 합성하여 출력한다. When the user receives a sentence in a first language to be translated by voice, the automatic interpreter automatically converts the input voice into text to perform a mechanical translation, and retranslate the sentence in the second language as a translated result. Synthesize and output to speech.
이러한 음성을 텍스트로 변환하는 음성인식 과정에서는 성별을 비롯한 화자별 특성 및 모델이 포함하고 있는 어휘의 종류와 개수에 따라 인식 성능과 범위가 결정된다. 또한 번역을 위한 번역 모델은 모델의 크기가 작을 경우 번역할 수 있는 문장의 종류가 제한되고, 모델이 커질 경우 번역 속도와 번역 정확도가 떨어진다. In the speech recognition process of converting speech into text, recognition performance and range are determined according to the type and number of vocabulary included in the speaker and characteristics of the speaker and gender. In addition, the translation model for translation is limited to the type of sentences that can be translated when the model size is small, translation speed and translation accuracy is reduced when the model is large.
이러한 자동 통역 장치는 단일 음성인식/번역 모델을 사용하는 장치상의 제한된 자원으로 인해 원활한 통역 기능을 구동하기 어려움이 있다. Such automatic interpreter is difficult to operate a smooth interpreter function due to limited resources on the device using a single speech recognition / translation model.
본 발명의 일실시예에 따른 휴대용 통역 장치는, 사용자로부터 통역 요청된 음성 정보를 입력 받는 사용자 인터페이스 모듈과, 사용자의 위치 정보를 인식하는 위치 인식 모듈과, 상기 인식된 위치 정보 및 통역 요청된 음성 정보를 통역 서버로 전송하고, 상기 통역 서버로부터 통역 요청된 음성 정보에 대응되는 번역 결과를 수신하는 통신 모듈 및 상기 수신된 번역 결과를 음성으로 합성하는 음성 합성 모듈을 포함하고, 상기 사용자 인터페이스 모듈은 상기 음성으로 합성된 번역 결과를 상기 사용자에게 제공하고, 상기 통역 서버는 상기 위치 정보에 따라 상기 사용자의 상황을 파악하고, 상기 사용자의 상황에 대응되는 화자/상황별 음성인식/번역 모델에 따라 상기 통역 요청된 음성 정보를 인식하여 문자 데이터로 변환하고, 상기 변환된 문자 데이터를 번역하여 상기 통역 요청된 음성 정보에 대응되는 번역 결과로 전송한다.In accordance with an aspect of the present invention, a portable interpretation apparatus includes a user interface module for receiving voice information requested for interpretation from a user, a location recognition module for recognizing user location information, and the recognized location information and interpretation requested voice. A communication module for transmitting the information to an interpreter server, receiving a translation result corresponding to the requested speech information from the interpreter server, and a speech synthesis module for synthesizing the received translation result into voice; Providing the voice synthesized translation result to the user, and the interpreter server grasps the user's situation according to the location information, and according to the speaker / situation voice recognition / translation model corresponding to the user's situation. Recognizes the voice information requested for interpretation, converts it into text data, and converts the converted text into To translate the site and transmits it to the translation result corresponding to the voice information the request interpreter.
또한 본 발명의 일실시예에 따른 휴대용 통역 장치는, 사용자의 위치 정보를 인식하는 위치 인식 모듈과, 사용자로부터 화자 정보 및 상황 정보를 입력 받고, 상기 화자 정보 및 상황 정보에 대응되는 음성인식/번역 모델의 다운로드를 요청 받고, 통역할 음성 정보를 입력 받는 사용자 인터페이스 모듈과, 상기 화자 정보 및 상황 정보에 대응되는 음성인식/번역 모델의 다운로드 요청을 상기 통역 서버로 전송하고, 상기 통역 서버로부터 상기 화자 정보에 대응되는 음성인식 모델 및 상기 상황 정보에 대응되는 번역 모델을 수신하는 통신 모듈과, 상기 수신된 음 성인식 모델 및 번역 모델을 저장하는 저장 모듈과, 상기 음성인식 모델을 참조하여 상기 통역할 음성 정보를 문자 데이터로 변환하는 음성 인식 모듈과, 상기 번역 모델을 참조하여 상기 변환된 문자 데이터를 번역하는 번역 모듈 및 상기 번역된 문자 데이터를 음성으로 합성하는 음성 합성 모듈을 포함하고, 상기 사용자 인터페이스 모듈은 상기 합성된 음성을 상기 사용자에게 제공하고, 상기 통역 서버는 화자별 음성인식 모델 및 상황별 번역 모델을 저장하고, 상기 다운로드 요청에 따라 상기 화자 및 상황을 식별하고, 상기 식별된 화자에 대응되는 음성인식 모델 및 상기 식별된 상황에 대응되는 번역 모델을 전송한다. In addition, the portable interpretation device according to an embodiment of the present invention, the location recognition module for recognizing the location information of the user, and receives the speaker information and situation information from the user, voice recognition / translation corresponding to the speaker information and the situation information A user interface module receiving a request for downloading a model and receiving voice information to be interpreted, and a download request for a voice recognition / translation model corresponding to the speaker information and situation information to the interpreter server, and the speaker from the interpreter server. A communication module for receiving a speech recognition model corresponding to the information and a translation model corresponding to the contextual information, a storage module for storing the received speech adult model and the translation model, and the voice to be interpreted with reference to the speech recognition model A speech recognition module for converting information into text data and the conversion with reference to the translation model A translation module for translating the translated text data and a speech synthesis module for synthesizing the translated text data into a voice, wherein the user interface module provides the synthesized voice to the user, and the interpreter server recognizes the speech per speaker. Stores a model and a contextual translation model, identifies the speaker and the context according to the download request, and transmits a speech recognition model corresponding to the identified speaker and a translation model corresponding to the identified context.
또한 본 발명의 일실시예에 따른 통역 방법은, 사용자로부터 통역 요청된 음성 정보를 입력 받는 단계와, 사용자의 위치 정보를 인식하는 단계와, 상기 인식된 위치 정보 및 통역 요청된 음성 정보를 통역 서버로 전송하는 단계와, 상기 통역 서버로부터 통역 요청된 음성 정보에 대응되는 번역 결과를 수신하는 단계와, 상기 수신된 번역 결과를 음성으로 합성하는 단계 및 상기 음성으로 합성된 번역 결과를 상기 사용자에게 제공하는 단계를 포함하고, 상기 통역 서버는 상기 위치 정보에 따라 상기 사용자의 상황을 파악하고, 상기 사용자의 상황에 대응되는 화자/상황별 음성인식/번역 모델을 참조하여 상기 통역 요청된 음성 정보를 인식하여 문자 데이터로 변환하고, 상기 변환된 문자 데이터를 번역한다.In addition, the interpreting method according to an embodiment of the present invention, the step of receiving the voice information requested for interpretation from the user, the step of recognizing the location information of the user, the interpreted server to interpret the requested location information and the requested voice information Transmitting to the user, receiving a translation result corresponding to the voice information requested for interpretation from the interpretation server, synthesizing the received translation result into a voice, and providing the voice synthesized translation result to the user. And interpreting, by the interpreter server, the situation of the user according to the location information, and the speech information requested for the interpretation by referring to a speaker / situation-specific speech recognition / translation model corresponding to the user's situation. To convert the converted character data into text data.
또한 본 발명의 일실시예에 따른 통역 방법은, 사용자로부터 화자 정보에 대응되는 음성인식 모델 및 상황 정보에 대응되는 번역 모델에 대한 다운로드 요청을 입력 받는 단계와, 상기 다운로드 요청에 따라 통역 서버로부터 상기 화자 정보에 대응되는 음성인식 모델 및 상황 정보에 대응되는 번역 모델을 수신하는 단계와, 상기 수신된 음성인식 모델 및 번역 모델을 저장하는 단계와, 상기 사용자로부터 통역할 음성 정보를 입력 받는 단계와, 상기 음성인식 모델을 참조하여 상기 음성 정보를 문자 데이터로 변환하는 단계와, 상기 번역 모델을 참조하여 상기 문자 데이터를 번역하는 단계와, 상기 번역된 문자 데이터를 음성으로 합성하는 단계 및 상기 합성된 음성을 상기 사용자에게 제공하는 단계를 포함하고, 상기 통역 서버는 화자별 음성인식 모델 및 상황별 번역 모델을 저장하고, 상기 다운로드 요청에 따라 상기 화자 및 상황을 식별하고, 상기 식별된 화자에 대응되는 음성인식 모델 및 상기 식별된 상황에 대응되는 번역 모델을 전송한다. In addition, the interpreting method according to an embodiment of the present invention, receiving a download request for the voice recognition model corresponding to the speaker information and the translation model corresponding to the situation information from the user, and from the interpretation server in accordance with the download request Receiving a speech recognition model corresponding to speaker information and a translation model corresponding to context information, storing the received speech recognition model and translation model, receiving voice information to be interpreted from the user; Converting the speech information into text data with reference to the speech recognition model; translating the text data with reference to the translation model; synthesizing the translated text data into speech; and synthesized speech Providing to the user, wherein the interpretation server is speech recognition mode for each speaker A Dell and contextual translation model are stored, the speaker and the context are identified according to the download request, and a speech recognition model corresponding to the identified speaker and a translation model corresponding to the identified context are transmitted.
본 발명의 일실시예는 화자의 특성과 상황에 적합한 다양한 음성인식 모델 및 상황별 번역 모델을 사전에 구축하고, 사용자의 화자 정보 및 사용자가 처한 상황 정보에 기반하여 통역 정확도를 높일 수 있다. In one embodiment of the present invention, various speech recognition models and contextual translation models suitable for characteristics and situations of a speaker may be previously constructed, and interpretation accuracy may be increased based on the speaker information of the user and the contextual information of the user.
또한 본 발명의 일실시예는 사용자의 화자 정보 및 사용자가 처한 상황 정보에 최적화된 통역 모델을 탑재하여 온라인 또는 오프라인 상에서 통역을 수행할 수 있다. In addition, an embodiment of the present invention can be interpreted on-line or off-line by mounting an interpretation model optimized for the user's speaker information and the user's situation information.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다. 다만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, with reference to the contents described in the accompanying drawings will be described in detail an embodiment according to the present invention. However, the present invention is not limited to or limited by the embodiments. Like reference numerals in the drawings denote like elements.
도 1은 본 발명의 일실시예에 따른 휴대용 통역 장치, 웹 서버 및 통역 서버 간의 연동 관계를 나타내는 도면이다.1 is a view showing an interworking relationship between a portable interpreter, a web server, and an interpreter server according to an embodiment of the present invention.
도 1을 참조하면, 휴대용 통역 장치(110), 웹 서버(120) 및 통역 서버(130)는 유/무선 통신 환경을 통해 연동된다. Referring to FIG. 1, the
휴대용 통역 장치(110)는 사용자의 위치를 인식하는 기능을 수행한다. 일례로 휴대용 통역 장치(110)는 GPS 등과 같이 사용자의 위치 좌표를 식별하고, 상기 식별된 사용자의 위치 좌표로 상기 사용자의 위치를 인식할 수 있다. The
휴대용 통역 장치(110)는 모델 다운로드 서비스에 따라 모바일 네트워크 통신 기능을 수행하여 웹 서버(120)와 연동하여 통역 서버(130)로부터 화자/상황별 음성 인식/번역 모델을 다운로드 받고, 다운로드된 화자별 음성 인식 모델 및 상황별 번역 모델을 저장한다. The
휴대용 통역 장치(110)는 상기 화자/상황별 음성인식/번역 모델이 다운로드되어 저장된 상태에서 오프라인 통역 서비스를 수행하는 경우, 사용자로부터 입력된 음성 신호를 상기 화자별 음성인식 모델에 따라 인식하여 문자 데이터로 변환하고, 상기 상황별 번역 모델에 따라 상기 문자 데이터를 번역한 후 상기 번역된 문자 데이터를 음성으로 합성하여 상기 사용자에게 제공한다. 이와 같이, 휴대용 통역 장치(110)는 화자에 대응되는 음성인식 모델 및 상황에 대응되는 번역 모델을 사전에 다운로드받아 저장함으로써 저장된 음성인식 모델 및 번역 모델을 참조하여 오프라인 통역 서비스를 사용자에게 제공할 수 있다. When the
한편 휴대용 통역 장치(110)는 상기 상황별 음성/인식 모델이 다운로드되지 않은 상태에서 실시간 통역 서비스를 수행하는 경우, 웹 서버(120)를 통해 통역 서버(130)에게 실시간 통역 중계 서비스를 요청하고, 통역 서버(130)에서 상기 요청된 실시간 통역 중계 서비스에 따라 번역된 문자 데이터를 수신하여 상기 수신된 문자 데이터를 음성으로 합성한다. On the other hand, when the
웹 서버(120)는 휴대용 통역 장치(110)와 통역 서버(130)간의 통신 및 세션 컨트롤을 수행하고, 모델 다운로드 서비스 또는 실시간 통역 중계 서비스를 제공한다. 상기 모델 다운로드 서비스는 휴대용 통역 장치(110)로부터 화자/상황별 음성인식/번역 모델에 대한 다운로드를 요청 받으면, 통역 서버(130)에서 저장된 화자/상황별 음성인식/번역 모델을 휴대용 통역 장치(110)로 다운로드한다. 상기 실시간 통역 중계 서비스는 휴대용 통역 장치(110)로부터 통역을 요청 받으면, 통역 서버(130)에서 수행된 통역 서비스 결과를 휴대용 통역 장치(110)로 중계한다. The
통역 서버(130)는 통역 모델 훈련 기능을 통해 화자별 음성인식 모델 및 상황별 번역 모델을 구축하고, 웹 서버(120)를 통해 휴대용 통역 장치(110)로부터 상기 화자별 음성인식 모델 및 상황별 번역 모델에 대한 다운로드를 요청 받으면, 해당 화자별 음성인식 모델 및 상황별 번역 모델을 웹 서버(120)를 통해 휴대용 통역 장치(110)로 전송한다. The
한편, 통역 서버(130)는 웹 서버(120)를 통해 실시간 통역 중계 서비스를 수행하기 위해 휴대용 통역 장치(110)로부터 전송된 음성 신호를 디코딩한다. 통역 서버(130)는 상기 화자별 음성인식 모델에 따라 상기 디코딩된 음성 신호를 문자 데이터로 변환한 후 상기 상황별 번역 모델에 따라 상기 문자 데이터를 번역하 고, 상기 번역된 문자 데이터를 인코딩하여 웹 서버(120)를 통해 전송한다. Meanwhile, the
웹 서버(120)는 상기 실시간 통역 중계 서비스에 따라 통역 서버(130)로부터 전송되는 번역된 문자 데이터를 휴대용 통역 장치(110)로 중계한다.The
휴대용 통역 장치(110)는 상기 실시간 통역 중계 서비스에 따라 웹 서버(120)로부터 상기 번역된 문자 데이터를 수신하고, 상기 수신된 문자 데이터를 음성으로 변환하여 상기 사용자에게 제공한다. 이와 같이, 휴대용 통역 장치(110)는 화자/상황별 음성인식/번역 모델이 다운로드되지 않은 상태에도 웹 서버(120)를 통해 통역 서버(130)로부터 실시간 통역 중계 서비스를 제공 받을 수 있다. The
도 2는 본 발명의 일실시예에 따른 온라인 통역 서비스를 위한 휴대용 통역 장치, 웹 서버 및 통역 서버의 구성을 나타내는 도면이다.2 is a diagram illustrating the configuration of a portable interpreter, a web server, and an interpreter server for an online interpreter service according to an exemplary embodiment of the present invention.
도 2를 참조하면, 휴대용 통역 장치(210)는 위치 인식 모듈(211), 사용자 인터페이스 모듈(212), 통신 모듈(213) 및 음성 합성 모듈(214)을 포함한다.Referring to FIG. 2, the
위치 인식 모듈(211)은 사용자의 위치를 인식한다. 일례로 위치 인식 모듈(211)은 GPS를 이용하여 사용자의 위치 좌표를 식별하고, 상기 식별된 사용자의 위치 좌표로 상기 사용자의 위치를 인식할 수 있다. The
사용자 인터페이스 모듈(212)은 사용자로부터 통역할 음성 신호를 입력 받고, 상기 입력된 음성 신호에 대한 통역 서비스를 요청 받는다. The
통신 모듈(213)은 유/무선 통신 환경을 통해 웹 서버(220)와 연동되어 상기 요청된 통역 서비스에 따라 상기 입력된 음성 신호 및 사용자의 위치 정보를 웹 서버(220)로 전송한다. 통신 모듈(213)은 웹 서버(220)로부터 실시간 통역 중계 서 비스(221)에 따른 상기 입력된 음성 신호에 대한 번역 결과를 수신한다. The
음성 합성 모듈(214)는 상기 수신된 번역 결과를 음성으로 합성하여 사용자 인터페이스 모듈(212)을 통해 출력한다. The
웹 서버(220)는 휴대용 통역 장치(210)와 통역 서버(230)간의 실시간 통역 중계 서비스(221)를 위한 통신 및 세션 컨트롤 모듈을 구비한다. 웹 서버(220)는 상기 통신 및 세션 컨트롤 모듈을 통해 실시간 통역 중계 서비스(221)를 위해 휴대용 통역 장치(210)로부터 수신된 음성 신호를 통역 서버(230)로 전송하고, 통역 서버(230)로부터 수신된 음성 신호에 대한 번역 결과를 휴대용 통역 장치(210)로 전송한다. The
통역 서버(230)는 화자/상황별 모델 구축 모듈(231), 저장 모듈(232), 통신 모듈(233), 화자/상황 인식 모듈(234), 음성 인식 모듈(235) 및 번역 모듈(236)을 포함한다. The
화자/상황별 모델 구축 모듈(231)은 각 화자에 대응하는 화자별 음성인식 모델을 구축하고, 각 상황에 대응하는 상황별 번역 모델을 구축한다. 즉, 화자/상황별 모델 구축 모듈(231)은 다양한 사용자의 특성에 맞는 다양한 화자별 음성인식 모델을 구축하고, 사용자가 직면할 수 있는 여러 가지 상황에 맞는 상황별 번역 모델을 구축한다. 일례로 화자/상황별 모델 구축 모듈(231)은 화자의 성별이 남자인 경우 남자에 대응되는 음성인식 모델을 구축하고, 화자의 상황이 비즈니스인 경우 비즈니스 상황에 대응되는 번역 모델을 구축할 수 있다. The speaker / situation
저장 모듈(232)은 화자별 음성인식 모델 및 상황별 번역 모델을 저장한다. 즉, 저장 모듈(232)은 화자/상황별 모델 구축 모듈(231)을 통해 구축된 화자별 음성인식 모델 및 상황별 번역 모델을 저장한다.The
통신 모듈(233)은 웹 서버(220)의 실시간 통역 중계 서비스(221)를 통해 휴대용 통역 장치(210)로부터 전송된 음성 신호 및 사용자의 위치 정보를 수신한다. The
화자/상황 인식 모듈(234)은 상기 수신된 음성 신호 및 사용자의 위치 정보를 이용하여 화자 및 상황을 인식한다. 즉, 화자/상황 인식 모듈(234)은 상기 수신된 음성 신호를 분석하여 화자의 특성을 인식하고, 상기 사용자의 위치 정보를 분석하여 화자의 상황을 인식한다. 일례로 화자/상황 인식 모듈(234)은 상기 사용자의 위치 좌표를 포함한 사용자의 위치 정보를 기반으로 하여 상기 사용자가 공항에 위치한 경우 상기 사용자가 처해진 상황이 여행이라고 인식할 수 있다. The speaker /
음성 인식 모듈(235)은 상기 인식된 화자의 특성에 따라 저장 모듈(232)에 저장된 화자별 음성인식 모델을 참조하여 상기 수신된 음성 신호를 문자 데이터로 변환한다. 일례로 음성 인식 모듈(235)은 상기 인식된 화자의 성별이 남자인 경우 저장 모듈(232)에 저장된 화자별 음성인식 모델 중에서 남자 화자에 대응되는 음성인식 모델을 참조하여 상기 수신된 음성 신호를 문자 데이터로 변환할 수 있다. The
번역 모듈(236)은 상기 인식된 화자의 상황에 따라 저장 모듈(232)에 저장된 상황별 번역 모델을 참조하여 상기 문자 데이터를 번역한다. 일례로 번역 모듈(236)은 상기 인식된 화자의 상황이 비즈니스인 경우 저장 모듈(232)에 저장된 상황별 번역 모델 중에서 비즈니스 상황에 대응되는 번역 모델을 참조하여 제1 언 어의 문자 데이터를 제2 언어의 문자 데이터로 번역할 수 있다. The
통신 모듈(233)은 상기 번역된 문자 데이터를 음성 신호에 대한 번역 결과로 웹 서버(220)를 통해 휴대용 번역 장치(210)로 전송한다. The
휴대용 통역 장치(210)는 웹 서버(220)를 통해 통역 서버(230)와 온라인으로 연결된 상태에서 통역할 음성 신호를 입력 받아 통역 서버(230)로부터 음성 신호에 대한 번역 결과를 수신하고, 수신된 번역 결과를 음성으로 합성하여 사용자에게 실시간 통역 서비스를 제공할 수 있다. The
도 3은 본 발명의 일실시예에 따른 오프라인 통역 서비스를 위한 휴대용 통역 장치, 웹 서버 및 통역 서버의 구성을 나타내는 도면이다.3 is a diagram illustrating the configuration of a portable interpreter, a web server, and an interpreter server for an offline interpreter service according to an exemplary embodiment of the present invention.
도 3을 참조하면, 휴대용 통역 장치(310)는 사용자 인터페이스 모듈(311), 위치 인식 모듈(312), 통신 모듈(313), 저장 모듈(314), 음성 인식 모듈(315), 번역 모듈(316) 및 음성 합성 모듈(317)을 포함한다.Referring to FIG. 3, the
휴대용 통역 장치(310)는 오프라인 통역 서비스를 위해 미리 웹 서버(320)을 통한 모델 다운로드 서비스(321)에 따라 통역 서버(330)와 접속하여 통역 서버(330)로부터 화자/상황별 음성인식/번역 모델을 다운로드 받는다. The
사용자 인터페이스 모듈(311)은 오프라인 통역 서비스를 위해 사전에 사용자로부터 화자 및 상화에 대응되는 음성인식/번역 모델에 대한 다운로드를 요청 받는다. 상기 오프라인 통역 서비스는 사용자가 통역을 요청하는 경우 휴대용 통역 장치(310)가 통역 서버(330)와 온라인으로 연결된 상태가 아닌 오프라인 상태에서 통역 서비스를 제공하는 것이다. 일례로 상기 사용자가 비즈니스를 위해 일본인을 만나는 경우, 사용자 인터페이스 모듈(311)은 상기 사용자로부터 일본인 화자 및 비즈니스 상황에 대응되는 음성인식/번역 모델에 대한 다운로드를 요청 받을 수 있다. 다른 일례로 상기 사용자가 미국 여행을 가는 경우, 사용자 인터페이스 모듈(311)은 상기 사용자로부터 미국인 화자 및 여행 상황에 대응되는 음성인식/번역 모델에 대한 다운로드를 요청 받을 수 있다. 상기 음성인식/번역 모델에 대한 다운로드 요청에 화자 정보 및 위치 정보가 포함된다. 상기 화자 정보는 상기 화자의 성별 및 상기 화자가 통역할 언어 정보가 포함될 수 있고, 상기 위치 정보는 상기 화자가 통역할 위치 좌표 또는 장소 정보가 포함될 수 있다. The
위치 인식 모듈(312)은 휴대용 통역 장치(310)의 위치를 인식한다. 일례로 위치 인식 모듈(312)는 GPS를 통해 휴대용 통역 장치(310)의 위치 좌표를 식별하고, 상기 식별된 위치 좌표를 통해 현재 위치가 공항인 것을 인식할 수 있다. The
통신 모듈(313)은 상기 음성인식/번역 모델에 대한 다운로드 요청을 웹 서버(320)로 전송한다. The
웹 서버(320)는 통신 및 세션 컨트롤 모듈을 구비하고, 상기 화자/상황별 음성인식/번역 모델에 대한 다운로드 서비스(321)를 휴대용 통역 장치(310)로 제공한다. 웹 서버(320)는 상기 통신 및 세션 컨트롤 모듈을 통해 모델 다운로드 서비스(321)에 따라 휴대용 통역 장치(310)로부터 상기 음성인식/번역 모델에 대한 다운로드 요청을 통역 서버(330)로 전송하고, 통역 서버(330)로부터 해당 화자/상황별 음성인식/번역 모델을 수신하여 휴대용 통역 장치(310)로 전송한다. The
통역 서버(330)는 화자/상황별 모델 구축 모듈(331), 저장 모듈(332), 통신 모듈(333), 화자/상황 식별 모듈(334) 및 화자/상황별 모델 선별 모듈(335)을 포함한다. The
화자/상황별 모델 구축 모듈(331)은 사전에 다양한 상황 또는 화자에 따른 음성인식/번역 모델들을 구축하고, 상기 구축된 화자/상황별 음성인식/번역 모델들을 저장 모듈(332)에 저장한다. 즉, 화자/상황별 모델 구축 모듈(331)은 다양한 화자에 대한 모델 훈련 기능에 의해 화자별 음성인식 모델을 구축하고, 다양한 상황에 대한 모델 훈련 기능에 의해 상황별 번역 모델들을 구축하고, 구축된 화자별 음성인식 모델 및 상황별 번역 모델을 저장 모듈(332)에 저장한다. 일례로 화자/상황별 모델 구축 모듈(331)은 다양한 일본어 화자에 대한 모델 훈련 기능에 의해 일본어 화자 음성인식 모델을 구축할 수 있다. 다른 일례로 화자/상황별 모델 구축 모듈(331)은 비즈니스 상황에 대한 모델 훈련 기능에 의해 비즈니스 상황에 적합한 번역 모델을 구축할 수 있다. The speaker / situation
통역 서버(330)는 상기 화자/상황별 음성인식/번역 모델에 대한 다운로드 요청을 통신 모듈(333)을 통해 수신하면, 화자/상황 식별 모듈(334)을 통해 상기 화자/상황별 음성인식/번역 모델에 대한 다운로드 요청에 따른 화자 및 상황을 식별한다. 화자/상황 식별 모듈(334)은 상기 화자/상황별 음성인식/번역 모델에 대한 다운로드 요청에 포함된 화자 정보 및 위치 정보를 이용하여 화자의 특성 및 화자의 상황을 식별한다. 일례로 화자/상황 식별 모듈(334)은 상기 화자/상황별 음성인식/번역 모델에 대한 다운로드 요청에 포함된 화자 정보를 이용하여 화자의 성별을 식별하고, 상기 위치 정보를 이용하여 화자의 상황을 식별할 수 있다. When the
화자/상황별 모델 선별 모듈(335)은 저장 모듈(332)에 저장된 화자/상황별 음성인식/번역 모델들 중에 상기 식별된 화자 및 상황에 대응되는 화자/상황별 음성인식/번역 모델을 선별한다. 일례로 화자/상황별 모델 선별 모듈(335)은 저장 모듈(332)에 저장된 화자/상황별 음성인식/번역 모델들 중에서 상기 화자/상황별 음성인식/번역 모델에 대한 다운로드 요청에 따라 식별된 화자가 남자이고, 상황이 여행인 경우, 남자 화자에 대응되는 음성인식 모델 및 여행 상황에 대응되는 번역 모델을 선별할 수 있다. The speaker / situation
통신 모듈(333)은 상기 선별된 화자/상황별 음성인식/번역 모델을 웹 서버(320)로 전송한다. 일례로 통신 모듈(333)은 상기 선별된 남자 화자에 대응되는 음성인식 모델 및 여행 상황에 대응되는 번역 모델을 웹 서버(320)로 전송한다. The
웹 서버(320)는 상기 통신 및 세션 컨트롤 모듈을 통해 모델 다운로드 서비스에 따라 통역 서버(330)로부터 상기 화자/상황별 음성인식/번역 모델을 수신하여 휴대용 통역 장치(310)로 전송한다. 일례로 웹 서버(320)는 상기 통신 및 세션 컨트롤 모듈을 통해 상기 모델 다운로드 서비스에 따라 통역 서버(330)로부터 상기 남자 화자에 대응되는 음성인식 모델 및 여행 상황에 대응되는 번역 모델을 수신하여 휴대용 통역 장치(310)로 전송할 수 있다. The
휴대용 통역 장치(310)는 웹 서버(320)을 통해 통역 서버(330)로부터 전송된 음성인식/번역 모델을 수신하여 저장 모듈(314)에 저장한다. 일례로 상기 사용자가 성별이 남자이고, 비즈니스 상황에 필요한 통역을 위한 모델 다운로드 서비스를 요청한 경우, 휴대용 통역 장치(310)는 통역 서버(330)로부터 웹 서버(320)을 통한 모델 다운로드 서비스(321)에 따라 남자 음성인식 모델 및 비즈니스 상황 번역 모델을 다운로드하여 저장 모듈(314)에 저장할 수 있다. The
사용자 인터페이스 모듈(311)은 사용자로부터 통역할 음성을 입력 받는다. 또한 사용자 인터페이스 모듈(311)은 사용자로부터 화자 또는 상황 정보를 입력 받을 수 있다. 일례로 사용자 인터페이스 모듈(311)은 상기 사용자로부터 사용자의 성별, 번역 언어쌍(제1 언어 및 제2 언어) 및 사용자가 처한 상황을 입력 받을 수 있다. The
음성 인식 모듈(315)은 저장 모듈(314)에 저장된 음성인식 모델을 참조하여 상기 입력된 음성을 인식하여 문자 데이터로 변환한다. The
번역 모듈(316)은 저장 모듈(313)에 저장된 번역 모델을 참조하여 상기 변환된 문자 데이터를 사용자가 원하는 언어로 번역한다. The
음성 합성 모듈(317)은 상기 사용자가 번역을 원하는 언어로 번역된 문자 데이터를 음성으로 합성한다. 일례로 상기 사용자가 번역을 원하는 언어가 영어인 경우, 음성 합성 모듈(317)은 상기 영어로 번역된 문자 데이터를 음성으로 합성할 수 있다. The
사용자 인터페이스 모듈(311)은 상기 사용자가 원하는 언어로 번역된 문자 데이터가 음성으로 합성된 결과를 상기 사용자에게 출력한다. 일례로 상기 사용자가 통역을 원하는 언어가 영어인 경우, 사용자 인터페이스 모듈(311)은 상기 영어로 합성된 음성을 사용자에게 출력할 수 있다. The
이와 같이, 본 발명의 일실시예에 따른 휴대용 통역 장치(310)는 화자/상황 별 음성인식/번역 모델을 사전에 다운로드 받아 저장한 후 화자/상황별 음성인식/번역 모델을 참조하여 입력된 음성을 인식하여 문자 데이터로 변환하고, 변환된 문자 데이터를 번역한 후 번역된 문자 데이터를 음성으로 합성하여 사용자에게 통역 서비스를 제공할 수 있다. As such, the
도 4는 본 발명의 일실시예에 따른 상황별 통역 모델 생성 과정을 나타내는 도면이다.4 is a diagram illustrating a process of generating an interpretation model for each situation according to an exemplary embodiment of the present invention.
도 4를 참조하면, 통역 서버는 말뭉치(401)를 색인화하고(S410), 상기 색인화된 말뭉치를 말뭉치 색인 데이터베이스(402)에 기록한다. 일례로 상기 통역 서버는 제1 언어, 제2 언어 및 상기 제1 언어에 대한 음성 데이터가 병렬로 나열되어 있는 대역 말뭉치(401)에서 색인을 생성할 수 있다. Referring to FIG. 4, the interpreter server indexes the corpus 401 (S410) and records the indexed corpus in the
상기 통역 서버는 상황 목록(403)에서 웹/온톨로지 데이터베이스(404)를 참조하여 핵심어를 추출하고(S420), 추출된 핵심어를 상황별 핵심어(405)으로 분류한다. 일례로 상기 통역 서버는 사용자가 처할 수 있는 다수의 상황 목록(403)에서 각각의 상황과 관련 있는 다수의 핵심어를 온톨로지를 포함하는 지식 자원을 참조하여 추출할 수 있다. The interpreter server refers to the web /
상기 통역 서버는 말뭉치 색인 데이터베이스(402)를 참조하여 상황별 핵심어(405)에 대해 검색하고(S403), 검색 결과에 따라 상황별 말뭉치(406)를 분류한다. 일례로 상기 통역 서버는 상기 추출된 각 상황에 대응하는 다수의 핵심어를 이용하여 대역 말뭉치를 검색하고, 검색 결과물을 상황별 말뭉치로 취합한다. The interpreter server searches the
상기 통역 서버는 상기 분류된 상황별 말뭉치(406)를 이용하여 음성인식/번 역 모델을 생성하고(S440), 상황별 음성인식/번역 모델(407)을 제공한다. 일례로 상기 통역 서버는 상기 상황별 말뭉치를 이용하여 상황별 음성인식 및 번역 모델을 훈련할 수 있다. The interpretation server generates a speech recognition / translation model using the classified contextual corpus 406 (S440), and provides a contextual speech recognition /
도 5는 본 발명의 일실시예에 따른 통역 방법의 플로우 차트를 나타내는 도면이다.5 is a view showing a flow chart of the interpretation method according to an embodiment of the present invention.
도 3 및 도 5를 참조하면, 통역 서버(330)는 사용자 성별 및 상황을 식별한다(S510). 휴대용 통역 장치(310)는 화자 및 상황에 적합한 음성인식/번역 모델에 대한 다운로드를 요청하기 위해 사용자로부터 입력된 화자 정보 및 인식된 위치 정보를 웹 서버(320)로 전송한다. 웹 서버(320)는 통신 및 세션 컨트롤 모듈을 통해 모델 다운로드 서비스(321)에 따라 휴대용 통역 장치(310)로부터 수신된 상기 화자 정보 및 위치 정보를 통역 서버(330)로 전송한다. 통역 서버(330)는 통신 모듈(333)을 통해 휴대용 통역 장치(310)로부터 웹 서버(320)의 중계에 의해 상기 화자 정보 및 위치 정보를 수신하고, 상기 화자 정보를 이용하여 화자의 성별을 식별하고, 상기 위치 정보를 이용하여 화자의 상황을 식별한다. 일례로 통역 서버(330)는 상기 화자 정보를 이용하여 상기 화자의 성별이 남성인 것을 식별하고, 상기 위치 정보가 공항인 경우 상기 화자의 상황이 여행인 것으로 식별할 수 있다. 3 and 5, the
통역 서버(330)는 상기 식별된 사용자의 성별 및 상황에 따라 화자/상황별 음성인식/번역 모델을 선별한다(S520). 즉, 통역 서버(330)는 화자/상황 식별 모듈(334)을 통해 상기 화자/상황별 음성인식/번역 모델로부터 상기 식별된 화자의 특성에 대응되는 음성인식 모델 및 상기 식별된 상황에 대응되는 번역 모델을 선별 한다. 일례로 통역 서버(330)는 화자별 음성인식 모델로부터 남성 화자에 대응되는 음성인식 모델을 선별하고, 상황별 번역 모델로부터 여행 상황에 대응되는 번역 모델을 선택할 수 있다. 통역 서버(330)는 통신 모듈(333)을 통해 상기 선별된 음성인식 모델 및 번역 모델을 웹 서버(320)의 중계에 의해 휴대용 통역 장치(310)로 전송한다. The
휴대용 통역 장치(310)는 통역 서버(330)로부터 전송된 음성인식/번역 모델을 탑재한다(S530). 즉, 휴대용 통역 장치(310)는 통신 모듈(313)을 통해 웹 서버(320)의 중계에 의해 상기 전송된 음성인식 모델 및 번역 모델을 수신하고, 상기 음성인식 모델 및 번역 모델을 저장 모듈(314)에 저장한다. 일례로 휴대용 통역 장치(310)는 상기 남성 화자에 대응되는 음성인식 모델 및 상기 번역 모델은 상기 여행 상황에 대응되는 번역 모델을 저장 모듈(314)에 저장할 수 있다. The
휴대용 통역 장치(310)는 상기 사용자로부터 번역할 문장을 음성으로 입력 받는다(S540). 즉, 휴대용 통역 장치(310)는 사용자 인터페이스 모듈(311)을 통해 상기 사용자로부터 제2 언어로 번역할 문장을 제1 언어의 음성으로 입력 받는다. The
휴대용 통역 장치(310)는 상기 탑재된 음성인식 모델을 참조하여 상기 입력된 음성을 인식하여 문장으로 변환한다(S550). 일례로 휴대용 통역 장치(310)는 저장 모듈(314)에 저장된 남자 화자에 대응되는 음성인식 모델을 참조하여 상기 입력된 제1 언어의 음성을 제1 언어의 문장으로 변환할 수 있다.The
휴대용 통역 장치(310)는 상기 탑재된 번역 모델을 참조하여 상기 변환된 문장을 번역하고(S560), 상기 번역된 문장을 음성으로 합성하여 출력한다(S560). 일례로 휴대용 통역 장치(310)는 저장 모듈(314)에 저장된 여행 상황에 대응되는 번역 모델을 참조하여 번역 모듈(316)을 통해 상기 변환된 제1 언어의 문장을 제2 언어의 문장으로 번역하고, 음성 합성 모듈(317)을 통해 상기 번역된 제2 언어의 문장을 음성으로 합성하여 사용자 인터페이스 모듈(311)을 통해 상기 사용자에게 합성된 제2 언어의 음성을 출력할 수 있다. The
이와 같이, 본 발명의 일실시예에 따른 통역 방법은 휴대용 통역 장치에서 통역 서버로부터 화자 및 상황에 적합한 음성인식 모델 및 번역 모델을 사전에 다운로드받아 탑재한 후 입력된 음성 신호를 탑재된 음성인식 모델에 따라 문자 데이터로 변환하고, 변환된 문자 데이터를 탑재된 번역 모델에 따라 번역한 후 번역된 문자 데이터를 음성 합성함으로써 사용자에게 통역 서비스를 제공할 수 있다. As described above, the interpretation method according to an embodiment of the present invention downloads a speech recognition model and a translation model suitable for a speaker and a situation from a interpretation server in a portable interpretation device in advance, and then mounts the speech signal inputted with the speech signal. According to the present invention, an interpreter service can be provided to a user by converting the text data into text data, translating the converted text data according to a built-in translation model, and then synthesizing the translated text data.
도 6은 본 발명의 일실시예에 따른 위치 인식을 통한 상황 정보 추출 과정을 나타내는 도면이다.6 is a diagram illustrating a process of extracting contextual information through location recognition according to an embodiment of the present invention.
도 2 및 도 6을 참조하면, 휴대용 통역 장치(210)는 GPS 위치 정보를 인식하고, 상기 인식된 GPS 위치 정보로 사용자의 위치 좌표를 식별한다(S610). 즉, 휴대용 통역 장치(210)는 위치 인식 모듈(211)을 통해 사용자의 위치 정보를 인식하고, 상기 인식된 위치 정보로 상기 사용자의 위치 좌표를 식별한다.2 and 6, the
휴대용 통역 장치(210)는 통신망을 이용하여 웹 서버(220)를 통해 상기 위치 좌표를 통역 서버(230)로 전송한다(S620). 즉, 휴대용 통역 장치(210)는 통신 모듈(213)을 통해 웹 서버(220)로 상기 위치 좌표를 전송하고, 웹 서버(220)가 상기 위치 좌표를 통역 서버(230)로 중계한다. The
통역 서버(230)는 위치 대 장소 데이터베이스를 검색하여 사용자가 위치해 있는 장소를 식별하여 위치 좌표에 따른 장소 정보를 추출한다(S630). 상기 위치 대 장소 데이터베이스는 위치 좌표에 대응하여 장소 정보를 기록하고 유지할 수 있다. The
통역 서버(230)는 장소 대 상황 데이터베이스를 검색하여 상황 범주를 식별하여 장소 정보에 따른 상황 정보를 추출한다(S640). 상기 장소 대 상황 데이터베이스는 상기 장소 정보에 대응되는 상황 정보를 기록하고 유지할 수 있다. 일례로 상기 장소 정보가 레스토랑인 경우, 통역 서버(230)는 상기 장소 대 상황 데이터베이스를 검색하여 레스토랑에 따른 식사 상황을 추출할 수 있다. The
통역 서버(230)는 상황 정보에 따른 번역 모델을 선별하여 통역 작업을 수행한다(S650). 통역 서버(230)는 화자 정보에 따라 선별된 음성인식 모델 및 상기 상황 정보에 따라 선별된 번역 모델을 이용하여 휴대용 통역 장치(210)로부터 요청된 음성 신호에 대한 통역 작업을 수행한다. 일례로 통역 서버(230)는 남성 화자에 따라 선별된 음성인식 모델을 참조하여 휴대용 통역 장치(210)로부터 전송된 통역할 제1 언어의 음성 신호를 제1 언어의 문자 데이터로 변환하고, 여행 상황에 따라 선별된 번역 모델을 참조하여 상기 변환된 제1 언어의 문자 데이터를 제2 언어로 번역하여 휴대용 통역 장치(210)로 전송할 수 있다. 휴대용 통역 장치(210)는 통역 서버(230)로부터 상기 제2 언어로 번역된 문자 데이터를 수신하고, 상기 제2 언어의 문자 데이터를 제2 언어의 음성으로 합성하여 사용자 인터페이스 모듈(212)을 통해 상기 사용자에게 제1 언어의 음성에 대한 통역 결과로 합성된 제2 언어의 음성을 제공할 수 있다. The
이와 같이, 본 발명의 일실시예에 따른 통역 방법은 휴대용 통역 장치에서 통역할 화자 정보, 음성 신호 및 위치 정보를 통역 서버로 전송하고, 통역 서버에서 화자 정보에 따라 식별된 화자에 대응되는 음성인식 모델을 이용하여 음성 신호를 문자 데이터로 변환하고, 위치 정보에 따라 식별된 상황에 대응되는 번역 모델을 이용하여 문자 데이터를 번역하고, 휴대용 통역 장치에서 번역된 문자 데이터를 수신하여 음성 합성함으로써 통역 서비스를 제공할 수 있다. As such, the interpretation method according to an embodiment of the present invention transmits the speaker information, voice signal, and location information to be interpreted by the portable interpreter to the interpretation server, and voice recognition corresponding to the speaker identified according to the speaker information by the interpretation server. Interpretation service by converting voice signal into text data using a model, translating text data using a translation model corresponding to a situation identified according to location information, and receiving and synthesizing the translated text data from a portable interpreter. Can be provided.
본 발명의 일실시예에 따른 통역 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발 명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Interpretation methods according to an embodiment of the present invention can be implemented in the form of program instructions that can be executed by various computer means may be recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.
도 1은 본 발명의 일실시예에 따른 휴대용 통역 장치, 웹 서버 및 통역 서버 간의 연동 관계를 나타내는 도면이다.1 is a view showing an interworking relationship between a portable interpreter, a web server, and an interpreter server according to an embodiment of the present invention.
도 2는 본 발명의 일실시예에 따른 온라인 통역 서비스를 위한 휴대용 통역 장치, 웹 서버 및 통역 서버의 구성을 나타내는 도면이다.2 is a diagram illustrating the configuration of a portable interpreter, a web server, and an interpreter server for an online interpreter service according to an exemplary embodiment of the present invention.
도 3은 본 발명의 일실시예에 따른 오프라인 통역 서비스를 위한 휴대용 통역 장치, 웹 서버 및 통역 서버의 구성을 나타내는 도면이다.3 is a diagram illustrating the configuration of a portable interpreter, a web server, and an interpreter server for an offline interpreter service according to an exemplary embodiment of the present invention.
도 4는 본 발명의 일실시예에 따른 상황별 번역 모델 생성 과정을 나타내는 도면이다.4 is a diagram illustrating a process of generating a translation model for each context according to an embodiment of the present invention.
도 5는 본 발명의 일실시예에 따른 통역 방법의 플로우 차트를 나타내는 도면이다.5 is a view showing a flow chart of the interpretation method according to an embodiment of the present invention.
도 6은 본 발명의 일실시예에 따른 위치 인식을 통한 상황 추출 과정을 나타내는 도면이다.6 is a diagram illustrating a situation extraction process through location recognition according to an embodiment of the present invention.
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090089861A KR101640024B1 (en) | 2009-09-23 | 2009-09-23 | Portable interpretation apparatus and method based on uer's situation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090089861A KR101640024B1 (en) | 2009-09-23 | 2009-09-23 | Portable interpretation apparatus and method based on uer's situation |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110032394A true KR20110032394A (en) | 2011-03-30 |
KR101640024B1 KR101640024B1 (en) | 2016-07-15 |
Family
ID=43937143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090089861A KR101640024B1 (en) | 2009-09-23 | 2009-09-23 | Portable interpretation apparatus and method based on uer's situation |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101640024B1 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130043293A (en) * | 2011-10-20 | 2013-04-30 | 엘지전자 주식회사 | Mobile terminal and method for translating voice using thereof |
KR20150068663A (en) * | 2013-12-12 | 2015-06-22 | 한국전자통신연구원 | Apparatus and method for auto translation using log data |
KR20150086725A (en) * | 2014-01-20 | 2015-07-29 | 삼성전자주식회사 | Method and apparatus for providing user centric information and recording medium thereof |
KR20160093292A (en) * | 2015-01-29 | 2016-08-08 | 한국전자통신연구원 | Contents offer method and the method perfoming contents offer server, commentator apparatus |
US9842588B2 (en) | 2014-07-21 | 2017-12-12 | Samsung Electronics Co., Ltd. | Method and device for context-based voice recognition using voice recognition model |
KR20190004790A (en) * | 2016-05-06 | 2019-01-14 | 이베이 인크. | Technique using meta information when translating an artificial neural network machine |
WO2019078615A1 (en) * | 2017-10-18 | 2019-04-25 | Samsung Electronics Co., Ltd. | Method and electronic device for translating speech signal |
WO2019103340A1 (en) * | 2017-11-24 | 2019-05-31 | 삼성전자(주) | Electronic device and control method thereof |
KR20200128490A (en) * | 2014-01-20 | 2020-11-13 | 삼성전자주식회사 | Method and apparatus for providing user centric information and recording medium thereof |
KR20210122738A (en) * | 2020-10-26 | 2021-10-12 | 삼성전자주식회사 | Method and apparatus for providing user centric information and recording medium thereof |
KR102692549B1 (en) * | 2023-10-04 | 2024-08-09 | 주식회사 다이얼로그디자인에이전시 | Context-aware and persona-based generative ai interpretation device and method for controlling the same |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000148176A (en) * | 1998-11-18 | 2000-05-26 | Sony Corp | Information processing device and method, serving medium, speech recognision system, speech synthesizing system, translation device and method, and translation system |
KR20000072073A (en) * | 2000-07-21 | 2000-12-05 | 백종관 | Method of Practicing Automatic Simultaneous Interpretation Using Voice Recognition and Text-to-Speech, and System thereof |
JP2003108551A (en) * | 2001-09-28 | 2003-04-11 | Toshiba Corp | Portable machine translation device, translation method and translation program |
JP2008310561A (en) * | 2007-06-14 | 2008-12-25 | Sharp Corp | Electronic device and control method therefor |
-
2009
- 2009-09-23 KR KR1020090089861A patent/KR101640024B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000148176A (en) * | 1998-11-18 | 2000-05-26 | Sony Corp | Information processing device and method, serving medium, speech recognision system, speech synthesizing system, translation device and method, and translation system |
KR20000072073A (en) * | 2000-07-21 | 2000-12-05 | 백종관 | Method of Practicing Automatic Simultaneous Interpretation Using Voice Recognition and Text-to-Speech, and System thereof |
JP2003108551A (en) * | 2001-09-28 | 2003-04-11 | Toshiba Corp | Portable machine translation device, translation method and translation program |
JP2008310561A (en) * | 2007-06-14 | 2008-12-25 | Sharp Corp | Electronic device and control method therefor |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130043293A (en) * | 2011-10-20 | 2013-04-30 | 엘지전자 주식회사 | Mobile terminal and method for translating voice using thereof |
KR20150068663A (en) * | 2013-12-12 | 2015-06-22 | 한국전자통신연구원 | Apparatus and method for auto translation using log data |
KR20150086725A (en) * | 2014-01-20 | 2015-07-29 | 삼성전자주식회사 | Method and apparatus for providing user centric information and recording medium thereof |
KR20200128490A (en) * | 2014-01-20 | 2020-11-13 | 삼성전자주식회사 | Method and apparatus for providing user centric information and recording medium thereof |
US9842588B2 (en) | 2014-07-21 | 2017-12-12 | Samsung Electronics Co., Ltd. | Method and device for context-based voice recognition using voice recognition model |
KR20160093292A (en) * | 2015-01-29 | 2016-08-08 | 한국전자통신연구원 | Contents offer method and the method perfoming contents offer server, commentator apparatus |
US11238348B2 (en) | 2016-05-06 | 2022-02-01 | Ebay Inc. | Using meta-information in neural machine translation |
KR20210019562A (en) * | 2016-05-06 | 2021-02-22 | 이베이 인크. | Using meta-information in neural machine translation |
KR20190004790A (en) * | 2016-05-06 | 2019-01-14 | 이베이 인크. | Technique using meta information when translating an artificial neural network machine |
KR20220017001A (en) * | 2016-05-06 | 2022-02-10 | 이베이 인크. | Using meta-information in neural machine translation |
US11783197B2 (en) | 2016-05-06 | 2023-10-10 | Ebay Inc. | Using meta-information in neural machine translation |
WO2019078615A1 (en) * | 2017-10-18 | 2019-04-25 | Samsung Electronics Co., Ltd. | Method and electronic device for translating speech signal |
US11264008B2 (en) | 2017-10-18 | 2022-03-01 | Samsung Electronics Co., Ltd. | Method and electronic device for translating speech signal |
US11915684B2 (en) | 2017-10-18 | 2024-02-27 | Samsung Electronics Co., Ltd. | Method and electronic device for translating speech signal |
WO2019103340A1 (en) * | 2017-11-24 | 2019-05-31 | 삼성전자(주) | Electronic device and control method thereof |
US11594216B2 (en) | 2017-11-24 | 2023-02-28 | Samsung Electronics Co., Ltd. | Electronic device and control method thereof |
KR20210122738A (en) * | 2020-10-26 | 2021-10-12 | 삼성전자주식회사 | Method and apparatus for providing user centric information and recording medium thereof |
KR20220112719A (en) * | 2020-10-26 | 2022-08-11 | 삼성전자주식회사 | Method and apparatus for providing user centric information and recording medium thereof |
KR102692549B1 (en) * | 2023-10-04 | 2024-08-09 | 주식회사 다이얼로그디자인에이전시 | Context-aware and persona-based generative ai interpretation device and method for controlling the same |
Also Published As
Publication number | Publication date |
---|---|
KR101640024B1 (en) | 2016-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101640024B1 (en) | Portable interpretation apparatus and method based on uer's situation | |
US11049493B2 (en) | Spoken dialog device, spoken dialog method, and recording medium | |
JP6923332B2 (en) | Automatic interpretation method and equipment | |
KR102582291B1 (en) | Emotion information-based voice synthesis method and device | |
JP3920812B2 (en) | Communication support device, support method, and support program | |
US9330661B2 (en) | Accuracy improvement of spoken queries transcription using co-occurrence information | |
KR20190104941A (en) | Speech synthesis method based on emotion information and apparatus therefor | |
US9390426B2 (en) | Personalized advertisement device based on speech recognition SMS service, and personalized advertisement exposure method based on partial speech recognition SMS service | |
KR20170033722A (en) | Apparatus and method for processing user's locution, and dialog management apparatus | |
JP2010224194A (en) | Speech recognition device and speech recognition method, language model generating device and language model generating method, and computer program | |
JP6370962B1 (en) | Generating device, generating method, and generating program | |
JP6927318B2 (en) | Information processing equipment, information processing methods, and programs | |
RU2692051C1 (en) | Method and system for speech synthesis from text | |
KR20190106890A (en) | Speech synthesis method based on emotion information and apparatus therefor | |
US20220375469A1 (en) | Intelligent voice recognition method and apparatus | |
KR20100111164A (en) | Spoken dialogue processing apparatus and method for understanding personalized speech intention | |
US8688447B1 (en) | Method and system for domain-specific noisy channel natural language processing (NLP) | |
US11783824B1 (en) | Cross-assistant command processing | |
WO2017168637A1 (en) | Intention estimating apparatus and intention estimating method | |
CN110809796B (en) | Speech recognition system and method with decoupled wake phrases | |
CN109887490A (en) | The method and apparatus of voice for identification | |
KR101207435B1 (en) | Interactive speech recognition server, interactive speech recognition client and interactive speech recognition method thereof | |
CN111524508A (en) | Voice conversation system and voice conversation implementation method | |
Gupta et al. | Desktop Voice Assistant | |
WO2021161856A1 (en) | Information processing device and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190619 Year of fee payment: 4 |