KR101814431B1 - Translation system and method for translation syncronization - Google Patents
Translation system and method for translation syncronization Download PDFInfo
- Publication number
- KR101814431B1 KR101814431B1 KR1020110025815A KR20110025815A KR101814431B1 KR 101814431 B1 KR101814431 B1 KR 101814431B1 KR 1020110025815 A KR1020110025815 A KR 1020110025815A KR 20110025815 A KR20110025815 A KR 20110025815A KR 101814431 B1 KR101814431 B1 KR 101814431B1
- Authority
- KR
- South Korea
- Prior art keywords
- audio file
- translation
- user terminal
- generated
- sentence
- Prior art date
Links
- 238000013519 translation Methods 0.000 title claims abstract description 207
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000015572 biosynthetic process Effects 0.000 claims description 31
- 238000003786 synthesis reaction Methods 0.000 claims description 31
- 238000004891 communication Methods 0.000 claims description 13
- 230000014616 translation Effects 0.000 claims 28
- 230000001360 synchronised effect Effects 0.000 abstract description 4
- 238000004458 analytical method Methods 0.000 description 27
- 230000006870 function Effects 0.000 description 9
- 230000000877 morphologic effect Effects 0.000 description 9
- 238000003058 natural language processing Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 238000013500 data storage Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
- G06F15/163—Interprocessor communication
- G06F15/173—Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
- G06F15/17306—Intercommunication techniques
- G06F15/17325—Synchronisation; Hardware support therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
본 발명은 오디오 파일 동기화를 위한 번역 서비스 시스템 및 그 방법에 관한 것으로서, 상세하게는 원문에 대한 번역문과 그 번역문에 대한 오디오 파일을 생성하여 사용자 단말로 전송하고, 생성된 오디오 파일을 다른 사용자 단말에 저장된 오디오 파일과 비교하여 갱신된 오디오 파일인 경우 그 오디오 파일을 다른 단말로 동기화시킴으로써, 사용자가 번역 요청한 번역문 및 오디오 파일을 사용자 단말을 통해 반복적으로 확인할 수 있고 동기화된 다른 단말에서도 그 번역문 및 오디오 파일을 사용자가 이용하는 단말에 관계없이 이용할 수 있다.The present invention relates to a translation service system and method for synchronizing audio files, and more particularly, to a translation service system for synchronizing audio files, and more particularly, If the updated audio file is compared with the stored audio file, the audio file is synchronized to the other terminal so that the translation and audio file requested by the user can be repeatedly checked through the user terminal, Can be used regardless of the terminal used by the user.
Description
본 발명은 오디오 파일 동기화를 위한 번역 서비스 시스템 및 그 방법에 관한 것으로서, 상세하게는 원문에 대한 번역문과 그 번역문에 대한 오디오 파일을 생성하여 사용자 단말로 전송하고, 생성된 오디오 파일을 다른 사용자 단말에 저장된 오디오 파일과 비교하여 갱신된 오디오 파일인 경우 그 오디오 파일을 다른 단말로 동기화시킴으로써, 사용자가 번역 요청한 번역문 및 오디오 파일을 사용자 단말을 통해 반복적으로 확인할 수 있고 동기화된 다른 단말에서도 그 번역문 및 오디오 파일을 사용자가 이용하는 단말에 관계없이 이용할 수 있는, 오디오 파일 동기화를 위한 번역 서비스 시스템 및 그 방법에 관한 것이다.The present invention relates to a translation service system and method for synchronizing audio files, and more particularly, to a translation service system for synchronizing audio files, and more particularly, If the updated audio file is compared with the stored audio file, the audio file is synchronized to the other terminal so that the translation and audio file requested by the user can be repeatedly checked through the user terminal, To a translation service system for audio file synchronization and a method thereof, which can be used regardless of a terminal used by a user.
현재 "구글", "마이크로소프트", "야후" 등과 같은 주요 포털 사이트는 사용자의 원문의 언어를 감지하여 자동으로 번역하는 자동 번역 서비스를 제공하고 있다. 번역의 정확성이 높아짐에 따라 이에 대한 사용자의 관심과 이용량이 증가하고 있다.Currently, major portal sites such as "Google", "Microsoft", and "Yahoo" provide an automatic translation service that automatically detects and translates the user's original language. As the accuracy of the translation increases, the user's interest and usage are increasing.
사용자들은 외국어로 된 문장이나 웹 페이지 등을 자동 번역 서비스를 통해 자신이 원하는 언어로 번역된 번역문을 제공받아 그 내용을 쉽게 파악할 수 있다. 이러한 포털 사이트가 TTS(Text To Speech) 기능을 이용하여 번역된 문장을 사용자에게 음성으로 출력하면, 사용자는 번역된 문장을 음성으로 들을 수 있다.The users can easily grasp the contents of the translated texts in a language desired by the user through an automatic translation service, such as sentences or web pages in a foreign language. When the portal site outputs the translated sentence to the user by using the TTS (Text To Speech) function, the user can hear the translated sentence by voice.
일부 포털 사이트는 사용자가 중국어 문장을 입력한 후 문장 분석 실행을 요청하면, 중국어 문장을 단어들로 구분하고 이에 대한 발음 기호와 단어 뜻을 표시해준다. 여기서, 사용자는 중국어 단어들로 구분된 중국어 문장을 TTS 기능을 통해 음성으로 들을 수 있다.Some portal sites, when the user inputs a Chinese sentence and then request to execute a sentence analysis, divides the Chinese sentence into words and displays a pronunciation symbol and a word meaning thereof. Here, the user can speak Chinese sentences separated by Chinese words through the TTS function.
그런데 사용자들은 현재 제공하고 있는 자동 번역 서비스들을 통해 번역문을 음성으로 들을 수 있으나, 이에 대한 오디오 파일을 자신의 컴퓨터나 단말에 저장할 수 없다. 종래의 자동 번역 서비스들은 문장 번역 및 이에 대한 TTS 기능을 제공하고 있으나, 사용자가 현재 사용하고 있는 컴퓨터 등과 같은 디바이스를 통해 일회성으로 출력하는 기능만을 제공하고 있다. 뿐만 아니라, 자동 번역 서비스는 번역된 문장이나 단어에 대한 오디오 파일을 다른 디바이스로 전송하여 그 전송된 오디오 파일을 저장하는 기능을 제공하지 않는다.However, users can listen to the translated text through the automatic translation services currently provided, but can not store the audio file in their own computer or terminal. Conventional automatic translation services provide sentence translation and a TTS function for it, but provide only a function of outputting them through a device such as a computer currently used by a user at one time. In addition, the automatic translation service does not provide a function to transmit an audio file of a translated sentence or word to another device and to store the transmitted audio file.
따라서 사용자들은 학습 등의 목적으로 타국어 문장이 번역된 번역문의 음성을 반복적으로 들을 수 없다. 또한, 사용자는 번역을 요청한 디바이스 외에 다른 디바이스에서 번역문의 음성을 반복적으로 들을 수 없다. 즉, 사용자가 자동 번역 서비스를 통해 번역된 번역문인 경우에도 다른 디바이스에서 들으려면, 사용자는 동일한 원문을 새로 입력하고 번역 과정 및 음성 출력 과정을 다시 요청해서 자동 번역 서비스를 실행시켜야 하는 번거로움이 있다.Therefore, users can not repeatedly hear the translated speech of a foreign language sentence for the purpose of learning or the like. Further, the user can not repeatedly hear the voice of the translated text in the device other than the device that requested the translation. That is, even if the user is a translation translated through an automatic translation service, in order to listen to the same on another device, the user has to input the same original text again and request the translation process and the voice output process again to execute the automatic translation service .
본 발명은 상기의 문제점을 해결하기 위해 창안된 것으로서, 원문에 대한 번역문과 그 번역문에 대한 오디오 파일을 생성하여 사용자 단말로 전송하고, 생성된 오디오 파일을 다른 사용자 단말에 저장된 오디오 파일과 비교하여 갱신된 오디오 파일인 경우 그 오디오 파일을 다른 단말로 동기화시킴으로써, 사용자가 번역 요청한 번역문 및 오디오 파일을 사용자 단말을 통해 반복적으로 확인할 수 있고 동기화된 다른 단말에서도 그 번역문 및 오디오 파일을 사용자가 이용하는 단말에 관계없이 이용할 수 있는, 오디오 파일 동기화를 위한 번역 서비스 시스템 및 그 방법을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the above problems, and it is an object of the present invention to provide a method and apparatus for generating a translation for a original text and an audio file for the translation and transmitting the generated audio file to a user terminal, It is possible to repeatedly confirm the translation and the audio file requested by the user through the user terminal and to synchronize the translation and the audio file with the terminal used by the user And to provide a translation service system and method thereof for synchronizing audio files.
이를 위하여, 본 발명의 제1 측면에 따른 시스템은, 번역 대상인 원문을 송신하고 번역문 및 오디오 파일을 수신하고, 상기 번역문에 대한 음성 합성 및 오디오 파일의 동기화를 요청하는 제1 사용자 단말; 상기 제1 사용자 단말의 오디오 파일 동기화 요청에 따라 오디오 파일을 수신하여 저장하고, 상기 저장된 오디오 파일을 출력하는 제2 사용자 단말; 및 상기 제1 사용자 단말로부터 수신된 원문으로부터 번역문을 생성하고, 상기 제1 사용자 단말의 음성 합성 요청에 따라 상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성을 통해 오디오 파일을 생성하고, 상기 생성된 오디오 파일을 저장하고, 상기 제1 사용자 단말의 오디오 파일 동기화 요청에 따라 상기 제2 사용자 단말에 저장된 오디오 파일과 상기 저장된 오디오 파일을 비교하여 갱신된 오디오 파일 및 번역문을 상기 제2 사용자 단말로 전송하여 동기화시키는 번역 서비스 장치를 포함하는 것을 특징으로 한다.To this end, the system according to the first aspect of the present invention comprises: a first user terminal for transmitting a text to be translated, receiving a translation and an audio file, and requesting a voice synthesis and an audio file synchronization for the translation; A second user terminal for receiving and storing an audio file in response to an audio file synchronization request of the first user terminal, and outputting the stored audio file; Generating a translation from the original text received from the first user terminal, generating an audio file through speech synthesis for a word or a sentence in the generated translation according to the speech synthesis request of the first user terminal, An audio file stored in the second user terminal is compared with an audio file stored in the second user terminal according to a request to synchronize the audio file of the first user terminal, and the updated audio file and the translated text are transmitted to the second user terminal And a translation service device for synchronizing the translation service.
한편, 본 발명의 제2 측면에 따른 장치는, 제1 사용자 단말로부터 원문을 수신하고, 상기 제1 사용자 단말 및 제2 사용자 단말로 번역문 및 오디오 파일을 송신하는 통신 인터페이스부; 상기 통신 인터페이스부를 통해 수신된 원문으로부터 사용자 번역 설정 정보를 기반으로 형태소 분석, 구문 분석, 의미 분석 등의 자연어 처리 기술을 통해 문장 구조, 단어별 품사 및 의미 정보를 추출하고 상기 추출된 결과를 이용하여 번역문을 생성하여 상기 제1 사용자 단말로 회신하는 번역부; 상기 제1 사용자 단말의 음성 합성 요청에 따라 상기 생성된 번역문에 대해서 번역문의 텍스트를 분석하고 음성 합성을 통해 오디오 파일을 생성하여 상기 제1 사용자 단말로 회신하는 오디오 파일 생성부; 및 상기 생성된 오디오 파일을 저장하고, 상기 제1 사용자 단말의 오디오 파일 동기화 요청에 따라 상기 제2 사용자 단말에 저장된 오디오 파일과 상기 저장된 오디오 파일을 비교하여 갱신된 오디오 파일 및 번역문을 상기 제2 사용자 단말과 동기화시키는 오디오 파일 동기화부를 포함하는 것을 특징으로 한다.According to a second aspect of the present invention, there is provided an apparatus comprising: a communication interface for receiving a text from a first user terminal and transmitting a translation and an audio file to the first user terminal and the second user terminal; Extracting a sentence structure, word parts of speech and semantic information from a source text received through the communication interface unit through a natural language processing technique such as morphological analysis, syntax analysis, and semantic analysis based on user translation setting information, A translation unit for generating a translation and returning the translation to the first user terminal; An audio file generation unit for analyzing a text of a translated text with respect to the generated translated text according to a speech synthesis request of the first user terminal, generating an audio file through speech synthesis, and returning the generated audio file to the first user terminal; And comparing the audio file stored in the second user terminal with the stored audio file in response to an audio file synchronization request of the first user terminal and storing the updated audio file and the translated text in the second user terminal, And an audio file synchronization unit for synchronizing the audio file with the terminal.
상기 장치는, 상기 제1 사용자 단말로부터 수신되는 사용자 번역 설정 정보를 저장하거나, 기설정된 사용자 번역 설정 정보를 저장하는 사용자 DB; 상기 생성된 번역문을 저장하는 번역 DB; 및 상기 저장된 번역문에 대한 오디오 파일을 해당되는 번역문의 단어 또는 문장과 매칭시켜 저장하는 오디오 DB를 더 포함하는 것을 특징으로 한다.The apparatus includes a user DB for storing user translation setting information received from the first user terminal or storing preset user translation setting information; A translation DB for storing the generated translation; And an audio DB for matching and storing the audio file of the stored translation with a word or a sentence of the corresponding translation.
상기 오디오 파일 생성부는, 상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 상기 생성된 번역문 내의 단어 또는 문장에 해당하는 부분의 오디오 파일을 생성하는 것을 특징으로 한다.The audio file generation unit generates an audio file corresponding to a word or a sentence in the generated translation according to a speech synthesis request for a word or a sentence in the generated translation.
상기 오디오 파일 생성부는, 상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 오디오 파일을 생성하고 상기 생성된 오디오 파일을 다운로드하기 위한 오디오 파일 경로 정보를 생성하는 것을 특징으로 한다.The audio file generation unit generates an audio file according to a speech synthesis request for a word or a sentence in the generated translation and generates audio file path information for downloading the generated audio file.
상기 오디오 파일 동기화부는, 상기 생성된 번역문 내의 단어 또는 문장에 대한 오디오 파일을 상기 제2 사용자 단말로 전송하거나, 다운로드를 위한 오디오 파일 경로 정보를 전송하는 것을 특징으로 한다.The audio file synchronization unit may transmit an audio file for a word or a sentence in the generated translation to the second user terminal or transmit audio file path information for downloading.
상기 오디오 파일 경로 정보는, 상기 생성된 번역문의 각 단어 또는 문장들의 오디오 파일 경로 정보이거나, 각 단어 및 문장들을 음성화하는 TTS(Text-To-Speech) 경로 정보인 것을 특징으로 한다.The audio file path information is audio file path information of each word or sentence of the generated translation, or TTS (Text-To-Speech) path information for voiceing each word and sentences.
한편, 본 발명의 제3 측면에 따른 방법은, 제1 사용자 단말로부터 수신된 원문으로부터 사용자 번역 설정 정보를 기반으로 형태소 분석, 구문 분석, 의미 분석 등의 자연어 처리 기술을 통해 문장 구조, 단어별 품사 및 의미 정보를 추출하고 상기 추출된 결과를 이용하여 번역문을 생성하여 상기 제1 사용자 단말로 회신하는 번역문 생성 단계; 상기 제1 사용자 단말의 음성 합성 요청에 따라 상기 생성된 번역문의 텍스트를 분석하고 음성 합성을 통해 오디오 파일을 생성하여 상기 제1 사용자 단말로 회신하는 오디오 파일 생성 단계; 상기 생성된 오디오 파일을 저장하고, 상기 제1 사용자 단말의 오디오 파일 동기화 요청에 따라 상기 제2 사용자 단말에 저장된 오디오 파일과 상기 저장된 오디오 파일을 비교하는 오디오 파일 비교 단계; 및 상기 비교 결과, 갱신된 오디오 파일 및 번역문을 상기 제2 사용자 단말과 동기화시키는 오디오 파일 동기화 단계를 포함하는 것을 특징으로 한다.According to a third aspect of the present invention, there is provided a method for extracting a sentence structure from a first sentence received from a first user terminal through a natural language processing technique such as morphological analysis, syntax analysis, And a translation step of extracting semantic information, generating a translation using the extracted result, and returning the translation to the first user terminal; An audio file generation step of analyzing the text of the generated translation according to a speech synthesis request of the first user terminal, generating an audio file through speech synthesis, and returning the audio file to the first user terminal; Comparing the audio file stored in the second user terminal with the stored audio file in response to the audio file synchronization request of the first user terminal; And an audio file synchronization step of synchronizing the updated audio file and the translation with the second user terminal as a result of the comparison.
상기 오디오 파일 생성 단계는, 상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 상기 생성된 번역문 내의 단어 또는 문장에 해당하는 부분의 오디오 파일을 생성하는 것을 특징으로 한다.The audio file generation step generates an audio file corresponding to a word or a sentence in the generated translation according to a speech synthesis request for a word or a sentence in the generated translation.
상기 오디오 파일 생성 단계는, 상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 오디오 파일을 생성하고 상기 생성된 오디오 파일을 다운로드를 위한 오디오 파일 경로 정보를 생성하는 것을 특징으로 한다.The audio file generation step generates an audio file according to a speech synthesis request for a word or a sentence in the generated translation and generates audio file path information for downloading the generated audio file.
상기 오디오 파일 동기화 단계는, 상기 생성된 번역문 내의 단어 또는 문장에 대한 오디오 파일을 상기 제2 사용자 단말로 전송하거나, 다운로드를 위한 오디오 파일의 경로 정보를 전송하는 것을 특징으로 한다.The audio file synchronization step transmits the audio file for the word or sentence in the generated translation to the second user terminal or transmits the path information of the audio file for downloading.
상기 오디오 파일 경로 정보는, 상기 생성된 번역문의 각 단어 또는 문장들의 오디오 파일 경로 정보이거나, 각 단어 및 문장들을 음성화하는 TTS(Text-To-Speech) 경로 정보인 것을 특징으로 한다.The audio file path information is audio file path information of each word or sentence of the generated translation, or TTS (Text-To-Speech) path information for voiceing each word and sentences.
본 발명은, 원문에 대한 번역문과 그 번역문에 대한 오디오 파일을 생성하여 사용자 단말로 전송하고, 생성된 오디오 파일을 다른 사용자 단말에 저장된 오디오 파일과 비교하여 갱신된 오디오 파일인 경우 그 오디오 파일을 다른 단말로 동기화시킴으로써, 사용자가 번역 요청한 번역문 및 오디오 파일을 사용자 단말을 통해 반복적으로 확인할 수 있고 동기화된 다른 단말에서도 그 번역문 및 오디오 파일을 사용자가 이용하는 단말에 관계없이 이용할 수 있는 효과가 있다.In the present invention, a translation for the original text and an audio file for the translation are generated and transmitted to the user terminal. When the generated audio file is compared with the audio file stored in another user terminal, By synchronizing with the terminal, the translation and audio file requested by the user can be repeatedly checked through the user terminal, and the synchronized terminal can use the translation and the audio file irrespective of the terminal used by the user.
예를 들어, 본 발명은 번역문의 단어 및 문장에 대한 오디오 출력 및 오디오 파일 저장 기능을 제공하고, 최근 사용자가 급증하고 있는 스마트폰과 같은 모바일 디바이스에 대한 오디오 파일 싱크 기능을 제공하여 컴퓨터 등과 같은 디바이스에서 일회성으로 출력하는 기능뿐만 아니라 사용자가 휴대하는 스마트폰을 통해 반복적으로 오디오 파일을 들을 수 있는 효과가 있다. 이를 통해, 사용자는 번역문에 대한 단어 및 문장의 오디오 청취 및 오디오 파일을 스마트폰에 저장하여 언제든지 번역문과 오디오 서비스를 이용할 수 있는 효과가 있다.For example, the present invention provides an audio output and audio file storage function for a word and a sentence of a translation, and provides an audio file sync function for a mobile device such as a smart phone, In addition to the function of outputting a one-time output from the user, the user can repeatedly listen to audio files through a smart phone. Accordingly, the user can listen to the audio of the words and sentences of the translated text and store the audio file in the smart phone, so that the translated text and the audio service can be used at any time.
더 나아가, 본 발명은 발음 및 성조가 있어 반복적인 음성 학습이 필요한 중국어와 같은 외국어 학습을 도와줄 수 있는 효과가 있다.Furthermore, the present invention has the effect of assisting learning of a foreign language such as Chinese which requires repeated speech learning due to pronunciation and strong tongue.
도 1 은 본 발명에 따른 오디오 파일 동기화를 위한 번역 서비스 시스템의 일실시예 구성도,
도 2 는 본 발명에 따른 오디오 파일 동기화를 위한 번역 서비스 장치의 일실시예 상세구성도,
도 3 은 본 발명에 따른 오디오 파일 동기화를 위한 번역 서비스 방법에 대한 일실시예 흐름도이다.1 is a configuration diagram of an embodiment of a translation service system for audio file synchronization according to the present invention;
2 is a detailed block diagram of an embodiment of a translation service apparatus for synchronizing audio files according to the present invention;
3 is a flowchart of an embodiment of a translation service method for synchronizing audio files according to the present invention.
이하, 첨부된 도면을 참조하여 본 발명에 따른 실시 예를 상세하게 설명한다. 본 발명의 구성 및 그에 따른 작용 효과는 이하의 상세한 설명을 통해 명확하게 이해될 것이다. 본 발명의 상세한 설명에 앞서, 동일한 구성요소에 대해서는 다른 도면 상에 표시되더라도 가능한 동일한 부호로 표시하며, 공지된 구성에 대해서는 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 구체적인 설명은 생략하기로 함에 유의한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The configuration of the present invention and the operation and effect thereof will be clearly understood through the following detailed description. Before describing the present invention in detail, the same components are denoted by the same reference symbols as possible even if they are displayed on different drawings. In the case where it is judged that the gist of the present invention may be blurred to a known configuration, do.
도 1 은 본 발명에 따른 오디오 파일 동기화를 위한 번역 서비스 시스템의 일실시예 구성도이다.1 is a block diagram of an embodiment of a translation service system for synchronizing audio files according to the present invention.
도 1에 도시된 바와 같이, 오디오 파일 동기화를 위한 번역 서비스 시스템(10)은 번역 서비스 장치(100), 제1 사용자 단말(101) 및 제2 사용자 단말(102)을 포함한다.1, a
제1 사용자 단말(101)은 번역 대상인 원문을 번역 서비스 장치(100)로 송신하여 원문 번역을 요청한다. 제1 사용자 단말(101)은 인터넷 브라우저를 통해 번역 서비스 장치(100)의 웹 페이지에 접속하여 원문을 입력하거나 원문 파일을 송신할 수 있다. 여기서, 제1 사용자 단말(101)은 웹 브라우저가 설치된 컴퓨터 또는 스마트폰 등 각종 모바일 디바이스가 될 수 있다. 웹 브라우저는 컴퓨터상에 설치된 브라우저 애플리케이션 또는 스마트폰 상의 모바일 애플리케이션 등이 될 수 있다. 한편, 원문은 HTML(Hypertext Markup Language), XML(Extensible Markup Language) 등으로 이루어진 웹 사이트 페이지(Web site page), 텍스트 파일, PDF(Portable Document Format) 파일, 한글(HWP) 파일, MS 오피스 파일 등으로 이루어질 수 있다.The
사용자는 제1 사용자 단말(101)을 통해 원문에 대한 번역 요청 전에 번역 언어쌍, 사용자 단어 목록, 번역 결과 포맷 등 번역을 위한 사용자 번역 설정 정보를 설정한다. 사용자가 설정한 사용자 번역 설정 정보는 제1 사용자 단말(101)에 저장되거나, 번역 서비스 장치(100)에 저장될 수도 있다. 이러한 사용자 번역 설정 정보를 통해, 사용자는 번역 결과 포맷 등을 통해 번역 결과에 표시되는 번역문의 종류와 번역문 생성 방식 등을 정의할 수 있다.The user sets user translation setting information for translation such as a translation language pair, a user word list, and a translation result format before the translation request for the original text through the
번역 서비스 장치(100)로부터 번역문이 전송된 경우, 제1 사용자 단말(101)은 번역문을 수신하고, 그 번역문에 대한 음성 합성을 요청하여 번역 서비스 장치(100)로부터 오디오 파일을 수신한다. 그리고 제1 사용자 단말(101)은 제2 사용자 단말(102)과의 오디오 파일 동기화를 번역 서비스 장치(100)로 요청한다.When a translation is transmitted from the
한편, 번역 서비스 장치(100)는 제1 사용자 단말(101)로부터 수신된 원문으로부터 번역문을 생성하여 제1 사용자 단말(101)로 회신한다.On the other hand, the
그리고 번역 서비스 장치(100)는 생성된 번역문 내의 단어 또는 문장에 대해서 제1 사용자 단말(101)의 음성 합성 요청에 따라 음성 합성을 통해 오디오 파일을 생성한다. 번역 서비스 장치(100)는 생성된 오디오 파일을 오디오 DB(253)에 저장한다.The
번역 서비스 장치(100)는 제1 사용자 단말(101)의 오디오 파일 동기화 요청에 따라 제2 사용자 단말(102)에 저장된 오디오 파일과 오디오 DB(253)에 저장된 오디오 파일을 비교하여 갱신된 오디오 파일 및 번역문을 제2 사용자 단말(102)로 전송하여 동기화시킨다. 여기서, 오디오 파일 동기화란 제1 사용자 단말(101)이 수신한 오디오 파일과 제2 사용자 단말(102)에 저장된 오디오 파일을 동일하게 유지시켜 제1 사용자 단말(101)과 제2 사용자 단말(102) 간의 오디오 파일을 동기화시키는 것을 말한다. 이를 통해, 사용자는 제1 사용자 단말(101)을 통해 들은 오디오 파일을 제2 사용자 단말(102)에서도 들을 수 있게 된다. 번역 서비스 장치(100)는 제2 사용자 단말(102)에 저장된 오디오 파일의 목록을 통해 갱신된 오디오 파일을 확인한다. 번역 서비스 장치(100)는 제2 사용자 단말(102)로 오디오 파일을 전송하기 전에 제2 사용자 단말(102)에 저장된 오디오 파일을 확인하거나, 이전에 제2 사용자 단말(102)로 전송한 오디오 파일의 목록을 기록하여 갱신된 오디오 파일을 확인할 수 있다.The
한편, 제2 사용자 단말(102)은 제1 사용자 단말(101)의 오디오 파일 동기화 요청에 따라 번역 서비스 장치(100)로부터 오디오 파일을 수신하여 저장한다. 그리고 제2 사용자 단말(102)은 저장된 오디오 파일을 사용자의 요청에 따라 출력한다. 여기서, 제2 사용자 단말(102)은 사용자가 원할 때 저장된 오디오 파일을 실행하여 사용자가 휴대하면서 오디오 파일을 들을 수 있는 스마트폰과 같은 모바일 디바이스일 수 있다.On the other hand, the
도 2 는 본 발명에 따른 오디오 파일 동기화를 위한 번역 서비스 장치의 일실시예 상세구성도이다.2 is a detailed configuration diagram of an embodiment of a translation service apparatus for synchronizing audio files according to the present invention.
도 2에 도시된 바와 같이, 번역 서비스 장치(100)는 통신 인터페이스부(210), 번역부(220), 오디오 파일 생성부(230), 오디오 파일 동기화부(240) 및 데이터 저장부(250)를 포함한다. 여기서, 데이터 저장부(250)는 사용자 DB(251), 번역 DB(252) 및 오디오 DB(253)를 포함한다.2, the
통신 인터페이스부(210)는 제1 및 제2 사용자 단말(101, 102)과 통신망을 통해 데이터를 송수신하는 통신 인터페이스 기능을 수행한다. 즉, 통신 인터페이스부(210)는 제1 사용자 단말(101)로부터 원문을 수신하고, 제1 및 제2 사용자 단말(101 및 102)로 번역문 및 오디오 파일을 송신한다.The
번역부(220)는 통신 인터페이스부(210)를 통해 수신된 원문으로부터 사용자 번역 설정 정보를 기반으로 기반으로 형태소 분석, 구문 분석, 의미 분석 등의 자연어 처리 기술을 통해 문장 구조, 단어별 품사 및 의미 정보를 추출하고 그 추출된 결과를 이용하여 번역문을 생성하고 제1 사용자 단말(101)로 회신한다.The translating
구체적으로 살펴보면, 번역부(220)는 번역 엔진을 구비하고, 번역 엔진을 통해 번역 요청한 원문 텍스트를 분석하고 이에 대해서 형태소를 분석한다. 번역부(220)는 형태소 분석 과정에서 원문 텍스트의 단어를 보고 형태소를 분리한다. 이러한 형태소 분석 과정은 컴퓨터의 발달로 점차 자동화되어 정확도가 높아지고 있다. 형태소 분석 과정은 자연어 처리의 가장 기초적인 절차로 이후 구문 분석이나 의미 분석으로 나아가기 위해 선행되어야 하는 과정으로 볼 수 있다. 여기서, 자연언어란 인간이 사용하는 언어를 말하며, 자연언어처리란 이러한 자연언어를 컴퓨터가 이해할 수 있도록 처리하는 분야를 말한다. 번역부(220)는 형태소 분석, 구문 분석, 의미 분석, 화용 분석 등의 기초 기술을 이용하여 기계 번역을 수행한다.Specifically, the
그리고 번역부(220)는 구문 분석을 통해 문장 분석 및 단어 의미 추출을 수행한다. 번역부(220)는 구문 분석 과정에서 문장을 이루고 있는 구성 성분으로 그 문장을 분해하고 그들 사이의 위계 관계를 분석하여 문장의 구조를 결정한다.Then, the
이어서, 번역부(220)는 자연 언어 이해 기법의 하나인 의미 분석 과정에서, 문장의 의미에 근거해서 그 문장을 해석하여 단어별 품사 및 의미 정보를 추출한다. 여기서, 번역부(220)는 여러 의미 분석 방법과 다양한 유형의 문법을 이용한다. 이러한 의미 분석 방법과 다양한 유형의 문법은 문장이 어떻게 구성되었는지를 나타내 주는 규칙들로 구성된 일종의 형식 시스템을 말한다.Then, the translating
이후, 번역부(220)는 그 추출된 결과를 이용하여 번역문을 생성한다. 번역부(220)는 번역 대상 언어로의 단어 번역 및 위치 치환 등의 번역을 수행하여 번역문을 생성한다.Then, the translating
여기서, 번역부(220)는 사용자에 의해 설정된 사용자 번역 설정 정보에 포함된 번역쌍 결과 문장과 단어 의미, 단어 품사, 발음 기호, 단어에 대한 전자 사전 경로 정보를 이용하여 번역문을 생성할 수 있다.Here, the translating
오디오 파일 생성부(230)는 번역부(220)에서 생성된 번역문에 대해서 제1 사용자 단말(101)의 음성 합성 요청에 따라 번역문의 텍스트를 분석하고 음성 합성을 통해 오디오 파일을 생성하여 제1 사용자 단말(101)로 회신한다. 오디오 파일 생성부(230)는 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 번역문 내의 단어 또는 문장에 해당하는 부분의 오디오 파일을 생성한다. 오디오 파일 생성부(230)는 오디오 파일의 용량이 큰 경우에 오디오 파일 경로 정보를 생성할 수 있다. 그러면, 제1 사용자 단말(101)은 오디오 파일 경로 정보로 접속하여 해당 경로를 통해 음성 합성된 오디오 파일을 수신받을 수 있다.The audio
오디오 파일 동기화부(240)는 오디오 파일 생성부(230)에서 생성된 오디오 파일을 오디오 DB(253)에 저장한다. 그리고 제1 사용자 단말(101)의 오디오 파일 동기화 요청에 따라, 오디오 파일 동기화부(240)는 제2 사용자 단말(102)에 저장된 오디오 파일과 오디오 DB(253)에 저장된 오디오 파일을 비교하여 갱신된 오디오 파일 및 번역문을 제2 사용자 단말(102)과 동기화시킨다. 오디오 파일 동기화부(240)는 번역문 내의 단어 또는 문장에 대한 오디오 파일을 제2 사용자 단말(102)로 전송하거나, 다운로드를 위한 오디오 파일 경로 정보를 전송할 수 있다. 여기서, 오디오 파일 경로 정보는 각 단어들의 오디오 파일을 다운로드하기 위한 경로 정보이거나, 각 단어 및 문장들을 음성화하는 TTS(Text-To-Speech) 경로 정보일 수 있다.The
데이터 저장부(250)의 사용자 DB(251)는 제1 사용자 단말(101)로부터 수신되는 사용자 번역 설정 정보를 저장하거나, 기설정된 사용자 번역 설정 정보를 저장한다. 사용자 DB(251)는 사용자가 번역 서비스와 관련된 다양한 번역 환경을 설정하면 이에 대한 사용자 번역 설정 정보를 저장한다. 번역부(220)는 사용자 DB(251)에 저장된 사용자 번역 설정 정보를 번역 결과물에 반영시킨다.The
그리고 데이터 저장부(250)의 번역 DB(252)는 생성된 번역문을 저장한다. 그리고 데이터 저장부(250)의 오디오 DB(253)는 번역 DB(252)에 저장된 번역문의 단어 또는 문장에 해당하는 오디오 파일을 매칭시켜 저장한다.The
도 3 은 본 발명에 따른 오디오 파일 동기화를 위한 번역 서비스 방법에 대한 일실시예 흐름도이다.3 is a flowchart of an embodiment of a translation service method for synchronizing audio files according to the present invention.
사용자가 원문을 컴퓨터의 브라우저를 통해 입력하면, 제1 사용자 단말(101)은 사용자가 입력한 원문을 번역 서비스 장치(100)로 전송하여 번역을 요청한다(S302). 사용자가 설정한 사용자 번역 설정 정보가 제1 사용자 단말(101)에 저장되어 있으면, 제1 사용자 단말(101)은 번역 요청 시 원문과 같이 사용자 번역 설정 정보를 번역 서비스 장치(100)로 전송한다. 반면, 사용자가 설정한 사용자 번역 설정 정보가 번역 서비스 장치(100)에 저장되어 있으면, 번역 서비스 장치(100)는 미리 저장된 사용자 번역 설정 정보를 이용하여 원문을 번역할 수 있다.When the user inputs the original text through the browser of the computer, the
번역 서비스 장치(100)는 기반으로 형태소 분석, 구문 분석, 의미 분석 등의 자연어 처리 기술을 통해 문장 구조, 단어별 품사 및 의미 정보를 추출한다(S304). 구체적으로 살펴보면, 번역부(220)는 형태소 분석 과정에서 원문 텍스트의 단어를 보고 형태소를 분리한다. 그리고 번역부(220)는 구문 분석 과정에서 문장을 이루고 있는 구성 성분으로 그 문장을 분해하고 그들 사이의 위계 관계를 분석하여 문장의 구조를 결정한다. 이어서, 번역부(220)는 문장의 의미에 근거해서 그 문장을 해석하여 단어별 품사 및 의미 정보를 추출한다.The
번역 서비스 장치(100)는 사용자 번역 설정 정보를 기반으로 분석 및 추출된 결과를 이용하여 번역문을 생성한다(S306). 여기서, 번역문은 번역된 문장, 번역된 단어의 원문 단어 의미, 발음 기호, 품사 정보, 사전 서비스로 링크되는 경로 정보, 발음 서비스로 링크되는 경로 정보 등을 포함할 수 있다. 발음 서비스로 링크되는 경로 정보는 각 단어들의 오디오 파일에 대한 경로 정보일 수 있다. 또한, 각 단어 및 문장들을 음성화하는 TTS 경로 정보일 수 있다.The
번역 서비스 장치(100)는 생성된 번역문을 제1 사용자 단말(101)로 전송하여 원문에 대한 번역 요청에 대해 사용자에게 회신한다(S308).The
제1 사용자 단말(101)은 사용자가 회신된 번역 결과를 확인하고 발음 서비스 메뉴를 눌러 회신된 번역문 내의 단어 또는 문장의 음성 합성을 번역 서비스 장치(100)로 요청한다(S310). 제1 사용자 단말(101)은 음성 합성 요청을 통해 단어 또는 문장에 대한 오디오 파일을 들을 수 있다.The
번역 서비스 장치(100)는 제1 사용자 단말(101)의 음성 합성 요청에 따라 번역문의 텍스트를 분석하고 음성 합성을 통해 오디오 파일을 생성한다(S312).The
번역 서비스 장치(100)는 생성된 오디오 파일을 제1 사용자 단말(101)로 전송하여 음성 합성 요청에 대해 사용자에게 회신한다(S314). 여기서, 제1 사용자 단말(101)은 사용자가 오디오 파일 저장 메뉴를 누르는 경우 단어 또는 문장의 오디오 파일을 구비된 메모리에 저장할 수 있다.The
제1 사용자 단말(101)은 수신된 오디오 파일을 사용자에게 출력한다(S316).The
사용자가 번역 결과 동기화 메뉴를 눌러 제1 사용자 단말(101)로 수신한 번역 결과를 타 디바이스인 제2 사용자 단말(101)로 동기화를 요청하는 경우, 제1 사용자 단말(101)은 번역 서비스 장치(100)로 생성된 오디오 파일 동기화를 요청한다(S318).When the user requests synchronization of the translation result received by the
번역 서비스 장치(100)는 제1 사용자 단말(101)의 오디오 파일 동기화 요청에 따라 제2 사용자 단말(102)에 저장된 오디오 파일과 오디오 DB(253)에 저장된 오디오 파일을 비교한다(S320).The
상기 비교 결과(S320), 오디오 DB(253)에 저장된 오디오 파일이 갱신된 경우, 번역 서비스 장치(100)는 갱신된 오디오 파일 또는 오디오 파일 경로 정보를 제2 사용자 단말(102)로 전송한다(S322). 반면, 오디오 DB(253)에 저장된 오디오 파일이 갱신되지 않은 경우, 번역 서비스 장치(100)는 오디오 파일을 전송하지 않는다.If the comparison result (S320) and the audio file stored in the
제2 사용자 단말(102)은 번역 서비스 장치(100)로부터 수신된 오디오 파일을 저장한다(S324). 이와 같이, 사용자가 오디오 파일 동기화 메뉴를 누르면, 번역 서비스 장치(100)는 제1 사용자 단말(101)에 저장된 오디오 파일과 동일한 오디오 파일을 제2 사용자 단말(102)로 전송할 수 있다.The
한편, 제1 사용자 단말(101)은 사용자의 오디오 파일 동기화 요청에 따라, 미리 연결된 제2 사용자 단말(102)로 오디오 파일을 통신망을 통해 전송할 수 있다. 여기서, 통신망은 유무선 데이터 망, 디바이스 간 데이터 케이블, 무선 데이터 인터페이스 등이 가능하다. 이때, 제1 사용자 단말(101)과 타 디바이스인 제2 사용자 단말(102) 간의 데이터가 비교되어 필요한 번역 데이터만이 전송된다.Meanwhile, the
한편, 본 발명은 이상에서 설명한 오디오 파일 동기화를 위한 번역 서비스 방법을 소프트웨어적인 프로그램으로 구현하여 컴퓨터로 읽을 수 있는 소정 기록 매체에 기록해 둠으로써 다양한 재생 장치에 적용할 수 있다. In the meantime, the present invention can be applied to various reproduction apparatuses by implementing the above-described translation service method for synchronizing audio files with a software program and recording them on a computer-readable recording medium.
다양한 재생 장치는 앞서 설명한 사용자 단말로서 이동 단말기, PDA, 노트북, 네비게이션, PMP, 스마트폰, 전자사전 및 MPS 등일 수 있다. The various playback devices may be a mobile terminal, a PDA, a notebook, a navigation, a PMP, a smart phone, an electronic dictionary, an MPS, and the like as the user terminal described above.
예컨대, 기록 매체는 각 재생 장치의 내장형으로 하드 디스크, 플래시 메모리, RAM, ROM 등이거나, 외장형으로 CD-R, CD-RW와 같은 광디스크, 콤팩트 플래시 카드, 스마트 미디어, 메모리 스틱, 멀티미디어 카드일 수 있다. For example, the recording medium may be a hard disk, a flash memory, a RAM, a ROM, or the like embedded in each reproduction apparatus, or an external optical disk such as a CD-R or a CD-RW, a compact flash card, a smart media, have.
이 경우, 컴퓨터로 읽을 수 있는 기록 매체에 기록한 프로그램은, 제1 사용자 단말로부터 수신된 원문으로부터 사용자 번역 설정 정보를 기반으로 형태소 분석, 구문 분석, 의미 분석 등의 자연어 처리 기술을 통해 문장 구조, 단어별 품사 및 의미 정보를 추출하고 상기 추출된 결과를 이용하여 번역문을 생성하여 상기 제1 사용자 단말로 회신하는 번역문 생성 과정, 상기 제1 사용자 단말의 음성 합성 요청에 따라 상기 생성된 번역문의 텍스트를 분석하고 음성 합성을 통해 오디오 파일을 생성하여 상기 제1 사용자 단말로 회신하는 오디오 파일 생성 과정, 상기 생성된 오디오 파일을 저장하고, 상기 제1 사용자 단말의 오디오 파일 동기화 요청에 따라 상기 제2 사용자 단말에 저장된 오디오 파일과 상기 저장된 오디오 파일을 비교하는 오디오 파일 비교 과정, 상기 비교 결과, 갱신된 오디오 파일 및 번역문을 상기 제2 사용자 단말과 동기화시키는 오디오 파일 동기화 과정을 포함하여 실행될 수 있다.In this case, the program recorded on the computer-readable recording medium may include at least one of a sentence structure, a word structure, and a sentence structure through a natural language processing technique such as morphological analysis, syntax analysis, A translation step of extracting a part of speech and semantic information, generating a translation using the extracted result, and returning the translation to the first user terminal, analyzing text of the generated translation according to a speech synthesis request of the first user terminal Generating an audio file through voice synthesis and returning the generated audio file to the first user terminal, storing the generated audio file, and transmitting the audio file to the second user terminal in response to the audio file synchronization request of the first user terminal Comparing an audio file that compares the stored audio file with the stored audio file And an audio file synchronization step of synchronizing the updated audio file and the translation with the second user terminal as a result of the comparison.
이상의 설명은 본 발명을 예시적으로 설명한 것에 불과하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술적 사상에서 벗어나지 않는 범위에서 다양한 변형이 가능할 것이다. 따라서 본 발명의 명세서에 개시된 실시 예들은 본 발명을 한정하는 것이 아니다. 본 발명의 범위는 아래의 특허청구범위에 의해 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술도 본 발명의 범위에 포함되는 것으로 해석해야 할 것이다.The foregoing description is merely illustrative of the present invention, and various modifications may be made by those skilled in the art without departing from the spirit of the present invention. Accordingly, the embodiments disclosed in the specification of the present invention are not intended to limit the present invention. The scope of the present invention should be construed according to the following claims, and all the techniques within the scope of equivalents should be construed as being included in the scope of the present invention.
본 발명은 원문에 대한 번역문과 그 번역문에 대한 오디오 파일을 생성하여 사용자 단말로 전송하고, 생성된 오디오 파일을 다른 사용자 단말에 저장된 오디오 파일과 비교하여 갱신된 오디오 파일인 경우 그 오디오 파일을 다른 단말로 동기화시킴으로써, 사용자가 번역 요청한 번역문 및 오디오 파일을 사용자 단말을 통해 반복적으로 확인할 수 있고 동기화된 다른 단말에서도 그 번역문 및 오디오 파일을 사용자가 이용하는 단말에 관계없이 이용할 수 있다. 이러한 점에서 기존 기술의 한계를 뛰어 넘음에 따라 관련 기술에 대한 이용만이 아닌 적용되는 장치의 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용 가능성이 있는 발명이다.The present invention generates an audio file corresponding to a translation of the original text and transmits the translated audio file to the user terminal and compares the generated audio file with the audio file stored in another user terminal, It is possible to repeatedly check the translation and audio file requested by the user through the user terminal and to use the translation and the audio file regardless of the terminal used by the user in another synchronized terminal. In this respect, it is not only the use of the related technology but also the possibility of commercialization or operation of the applied device, as it exceeds the limit of the existing technology.
10: 번역 서비스 시스템 100: 번역 서비스 장치
101: 제1 사용자 단말 102: 제2 사용자 단말
210: 통신 인터페이스부 220: 번역부
230: 오디오 파일 생성부 240: 오디오 파일 동기화부
250: 데이터 저장부 251: 사용자 DB
252: 번역 DB 252: 오디오 DB10: translation service system 100: translation service apparatus
101: first user terminal 102: second user terminal
210: communication interface unit 220:
230: audio file generation unit 240: audio file synchronization unit
250: Data storage unit 251: User DB
252: Translation DB 252: Audio DB
Claims (12)
기 설정된 사용자 번역 설정 정보를 기반으로 상기 통신 인터페이스부를 통해 수신된 원문으로부터 문장 구조, 단어별 품사 및 의미 정보를 추출하며, 추출된 정보를 이용하여 상기 원문에 포함된 문장과 단어가 상기 사용자 번역 설정 정보 내 의미로 번역된 번역문을 생성하여 생성된 번역문을 상기 제1 사용자 단말로 회신하는 번역부;
상기 제1 사용자 단말의 음성 합성 요청에 따라 상기 생성된 번역문에 대해서 번역문의 텍스트를 분석하고 음성 합성을 통해 오디오 파일을 생성하여 상기 제1 사용자 단말로 회신하는 오디오 파일 생성부; 및
상기 생성된 오디오 파일을 저장하고, 상기 제1 사용자 단말의 오디오 파일 동기화 요청에 따라 상기 제2 사용자 단말에 저장된 오디오 파일과 상기 저장된 오디오 파일을 비교하여 갱신된 오디오 파일 및 번역문을 상기 제2 사용자 단말과 동기화시키는 오디오 파일 동기화부
를 포함하는 오디오 파일 동기화를 위한 번역 서비스 장치.A communication interface for receiving a text from a first user terminal and transmitting a translation and an audio file to the first user terminal and the second user terminal;
Extracting sentence structures, parts of speech and semantic information from the original text received through the communication interface unit based on the preset user translation setting information, and extracting sentences and words included in the original text using the extracted information, A translation unit operable to generate a translated translation into an in-information meaning and return the generated translation to the first user terminal;
An audio file generation unit for analyzing a text of a translated text with respect to the generated translated text according to a speech synthesis request of the first user terminal, generating an audio file through speech synthesis, and returning the generated audio file to the first user terminal; And
Storing the generated audio file, comparing the audio file stored in the second user terminal with the stored audio file according to the audio file synchronization request of the first user terminal, and transmitting the updated audio file and the translated text to the second user terminal And an audio file synchronization unit
A translation service device for synchronizing audio files.
상기 제1 사용자 단말로부터 수신되는 사용자 번역 설정 정보를 저장하거나, 기설정된 사용자 번역 설정 정보를 저장하는 사용자 DB;
상기 생성된 번역문을 저장하는 번역 DB; 및
상기 저장된 번역문에 대한 오디오 파일을 해당되는 번역문의 단어 또는 문장과 매칭시켜 저장하는 오디오 DB
를 더 포함하는 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 장치.3. The method of claim 2,
A user DB for storing user translation setting information received from the first user terminal or storing preset user translation setting information;
A translation DB for storing the generated translation; And
An audio DB for matching the audio file for the stored translation with a word or a sentence of the corresponding translation,
Wherein the translation service apparatus further comprises:
상기 오디오 파일 생성부는,
상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 상기 생성된 번역문 내의 단어 또는 문장에 해당하는 부분의 오디오 파일을 생성하는 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 장치.3. The method of claim 2,
Wherein the audio file generating unit comprises:
And generates an audio file corresponding to a word or a sentence in the generated translation according to a speech synthesis request for a word or a sentence in the generated translation.
상기 오디오 파일 생성부는,
상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 오디오 파일을 생성하고 상기 생성된 오디오 파일을 다운로드하기 위한 오디오 파일 경로 정보를 생성하는 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 장치.3. The method of claim 2,
Wherein the audio file generating unit comprises:
Generating an audio file according to a speech synthesis request for a word or a sentence in the generated translation, and generating audio file path information for downloading the generated audio file.
상기 오디오 파일 동기화부는,
상기 생성된 번역문 내의 단어 또는 문장에 대한 오디오 파일을 상기 제2 사용자 단말로 전송하거나, 다운로드를 위한 오디오 파일 경로 정보를 전송하는 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 장치.3. The method of claim 2,
Wherein the audio file synchronization unit comprises:
And transmitting the audio file path information for downloading the audio file to the second user terminal or the audio file path information for downloading the audio file for the word or sentence in the generated translation.
상기 오디오 파일 경로 정보는,
상기 생성된 번역문의 각 단어 또는 문장들의 오디오 파일 경로 정보이거나, 각 단어 및 문장들을 음성화하는 TTS(Text-To-Speech) 경로 정보인 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 장치.The method according to claim 6,
The audio file path information may include:
(TTS) path information which is audio file path information of each word or sentence of the generated translation, or TTS (Text-To-Speech) path information for voiceing each word and sentences.
상기 제1 사용자 단말의 음성 합성 요청에 따라 상기 생성된 번역문의 텍스트를 분석하고 음성 합성을 통해 오디오 파일을 생성하여 상기 제1 사용자 단말로 회신하는 오디오 파일 생성 단계;
상기 생성된 오디오 파일을 저장하고, 상기 제1 사용자 단말의 오디오 파일 동기화 요청에 따라 제2 사용자 단말에 저장된 오디오 파일과 상기 저장된 오디오 파일을 비교하는 오디오 파일 비교 단계; 및
상기 비교 결과, 갱신된 오디오 파일 및 번역문을 상기 제2 사용자 단말과 동기화시키는 오디오 파일 동기화 단계
를 포함하는 오디오 파일 동기화를 위한 번역 서비스 방법.Extracting sentence structures, parts of speech and semantic information from the original text received from the first user terminal based on preset user translation setting information, and extracting sentences and words of at least some of the original texts from the user translations A translated text generating step of generating translated texts translated into the meaning of the setting information and returning the generated translated texts to the first user terminal;
An audio file generation step of analyzing the text of the generated translation according to a speech synthesis request of the first user terminal, generating an audio file through speech synthesis, and returning the audio file to the first user terminal;
An audio file comparison step of storing the generated audio file and comparing the stored audio file with an audio file stored in the second user terminal according to the audio file synchronization request of the first user terminal; And
An audio file synchronization step of synchronizing the updated audio file and the translation with the second user terminal
And a translation service method for synchronizing audio files.
상기 오디오 파일 생성 단계는,
상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 상기 생성된 번역문 내의 단어 또는 문장에 해당하는 부분의 오디오 파일을 생성하는 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 방법.9. The method of claim 8,
The audio file generation step may include:
And generating an audio file corresponding to a word or a sentence in the generated translation according to a speech synthesis request for a word or a sentence in the generated translation.
상기 오디오 파일 생성 단계는,
상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 오디오 파일을 생성하고 상기 생성된 오디오 파일을 다운로드를 위한 오디오 파일 경로 정보를 생성하는 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 방법.9. The method of claim 8,
The audio file generation step may include:
Generating an audio file according to a speech synthesis request for a word or a sentence in the generated translation, and generating audio file path information for downloading the generated audio file.
상기 오디오 파일 동기화 단계는,
상기 생성된 번역문 내의 단어 또는 문장에 대한 오디오 파일을 상기 제2 사용자 단말로 전송하거나, 다운로드를 위한 오디오 파일의 경로 정보를 전송하는 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 방법.11. The method of claim 10,
The audio file synchronization step may comprise:
And transmitting an audio file for a word or a sentence in the generated translation to the second user terminal or transmitting the path information of the audio file for downloading.
상기 오디오 파일 경로 정보는,
상기 생성된 번역문의 각 단어 또는 문장들의 오디오 파일 경로 정보이거나, 각 단어 및 문장들을 음성화하는 TTS(Text-To-Speech) 경로 정보인 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 방법.11. The method of claim 10,
The audio file path information may include:
To-speech (TTS) path information that is audio file path information of each word or sentence of the generated translation, or TTS (Text-To-Speech) path information that voice each word and sentences.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110025815A KR101814431B1 (en) | 2011-03-23 | 2011-03-23 | Translation system and method for translation syncronization |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110025815A KR101814431B1 (en) | 2011-03-23 | 2011-03-23 | Translation system and method for translation syncronization |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160145390A Division KR101810555B1 (en) | 2016-11-02 | 2016-11-02 | Translation system and method for translation syncronization |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120108197A KR20120108197A (en) | 2012-10-05 |
KR101814431B1 true KR101814431B1 (en) | 2018-01-30 |
Family
ID=47279834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110025815A KR101814431B1 (en) | 2011-03-23 | 2011-03-23 | Translation system and method for translation syncronization |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101814431B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102465504B1 (en) * | 2020-10-27 | 2022-11-11 | 이장우 | Digital Audio Book Production System and the Method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002288167A (en) * | 2001-01-18 | 2002-10-04 | Kodensha Co Ltd | Translation system |
-
2011
- 2011-03-23 KR KR1020110025815A patent/KR101814431B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002288167A (en) * | 2001-01-18 | 2002-10-04 | Kodensha Co Ltd | Translation system |
Also Published As
Publication number | Publication date |
---|---|
KR20120108197A (en) | 2012-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6188985B1 (en) | Wireless voice-activated device for control of a processor-based host system | |
WO2024074099A1 (en) | Model training method and apparatus, text processing method and apparatus, device, and storage medium | |
JP6179971B2 (en) | Information providing apparatus and information providing method | |
JP6095487B2 (en) | Question answering apparatus and question answering method | |
KR101751942B1 (en) | Method, Translation Apparatus and Terminal for Providing Meaning of Word of Chinese Language Sentence in Automatic Translation System, and Record Medium Storing Program for Executing The Same | |
KR101814431B1 (en) | Translation system and method for translation syncronization | |
KR101810555B1 (en) | Translation system and method for translation syncronization | |
CN116415597A (en) | Speech translation and simultaneous interpretation method | |
JP2019053262A (en) | Learning system | |
US8990087B1 (en) | Providing text to speech from digital content on an electronic device | |
KR101501459B1 (en) | Translation apparatus and method for providing various style of translatability | |
Anto et al. | Text to speech synthesis system for English to Malayalam translation | |
JP2010257085A (en) | Retrieval device, retrieval method, and retrieval program | |
KR20040018687A (en) | Network synchronization system converting Internet content into TTS data and offering TTS data to personal digital device and method thereof | |
JP2009086597A (en) | Text-to-speech conversion service system and method | |
KR101853341B1 (en) | Apparatus and method for automatic traslation | |
Pradeep et al. | smart IoT assistant for government schemes and policies using natural language processing | |
Xu et al. | Yochina: Mobile multimedia and multimodal crosslingual dialogue system | |
JP7048141B1 (en) | Programs, file generation methods, information processing devices, and information processing systems | |
KR20120046414A (en) | Apparatus and method for providing result of mid-translation processing | |
KR20120077800A (en) | Method, translation apparatus and terminal for providing synonym of word included foreign language sentence in automatic translation system, and record medium storing program for executing the same | |
WO2013061718A1 (en) | Apparatus for providing text data with synthesized voice information and method for providing text data | |
WO2002099786A1 (en) | Method and device for multimodal interactive browsing | |
JP6613671B2 (en) | Information processing device | |
KR20130125912A (en) | System and method for making markup language for searching dictionary |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
A107 | Divisional application of patent | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |