KR101814431B1 - Translation system and method for translation syncronization - Google Patents

Translation system and method for translation syncronization Download PDF

Info

Publication number
KR101814431B1
KR101814431B1 KR1020110025815A KR20110025815A KR101814431B1 KR 101814431 B1 KR101814431 B1 KR 101814431B1 KR 1020110025815 A KR1020110025815 A KR 1020110025815A KR 20110025815 A KR20110025815 A KR 20110025815A KR 101814431 B1 KR101814431 B1 KR 101814431B1
Authority
KR
South Korea
Prior art keywords
audio file
translation
user terminal
generated
sentence
Prior art date
Application number
KR1020110025815A
Other languages
Korean (ko)
Other versions
KR20120108197A (en
Inventor
문승훈
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020110025815A priority Critical patent/KR101814431B1/en
Publication of KR20120108197A publication Critical patent/KR20120108197A/en
Application granted granted Critical
Publication of KR101814431B1 publication Critical patent/KR101814431B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/173Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
    • G06F15/17306Intercommunication techniques
    • G06F15/17325Synchronisation; Hardware support therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 오디오 파일 동기화를 위한 번역 서비스 시스템 및 그 방법에 관한 것으로서, 상세하게는 원문에 대한 번역문과 그 번역문에 대한 오디오 파일을 생성하여 사용자 단말로 전송하고, 생성된 오디오 파일을 다른 사용자 단말에 저장된 오디오 파일과 비교하여 갱신된 오디오 파일인 경우 그 오디오 파일을 다른 단말로 동기화시킴으로써, 사용자가 번역 요청한 번역문 및 오디오 파일을 사용자 단말을 통해 반복적으로 확인할 수 있고 동기화된 다른 단말에서도 그 번역문 및 오디오 파일을 사용자가 이용하는 단말에 관계없이 이용할 수 있다.The present invention relates to a translation service system and method for synchronizing audio files, and more particularly, to a translation service system for synchronizing audio files, and more particularly, If the updated audio file is compared with the stored audio file, the audio file is synchronized to the other terminal so that the translation and audio file requested by the user can be repeatedly checked through the user terminal, Can be used regardless of the terminal used by the user.

Description

오디오 파일 동기화를 위한 번역 서비스 시스템 및 그 방법{TRANSLATION SYSTEM AND METHOD FOR TRANSLATION SYNCRONIZATION}TECHNICAL FIELD [0001] The present invention relates to a translation service system and a method for synchronizing audio files,

본 발명은 오디오 파일 동기화를 위한 번역 서비스 시스템 및 그 방법에 관한 것으로서, 상세하게는 원문에 대한 번역문과 그 번역문에 대한 오디오 파일을 생성하여 사용자 단말로 전송하고, 생성된 오디오 파일을 다른 사용자 단말에 저장된 오디오 파일과 비교하여 갱신된 오디오 파일인 경우 그 오디오 파일을 다른 단말로 동기화시킴으로써, 사용자가 번역 요청한 번역문 및 오디오 파일을 사용자 단말을 통해 반복적으로 확인할 수 있고 동기화된 다른 단말에서도 그 번역문 및 오디오 파일을 사용자가 이용하는 단말에 관계없이 이용할 수 있는, 오디오 파일 동기화를 위한 번역 서비스 시스템 및 그 방법에 관한 것이다.The present invention relates to a translation service system and method for synchronizing audio files, and more particularly, to a translation service system for synchronizing audio files, and more particularly, If the updated audio file is compared with the stored audio file, the audio file is synchronized to the other terminal so that the translation and audio file requested by the user can be repeatedly checked through the user terminal, To a translation service system for audio file synchronization and a method thereof, which can be used regardless of a terminal used by a user.

현재 "구글", "마이크로소프트", "야후" 등과 같은 주요 포털 사이트는 사용자의 원문의 언어를 감지하여 자동으로 번역하는 자동 번역 서비스를 제공하고 있다. 번역의 정확성이 높아짐에 따라 이에 대한 사용자의 관심과 이용량이 증가하고 있다.Currently, major portal sites such as "Google", "Microsoft", and "Yahoo" provide an automatic translation service that automatically detects and translates the user's original language. As the accuracy of the translation increases, the user's interest and usage are increasing.

사용자들은 외국어로 된 문장이나 웹 페이지 등을 자동 번역 서비스를 통해 자신이 원하는 언어로 번역된 번역문을 제공받아 그 내용을 쉽게 파악할 수 있다. 이러한 포털 사이트가 TTS(Text To Speech) 기능을 이용하여 번역된 문장을 사용자에게 음성으로 출력하면, 사용자는 번역된 문장을 음성으로 들을 수 있다.The users can easily grasp the contents of the translated texts in a language desired by the user through an automatic translation service, such as sentences or web pages in a foreign language. When the portal site outputs the translated sentence to the user by using the TTS (Text To Speech) function, the user can hear the translated sentence by voice.

일부 포털 사이트는 사용자가 중국어 문장을 입력한 후 문장 분석 실행을 요청하면, 중국어 문장을 단어들로 구분하고 이에 대한 발음 기호와 단어 뜻을 표시해준다. 여기서, 사용자는 중국어 단어들로 구분된 중국어 문장을 TTS 기능을 통해 음성으로 들을 수 있다.Some portal sites, when the user inputs a Chinese sentence and then request to execute a sentence analysis, divides the Chinese sentence into words and displays a pronunciation symbol and a word meaning thereof. Here, the user can speak Chinese sentences separated by Chinese words through the TTS function.

그런데 사용자들은 현재 제공하고 있는 자동 번역 서비스들을 통해 번역문을 음성으로 들을 수 있으나, 이에 대한 오디오 파일을 자신의 컴퓨터나 단말에 저장할 수 없다. 종래의 자동 번역 서비스들은 문장 번역 및 이에 대한 TTS 기능을 제공하고 있으나, 사용자가 현재 사용하고 있는 컴퓨터 등과 같은 디바이스를 통해 일회성으로 출력하는 기능만을 제공하고 있다. 뿐만 아니라, 자동 번역 서비스는 번역된 문장이나 단어에 대한 오디오 파일을 다른 디바이스로 전송하여 그 전송된 오디오 파일을 저장하는 기능을 제공하지 않는다.However, users can listen to the translated text through the automatic translation services currently provided, but can not store the audio file in their own computer or terminal. Conventional automatic translation services provide sentence translation and a TTS function for it, but provide only a function of outputting them through a device such as a computer currently used by a user at one time. In addition, the automatic translation service does not provide a function to transmit an audio file of a translated sentence or word to another device and to store the transmitted audio file.

따라서 사용자들은 학습 등의 목적으로 타국어 문장이 번역된 번역문의 음성을 반복적으로 들을 수 없다. 또한, 사용자는 번역을 요청한 디바이스 외에 다른 디바이스에서 번역문의 음성을 반복적으로 들을 수 없다. 즉, 사용자가 자동 번역 서비스를 통해 번역된 번역문인 경우에도 다른 디바이스에서 들으려면, 사용자는 동일한 원문을 새로 입력하고 번역 과정 및 음성 출력 과정을 다시 요청해서 자동 번역 서비스를 실행시켜야 하는 번거로움이 있다.Therefore, users can not repeatedly hear the translated speech of a foreign language sentence for the purpose of learning or the like. Further, the user can not repeatedly hear the voice of the translated text in the device other than the device that requested the translation. That is, even if the user is a translation translated through an automatic translation service, in order to listen to the same on another device, the user has to input the same original text again and request the translation process and the voice output process again to execute the automatic translation service .

본 발명은 상기의 문제점을 해결하기 위해 창안된 것으로서, 원문에 대한 번역문과 그 번역문에 대한 오디오 파일을 생성하여 사용자 단말로 전송하고, 생성된 오디오 파일을 다른 사용자 단말에 저장된 오디오 파일과 비교하여 갱신된 오디오 파일인 경우 그 오디오 파일을 다른 단말로 동기화시킴으로써, 사용자가 번역 요청한 번역문 및 오디오 파일을 사용자 단말을 통해 반복적으로 확인할 수 있고 동기화된 다른 단말에서도 그 번역문 및 오디오 파일을 사용자가 이용하는 단말에 관계없이 이용할 수 있는, 오디오 파일 동기화를 위한 번역 서비스 시스템 및 그 방법을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the above problems, and it is an object of the present invention to provide a method and apparatus for generating a translation for a original text and an audio file for the translation and transmitting the generated audio file to a user terminal, It is possible to repeatedly confirm the translation and the audio file requested by the user through the user terminal and to synchronize the translation and the audio file with the terminal used by the user And to provide a translation service system and method thereof for synchronizing audio files.

이를 위하여, 본 발명의 제1 측면에 따른 시스템은, 번역 대상인 원문을 송신하고 번역문 및 오디오 파일을 수신하고, 상기 번역문에 대한 음성 합성 및 오디오 파일의 동기화를 요청하는 제1 사용자 단말; 상기 제1 사용자 단말의 오디오 파일 동기화 요청에 따라 오디오 파일을 수신하여 저장하고, 상기 저장된 오디오 파일을 출력하는 제2 사용자 단말; 및 상기 제1 사용자 단말로부터 수신된 원문으로부터 번역문을 생성하고, 상기 제1 사용자 단말의 음성 합성 요청에 따라 상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성을 통해 오디오 파일을 생성하고, 상기 생성된 오디오 파일을 저장하고, 상기 제1 사용자 단말의 오디오 파일 동기화 요청에 따라 상기 제2 사용자 단말에 저장된 오디오 파일과 상기 저장된 오디오 파일을 비교하여 갱신된 오디오 파일 및 번역문을 상기 제2 사용자 단말로 전송하여 동기화시키는 번역 서비스 장치를 포함하는 것을 특징으로 한다.To this end, the system according to the first aspect of the present invention comprises: a first user terminal for transmitting a text to be translated, receiving a translation and an audio file, and requesting a voice synthesis and an audio file synchronization for the translation; A second user terminal for receiving and storing an audio file in response to an audio file synchronization request of the first user terminal, and outputting the stored audio file; Generating a translation from the original text received from the first user terminal, generating an audio file through speech synthesis for a word or a sentence in the generated translation according to the speech synthesis request of the first user terminal, An audio file stored in the second user terminal is compared with an audio file stored in the second user terminal according to a request to synchronize the audio file of the first user terminal, and the updated audio file and the translated text are transmitted to the second user terminal And a translation service device for synchronizing the translation service.

한편, 본 발명의 제2 측면에 따른 장치는, 제1 사용자 단말로부터 원문을 수신하고, 상기 제1 사용자 단말 및 제2 사용자 단말로 번역문 및 오디오 파일을 송신하는 통신 인터페이스부; 상기 통신 인터페이스부를 통해 수신된 원문으로부터 사용자 번역 설정 정보를 기반으로 형태소 분석, 구문 분석, 의미 분석 등의 자연어 처리 기술을 통해 문장 구조, 단어별 품사 및 의미 정보를 추출하고 상기 추출된 결과를 이용하여 번역문을 생성하여 상기 제1 사용자 단말로 회신하는 번역부; 상기 제1 사용자 단말의 음성 합성 요청에 따라 상기 생성된 번역문에 대해서 번역문의 텍스트를 분석하고 음성 합성을 통해 오디오 파일을 생성하여 상기 제1 사용자 단말로 회신하는 오디오 파일 생성부; 및 상기 생성된 오디오 파일을 저장하고, 상기 제1 사용자 단말의 오디오 파일 동기화 요청에 따라 상기 제2 사용자 단말에 저장된 오디오 파일과 상기 저장된 오디오 파일을 비교하여 갱신된 오디오 파일 및 번역문을 상기 제2 사용자 단말과 동기화시키는 오디오 파일 동기화부를 포함하는 것을 특징으로 한다.According to a second aspect of the present invention, there is provided an apparatus comprising: a communication interface for receiving a text from a first user terminal and transmitting a translation and an audio file to the first user terminal and the second user terminal; Extracting a sentence structure, word parts of speech and semantic information from a source text received through the communication interface unit through a natural language processing technique such as morphological analysis, syntax analysis, and semantic analysis based on user translation setting information, A translation unit for generating a translation and returning the translation to the first user terminal; An audio file generation unit for analyzing a text of a translated text with respect to the generated translated text according to a speech synthesis request of the first user terminal, generating an audio file through speech synthesis, and returning the generated audio file to the first user terminal; And comparing the audio file stored in the second user terminal with the stored audio file in response to an audio file synchronization request of the first user terminal and storing the updated audio file and the translated text in the second user terminal, And an audio file synchronization unit for synchronizing the audio file with the terminal.

상기 장치는, 상기 제1 사용자 단말로부터 수신되는 사용자 번역 설정 정보를 저장하거나, 기설정된 사용자 번역 설정 정보를 저장하는 사용자 DB; 상기 생성된 번역문을 저장하는 번역 DB; 및 상기 저장된 번역문에 대한 오디오 파일을 해당되는 번역문의 단어 또는 문장과 매칭시켜 저장하는 오디오 DB를 더 포함하는 것을 특징으로 한다.The apparatus includes a user DB for storing user translation setting information received from the first user terminal or storing preset user translation setting information; A translation DB for storing the generated translation; And an audio DB for matching and storing the audio file of the stored translation with a word or a sentence of the corresponding translation.

상기 오디오 파일 생성부는, 상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 상기 생성된 번역문 내의 단어 또는 문장에 해당하는 부분의 오디오 파일을 생성하는 것을 특징으로 한다.The audio file generation unit generates an audio file corresponding to a word or a sentence in the generated translation according to a speech synthesis request for a word or a sentence in the generated translation.

상기 오디오 파일 생성부는, 상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 오디오 파일을 생성하고 상기 생성된 오디오 파일을 다운로드하기 위한 오디오 파일 경로 정보를 생성하는 것을 특징으로 한다.The audio file generation unit generates an audio file according to a speech synthesis request for a word or a sentence in the generated translation and generates audio file path information for downloading the generated audio file.

상기 오디오 파일 동기화부는, 상기 생성된 번역문 내의 단어 또는 문장에 대한 오디오 파일을 상기 제2 사용자 단말로 전송하거나, 다운로드를 위한 오디오 파일 경로 정보를 전송하는 것을 특징으로 한다.The audio file synchronization unit may transmit an audio file for a word or a sentence in the generated translation to the second user terminal or transmit audio file path information for downloading.

상기 오디오 파일 경로 정보는, 상기 생성된 번역문의 각 단어 또는 문장들의 오디오 파일 경로 정보이거나, 각 단어 및 문장들을 음성화하는 TTS(Text-To-Speech) 경로 정보인 것을 특징으로 한다.The audio file path information is audio file path information of each word or sentence of the generated translation, or TTS (Text-To-Speech) path information for voiceing each word and sentences.

한편, 본 발명의 제3 측면에 따른 방법은, 제1 사용자 단말로부터 수신된 원문으로부터 사용자 번역 설정 정보를 기반으로 형태소 분석, 구문 분석, 의미 분석 등의 자연어 처리 기술을 통해 문장 구조, 단어별 품사 및 의미 정보를 추출하고 상기 추출된 결과를 이용하여 번역문을 생성하여 상기 제1 사용자 단말로 회신하는 번역문 생성 단계; 상기 제1 사용자 단말의 음성 합성 요청에 따라 상기 생성된 번역문의 텍스트를 분석하고 음성 합성을 통해 오디오 파일을 생성하여 상기 제1 사용자 단말로 회신하는 오디오 파일 생성 단계; 상기 생성된 오디오 파일을 저장하고, 상기 제1 사용자 단말의 오디오 파일 동기화 요청에 따라 상기 제2 사용자 단말에 저장된 오디오 파일과 상기 저장된 오디오 파일을 비교하는 오디오 파일 비교 단계; 및 상기 비교 결과, 갱신된 오디오 파일 및 번역문을 상기 제2 사용자 단말과 동기화시키는 오디오 파일 동기화 단계를 포함하는 것을 특징으로 한다.According to a third aspect of the present invention, there is provided a method for extracting a sentence structure from a first sentence received from a first user terminal through a natural language processing technique such as morphological analysis, syntax analysis, And a translation step of extracting semantic information, generating a translation using the extracted result, and returning the translation to the first user terminal; An audio file generation step of analyzing the text of the generated translation according to a speech synthesis request of the first user terminal, generating an audio file through speech synthesis, and returning the audio file to the first user terminal; Comparing the audio file stored in the second user terminal with the stored audio file in response to the audio file synchronization request of the first user terminal; And an audio file synchronization step of synchronizing the updated audio file and the translation with the second user terminal as a result of the comparison.

상기 오디오 파일 생성 단계는, 상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 상기 생성된 번역문 내의 단어 또는 문장에 해당하는 부분의 오디오 파일을 생성하는 것을 특징으로 한다.The audio file generation step generates an audio file corresponding to a word or a sentence in the generated translation according to a speech synthesis request for a word or a sentence in the generated translation.

상기 오디오 파일 생성 단계는, 상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 오디오 파일을 생성하고 상기 생성된 오디오 파일을 다운로드를 위한 오디오 파일 경로 정보를 생성하는 것을 특징으로 한다.The audio file generation step generates an audio file according to a speech synthesis request for a word or a sentence in the generated translation and generates audio file path information for downloading the generated audio file.

상기 오디오 파일 동기화 단계는, 상기 생성된 번역문 내의 단어 또는 문장에 대한 오디오 파일을 상기 제2 사용자 단말로 전송하거나, 다운로드를 위한 오디오 파일의 경로 정보를 전송하는 것을 특징으로 한다.The audio file synchronization step transmits the audio file for the word or sentence in the generated translation to the second user terminal or transmits the path information of the audio file for downloading.

상기 오디오 파일 경로 정보는, 상기 생성된 번역문의 각 단어 또는 문장들의 오디오 파일 경로 정보이거나, 각 단어 및 문장들을 음성화하는 TTS(Text-To-Speech) 경로 정보인 것을 특징으로 한다.The audio file path information is audio file path information of each word or sentence of the generated translation, or TTS (Text-To-Speech) path information for voiceing each word and sentences.

본 발명은, 원문에 대한 번역문과 그 번역문에 대한 오디오 파일을 생성하여 사용자 단말로 전송하고, 생성된 오디오 파일을 다른 사용자 단말에 저장된 오디오 파일과 비교하여 갱신된 오디오 파일인 경우 그 오디오 파일을 다른 단말로 동기화시킴으로써, 사용자가 번역 요청한 번역문 및 오디오 파일을 사용자 단말을 통해 반복적으로 확인할 수 있고 동기화된 다른 단말에서도 그 번역문 및 오디오 파일을 사용자가 이용하는 단말에 관계없이 이용할 수 있는 효과가 있다.In the present invention, a translation for the original text and an audio file for the translation are generated and transmitted to the user terminal. When the generated audio file is compared with the audio file stored in another user terminal, By synchronizing with the terminal, the translation and audio file requested by the user can be repeatedly checked through the user terminal, and the synchronized terminal can use the translation and the audio file irrespective of the terminal used by the user.

예를 들어, 본 발명은 번역문의 단어 및 문장에 대한 오디오 출력 및 오디오 파일 저장 기능을 제공하고, 최근 사용자가 급증하고 있는 스마트폰과 같은 모바일 디바이스에 대한 오디오 파일 싱크 기능을 제공하여 컴퓨터 등과 같은 디바이스에서 일회성으로 출력하는 기능뿐만 아니라 사용자가 휴대하는 스마트폰을 통해 반복적으로 오디오 파일을 들을 수 있는 효과가 있다. 이를 통해, 사용자는 번역문에 대한 단어 및 문장의 오디오 청취 및 오디오 파일을 스마트폰에 저장하여 언제든지 번역문과 오디오 서비스를 이용할 수 있는 효과가 있다.For example, the present invention provides an audio output and audio file storage function for a word and a sentence of a translation, and provides an audio file sync function for a mobile device such as a smart phone, In addition to the function of outputting a one-time output from the user, the user can repeatedly listen to audio files through a smart phone. Accordingly, the user can listen to the audio of the words and sentences of the translated text and store the audio file in the smart phone, so that the translated text and the audio service can be used at any time.

더 나아가, 본 발명은 발음 및 성조가 있어 반복적인 음성 학습이 필요한 중국어와 같은 외국어 학습을 도와줄 수 있는 효과가 있다.Furthermore, the present invention has the effect of assisting learning of a foreign language such as Chinese which requires repeated speech learning due to pronunciation and strong tongue.

도 1 은 본 발명에 따른 오디오 파일 동기화를 위한 번역 서비스 시스템의 일실시예 구성도,
도 2 는 본 발명에 따른 오디오 파일 동기화를 위한 번역 서비스 장치의 일실시예 상세구성도,
도 3 은 본 발명에 따른 오디오 파일 동기화를 위한 번역 서비스 방법에 대한 일실시예 흐름도이다.
1 is a configuration diagram of an embodiment of a translation service system for audio file synchronization according to the present invention;
2 is a detailed block diagram of an embodiment of a translation service apparatus for synchronizing audio files according to the present invention;
3 is a flowchart of an embodiment of a translation service method for synchronizing audio files according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 실시 예를 상세하게 설명한다. 본 발명의 구성 및 그에 따른 작용 효과는 이하의 상세한 설명을 통해 명확하게 이해될 것이다. 본 발명의 상세한 설명에 앞서, 동일한 구성요소에 대해서는 다른 도면 상에 표시되더라도 가능한 동일한 부호로 표시하며, 공지된 구성에 대해서는 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 구체적인 설명은 생략하기로 함에 유의한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The configuration of the present invention and the operation and effect thereof will be clearly understood through the following detailed description. Before describing the present invention in detail, the same components are denoted by the same reference symbols as possible even if they are displayed on different drawings. In the case where it is judged that the gist of the present invention may be blurred to a known configuration, do.

도 1 은 본 발명에 따른 오디오 파일 동기화를 위한 번역 서비스 시스템의 일실시예 구성도이다.1 is a block diagram of an embodiment of a translation service system for synchronizing audio files according to the present invention.

도 1에 도시된 바와 같이, 오디오 파일 동기화를 위한 번역 서비스 시스템(10)은 번역 서비스 장치(100), 제1 사용자 단말(101) 및 제2 사용자 단말(102)을 포함한다.1, a translation service system 10 for audio file synchronization includes a translation service apparatus 100, a first user terminal 101 and a second user terminal 102. [

제1 사용자 단말(101)은 번역 대상인 원문을 번역 서비스 장치(100)로 송신하여 원문 번역을 요청한다. 제1 사용자 단말(101)은 인터넷 브라우저를 통해 번역 서비스 장치(100)의 웹 페이지에 접속하여 원문을 입력하거나 원문 파일을 송신할 수 있다. 여기서, 제1 사용자 단말(101)은 웹 브라우저가 설치된 컴퓨터 또는 스마트폰 등 각종 모바일 디바이스가 될 수 있다. 웹 브라우저는 컴퓨터상에 설치된 브라우저 애플리케이션 또는 스마트폰 상의 모바일 애플리케이션 등이 될 수 있다. 한편, 원문은 HTML(Hypertext Markup Language), XML(Extensible Markup Language) 등으로 이루어진 웹 사이트 페이지(Web site page), 텍스트 파일, PDF(Portable Document Format) 파일, 한글(HWP) 파일, MS 오피스 파일 등으로 이루어질 수 있다.The first user terminal 101 transmits the original text to be translated to the translation service apparatus 100 to request the original text translation. The first user terminal 101 can access the web page of the translation service apparatus 100 through the Internet browser, and can input the original text or transmit the original text file. Here, the first user terminal 101 may be a computer equipped with a web browser or various mobile devices such as a smart phone. The web browser may be a browser application installed on a computer or a mobile application on a smart phone. On the other hand, the original text includes a Web site page, a text file, a PDF (Portable Document Format) file, a Hangul (HWP) file, a MS office file, etc., which are made up of Hypertext Markup Language (HTML) and Extensible Markup Language ≪ / RTI >

사용자는 제1 사용자 단말(101)을 통해 원문에 대한 번역 요청 전에 번역 언어쌍, 사용자 단어 목록, 번역 결과 포맷 등 번역을 위한 사용자 번역 설정 정보를 설정한다. 사용자가 설정한 사용자 번역 설정 정보는 제1 사용자 단말(101)에 저장되거나, 번역 서비스 장치(100)에 저장될 수도 있다. 이러한 사용자 번역 설정 정보를 통해, 사용자는 번역 결과 포맷 등을 통해 번역 결과에 표시되는 번역문의 종류와 번역문 생성 방식 등을 정의할 수 있다.The user sets user translation setting information for translation such as a translation language pair, a user word list, and a translation result format before the translation request for the original text through the first user terminal 101. The user translation setting information set by the user may be stored in the first user terminal 101 or in the translation service apparatus 100. Through the user translation setting information, the user can define the type of the translated text and the translation text generation method displayed on the translation result through the translation result format or the like.

번역 서비스 장치(100)로부터 번역문이 전송된 경우, 제1 사용자 단말(101)은 번역문을 수신하고, 그 번역문에 대한 음성 합성을 요청하여 번역 서비스 장치(100)로부터 오디오 파일을 수신한다. 그리고 제1 사용자 단말(101)은 제2 사용자 단말(102)과의 오디오 파일 동기화를 번역 서비스 장치(100)로 요청한다.When a translation is transmitted from the translation service apparatus 100, the first user terminal 101 receives the translation, requests the speech synthesis for the translation, and receives the audio file from the translation service apparatus 100. Then, the first user terminal 101 requests the translation service apparatus 100 to synchronize the audio file with the second user terminal 102.

한편, 번역 서비스 장치(100)는 제1 사용자 단말(101)로부터 수신된 원문으로부터 번역문을 생성하여 제1 사용자 단말(101)로 회신한다.On the other hand, the translation service apparatus 100 generates a translation from the original text received from the first user terminal 101 and returns it to the first user terminal 101.

그리고 번역 서비스 장치(100)는 생성된 번역문 내의 단어 또는 문장에 대해서 제1 사용자 단말(101)의 음성 합성 요청에 따라 음성 합성을 통해 오디오 파일을 생성한다. 번역 서비스 장치(100)는 생성된 오디오 파일을 오디오 DB(253)에 저장한다.The translation service apparatus 100 generates an audio file through speech synthesis in response to a speech synthesis request of the first user terminal 101 with respect to a word or a sentence in the generated translation. The translation service apparatus 100 stores the generated audio file in the audio DB 253.

번역 서비스 장치(100)는 제1 사용자 단말(101)의 오디오 파일 동기화 요청에 따라 제2 사용자 단말(102)에 저장된 오디오 파일과 오디오 DB(253)에 저장된 오디오 파일을 비교하여 갱신된 오디오 파일 및 번역문을 제2 사용자 단말(102)로 전송하여 동기화시킨다. 여기서, 오디오 파일 동기화란 제1 사용자 단말(101)이 수신한 오디오 파일과 제2 사용자 단말(102)에 저장된 오디오 파일을 동일하게 유지시켜 제1 사용자 단말(101)과 제2 사용자 단말(102) 간의 오디오 파일을 동기화시키는 것을 말한다. 이를 통해, 사용자는 제1 사용자 단말(101)을 통해 들은 오디오 파일을 제2 사용자 단말(102)에서도 들을 수 있게 된다. 번역 서비스 장치(100)는 제2 사용자 단말(102)에 저장된 오디오 파일의 목록을 통해 갱신된 오디오 파일을 확인한다. 번역 서비스 장치(100)는 제2 사용자 단말(102)로 오디오 파일을 전송하기 전에 제2 사용자 단말(102)에 저장된 오디오 파일을 확인하거나, 이전에 제2 사용자 단말(102)로 전송한 오디오 파일의 목록을 기록하여 갱신된 오디오 파일을 확인할 수 있다.The translation service apparatus 100 compares the audio file stored in the second user terminal 102 with the audio file stored in the audio DB 253 in response to the audio file synchronization request of the first user terminal 101, Transmits the translation to the second user terminal 102 and synchronizes them. Herein, the audio file synchronization is performed by keeping the audio file received by the first user terminal 101 and the audio file stored in the second user terminal 102 in the same state so that the first user terminal 101 and the second user terminal 102, To synchronize audio files between. Thereby, the user can listen to the audio file heard through the first user terminal 101 at the second user terminal 102 as well. The translation service apparatus 100 confirms the updated audio file through the list of the audio files stored in the second user terminal 102. [ The translation service apparatus 100 may check the audio file stored in the second user terminal 102 before transferring the audio file to the second user terminal 102, And the updated audio file can be confirmed.

한편, 제2 사용자 단말(102)은 제1 사용자 단말(101)의 오디오 파일 동기화 요청에 따라 번역 서비스 장치(100)로부터 오디오 파일을 수신하여 저장한다. 그리고 제2 사용자 단말(102)은 저장된 오디오 파일을 사용자의 요청에 따라 출력한다. 여기서, 제2 사용자 단말(102)은 사용자가 원할 때 저장된 오디오 파일을 실행하여 사용자가 휴대하면서 오디오 파일을 들을 수 있는 스마트폰과 같은 모바일 디바이스일 수 있다.On the other hand, the second user terminal 102 receives and stores the audio file from the translation service apparatus 100 according to the audio file synchronization request of the first user terminal 101. The second user terminal 102 outputs the stored audio file at the request of the user. Here, the second user terminal 102 may be a mobile device, such as a smart phone, that can execute an audio file stored when the user desires to listen to the audio file while the user is carrying it.

도 2 는 본 발명에 따른 오디오 파일 동기화를 위한 번역 서비스 장치의 일실시예 상세구성도이다.2 is a detailed configuration diagram of an embodiment of a translation service apparatus for synchronizing audio files according to the present invention.

도 2에 도시된 바와 같이, 번역 서비스 장치(100)는 통신 인터페이스부(210), 번역부(220), 오디오 파일 생성부(230), 오디오 파일 동기화부(240) 및 데이터 저장부(250)를 포함한다. 여기서, 데이터 저장부(250)는 사용자 DB(251), 번역 DB(252) 및 오디오 DB(253)를 포함한다.2, the translation service apparatus 100 includes a communication interface unit 210, a translation unit 220, an audio file generation unit 230, an audio file synchronization unit 240, and a data storage unit 250, . Here, the data storage unit 250 includes a user DB 251, a translation DB 252, and an audio DB 253.

통신 인터페이스부(210)는 제1 및 제2 사용자 단말(101, 102)과 통신망을 통해 데이터를 송수신하는 통신 인터페이스 기능을 수행한다. 즉, 통신 인터페이스부(210)는 제1 사용자 단말(101)로부터 원문을 수신하고, 제1 및 제2 사용자 단말(101 및 102)로 번역문 및 오디오 파일을 송신한다.The communication interface unit 210 performs a communication interface function to transmit and receive data to and from the first and second user terminals 101 and 102 through a communication network. That is, the communication interface unit 210 receives the original text from the first user terminal 101, and transmits the translated text and the audio file to the first and second user terminals 101 and 102.

번역부(220)는 통신 인터페이스부(210)를 통해 수신된 원문으로부터 사용자 번역 설정 정보를 기반으로 기반으로 형태소 분석, 구문 분석, 의미 분석 등의 자연어 처리 기술을 통해 문장 구조, 단어별 품사 및 의미 정보를 추출하고 그 추출된 결과를 이용하여 번역문을 생성하고 제1 사용자 단말(101)로 회신한다.The translating unit 220 translates the sentence structure, the part-of-speech, and the meaning of the word, based on the user translation setting information, from the original text received through the communication interface unit 210 through a natural language processing technique such as morphological analysis, Extracts the information, generates a translation using the extracted result, and returns it to the first user terminal 101.

구체적으로 살펴보면, 번역부(220)는 번역 엔진을 구비하고, 번역 엔진을 통해 번역 요청한 원문 텍스트를 분석하고 이에 대해서 형태소를 분석한다. 번역부(220)는 형태소 분석 과정에서 원문 텍스트의 단어를 보고 형태소를 분리한다. 이러한 형태소 분석 과정은 컴퓨터의 발달로 점차 자동화되어 정확도가 높아지고 있다. 형태소 분석 과정은 자연어 처리의 가장 기초적인 절차로 이후 구문 분석이나 의미 분석으로 나아가기 위해 선행되어야 하는 과정으로 볼 수 있다. 여기서, 자연언어란 인간이 사용하는 언어를 말하며, 자연언어처리란 이러한 자연언어를 컴퓨터가 이해할 수 있도록 처리하는 분야를 말한다. 번역부(220)는 형태소 분석, 구문 분석, 의미 분석, 화용 분석 등의 기초 기술을 이용하여 기계 번역을 수행한다.Specifically, the translation unit 220 includes a translation engine, analyzes the original text requested for translation through the translation engine, and analyzes the morpheme. The translating unit 220 sees the words of the original text in the morphological analysis process and separates the morpheme. This morphological analysis process is becoming more and more automated due to the development of computer, and accuracy is increasing. The morphological analysis process is the most basic process of natural language processing and can be seen as a process that must be preceded in order to proceed to the analysis of syntax or semantic analysis. Here, natural language refers to a language used by humans, and natural language processing refers to a field where computers can understand such natural language. The translator 220 performs machine translation using basic techniques such as morphological analysis, syntax analysis, semantic analysis, and phonetic analysis.

그리고 번역부(220)는 구문 분석을 통해 문장 분석 및 단어 의미 추출을 수행한다. 번역부(220)는 구문 분석 과정에서 문장을 이루고 있는 구성 성분으로 그 문장을 분해하고 그들 사이의 위계 관계를 분석하여 문장의 구조를 결정한다.Then, the translation unit 220 performs sentence analysis and word sense extraction through syntax analysis. The translating unit 220 decomposes the sentence into components constituting a sentence in the parsing process and analyzes the hierarchical relationship between them to determine the structure of the sentence.

이어서, 번역부(220)는 자연 언어 이해 기법의 하나인 의미 분석 과정에서, 문장의 의미에 근거해서 그 문장을 해석하여 단어별 품사 및 의미 정보를 추출한다. 여기서, 번역부(220)는 여러 의미 분석 방법과 다양한 유형의 문법을 이용한다. 이러한 의미 분석 방법과 다양한 유형의 문법은 문장이 어떻게 구성되었는지를 나타내 주는 규칙들로 구성된 일종의 형식 시스템을 말한다.Then, the translating unit 220 interprets the sentence based on the meaning of the sentence in the semantic analysis process, which is one of the natural language understanding techniques, and extracts the parts of speech and semantic information for each word. Here, the translating unit 220 uses various semantic analysis methods and various types of grammar. These semantic analysis methods and various types of grammar refer to a kind of formal system that consists of rules that show how sentences are constructed.

이후, 번역부(220)는 그 추출된 결과를 이용하여 번역문을 생성한다. 번역부(220)는 번역 대상 언어로의 단어 번역 및 위치 치환 등의 번역을 수행하여 번역문을 생성한다.Then, the translating unit 220 generates a translated text using the extracted result. The translation unit 220 generates a translation by performing translation such as word translation and position replacement in the translation target language.

여기서, 번역부(220)는 사용자에 의해 설정된 사용자 번역 설정 정보에 포함된 번역쌍 결과 문장과 단어 의미, 단어 품사, 발음 기호, 단어에 대한 전자 사전 경로 정보를 이용하여 번역문을 생성할 수 있다.Here, the translating unit 220 can generate the translation using the translation pair result sentence included in the user translation setting information set by the user and the electronic dictionary route information for the word meaning, word part part, pronunciation part, and word.

오디오 파일 생성부(230)는 번역부(220)에서 생성된 번역문에 대해서 제1 사용자 단말(101)의 음성 합성 요청에 따라 번역문의 텍스트를 분석하고 음성 합성을 통해 오디오 파일을 생성하여 제1 사용자 단말(101)로 회신한다. 오디오 파일 생성부(230)는 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 번역문 내의 단어 또는 문장에 해당하는 부분의 오디오 파일을 생성한다. 오디오 파일 생성부(230)는 오디오 파일의 용량이 큰 경우에 오디오 파일 경로 정보를 생성할 수 있다. 그러면, 제1 사용자 단말(101)은 오디오 파일 경로 정보로 접속하여 해당 경로를 통해 음성 합성된 오디오 파일을 수신받을 수 있다.The audio file generation unit 230 analyzes the text of the translated text according to the speech synthesis request of the first user terminal 101 with respect to the translated text generated by the translation unit 220, generates an audio file through speech synthesis, And returns it to the terminal 101. The audio file generation unit 230 generates an audio file corresponding to a word or a sentence in the translation according to a speech synthesis request for a word or a sentence in the translation. The audio file generation unit 230 may generate the audio file path information when the capacity of the audio file is large. Then, the first user terminal 101 accesses the audio file path information and receives the audio-synthesized audio file through the path.

오디오 파일 동기화부(240)는 오디오 파일 생성부(230)에서 생성된 오디오 파일을 오디오 DB(253)에 저장한다. 그리고 제1 사용자 단말(101)의 오디오 파일 동기화 요청에 따라, 오디오 파일 동기화부(240)는 제2 사용자 단말(102)에 저장된 오디오 파일과 오디오 DB(253)에 저장된 오디오 파일을 비교하여 갱신된 오디오 파일 및 번역문을 제2 사용자 단말(102)과 동기화시킨다. 오디오 파일 동기화부(240)는 번역문 내의 단어 또는 문장에 대한 오디오 파일을 제2 사용자 단말(102)로 전송하거나, 다운로드를 위한 오디오 파일 경로 정보를 전송할 수 있다. 여기서, 오디오 파일 경로 정보는 각 단어들의 오디오 파일을 다운로드하기 위한 경로 정보이거나, 각 단어 및 문장들을 음성화하는 TTS(Text-To-Speech) 경로 정보일 수 있다.The audio file synchronizer 240 stores the audio file generated by the audio file generator 230 in the audio DB 253. In response to the audio file synchronization request of the first user terminal 101, the audio file synchronization unit 240 compares the audio file stored in the second user terminal 102 with the audio file stored in the audio DB 253, And synchronizes the audio file and the translation with the second user terminal 102. The audio file synchronization unit 240 may transmit an audio file for a word or a sentence in the translation to the second user terminal 102 or may transmit the audio file path information for downloading. Here, the audio file path information may be path information for downloading the audio files of the respective words, or may be text-to-speech (TTS) path information for voicing each word and sentences.

데이터 저장부(250)의 사용자 DB(251)는 제1 사용자 단말(101)로부터 수신되는 사용자 번역 설정 정보를 저장하거나, 기설정된 사용자 번역 설정 정보를 저장한다. 사용자 DB(251)는 사용자가 번역 서비스와 관련된 다양한 번역 환경을 설정하면 이에 대한 사용자 번역 설정 정보를 저장한다. 번역부(220)는 사용자 DB(251)에 저장된 사용자 번역 설정 정보를 번역 결과물에 반영시킨다.The user DB 251 of the data storage unit 250 stores user translation setting information received from the first user terminal 101 or stores predetermined user translation setting information. The user DB 251 stores user translation setting information for the user when the user sets various translation environments related to the translation service. The translating unit 220 reflects the user translation setting information stored in the user DB 251 in the translation result.

그리고 데이터 저장부(250)의 번역 DB(252)는 생성된 번역문을 저장한다. 그리고 데이터 저장부(250)의 오디오 DB(253)는 번역 DB(252)에 저장된 번역문의 단어 또는 문장에 해당하는 오디오 파일을 매칭시켜 저장한다.The translation DB 252 of the data storage unit 250 stores the generated translation. The audio DB 253 of the data storage unit 250 matches and stores the audio file corresponding to the word or sentence of the translation stored in the translation DB 252. [

도 3 은 본 발명에 따른 오디오 파일 동기화를 위한 번역 서비스 방법에 대한 일실시예 흐름도이다.3 is a flowchart of an embodiment of a translation service method for synchronizing audio files according to the present invention.

사용자가 원문을 컴퓨터의 브라우저를 통해 입력하면, 제1 사용자 단말(101)은 사용자가 입력한 원문을 번역 서비스 장치(100)로 전송하여 번역을 요청한다(S302). 사용자가 설정한 사용자 번역 설정 정보가 제1 사용자 단말(101)에 저장되어 있으면, 제1 사용자 단말(101)은 번역 요청 시 원문과 같이 사용자 번역 설정 정보를 번역 서비스 장치(100)로 전송한다. 반면, 사용자가 설정한 사용자 번역 설정 정보가 번역 서비스 장치(100)에 저장되어 있으면, 번역 서비스 장치(100)는 미리 저장된 사용자 번역 설정 정보를 이용하여 원문을 번역할 수 있다.When the user inputs the original text through the browser of the computer, the first user terminal 101 transmits the original text input by the user to the translation service apparatus 100 to request translation (S302). If the user translation setting information set by the user is stored in the first user terminal 101, the first user terminal 101 transmits the user translation setting information to the translation service apparatus 100 as shown in the original text. On the other hand, if the user translation setting information set by the user is stored in the translation service apparatus 100, the translation service apparatus 100 can translate the original text using the previously stored user translation setting information.

번역 서비스 장치(100)는 기반으로 형태소 분석, 구문 분석, 의미 분석 등의 자연어 처리 기술을 통해 문장 구조, 단어별 품사 및 의미 정보를 추출한다(S304). 구체적으로 살펴보면, 번역부(220)는 형태소 분석 과정에서 원문 텍스트의 단어를 보고 형태소를 분리한다. 그리고 번역부(220)는 구문 분석 과정에서 문장을 이루고 있는 구성 성분으로 그 문장을 분해하고 그들 사이의 위계 관계를 분석하여 문장의 구조를 결정한다. 이어서, 번역부(220)는 문장의 의미에 근거해서 그 문장을 해석하여 단어별 품사 및 의미 정보를 추출한다.The translation service apparatus 100 extracts the sentence structure, word-by-word parts, and semantic information through natural language processing techniques such as morphological analysis, syntax analysis, and semantic analysis on the basis of S304. Specifically, the translator 220 separates the morpheme by referring to the word of the original text in the morpheme analysis process. The translating unit 220 decomposes the sentence into constituent elements that are sentences in the parsing process and analyzes the hierarchical relationship between them to determine the structure of the sentence. Then, the translator 220 analyzes the sentence based on the meaning of the sentence, and extracts the part-of-speech and the semantic information for each word.

번역 서비스 장치(100)는 사용자 번역 설정 정보를 기반으로 분석 및 추출된 결과를 이용하여 번역문을 생성한다(S306). 여기서, 번역문은 번역된 문장, 번역된 단어의 원문 단어 의미, 발음 기호, 품사 정보, 사전 서비스로 링크되는 경로 정보, 발음 서비스로 링크되는 경로 정보 등을 포함할 수 있다. 발음 서비스로 링크되는 경로 정보는 각 단어들의 오디오 파일에 대한 경로 정보일 수 있다. 또한, 각 단어 및 문장들을 음성화하는 TTS 경로 정보일 수 있다.The translation service apparatus 100 generates a translation using the analyzed and extracted results based on the user translation setting information (S306). Here, the translation may include translated sentences, the original word meaning of translated words, phonetic symbols, parts of speech information, path information linked to dictionary services, path information linked to pronunciation services, and the like. The path information linked to the pronunciation service may be path information for the audio file of each word. Also, it may be TTS path information for voicing each word and sentences.

번역 서비스 장치(100)는 생성된 번역문을 제1 사용자 단말(101)로 전송하여 원문에 대한 번역 요청에 대해 사용자에게 회신한다(S308).The translation service apparatus 100 transmits the generated translation to the first user terminal 101, and returns the translated request to the user (S308).

제1 사용자 단말(101)은 사용자가 회신된 번역 결과를 확인하고 발음 서비스 메뉴를 눌러 회신된 번역문 내의 단어 또는 문장의 음성 합성을 번역 서비스 장치(100)로 요청한다(S310). 제1 사용자 단말(101)은 음성 합성 요청을 통해 단어 또는 문장에 대한 오디오 파일을 들을 수 있다.The first user terminal 101 confirms the translation result returned by the user and requests the translation service apparatus 100 to synthesize the word or sentence in the translated translation by pressing the pronunciation service menu (S310). The first user terminal 101 can hear an audio file for a word or a sentence through a speech synthesis request.

번역 서비스 장치(100)는 제1 사용자 단말(101)의 음성 합성 요청에 따라 번역문의 텍스트를 분석하고 음성 합성을 통해 오디오 파일을 생성한다(S312).The translation service apparatus 100 analyzes the text of the translated text according to the speech synthesis request of the first user terminal 101 and generates an audio file through speech synthesis (S312).

번역 서비스 장치(100)는 생성된 오디오 파일을 제1 사용자 단말(101)로 전송하여 음성 합성 요청에 대해 사용자에게 회신한다(S314). 여기서, 제1 사용자 단말(101)은 사용자가 오디오 파일 저장 메뉴를 누르는 경우 단어 또는 문장의 오디오 파일을 구비된 메모리에 저장할 수 있다.The translation service apparatus 100 transmits the generated audio file to the first user terminal 101 and returns the audio synthesis request to the user (S314). Here, the first user terminal 101 may store a word or sentence audio file in a memory provided when the user presses the audio file storage menu.

제1 사용자 단말(101)은 수신된 오디오 파일을 사용자에게 출력한다(S316).The first user terminal 101 outputs the received audio file to the user (S316).

사용자가 번역 결과 동기화 메뉴를 눌러 제1 사용자 단말(101)로 수신한 번역 결과를 타 디바이스인 제2 사용자 단말(101)로 동기화를 요청하는 경우, 제1 사용자 단말(101)은 번역 서비스 장치(100)로 생성된 오디오 파일 동기화를 요청한다(S318).When the user requests synchronization of the translation result received by the first user terminal 101 to the second user terminal 101 which is another device by pressing the translation result synchronization menu, the first user terminal 101 transmits the translation result to the translation service device 100) (S318).

번역 서비스 장치(100)는 제1 사용자 단말(101)의 오디오 파일 동기화 요청에 따라 제2 사용자 단말(102)에 저장된 오디오 파일과 오디오 DB(253)에 저장된 오디오 파일을 비교한다(S320).The translation service apparatus 100 compares the audio file stored in the second user terminal 102 with the audio file stored in the audio DB 253 according to the audio file synchronization request of the first user terminal 101 in operation S320.

상기 비교 결과(S320), 오디오 DB(253)에 저장된 오디오 파일이 갱신된 경우, 번역 서비스 장치(100)는 갱신된 오디오 파일 또는 오디오 파일 경로 정보를 제2 사용자 단말(102)로 전송한다(S322). 반면, 오디오 DB(253)에 저장된 오디오 파일이 갱신되지 않은 경우, 번역 서비스 장치(100)는 오디오 파일을 전송하지 않는다.If the comparison result (S320) and the audio file stored in the audio DB 253 are updated, the translation service apparatus 100 transmits the updated audio file or audio file path information to the second user terminal 102 (S322 ). On the other hand, if the audio file stored in the audio DB 253 is not updated, the translation service apparatus 100 does not transmit the audio file.

제2 사용자 단말(102)은 번역 서비스 장치(100)로부터 수신된 오디오 파일을 저장한다(S324). 이와 같이, 사용자가 오디오 파일 동기화 메뉴를 누르면, 번역 서비스 장치(100)는 제1 사용자 단말(101)에 저장된 오디오 파일과 동일한 오디오 파일을 제2 사용자 단말(102)로 전송할 수 있다.The second user terminal 102 stores the audio file received from the translation service apparatus 100 (S324). In this manner, when the user presses the audio file synchronization menu, the translation service apparatus 100 can transmit the same audio file as the audio file stored in the first user terminal 101 to the second user terminal 102.

한편, 제1 사용자 단말(101)은 사용자의 오디오 파일 동기화 요청에 따라, 미리 연결된 제2 사용자 단말(102)로 오디오 파일을 통신망을 통해 전송할 수 있다. 여기서, 통신망은 유무선 데이터 망, 디바이스 간 데이터 케이블, 무선 데이터 인터페이스 등이 가능하다. 이때, 제1 사용자 단말(101)과 타 디바이스인 제2 사용자 단말(102) 간의 데이터가 비교되어 필요한 번역 데이터만이 전송된다.Meanwhile, the first user terminal 101 may transmit the audio file through the communication network to the second user terminal 102 connected in advance according to the audio file synchronization request of the user. Here, the communication network can be a wired or wireless data network, a data cable between devices, a wireless data interface, or the like. At this time, data between the first user terminal 101 and the second user terminal 102, which is another device, is compared and only necessary translation data is transmitted.

한편, 본 발명은 이상에서 설명한 오디오 파일 동기화를 위한 번역 서비스 방법을 소프트웨어적인 프로그램으로 구현하여 컴퓨터로 읽을 수 있는 소정 기록 매체에 기록해 둠으로써 다양한 재생 장치에 적용할 수 있다. In the meantime, the present invention can be applied to various reproduction apparatuses by implementing the above-described translation service method for synchronizing audio files with a software program and recording them on a computer-readable recording medium.

다양한 재생 장치는 앞서 설명한 사용자 단말로서 이동 단말기, PDA, 노트북, 네비게이션, PMP, 스마트폰, 전자사전 및 MPS 등일 수 있다. The various playback devices may be a mobile terminal, a PDA, a notebook, a navigation, a PMP, a smart phone, an electronic dictionary, an MPS, and the like as the user terminal described above.

예컨대, 기록 매체는 각 재생 장치의 내장형으로 하드 디스크, 플래시 메모리, RAM, ROM 등이거나, 외장형으로 CD-R, CD-RW와 같은 광디스크, 콤팩트 플래시 카드, 스마트 미디어, 메모리 스틱, 멀티미디어 카드일 수 있다. For example, the recording medium may be a hard disk, a flash memory, a RAM, a ROM, or the like embedded in each reproduction apparatus, or an external optical disk such as a CD-R or a CD-RW, a compact flash card, a smart media, have.

이 경우, 컴퓨터로 읽을 수 있는 기록 매체에 기록한 프로그램은, 제1 사용자 단말로부터 수신된 원문으로부터 사용자 번역 설정 정보를 기반으로 형태소 분석, 구문 분석, 의미 분석 등의 자연어 처리 기술을 통해 문장 구조, 단어별 품사 및 의미 정보를 추출하고 상기 추출된 결과를 이용하여 번역문을 생성하여 상기 제1 사용자 단말로 회신하는 번역문 생성 과정, 상기 제1 사용자 단말의 음성 합성 요청에 따라 상기 생성된 번역문의 텍스트를 분석하고 음성 합성을 통해 오디오 파일을 생성하여 상기 제1 사용자 단말로 회신하는 오디오 파일 생성 과정, 상기 생성된 오디오 파일을 저장하고, 상기 제1 사용자 단말의 오디오 파일 동기화 요청에 따라 상기 제2 사용자 단말에 저장된 오디오 파일과 상기 저장된 오디오 파일을 비교하는 오디오 파일 비교 과정, 상기 비교 결과, 갱신된 오디오 파일 및 번역문을 상기 제2 사용자 단말과 동기화시키는 오디오 파일 동기화 과정을 포함하여 실행될 수 있다.In this case, the program recorded on the computer-readable recording medium may include at least one of a sentence structure, a word structure, and a sentence structure through a natural language processing technique such as morphological analysis, syntax analysis, A translation step of extracting a part of speech and semantic information, generating a translation using the extracted result, and returning the translation to the first user terminal, analyzing text of the generated translation according to a speech synthesis request of the first user terminal Generating an audio file through voice synthesis and returning the generated audio file to the first user terminal, storing the generated audio file, and transmitting the audio file to the second user terminal in response to the audio file synchronization request of the first user terminal Comparing an audio file that compares the stored audio file with the stored audio file And an audio file synchronization step of synchronizing the updated audio file and the translation with the second user terminal as a result of the comparison.

이상의 설명은 본 발명을 예시적으로 설명한 것에 불과하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술적 사상에서 벗어나지 않는 범위에서 다양한 변형이 가능할 것이다. 따라서 본 발명의 명세서에 개시된 실시 예들은 본 발명을 한정하는 것이 아니다. 본 발명의 범위는 아래의 특허청구범위에 의해 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술도 본 발명의 범위에 포함되는 것으로 해석해야 할 것이다.The foregoing description is merely illustrative of the present invention, and various modifications may be made by those skilled in the art without departing from the spirit of the present invention. Accordingly, the embodiments disclosed in the specification of the present invention are not intended to limit the present invention. The scope of the present invention should be construed according to the following claims, and all the techniques within the scope of equivalents should be construed as being included in the scope of the present invention.

본 발명은 원문에 대한 번역문과 그 번역문에 대한 오디오 파일을 생성하여 사용자 단말로 전송하고, 생성된 오디오 파일을 다른 사용자 단말에 저장된 오디오 파일과 비교하여 갱신된 오디오 파일인 경우 그 오디오 파일을 다른 단말로 동기화시킴으로써, 사용자가 번역 요청한 번역문 및 오디오 파일을 사용자 단말을 통해 반복적으로 확인할 수 있고 동기화된 다른 단말에서도 그 번역문 및 오디오 파일을 사용자가 이용하는 단말에 관계없이 이용할 수 있다. 이러한 점에서 기존 기술의 한계를 뛰어 넘음에 따라 관련 기술에 대한 이용만이 아닌 적용되는 장치의 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용 가능성이 있는 발명이다.The present invention generates an audio file corresponding to a translation of the original text and transmits the translated audio file to the user terminal and compares the generated audio file with the audio file stored in another user terminal, It is possible to repeatedly check the translation and audio file requested by the user through the user terminal and to use the translation and the audio file regardless of the terminal used by the user in another synchronized terminal. In this respect, it is not only the use of the related technology but also the possibility of commercialization or operation of the applied device, as it exceeds the limit of the existing technology.

10: 번역 서비스 시스템 100: 번역 서비스 장치
101: 제1 사용자 단말 102: 제2 사용자 단말
210: 통신 인터페이스부 220: 번역부
230: 오디오 파일 생성부 240: 오디오 파일 동기화부
250: 데이터 저장부 251: 사용자 DB
252: 번역 DB 252: 오디오 DB
10: translation service system 100: translation service apparatus
101: first user terminal 102: second user terminal
210: communication interface unit 220:
230: audio file generation unit 240: audio file synchronization unit
250: Data storage unit 251: User DB
252: Translation DB 252: Audio DB

Claims (12)

삭제delete 제1 사용자 단말로부터 원문을 수신하고, 상기 제1 사용자 단말 및 제2 사용자 단말로 번역문 및 오디오 파일을 송신하는 통신 인터페이스부;
기 설정된 사용자 번역 설정 정보를 기반으로 상기 통신 인터페이스부를 통해 수신된 원문으로부터 문장 구조, 단어별 품사 및 의미 정보를 추출하며, 추출된 정보를 이용하여 상기 원문에 포함된 문장과 단어가 상기 사용자 번역 설정 정보 내 의미로 번역된 번역문을 생성하여 생성된 번역문을 상기 제1 사용자 단말로 회신하는 번역부;
상기 제1 사용자 단말의 음성 합성 요청에 따라 상기 생성된 번역문에 대해서 번역문의 텍스트를 분석하고 음성 합성을 통해 오디오 파일을 생성하여 상기 제1 사용자 단말로 회신하는 오디오 파일 생성부; 및
상기 생성된 오디오 파일을 저장하고, 상기 제1 사용자 단말의 오디오 파일 동기화 요청에 따라 상기 제2 사용자 단말에 저장된 오디오 파일과 상기 저장된 오디오 파일을 비교하여 갱신된 오디오 파일 및 번역문을 상기 제2 사용자 단말과 동기화시키는 오디오 파일 동기화부
를 포함하는 오디오 파일 동기화를 위한 번역 서비스 장치.
A communication interface for receiving a text from a first user terminal and transmitting a translation and an audio file to the first user terminal and the second user terminal;
Extracting sentence structures, parts of speech and semantic information from the original text received through the communication interface unit based on the preset user translation setting information, and extracting sentences and words included in the original text using the extracted information, A translation unit operable to generate a translated translation into an in-information meaning and return the generated translation to the first user terminal;
An audio file generation unit for analyzing a text of a translated text with respect to the generated translated text according to a speech synthesis request of the first user terminal, generating an audio file through speech synthesis, and returning the generated audio file to the first user terminal; And
Storing the generated audio file, comparing the audio file stored in the second user terminal with the stored audio file according to the audio file synchronization request of the first user terminal, and transmitting the updated audio file and the translated text to the second user terminal And an audio file synchronization unit
A translation service device for synchronizing audio files.
[청구항 3은(는) 설정등록료 납부시 포기되었습니다.][Claim 3 is abandoned upon payment of the registration fee.] 제 2 항에 있어서,
상기 제1 사용자 단말로부터 수신되는 사용자 번역 설정 정보를 저장하거나, 기설정된 사용자 번역 설정 정보를 저장하는 사용자 DB;
상기 생성된 번역문을 저장하는 번역 DB; 및
상기 저장된 번역문에 대한 오디오 파일을 해당되는 번역문의 단어 또는 문장과 매칭시켜 저장하는 오디오 DB
를 더 포함하는 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 장치.
3. The method of claim 2,
A user DB for storing user translation setting information received from the first user terminal or storing preset user translation setting information;
A translation DB for storing the generated translation; And
An audio DB for matching the audio file for the stored translation with a word or a sentence of the corresponding translation,
Wherein the translation service apparatus further comprises:
[청구항 4은(는) 설정등록료 납부시 포기되었습니다.][Claim 4 is abandoned upon payment of the registration fee.] 제 2 항에 있어서,
상기 오디오 파일 생성부는,
상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 상기 생성된 번역문 내의 단어 또는 문장에 해당하는 부분의 오디오 파일을 생성하는 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 장치.
3. The method of claim 2,
Wherein the audio file generating unit comprises:
And generates an audio file corresponding to a word or a sentence in the generated translation according to a speech synthesis request for a word or a sentence in the generated translation.
[청구항 5은(는) 설정등록료 납부시 포기되었습니다.][Claim 5 is abandoned upon payment of registration fee.] 제 2 항에 있어서,
상기 오디오 파일 생성부는,
상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 오디오 파일을 생성하고 상기 생성된 오디오 파일을 다운로드하기 위한 오디오 파일 경로 정보를 생성하는 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 장치.
3. The method of claim 2,
Wherein the audio file generating unit comprises:
Generating an audio file according to a speech synthesis request for a word or a sentence in the generated translation, and generating audio file path information for downloading the generated audio file.
[청구항 6은(는) 설정등록료 납부시 포기되었습니다.][Claim 6 is abandoned due to the registration fee.] 제 2 항에 있어서,
상기 오디오 파일 동기화부는,
상기 생성된 번역문 내의 단어 또는 문장에 대한 오디오 파일을 상기 제2 사용자 단말로 전송하거나, 다운로드를 위한 오디오 파일 경로 정보를 전송하는 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 장치.
3. The method of claim 2,
Wherein the audio file synchronization unit comprises:
And transmitting the audio file path information for downloading the audio file to the second user terminal or the audio file path information for downloading the audio file for the word or sentence in the generated translation.
[청구항 7은(는) 설정등록료 납부시 포기되었습니다.][7] has been abandoned due to the registration fee. 제 6 항에 있어서,
상기 오디오 파일 경로 정보는,
상기 생성된 번역문의 각 단어 또는 문장들의 오디오 파일 경로 정보이거나, 각 단어 및 문장들을 음성화하는 TTS(Text-To-Speech) 경로 정보인 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 장치.
The method according to claim 6,
The audio file path information may include:
(TTS) path information which is audio file path information of each word or sentence of the generated translation, or TTS (Text-To-Speech) path information for voiceing each word and sentences.
기 설정된 사용자 번역 설정 정보를 기반으로 제1 사용자 단말로부터 수신된 원문으로부터 문장 구조, 단어별 품사 및 의미 정보를 추출하며, 추출된 정보를 이용하여 상기 원문 중 적어도 일부의 문장과 단어가 상기 사용자 번역 설정 정보 내 의미로 번역된 번역문을 생성하여 생성된 번역문을 상기 제1 사용자 단말로 회신하는 번역문 생성 단계;
상기 제1 사용자 단말의 음성 합성 요청에 따라 상기 생성된 번역문의 텍스트를 분석하고 음성 합성을 통해 오디오 파일을 생성하여 상기 제1 사용자 단말로 회신하는 오디오 파일 생성 단계;
상기 생성된 오디오 파일을 저장하고, 상기 제1 사용자 단말의 오디오 파일 동기화 요청에 따라 제2 사용자 단말에 저장된 오디오 파일과 상기 저장된 오디오 파일을 비교하는 오디오 파일 비교 단계; 및
상기 비교 결과, 갱신된 오디오 파일 및 번역문을 상기 제2 사용자 단말과 동기화시키는 오디오 파일 동기화 단계
를 포함하는 오디오 파일 동기화를 위한 번역 서비스 방법.
Extracting sentence structures, parts of speech and semantic information from the original text received from the first user terminal based on preset user translation setting information, and extracting sentences and words of at least some of the original texts from the user translations A translated text generating step of generating translated texts translated into the meaning of the setting information and returning the generated translated texts to the first user terminal;
An audio file generation step of analyzing the text of the generated translation according to a speech synthesis request of the first user terminal, generating an audio file through speech synthesis, and returning the audio file to the first user terminal;
An audio file comparison step of storing the generated audio file and comparing the stored audio file with an audio file stored in the second user terminal according to the audio file synchronization request of the first user terminal; And
An audio file synchronization step of synchronizing the updated audio file and the translation with the second user terminal
And a translation service method for synchronizing audio files.
[청구항 9은(는) 설정등록료 납부시 포기되었습니다.][Claim 9 is abandoned upon payment of registration fee.] 제 8 항에 있어서,
상기 오디오 파일 생성 단계는,
상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 상기 생성된 번역문 내의 단어 또는 문장에 해당하는 부분의 오디오 파일을 생성하는 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 방법.
9. The method of claim 8,
The audio file generation step may include:
And generating an audio file corresponding to a word or a sentence in the generated translation according to a speech synthesis request for a word or a sentence in the generated translation.
[청구항 10은(는) 설정등록료 납부시 포기되었습니다.][Claim 10 is abandoned upon payment of the registration fee.] 제 8 항에 있어서,
상기 오디오 파일 생성 단계는,
상기 생성된 번역문 내의 단어 또는 문장에 대한 음성 합성 요청에 따라 오디오 파일을 생성하고 상기 생성된 오디오 파일을 다운로드를 위한 오디오 파일 경로 정보를 생성하는 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 방법.
9. The method of claim 8,
The audio file generation step may include:
Generating an audio file according to a speech synthesis request for a word or a sentence in the generated translation, and generating audio file path information for downloading the generated audio file.
[청구항 11은(는) 설정등록료 납부시 포기되었습니다.][Claim 11 is abandoned upon payment of the registration fee.] 제 10 항에 있어서,
상기 오디오 파일 동기화 단계는,
상기 생성된 번역문 내의 단어 또는 문장에 대한 오디오 파일을 상기 제2 사용자 단말로 전송하거나, 다운로드를 위한 오디오 파일의 경로 정보를 전송하는 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 방법.
11. The method of claim 10,
The audio file synchronization step may comprise:
And transmitting an audio file for a word or a sentence in the generated translation to the second user terminal or transmitting the path information of the audio file for downloading.
[청구항 12은(는) 설정등록료 납부시 포기되었습니다.][12] has been abandoned due to the registration fee. 제 10 항에 있어서,
상기 오디오 파일 경로 정보는,
상기 생성된 번역문의 각 단어 또는 문장들의 오디오 파일 경로 정보이거나, 각 단어 및 문장들을 음성화하는 TTS(Text-To-Speech) 경로 정보인 것을 특징으로 하는 오디오 파일 동기화를 위한 번역 서비스 방법.
11. The method of claim 10,
The audio file path information may include:
To-speech (TTS) path information that is audio file path information of each word or sentence of the generated translation, or TTS (Text-To-Speech) path information that voice each word and sentences.
KR1020110025815A 2011-03-23 2011-03-23 Translation system and method for translation syncronization KR101814431B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110025815A KR101814431B1 (en) 2011-03-23 2011-03-23 Translation system and method for translation syncronization

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110025815A KR101814431B1 (en) 2011-03-23 2011-03-23 Translation system and method for translation syncronization

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020160145390A Division KR101810555B1 (en) 2016-11-02 2016-11-02 Translation system and method for translation syncronization

Publications (2)

Publication Number Publication Date
KR20120108197A KR20120108197A (en) 2012-10-05
KR101814431B1 true KR101814431B1 (en) 2018-01-30

Family

ID=47279834

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110025815A KR101814431B1 (en) 2011-03-23 2011-03-23 Translation system and method for translation syncronization

Country Status (1)

Country Link
KR (1) KR101814431B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102465504B1 (en) * 2020-10-27 2022-11-11 이장우 Digital Audio Book Production System and the Method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002288167A (en) * 2001-01-18 2002-10-04 Kodensha Co Ltd Translation system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002288167A (en) * 2001-01-18 2002-10-04 Kodensha Co Ltd Translation system

Also Published As

Publication number Publication date
KR20120108197A (en) 2012-10-05

Similar Documents

Publication Publication Date Title
US6188985B1 (en) Wireless voice-activated device for control of a processor-based host system
WO2024074099A1 (en) Model training method and apparatus, text processing method and apparatus, device, and storage medium
JP6179971B2 (en) Information providing apparatus and information providing method
JP6095487B2 (en) Question answering apparatus and question answering method
KR101751942B1 (en) Method, Translation Apparatus and Terminal for Providing Meaning of Word of Chinese Language Sentence in Automatic Translation System, and Record Medium Storing Program for Executing The Same
KR101814431B1 (en) Translation system and method for translation syncronization
KR101810555B1 (en) Translation system and method for translation syncronization
CN116415597A (en) Speech translation and simultaneous interpretation method
JP2019053262A (en) Learning system
US8990087B1 (en) Providing text to speech from digital content on an electronic device
KR101501459B1 (en) Translation apparatus and method for providing various style of translatability
Anto et al. Text to speech synthesis system for English to Malayalam translation
JP2010257085A (en) Retrieval device, retrieval method, and retrieval program
KR20040018687A (en) Network synchronization system converting Internet content into TTS data and offering TTS data to personal digital device and method thereof
JP2009086597A (en) Text-to-speech conversion service system and method
KR101853341B1 (en) Apparatus and method for automatic traslation
Pradeep et al. smart IoT assistant for government schemes and policies using natural language processing
Xu et al. Yochina: Mobile multimedia and multimodal crosslingual dialogue system
JP7048141B1 (en) Programs, file generation methods, information processing devices, and information processing systems
KR20120046414A (en) Apparatus and method for providing result of mid-translation processing
KR20120077800A (en) Method, translation apparatus and terminal for providing synonym of word included foreign language sentence in automatic translation system, and record medium storing program for executing the same
WO2013061718A1 (en) Apparatus for providing text data with synthesized voice information and method for providing text data
WO2002099786A1 (en) Method and device for multimodal interactive browsing
JP6613671B2 (en) Information processing device
KR20130125912A (en) System and method for making markup language for searching dictionary

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant