KR20190029238A - Method for interpreting - Google Patents

Method for interpreting Download PDF

Info

Publication number
KR20190029238A
KR20190029238A KR1020170116568A KR20170116568A KR20190029238A KR 20190029238 A KR20190029238 A KR 20190029238A KR 1020170116568 A KR1020170116568 A KR 1020170116568A KR 20170116568 A KR20170116568 A KR 20170116568A KR 20190029238 A KR20190029238 A KR 20190029238A
Authority
KR
South Korea
Prior art keywords
server
user terminal
authentication
translation
interpretation
Prior art date
Application number
KR1020170116568A
Other languages
Korean (ko)
Other versions
KR101999779B1 (en
Inventor
김상철
박기범
Original Assignee
(주)한컴인터프리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)한컴인터프리 filed Critical (주)한컴인터프리
Priority to KR1020170116568A priority Critical patent/KR101999779B1/en
Publication of KR20190029238A publication Critical patent/KR20190029238A/en
Application granted granted Critical
Publication of KR101999779B1 publication Critical patent/KR101999779B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • G06F17/289
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2213/00Indexing scheme relating to interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F2213/0042Universal serial bus [USB]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Security & Cryptography (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computer Hardware Design (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

According to the present invention, an interpretation method comprises the steps of: executing a client program necessary for receiving an interpretation service from a server by a user terminal; connecting the user terminal and the server through a universal serial bus (UBS); granting an access right to the server; and providing the interpretation service to the user terminal by the server. According to the present invention, offline interpretation is possible using the server. In addition, illegal use of the server may be prevented through authentication of a user, the server, and the user terminal.

Description

통역방법{METHOD FOR INTERPRETING}{METHOD FOR INTERPRETING}

본 발명은 통역방법에 관한 것으로, 더욱 상세하게는 인터넷망의 연결 없이 휴대용 서버를 이용하는 통역방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an interpretation method, and more particularly to an interpretation method using a portable server without connection to the Internet.

교통, 통신수단의 발달에 따라 국가 간의 인적, 물적 교류가 활발해져 왔다. 이러한 인적, 물적 교류의 확대에도 불구하고 국가 사이의 이종 언어는 의사소통에 있어서 장벽으로 작용하고 있다.With the development of transportation and communication means, human and material exchanges between countries have become active. Despite the expansion of human and material exchanges, the heterogeneous language between countries is acting as a barrier in communication.

이종 언어로 인한 불편함을 덜어 주기 위해 이종 언어로 된 문자 간의 변환을 번역이라 한다. 그리고 spoken language translation system은 이종 언어의 음성 간의 변환을 의미하는데, 방송뉴스 통역이 이에 해당한다.To reduce the inconvenience caused by heterogeneous languages, the conversion between characters in a heterogeneous language is called translation. And the spoken language translation system refers to the conversion between the voices of different languages, which is the interpretation of broadcast news.

특히 국가 간의 각종 컨퍼런스에서 이종 언어로 인한 대화자 사이의 불편함은 동시통역을 통해 해결되고 있다. 특히 자동통역은 양방향에서 제1 언어의 음성을 제1 언어의 음성으로 변환하는 것이다.Especially, the inconvenience between the speakers of different languages at various conferences between countries is solved through simultaneous interpretation. In particular, the automatic interpretation is to convert the voice of the first language into the voice of the first language in both directions.

과거 동시 통역사들의 전유물이었던 동시통역이 음성인식, 자동번역 및 음성합성의 기술의 발전으로 인해 기계에 의한 자동통역이 이루어지고 있다.Simultaneous interpreting, which was the exclusive use of past simultaneous interpreters, has been made automatic interpreting by machine due to the development of technology of speech recognition, automatic translation and voice synthesis.

자동통역은 제1 언어의 발화를 음성인식, 자동번역 등의 과정을 거쳐서 제2 언어로 변환하고, 이를 자막으로 출력하거나 혹은 음성합성 후 스피커를 통해 들려주는 과정 및 기술을 의미한다.The automatic interpretation means a process and a technique of converting the utterance of the first language into a second language through processes such as speech recognition and automatic translation, outputting it as a subtitle, or reproducing the voice through a speaker after synthesizing the voice.

도 1은 번역 서버를 이용하는 종래의 기술에 따른 통역 시스템(10)에 관한 예시도이다.1 is an exemplary view of a translation system 10 according to the prior art using a translation server.

도 1을 참조하면, 종래의 기술에 따르면 동시통역 시스템(10)을 비롯하여 사용자 단말 형식의 통역장치(11)의 경우, 음성인식과 번역을 위해 유선 또는 무선의 통신망(14), 예를 들어 셀룰러 무선전화 통신망에 연결된 서버(12)와 데이터베이스(130)를 이용하고 있어서, 네트워크에 연결되지 않은 환경, 이를테면 상공을 운행 중인 항공기 기내 또는 외국 현지 관광지에서 휴대용 통역장치가 통역기능을 수행하는데 문제가 발생한다.Referring to FIG. 1, according to the related art, in the case of the interpretation device 11 of the user terminal type including the simultaneous interpretation system 10, a wired or wireless communication network 14 for speech recognition and translation, The server 12 and the database 130 connected to the radiotelephone network are used. Therefore, there is a problem that the portable interpretation device performs the interpretation function in an environment not connected to the network, such as an airplane traveling in the sky or a foreign tourist destination do.

먼저, 선행기술 1, 한국등록특허 제10-1626109호(2016.05.25.)는 통역 장치 및 방법에 관한 기술을 개시한다.First, Prior Art 1 and Korean Patent No. 10-1626109 (May 25, 2016) disclose techniques for interpreting devices and methods.

상기 선행기술 1은, 음성 입력부, 제어부, 통신부, 디스플레이부, 및 사용자로부터 이전에 번역된 문장들에 대한 조작입력을 수신하는 사용자 입력부를 포함한다.The prior art 1 includes a voice input unit, a control unit, a communication unit, a display unit, and a user input unit for receiving operational input on previously translated sentences from the user.

또한, 선행기술 2, 한국등록특허 제10-1747874호(2017.06.09.)는 자동 통역 시스템을 개시하고 있다.Prior Art 2 and Korean Patent No. 10-1747874 (Jun. 19, 2017) disclose an automatic interpretation system.

상기 선행기술 2는, PC, 또는 핸드폰, 스마트폰, PDA, Laptop 등 휴대가 가능한 기기와 통신하거나 직접 자동통역 단말기에 활용되는 자동 통역 시스템에 관한 것으로서, 상기 자동 통역 시스템은, 발화자의 음성 인식용 마이크신호, 골도 마이크 신호 및 발화자의 제스처 신호를 네트워크를 통해 전송하고, 네트워크를 통해 수신된 통역 결과신호를 출력하는 웨어러블 자동 통역 입출력 장치; 및 상기 웨어러블 자동 통역 입출력 장치로부터 네트워크를 통해 전송된 골도 마이크 신호 또는 제스처 신호를 이용하여 상기 음성 인식용 마이크 신호에서 음성 데이터 구간을 검출하고, 검출된 구간 내의 음성 데이터의 음성 인식 및 통역을 수행한 후, 통역 결과신호를 네트워크를 통해 상기 웨어러블 자동 통역 입출력 장치로 전송하는 서버를 포함한다.The prior art 2 relates to an automatic interpretation system for communicating with portable devices such as a PC or a mobile phone, a smart phone, a PDA, a laptop, or the like, or used for a direct automatic interpretation terminal, A wearable automatic interpretation input / output device for transmitting a microphone signal, a bone-cord microphone signal and a gesture signal of a speaking person through a network and outputting an interpretation result signal received through a network; And a voice recognition section for detecting voice data sections in the voice recognition microphone signal by using a bone-cord microphone signal or a gesture signal transmitted through the network from the wearable automatic interpretation input / output device and performing voice recognition and interpretation of voice data in the detected section And a server for transmitting an interpretation result signal to the wearable automatic interpretation input / output apparatus via a network.

또한, 선행기술 3, 한국등록특허 제10-1589433호(2016.01.22.)는 동시통역 시스템을 개시하고 있다.Prior Art 3 and Korean Patent No. 10-1589433 (Jan. 22, 2016) disclose a simultaneous interpretation system.

상기 선행기술 3은, 동시통역 시스템에 있어서, 음성을 입력 및 출력시키는 적어도 둘 이상의 헤드셋 및 해당 헤드셋으로부터 출력된 피통역 음성 언어를 입력받아 상기 피통역 음성 언어가 통역된 통역 음성 언어를 지정된 타 헤드셋으로 출력하는 휴대용 단말기를 포함하는 동시통역 시스템을 사용함으로써, 하나의 휴대용 단말기를 매개로 한 사용자들 간의 근거리 통신을 이용하여 동시통역을 수행하게 하여 보다 효율적이고 자유로운 대화를 가능하게 한다.In the simultaneous interpretation system described in the prior art 3, at least two or more headsets for inputting and outputting a voice and an interpreter voice language output from the headset are input, and an interpreter voice language in which the interpreter voice language is interpreted is designated as a designated headset The simultaneous interpretation system using short-distance communication between users via one portable terminal enables simultaneous interpretation, thereby enabling more efficient and free conversation.

그런데 상기 선행기술 1은 제1 언어의 번역할 문장을 번역 서버로 전송하고, 번역 서버로부터 제2 언어의 번역된 문장을 수신하는 통신부를 포함하고 있는데, 이를 근거로 온라인에서 서버가 번역을 담당하고 있는 것을 알 수 있다.The prior art 1 includes a communication unit that transmits a sentence to be translated in the first language to the translation server and receives a translated sentence of the second language from the translation server. Based on this, .

또한, 상기 선행기술 2는 상기 음성 마이크로부터 제공되는 사용자 음성 신호와, 골도 마이크로부터 제공되는 사용자 골도 신호 및 모션 센서로부터 제공되는 사용자 행동(제스처) 감지 신호를 수신하여, 상기 제1 서버로 음성 인식을 위한 신호로서 전송하고, 상기 제1 서버로부터 전송되는 음성 인식 결과 정보를 상기 다수의 제2~n 서버로 전송하거나, 상기 제2~n 서버로부터 전송되는 통역 결과 정보를 출력 제어하는 통신 모듈을 포함하고 있는데, 이를 근거로 온라인에서 서버가 음성인식 및 통역을 수행함을 알 수 있다.In addition, the prior art 2 receives a user's voice signal provided from the voice microphone, a user's golfer signal provided from a bone-cord microphone, and a user's action (gesture) detection signal provided from a motion sensor, And transmitting the voice recognition result information transmitted from the first server to the second to n-th servers or outputting the interpretation result information transmitted from the second to n-th servers, Based on this, it can be seen that the server performs speech recognition and interpretation on-line.

또한, 선행기술 3의 제어부는 제1 언어의 음성을 제2 언어의 음성으로 변환하는 통역 서버를 이용하여, 제1 언어의 음성을 기반으로 변환된 제2 언어의 음성을 획득하는데, 이를 근거로 온라인 통역 서버를 이용함을 알 수 있다.The control unit of the prior art 3 acquires the voice of the second language converted based on the voice of the first language by using an interpretation server for converting the voice of the first language into voice of the second language, It can be seen that the online interpretation server is used.

본 발명의 실시 예에 따른 통역장치 및 그 방법은, 운항중인 항공기 기내 및 외국 현지 여행지와 같이 인터넷 환경이 조성되어 있지 상황에서 네트워크상의 통역 서버의 이용 없이 동시통역이 가능하게 하는 기술에 관한 것으로 상기 살펴본 선행기술과 구별되는 기술로서 상기 문제점을 해결하기 위한 것이다.The interpreter apparatus and method according to the embodiment of the present invention relate to a technique that enables simultaneous interpretation without using an interpretation server on a network in a situation where an internet environment such as an airplane in flight or a foreign local travel destination is not established, The present invention is intended to solve the above problems as a technique different from the prior art that has been examined.

본 발명은 상기와 같은 문제점을 해결하기 위해 창작된 것으로서, 휴대용 서버를 이용하는 통역방법을 제공하는 것을 목적으로 한다.It is an object of the present invention to provide an interpretation method using a portable server, which is created to solve the above problems.

또한, 원격의 네트워크 환경이 조성되지 않은 환경에서 통역이 가능한 통역방법을 제공하는 것을 목적으로 한다.Another object of the present invention is to provide an interpretation method capable of interpretation in an environment where a remote network environment is not established.

또한, 음성인식 및 번역에 관한 DB가 저장된 고용량의 메모리를 포함하는 휴대용 서버를 이용하여 신뢰도 높은 결과를 신속히 출력할 수 있는 통역장치 및 그 방법을 제공하는 것을 목적으로 한다.It is another object of the present invention to provide an interpretation apparatus and method which can quickly output a reliable result by using a portable server including a memory of a high capacity which stores a DB relating to speech recognition and translation.

본 발명의 일 실시 예에 따른 통역방법은, 사용자 단말이 서버로부터 통역 서비스를 제공받기 위해 필요한 클라이언트 프로그램이 실행되는 단계; 상기 서버가 상기 사용자 단말을 범용직렬버스(Universal Serial Bus, USB)를 통해 연결하는 단계; 상기 서버로의 접근(Access) 권한이 부여되는 단계; 및 상기 서버가 통역 서비스를 상기 사용자 단말에 제공하는 단계를 포함하는 것을 특징으로 한다.An interpretation method according to an embodiment of the present invention includes: executing a client program necessary for a user terminal to receive an interpretation service from a server; Connecting the user terminal to the server through a universal serial bus (USB); Granting an access right to the server; And providing the interpretation service to the user terminal by the server.

여기서, 상기 통역방법은, 상기 사용자 단말에 상기 클라이언트 프로그램을 설치하는 단계를 더 포함하는 것을 특징으로 한다.Here, the interpretation method may further include installing the client program in the user terminal.

여기서, 상기 통역방법은, 상기 통역 서비스의 메뉴를 설정하는 단계를 더 포함하는 것을 특징으로 한다.Here, the interpretation method may further comprise setting a menu of the interpretation service.

여기서, 상기 접근(access) 권한이 부여되는 단계는, 사용자 등록 및 인증을 받는 단계를 포함하는 것을 특징으로 한다.Herein, the step of granting the access right includes a step of receiving user registration and authentication.

여기서, 상기 접근(access) 권한이 부여되는 단계는, 상기 서버 등록 및 인증을 받는 단계를 더 포함하는 것을 특징으로 한다.Here, the step of granting the access right may further include receiving the server registration and authentication.

여기서, 상기 접근(access) 권한이 부여되는 단계는, 상기 사용자 단말 등록 및 인증하는 단계를 포함하는 것을 특징으로 한다.Here, the step of granting the access right may include registering and authenticating the user terminal.

여기서, 상기 사용자 단말은 적어도 하나 이상 한정된 범위에서 복수로도 등록이 가능한 것을 특징으로 한다.Herein, the user terminal can be registered in a plurality of at least one within a limited range.

여기서, 상기 사용자, 서버 및 사용자 단말의 등록 및 인증은 온라인 인증이 가능하고, 상기 서버 및 사용자 단말의 인증은 상기 클라이언트 프로그램에 의한 오프라인 인증도 가능한 것을 특징으로 한다.Here, the registration and authentication of the user, the server, and the user terminal can be performed online, and the authentication of the server and the user terminal can be performed by the client program.

여기서, 상기 서버의 등록 및 인증은, 상기 서버가 제공할 수 있는 서비스 별로 가능한 것을 특징으로 한다.Here, the registration and authentication of the server can be performed for each service that the server can provide.

여기서, 상기 서비스는 유료 또는 무료로 더 추가될 수 있는 것을 특징으로 한다.Here, the service may be added for a fee or free of charge.

여기서, 상기 서버의 인증은, 상기 서버가 포함하는 쓰기 방지된 하드웨어 칩에 저장된 고유의 식별인자를 이용하는 것을 특징으로 한다.Here, authentication of the server uses a unique identification factor stored in a write-protected hardware chip included in the server.

여기서, 상기 서버 및 사용자 단말의 인증은, 상기 서버에 저장된 제1 식별 인자와 상기 사용자 단말에 저장된 제2 식별인자의 상호 매치 여부를 이용하는 것을 특징으로 한다.Here, the authentication of the server and the user terminal is performed by using a match between the first identification factor stored in the server and the second identification factor stored in the user terminal.

여기서, 상기 사용자 단말의 등록 및 인증은, 상기 사용자 단말의 MAC 주소(Media Access Control Address)를 이용하는 것을 특징으로 한다.Herein, the registration and authentication of the user terminal uses a MAC address (Media Access Control Address) of the user terminal.

여기서, 상기 서버는, 음성인식 엔진, 번역 엔진, 음성인식 DB 및 번역 DB를 포함하고 있는 것을 특징으로 한다.Here, the server includes a speech recognition engine, a translation engine, a speech recognition DB, and a translation DB.

여기서, 상기 음성인식 DB는, 딥 러닝의 알고리즘을 이용하여 다양한 발화로 인한 음성을 학습시키고 발화 내용의 빈도수에 따라 인식 범위를 축소 또는 확대시켜 구축된 DB인 것을 특징으로 한다.Here, the speech recognition DB is a DB constructed by learning speech by various utterances using a deep learning algorithm and reducing or enlarging the recognition range according to the frequency of uttered contents.

여기서, 상기 번역 DB는, 딥 러닝의 알고리즘을 이용하여 다양한 번역 예를 학습시키고, 번역 예의 빈도수에 따라 구어체 표현을 확대하고, 문어체 표현을 축소시켜 구축된 DB인 것을 특징으로 한다.Here, the translation DB is a DB constructed by learning various translation examples using an algorithm of deep learning, expanding colloquial expressions according to the frequency of translation examples, and reducing the expression of the written language.

여기서, 상기 음성인식 엔진 또는 번역 엔진은, 상기 빈도수가 고려되지 않은 DB 대비 저용량의 음성인식 DB 또는 번역 DB를 이용하는 것을 특징으로 한다.Here, the speech recognition engine or the translation engine uses a low-capacity speech recognition DB or a translation DB compared to the DB in which the frequency is not taken into consideration.

여기서, 상기 클라이언트 프로그램을 설치하는 단계는, 상기 서버가 저장하고 있는 설치될 클라이언트 프로그램을 이용하는 것을 특징으로 한다.Here, the step of installing the client program is characterized by using a client program to be installed stored in the server.

도 1은 번역 서버를 이용하는 종래의 기술에 따른 통역 시스템에 관한 예시도이다.
도 2는 본 발명의 실시 예에 따른 통역방법이 수행되는 서버와 사용자 단말의 예시도이다.
도 3은 본 발명의 일 실시 예에 따른 서버의 블록도이다.
도 4는 본 발명의 일 실시 예에 따른 사용자 단말의 블록도이다.
도 5는 본 발명의 일 실시 예에 따른 통역방법의 흐름도이다.
도 6은 본 발명의 일 실시 예에 따른 온라인 인증에 대한 예시도이다.
도 7은 본 발명의 일 실시 예에 따른 오프라인 인증에 대한 예시도이다.
BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 is an illustration of an interpretation system according to prior art using a translation server.
2 is an exemplary diagram of a server and a user terminal on which an interpretation method according to an embodiment of the present invention is performed.
3 is a block diagram of a server in accordance with an embodiment of the present invention.
4 is a block diagram of a user terminal in accordance with an embodiment of the present invention.
5 is a flowchart of an interpretation method according to an embodiment of the present invention.
6 is an exemplary diagram for online authentication according to an embodiment of the present invention.
Figure 7 is an illustration of an offline authentication in accordance with an embodiment of the present invention.

이하, 첨부한 도면을 참조하여 본 발명의 통역방법에 대한 바람직한 실시 예를 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. 또한, 본 발명의 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는 것이 바람직하다.Hereinafter, preferred embodiments of the interpretation method of the present invention will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements. It is also to be understood that the structural and functional descriptions that are specific to embodiments of the present invention are presented for purposes of describing embodiments of the present invention only and that, unless otherwise defined, all technical and scientific terms used herein, including technical and scientific terms, The terms have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as ideal or overly formal in the sense of the art unless explicitly defined herein .

이하 본 발명의 실시 예에 따른 통역방법에 대해 설명하기로 한다.Hereinafter, an interpretation method according to an embodiment of the present invention will be described.

도 2는 본 발명의 실시 예에 따른 통역방법이 수행되는 서버와 사용자 단말의 예시도이다.2 is an exemplary diagram of a server and a user terminal on which an interpretation method according to an embodiment of the present invention is performed.

도 2를 참조하면, 본 발명의 실시 예에 따른 통역방법은 서버(100)와 이와 연결된 사용자 단말을 통해서 수행된다.Referring to FIG. 2, an interpretation method according to an embodiment of the present invention is performed through the server 100 and a user terminal connected thereto.

서버(100)는 저장 모듈로서 통역 서비스를 제공하는 데 필요한 각종 디지털 데이터를 저장하고 있다.The server 100 stores various kinds of digital data necessary for providing an interpretation service as a storage module.

도 3은 본 발명의 일 실시 예에 따른 서버의 블록도이다.3 is a block diagram of a server in accordance with an embodiment of the present invention.

도 3을 참조하면, 서버(100)는 음성인식 엔진(110), 번역 엔진(120), 음성인식 DB(130), 번역 DB(140), TTS 엔지(150), 클라이언트 프로그램(160), 시스템 파일(170) 및 인증서(180)를 포함한다.3, the server 100 includes a speech recognition engine 110, a translation engine 120, a speech recognition DB 130, a translation DB 140, a TTS engine 150, a client program 160, A file 170 and a certificate 180.

구체적으로 서버(100)는 메모리 모듈 형태로서 USB 단자와 본체를 포함하고, 본체는 하우징을 포함하고, 그 내부에는 PCB 기판에 회로 및 메모리 칩이 실장되어 있다. 그리고 상기 메모리 칩에는 상기 구성요소인 음성인식 엔지(110) 내지 인증서(180)가 저장되어 있다.Specifically, the server 100 includes a USB terminal and a main body in the form of a memory module, the main body includes a housing, and a circuit and a memory chip are mounted on the PCB substrate. The memory chip stores the components of the voice recognition engine 110 or the certificate 180.

도 3에 개시된 서버(100)는 메모리 모듈 형태의 휴대용 서버(Portable Server)에 해당하는 것을 특징으로 한다. 그리고 서버(100)는 후술될 사용자 단말(200)에 해당하는 클라이언트에 통역 서비스를 제공하는데, 통역에 필요한 엔진 및 핵심 DB를 포함하고 있어서 통역장치(100)로 지칭할 수 있다.The server 100 shown in FIG. 3 corresponds to a portable server in the form of a memory module. The server 100 provides an interpreter service to a client corresponding to the user terminal 200, which will be described later, and includes an engine and a core DB necessary for interpreting, and can be referred to as an interpreter 100. [

음성인식 엔진(110)은, 발화자의 음성을 녹음하고, 그 녹음된 데이터를 이용하여 음성인식을 수행한다. 음성인식 엔진(110)은 발화자의 입으로부터 나온 음성신호를 자동으로 인식하여 문자열로 변환해 주는 과정을 수행한다. 음성인식 엔진의 다른 명칭은 ASR(Automatic Speech Recognition), Voice Recognition 또는 STT(Speech-to-Text)이다.The speech recognition engine 110 records the voice of a speaking person and performs voice recognition using the recorded data. The speech recognition engine 110 automatically recognizes the speech signal from the mouth of the speaker and converts the speech signal into a character string. Another name for the speech recognition engine is ASR (Automatic Speech Recognition), Voice Recognition or STT (Speech-to-Text).

음성인식 엔진(110)은 확률통계 방식에 기반할 수 있다. 즉 음성인식 엔진(110)은 음성인식 과정에서 사용되는 음향모델(Acoustic Model, AM), 언어모델(Language Model, LM)로서 확률통계에 기반한 모델을 사용한다. 그리고 핵심 알고리즘인 HMM(Hidden Markov Model)도 역시 확률통계에 기반할 수 있다. 상기의 모델들은 예시에 해당되며, 본 발명을 한정하려는 것은 아니다.The speech recognition engine 110 may be based on a probability statistic. That is, the speech recognition engine 110 uses a probability model based on an acoustic model (AM) and a language model (LM) used in speech recognition. And the key algorithm, HMM (Hidden Markov Model), can also be based on probability statistics. The above models are examples and do not limit the present invention.

음향모델로서 GMM(Gaussian Mixture Model)이, 언어모델로서 N-gram이 사용될 수 있다. 더 나아가, GMM 대신에 딥 러닝(Deep Learning) 아키텍처 중의 하나인 DNN(Deep Neural Network)이 사용되는 것도 바람직하다. 그리고 음성인식의 성능을 높이기 위해 양질의 음성모델 및 언어모델이 설정되고, 설정된 모델들은 딥 러닝 알고리즘에 의해 학습될 수 있다. 학습에 필요한 학습 DB는 구어체, 대화체의 음성 및 언어 DB를 포함하고 있을 것이 바람직하다.GMM (Gaussian Mixture Model) can be used as an acoustic model, and N-gram can be used as a language model. Furthermore, it is also desirable to use a Deep Neural Network (DNN), which is one of the Deep Learning architectures instead of the GMM. In order to improve speech recognition performance, a good speech model and a language model are set, and the set models can be learned by a deep learning algorithm. It is desirable that the learning DB necessary for learning includes a spoken and dialogue voice and a language DB.

본 발명의 일 실시 예에 따른, 음성인식 DB(130)는, 딥 러닝의 알고리즘을 이용하여 다양한 발화로 인한 음성을 학습시키고 발화 내용의 빈도수에 따라 인식 범위를 축소 또는 확대시켜 구축된 DB인 것을 특징으로 한다. 즉 빈도수가 높은 발화 내용을 인식시키기 위해서는 DB 양을 상대적으로 늘리고, 빈도수가 낮은 발화 내용을 인식시키기 위해서는 DB 양을 대폭 줄이는 것이다.The speech recognition DB 130 according to an exemplary embodiment of the present invention is a DB constructed by learning speech by various utterances using an algorithm of deep learning and reducing or enlarging the recognition range according to the frequency of speech contents . That is, in order to recognize the contents of the utterance having a high frequency, it is necessary to increase the DB amount relatively and reduce the amount of DB to recognize the contents of the utterance with a low frequency.

완성도 높은 음성인식률을 얻기 위해서는 음성인식 DB의 양이 많을수록 유리하나, 시간의 지연 및 과부하의 문제점이 있기 마련인데, 상기 방법에 따르면 DB 전체량을 줄임으로써 저용량의 DB를 구축하는 것이 가능하다.In order to obtain a high-quality speech recognition rate, the larger the amount of the speech recognition DB is, the more advantageous it is, but the time delay and the overload are problematic. According to the above method, it is possible to construct a low-capacity DB by reducing the total amount of the DB.

또한, 번역 DB에 대해서도, 상기 방법과 마찬가지로, 딥 러닝의 알고리즘을 이용하여 다양한 번역 예를 학습시키고, 번역 예의 빈도수에 따라 구어체 표현을 확대하고, 문어체 표현을 축소시켜 DB를 구축할 수 있다.Also in the translation DB, as in the above method, various translation examples can be learned by using the deep learning algorithm, a colloquial expression can be expanded according to the frequency of translation examples, and a DB can be constructed by reducing the language expression.

따라서 본 발명에 따른 음성인식 엔진(110)과 번역 엔진(120)은, 빈도수를 고려하지 않고 구축된 DB 대비, 저용량의 음성인식 DB 또는 번역 DB를 이용할 수 있다.Therefore, the speech recognition engine 110 and the translation engine 120 according to the present invention can use a low-capacity speech recognition DB or a translation DB compared to the DB constructed without considering the frequency.

번역 엔진(120)은 음성인식 엔진(110)에 의해 인식된 출발어(Source Language)로 발화된 발화자의 음성이 텍스트로 출력되면, 출력된 텍스트를 도착어(Target Language)의 문자로 번역한다. 본 발명의 일 실시 예에 따른 통역장치(100)는 음성인식 엔진(110)과 함께 번역 엔진(120)도 자체 포함하고 있는 것을 특징으로 한다.The translation engine 120 translates the output text into characters of the target language when the speech of the speaking person uttered in the source language recognized by the speech recognition engine 110 is output as text. The interpretation apparatus 100 according to an embodiment of the present invention is characterized by including the translation engine 120 in addition to the speech recognition engine 110. [

번역 엔진(120)이 수행하는 번역의 방식은 규칙에 기반한 방법, 말뭉치에 기반한 방법 및 인공신경망번역(Neural Machine Translation, NMT) 중에서 적어도 하나를 포함한다.The translation method performed by the translation engine 120 includes at least one of a rule-based method, a corpus-based method, and a neural machine translation (NMT).

규칙에 기반한 방법은 분석 깊이에 따라 다시 직접 번역방식이나 간접 변환방식, 중간 언어방식으로 나뉜다.Rules-based methods are divided into direct translation, indirect conversion, and intermediate language depending on the depth of analysis.

말뭉치에 기반한 방법으로 예제 기반 방법과 통계기반 방법이 있다.A corpus-based method is an example-based method and a statistical-based method.

통계 기반 자동번역(Stochastic Machine Translation, SMT) 기술은 통계적 분석을 통해 이중언어 말뭉치로부터 모델 파라미터를 학습하여 문장을 번역하는 기술이다. 문법이나 의미표상을 개발할 때 수작업으로 하지 않고 번역하고자 하는 언어 쌍에 대한 말뭉치로부터 번역에 필요한 모델을 만든다. 그래서 말뭉치만 확보할 수 있다면 비교적 용이하게 언어 확장을 할 수 있다.Stochastic Machine Translation (SMT) technology is a technique of translating sentences by learning model parameters from bilingual corpus through statistical analysis. When developing a grammar or semantic representation, we make a model for translation from the corpus of language pairs that we want to translate rather than by hand. Therefore, if we can secure only a corpus, we can expand the language relatively easily.

통계 기반 자동번역 기술의 단점은, 대규모의 이중언어 말뭉치가 필요하고, 다수의 언어들을 연결하는 공통된 의미표상이 없다는 것이다.A disadvantage of statistical-based automatic translation technology is that large bilingual corpus is required and there is no common semantic representation linking multiple languages.

이러한 단점을 보완하기 위한 기술이 인공신경망 번역(Neural Machine Translation, NMT)이다.Neural Machine Translation (NMT) is a technique to overcome these drawbacks.

SMT는 문장을 단어 또는 몇 개의 단어가 모인 구 단위로 쪼갠 뒤 통계적 모델에 기반해 번역하는 방식이다. 방대한 학습 데이터를 바탕으로 통계적 번역 규칙을 모델링하는 게 핵심이다.SMT is a method of translating sentences based on a statistical model after breaking a word or a group of words into phrases. The key is to model statistical translation rules based on massive learning data.

이와 달리 NMT는 인공지능(AI)이 문장을 통째로 번역한다. 문장 단위 번역이 가능한 이유는 인공신경망이 문장 정보를 가상공간의 특정 지점을 의미하는 벡터(좌표값)로 변환하기 때문이다.On the other hand, NMT translates sentences as a whole through artificial intelligence (AI). This is because the artificial neural network converts the sentence information into a vector (coordinate value) which means a specific point in the virtual space.

가령 '사람'이란 단어를 '[a, b, c, …, x, z]' 형태로 인식한다. 벡터에는 단어, 구절, 어순 등의 정보가 전부 들어있기 때문에 문맥을 이해한 문장 단위 번역이 가능하다. 인공신경망은 비슷한 의미를 담은 문장들을 서로 가까운 공간에 배치한다.For example, the word 'person' is' [a, b, c, ... , x, z] '. Since the vector contains all the information such as words, phrases, and word order, it is possible to translate sentence units that understand the context. Artificial neural networks place sentences with similar meanings close to each other.

NMT 기술에서 고차원의 벡터가 활용된다. 출발어의 문장과 도착어의 문장으로 이루어진 학습 데이터를 활용하여 인공신경망을 학습시키고, 학습된 인공신경망은 문장 정보를 벡터로 인식하게 된다.Higher order vectors are utilized in the NMT technique. The artificial neural network is learned by using the learning data consisting of the sentence of the source language and the sentence of the destination language, and the learned artificial neural network recognizes the sentence information as a vector.

TTS 엔진(150)은 번역 엔진(110)의 번역에 따라 발화자의 음성에 대응하는 합성 음성을 출력한다. 이를 위해 TTS 엔진(150)은 음성인식 결과인 텍스트를 TTS 데이터로 변환하고, TTS 데이터를 재생하고, 그 결과는 스피커나 헤드셋 또는 이어셋으로 출력된다.The TTS engine 150 outputs the synthesized voice corresponding to the voice of the speaker according to the translation of the translation engine 110. [ To this end, the TTS engine 150 converts the text, which is the speech recognition result, into TTS data, reproduces the TTS data, and outputs the result as a speaker, a headset, or an earpiece.

TTS(Text-to-speech)는 음성합성이며 Voice Synthesis라고도 불린다. 음성합성의 방법으로 음편조합방식이 사용될 수 있다. 음편조합방식은, 문장 분석, 분석 결과에 따른 음편을 음편 DB에서 추출, 이를 이어 붙인다. 여러 후보들의 합성음이 생성되고, 운율 및 매끄러움을 고려하여 가장 적합한 것이 채택된다. 더욱이 발화자 음성의 사운드 스펙트럼을 이용하여 발화자의 음색을 결정하고, 합성음을 음색에 맞도록 후처리함으로써 원발화자의 음색에 가까운 합성음이 출력될 수 있다. 또한, 발화자의 감정이 인지되고, 인지된 감정이 합성음에 실릴 수도 있다.Text-to-speech (TTS) is speech synthesis and is also called Voice Synthesis. As a method of voice synthesis, a music composition method can be used. In the combination method, sentences are extracted from the score database according to the analysis and analysis results. The synthesized sounds of the various candidates are generated, and the most suitable one is adopted in consideration of the rhythm and smoothness. Further, the sound spectrum of the speaker's voice is used to determine the tone color of the speaker, and the synthesized sound is post-processed so as to match the tone color, so that a synthesized sound close to the tone of the original speaker can be output. In addition, the emotion of the speaker may be perceived, and the perceived emotion may be displayed in the synthesized sound.

음성인식 DB(130) 및 번역 DB(140) 각각은 음성인식 엔진(110) 및 번역 엔진(120)의 소스로 이용된다.Each of the speech recognition DB 130 and the translation DB 140 is used as a source of the speech recognition engine 110 and the translation engine 120.

클라이언트 프로그램(160)은 서버(100)와 연결되어 통역 서비스를 수행하는 사용자 단말(200)에 설치될 파일을 의미한다. 또한, 사용자 단말(200)은 온라인에서 파일 서버에 접속하여 클라이언트 프로그램을 다운로드하여 사용할 수도 있다.The client program 160 refers to a file to be installed in the user terminal 200 connected to the server 100 and performing an interpretation service. Also, the user terminal 200 may access the file server on-line and download and use the client program.

시스템 파일(170)은 그 밖의 파일로서, 서버(100)와 사용자 단말(200)의 연결 및 통역 서비스 제공에 필요한 파일들이다.The system file 170 is another file that is necessary for connection between the server 100 and the user terminal 200 and provision of an interpretation service.

인증서(180)는 서버(100)의 인증을 위해 인증서버(300)에 의해 발급되거나 서버(100)의 제조 단계에서 메모리에 저장될 수 있다. 서버(100)에 양산된 제품에 주어지는 제품번호가 할당되는 것도 보편적이다.The certificate 180 may be issued by the authentication server 300 for authentication of the server 100 or may be stored in memory at the manufacturing stage of the server 100. [ It is also common that the server 100 is assigned a product number assigned to the mass produced product.

다음으로 서버(100)가 연결하는 사용자 단말(200)에 대해 설명하기로 한다. 아래 설명은 예시적인 것으로서 아래 설명에 의해 서버(100)의 구성 및 기능이 한정되는 것은 아니다.Next, the user terminal 200 connected to the server 100 will be described. The following description is exemplary, and the configuration and function of the server 100 are not limited by the following description.

도 4는 본 발명의 일 실시 예에 따른 사용자 단말의 블록도이다.4 is a block diagram of a user terminal in accordance with an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시 예에 따른 서버(100)가 연결하는 사용자 단말(200)은 통신부(210), 디스플레이(220), 저장부(230), 입력부(240), 출력부(250), 전원부(260) 및 제어부(270)를 포함한다.4, a user terminal 200 connected to a server 100 according to an embodiment of the present invention includes a communication unit 210, a display 220, a storage unit 230, an input unit 240, A controller 250, a power supply 260, and a controller 270.

사용자 단말(200)의 다양한 실시 예들은 셀룰러 전화기, 무선 통신 기능을 가지는 스마트폰, 무선 통신 기능을 가지는 개인 휴대용 단말기(PDA), 무선 모뎀, 무선 통신 기능을 가지는 휴대용 컴퓨터, 무선 통신 기능을 가지는 디지털 카메라와 같은 촬영장치, 무선 통신 기능을 가지는 게이밍 (gaming) 장치, 무선 통신 기능을 가지는 음악저장 및 재생 가전제품, 무선 인터넷 접속 및 브라우징이 가능한 인터넷 가전제품뿐만 아니라 그러한 기능들의 조합들을 통합하고 있는 휴대형 유닛 또는 단말기들을 포함할 수 있으나, 이에 한정되는 것은 아니다.Various embodiments of the user terminal 200 may include a cellular telephone, a smartphone having wireless communication capabilities, a personal digital assistant (PDA) having wireless communication capabilities, a wireless modem, a portable computer having wireless communication capabilities, a digital Gaming devices with wireless communication, music storage and playback appliances with wireless communication capabilities, Internet appliances capable of wireless Internet access and browsing, as well as portable devices incorporating such combinations of functions Units or terminals, but is not limited thereto.

통신부(210)는, 통신망(14)의 각종 통신망에 대응하는 통신 모듈, 예를 들어 블루투스 모듈, WiFi 모듈, 이더넷, USB 모듈, 셀룰러 무선통신 모듈을 포함할 수 있으나, 본 발명에 따른 실시 예에서는 USB 모듈과 같은 유선통신부와 블루투스 모듈, 지그비 모듈, NFC 모듈과 같은 근거리 통신 모듈을 포함하는 것이 가장 바람직하다.The communication unit 210 may include a communication module corresponding to various communication networks of the communication network 14, for example, a Bluetooth module, a WiFi module, an Ethernet, a USB module, and a cellular wireless communication module. It is most preferable to include a wired communication unit such as a USB module and a short-range communication module such as a Bluetooth module, a Zigbee module, and an NFC module.

디스플레이(220)는 LCD 디스플레이, LED 디스플레이와 같이 화소로 이루어진 화면을 보여주는 장치에 해당한다.The display 220 corresponds to a device for displaying a screen composed of pixels such as an LCD display and an LED display.

저장부(230)는 서버(100)와 연결하여 통역 서비스를 제공하기 위해 필요한 클라이언트 프로그램을 저장할 수 있다. 여기서 저장부(230)는 휘발성의 RAM 및 비휘발성의 ROM, 플래시 메모리를 포함하고, 그 기능에 따라 각종 디지털 파일을 저장한다. 특히 TTS 엔진(150)은 서버(100) 측에 저장되지 않고 사용자 단말(200) 측에 저장될 수도 있다.The storage unit 230 may store a client program required to provide an interpretation service in connection with the server 100. [ The storage unit 230 includes a volatile RAM, a non-volatile ROM, and a flash memory, and stores various digital files according to the functions thereof. In particular, the TTS engine 150 may not be stored on the server 100 side but may be stored on the user terminal 200 side.

입력부(240)는 각종 파라미터 설정을 위한 키보드, 터치스크린 및 마우스를 포함한다.The input unit 240 includes a keyboard, a touch screen, and a mouse for setting various parameters.

출력부(250)는 스피커, 헤드셋 및 이어셋을 포함한다. 특히 마이크로폰과 일체로 형성된 헤드셋과 이어셋은 핸즈프리 동시통역에 있어서 유용한 기능성을 갖는다.The output unit 250 includes a speaker, a headset, and an earset. Especially, the headset and earset formed integrally with the microphone have useful functionality in hands-free simultaneous interpretation.

전원부(260)는 전력 소스 및 전력 소스의 충전 및/또는 방전을 위한 충방전 장치를 포함한다. 전력 소스로는 배터리가 사용될 수 있다. 그리고 배터리는 충방전 장치에 의해 충전 및 방전이 되고, 방전된 전력은 사용자 단말(200)의 구동에 에너지원으로 작용한다.The power supply unit 260 includes a power source and a charge / discharge device for charging and / or discharging the power source. A battery can be used as a power source. The battery is charged and discharged by the charge / discharge device, and the discharged power acts as an energy source for driving the user terminal 200.

제어부(270)는 하드웨어적으로는 중앙처리장치에 해당하는 CPU(Central Processing Unit)로 구현될 수 있으며, 구체적으로는 서버(100)와 연결되어 통역 서비스를 제공하기 위해 필요한 저장부(230)에 로딩된 클라이언트 프로그램 및 이 상태에서 연산 작용을 하는 상기 CPU를 통합하는 개념이다.The control unit 270 may be implemented as a CPU (Central Processing Unit) corresponding to a central processing unit in terms of hardware. Specifically, the control unit 270 may be connected to the server 100 and stored in a storage unit 230 Is a concept of integrating the loaded client program and the CPU operating in this state.

제어부(270)는 사용자, 사용자 단말(200) 및 서버(100)의 인증에 따라 권한이 부여된 후, 서버(100)에 접근할 수 있다.The control unit 270 can access the server 100 after being authorized according to the authentication of the user, the user terminal 200, and the server 100.

이하 본 발명의 일 실시 예에 따른 통역방법에 대해 설명하기로 한다.Hereinafter, an interpretation method according to an embodiment of the present invention will be described.

본 발명의 일 실시 예에 따른 통역방법은, 서버(100)의 핵심 데이터 제공에 따라 서버(100) 및 사용자 단말(200)에 의해 수행됨을 특징으로 한다.The interpretation method according to an embodiment of the present invention is performed by the server 100 and the user terminal 200 according to the provision of core data of the server 100. [

도 5는 본 발명의 일 실시 예에 따른 통역방법의 흐름도이다.5 is a flowchart of an interpretation method according to an embodiment of the present invention.

도 5를 참조하면, 상기 통역방법은, 상기 사용자 단말에 상기 클라이언트 프로그램을 설치하는 단계(S110); 사용자 단말이 서버로부터 통역 서비스를 제공받기 위해 필요한 클라이언트 프로그램이 실행되는 단계(S120); 서버(100)가 사용자 단말(200)을 범용직렬버스(Universal Serial Bus, USB)를 통해 연결하는 단계(S130); 상기 통역 서비스의 메뉴를 설정하는 단계(S140); 상기 서버로의 접근(Access) 권한이 부여되는 단계(S150); 및 상기 서버가 통역 서비스를 상기 사용자 단말에 제공하는 단계(S160)를 포함하는 것을 특징으로 한다.Referring to FIG. 5, the interpretation method may include: installing the client program in the user terminal (S110); A step (S120) in which a client program necessary for the user terminal to receive the interpretation service from the server is executed; Connecting the server 100 to the user terminal 200 through a universal serial bus (USB) (S130); Setting a menu of the interpretation service (S140); A step (S150) of granting an access right to the server; And the server providing the interpretation service to the user terminal (S160).

여기서, S130 단계는 S110 단계 또는 S120 단계 이전에 와도 상관없다. 그리고 S140 단계도 클라이언트 프로그램이 사용자 단말(200)에 설치되었다면 S120 단계 이후에 온다면, S150 이후에 오더라도 상관없다.Here, the step S130 may be performed before the step S110 or the step S120. If the client program is installed in the user terminal 200, step S140 may be performed after step S150 if it comes after step S120.

이하 서버(100) 접근에 권한이 부여되는 단계에 대해 자세히 설명하기로 한다.Hereinafter, the steps of authorizing access to the server 100 will be described in detail.

도 6은 본 발명의 일 실시 예에 따른 온라인 인증에 대한 예시도이다.6 is an exemplary diagram for online authentication according to an embodiment of the present invention.

도 6을 참조하면, 서버로의 접근(Access) 권한이 부여되는 단계(S150)는 사용자 등록 후의 사용자 인증 과정, 서버 등록 후의 서버 인증 과정 및 사용자 단말(200) 등록 후의 사용자 단말 인증 과정을 포함한다. 상기 인증들은 온라인 상에서 가능하다. 즉 서버(100)가 사용자 단말(200)에 연결된 상태에서 사용자 단말(200)과 인증 서버(300)는 통신망(14)을 통해 연결되고, 이러한 온라인 상태에서 각 객체에 대한 인증이 수행될 수 있다.Referring to FIG. 6, a step of granting an access right to a server (S150) includes a user authentication process after user registration, a server authentication process after server registration, and a user terminal authentication process after registering the user terminal 200 . The certifications are available online. That is, in a state where the server 100 is connected to the user terminal 200, the user terminal 200 and the authentication server 300 are connected through the communication network 14, and authentication can be performed for each object in the online state .

온라인에서 사용자 등록 및 인증은, 사용자의 ID 및 패스워드의 등록 후의 로그인에 의해 수행될 수 있다.User registration and authentication on-line can be performed by login after registration of the user's ID and password.

온라인에서 서버(100) 등록 및 인증은, 사용자가 구입한 제품인 서버(100)를 등록 및 이에 대한 인증을 받는 것이다.Registration and authentication of the server 100 on-line is registration and authentication of the server 100, which is a product purchased by the user.

여기서, 서버(100)의 등록 및 인증은, 서버(100)가 제공할 수 있는 서비스별로 가능하다. 예를 들어, 서버(100)가 한국어-영어 간의 통역이 가능한 엔진 및 DB(제1 서비스)와 한국어-일본어 간의 통역이 가능한 엔진 및 DB(제2 서비스)를 포함하고 있다면, 서버(100)는 제1 서비스 및 제2 서비스에 대해 따로 등록 및 인증을 받아야 한다. 여기서, 서비스는 유료 또는 무료로 더 추가될 수 있는 것을 특징으로 한다.Here, the registration and authentication of the server 100 can be performed for each service that the server 100 can provide. For example, if the server 100 includes an engine and DB (first service) capable of interpreting between Korean and English, and an engine and DB (second service) capable of interpreting between Korean and Japanese, The first service and the second service must be separately registered and authenticated. Here, the service is characterized in that it can be further added with a fee or free of charge.

서버(100)의 인증은, 서버(100)가 포함하는 쓰기 방지된 하드웨어 칩에 저장된 고유의 식별인자를 이용하는 것을 특징으로 한다. 구체적으로, 서버(100)가 포함하고 있는 PCB 기판에 실장된 메모리 칩에 대해 쓰기 방지되어 있고, 서버(100)의 제조 단계에서 메모리 칩에 서버(100)의 고유 제품번호 또는 이에 대응하는 고유의 식별인자가 저장되어 있고, 저장되어 있는 식별인자가 인증 서버(300)에 의해 판독됨으로써 서버(100)에 대한 인증이 수행될 수 있다.Authentication of the server 100 is characterized by using a unique identification factor stored in a write-protected hardware chip included in the server 100. [ Specifically, the memory chip mounted on the PCB 100 included in the server 100 is write-protected. In the manufacturing stage of the server 100, the unique number of the server 100 or a corresponding unique Authentication with respect to the server 100 can be performed by having the identification factor stored and the stored identification factor being read by the authentication server 300. [

온라인에서 사용자 단말(200) 등록 및 인증은, 서버(100)가 연결되어 통역 서비스를 제공할 사용자 단말(200)을 등록하고 인증받는 것을 의미한다. 이는 서버(100) 제품이 사용자에 의해 구입된 후, 복제되어 사용되는 것을 방지하기 위함이다.Registration and authentication of the user terminal 200 on-line means that the server 100 is connected to register and authenticate the user terminal 200 to provide the interpretation service. This is to prevent the server 100 product from being copied and used after it is purchased by the user.

여기서, 사용자 단말(200)의 등록 및 인증은, 사용자 단말(200)의 MAC 주소(Media Access Control Address)를 이용하는 것을 특징으로 한다. MAC 주소는 네트워크 상에 IP를 갖는 객체가 갖는 고유의 값을 의미한다. 인증 서버(300)는 MAC 주소를 이용하여 사용자 단말(200)의 종류, 기종 등을 파악할 수 있다.Here, the registration and authentication of the user terminal 200 is characterized by using the MAC address (Media Access Control Address) of the user terminal 200. The MAC address is a unique value of an object having IP on the network. The authentication server 300 can identify the type and model of the user terminal 200 using the MAC address.

추가적으로 사용자 단말(200)은 적어도 하나 이상 한정된 범위에서 복수로도 등록이 가능하다. 예를 들면, 네트워크에 연결된 집에 있는 PC 와 직장에 있는 PC 그리고 무선 통신장치인 사용자 단말(200)을 등록함으로써 사용자는 3개의 장치마다 서버(100)를 연결시켜 사용할 수 있다.In addition, a plurality of user terminals 200 can be registered in at least one limited range. For example, the user can connect the server 100 to each of the three devices by registering the PC in the home connected to the network, the PC in the workplace, and the user terminal 200, which is a wireless communication device.

또한, 서버(100) 및 사용자 단말(200)에 대한 인증에 있어서, 서버(100)에 저장된 제1 식별인자와 사용자 단말(200)에 저장된 제2 식별인자가 상호 매치되는지 여부를 이용하여 서버(100)와 사용자 단말(200)을 동시에 인증할 수 있다.The authentication of the server 100 and the user terminal 200 may be performed by using the first identification factor stored in the server 100 and the second identification factor stored in the user terminal 200, 100 and the user terminal 200 at the same time.

여기서, 제1 식별인자는 상기 설명과 같이 제조 단계에서 저장되는 식별인자이고, 제2 식별인자는 사용자 단말(200)이 온라인 등록시에 인증 서버(300)로부터 부여 받은 식별인자로서 제1 식별인자와 매치되도록 생성된 것이다. Here, the first identification factor is the identification factor stored in the manufacturing step as described above, and the second identification factor is the identification factor given from the authentication server 300 at the time of online registration of the user terminal 200, It is created to match.

도 7은 본 발명의 일 실시 예에 따른 오프라인 인증에 대한 예시도이다.Figure 7 is an illustration of an offline authentication in accordance with an embodiment of the present invention.

도 7을 참조하면, 서버(100) 및 사용자 단말(200)의 인증은 클라이언트 프로그램에 의한 오프라인 인증도 가능하다.Referring to FIG. 7, the authentication of the server 100 and the user terminal 200 may be performed by the client program in an offline manner.

본 발명의 특징 중의 하나가 오프라인 통역방법이다. 오프라인에서 서버(100)와 사용자 단말(200)만이 연결되고, 사용자 단말(200)이 외부 네트워크에 연결되지 않은 경우, 오프라인 인증이 가능하도록 통역방법이 구성될 수 있다.One of the features of the present invention is an off-line interpretation method. When only the server 100 and the user terminal 200 are connected offline and the user terminal 200 is not connected to the external network, the interpretation method can be configured to enable offline authentication.

사용자 단말(20)에 설치된 클라이언트 프로그램이 저장부(230)에 로딩된 상태에서 제어부(270)는 사용자 단말(200)과 연결된 서버(100)에 대한 인증과 사용자에 대한 인증을 수행할 수 있다.The control unit 270 may perform authentication of the server 100 connected to the user terminal 200 and authentication of the user while the client program installed in the user terminal 20 is loaded in the storage unit 230. [

구체적으로 사용자 인증은 로그인에 의해 해결되고, 서버(100)에 대한 인증은, 상기 설명된 식별자를 이용하거나 제1 식별자와 제2 식별자의 매치를 이용하여 수행될 수 있다. Specifically, the user authentication is solved by login, and authentication for the server 100 can be performed using the above-described identifier or using a match of the first identifier and the second identifier.

한편으로, 클라이언트 프로그램을 설치하는 단계는, 서버(100)가 저장하고 있는 설치될 클라이언트 프로그램을 이용할 수 있다. 서버(100)를 사용자 단말(200)에 연결하는 경우, 상기 클라이언트 프로그램이 자동 인스톨되도록 설정될 수도 있다.On the other hand, in the step of installing the client program, the client program to be installed, which is stored in the server 100, can be used. When the server 100 is connected to the user terminal 200, the client program may be automatically installed.

종합적으로, 본 발명의 일 실시 예에 따른 통역방법은, 무선통신 환경이 조성되지 않은 상황에서 휴대용 서버(100)를 이용하여 통역을 수행하는 방법으로서, 사용자, 사용자 단말(200) 및 서버(100) 측면에서 다각도의 인증을 통해 정당한 사용자에게 권한을 부여하여 서버(100)의 불법 사용을 방지하기 위한 방법을 포함한다.In general, the interpretation method according to an embodiment of the present invention is a method for performing interpretation using the portable server 100 in a situation where a wireless communication environment is not established, and includes a user, a user terminal 200 and a server 100 The method includes a method for preventing unauthorized use of the server 100 by granting authority to a legitimate user through multi-angle authentication.

이상으로 본 발명은 도면에 도시된 실시 예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 특허청구범위에 의해서 판단되어야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, I will understand the point. Accordingly, the technical scope of the present invention should be determined by the following claims.

11: 사용자 단말 12: 통역 서버
13: 데이터베이스 14: 통신망
100: 서버 110: 음성인식 모듈
120: 번역 모듈 130: 음성인식 DB
140: 번역 DB 150: TTS 엔진
160: 클라이언트 프로그램 170: 시스템 파일
180: 인증서 200: 사용자 단말
210: 통신부 220: 디스플레이부
230: 저장부 240: 입력부
250: 출력부 260: 전원부
270: 제어부 300: 인증 서버
11: user terminal 12: interpretation server
13: Database 14: Network
100: server 110: voice recognition module
120: translation module 130: speech recognition DB
140: translation DB 150: TTS engine
160: Client program 170: System file
180: certificate 200: user terminal
210: communication unit 220:
230: storage unit 240: input unit
250: output unit 260: power supply unit
270: control unit 300: authentication server

Claims (18)

사용자 단말이 서버로부터 통역 서비스를 제공받기 위해 필요한 클라이언트 프로그램이 실행되는 단계;
상기 서버가 상기 사용자 단말을 범용직렬버스(Universal Serial Bus, USB)를 통해 연결하는 단계;
상기 서버로의 접근(Access) 권한이 부여되는 단계; 및
상기 서버가 통역 서비스를 상기 사용자 단말에 제공하는 단계를 포함하는 것을 특징으로 하는, 통역방법.
Executing a client program necessary for a user terminal to receive an interpretation service from a server;
Connecting the user terminal to the server through a universal serial bus (USB);
Granting an access right to the server; And
And the server providing an interpretation service to the user terminal.
청구항 1에 있어서,
상기 사용자 단말에 상기 클라이언트 프로그램을 설치하는 단계를 더 포함하는 것을 특징으로 하는, 통역방법.
The method according to claim 1,
Further comprising the step of installing the client program in the user terminal.
청구항 2에 있어서,
상기 통역 서비스의 메뉴를 설정하는 단계를 더 포함하는 것을 특징으로 하는, 통역방법.
The method of claim 2,
Further comprising setting a menu of the interpretation service.
청구항 1에 있어서,
상기 접근(access) 권한이 부여되는 단계는,
사용자 등록 및 인증을 받는 단계를 포함하는 것을 특징으로 하는, 통역방법.
The method according to claim 1,
Wherein the granting of the access right comprises:
And receiving user registration and authentication.
청구항 4에 있어서,
상기 접근(access) 권한이 부여되는 단계는,
상기 서버 등록 및 인증을 받는 단계를 더 포함하는 것을 특징으로 하는, 통역방법.
The method of claim 4,
Wherein the granting of the access right comprises:
Further comprising receiving the server registration and authentication.
청구항 5에 있어서,
상기 접근(access) 권한이 부여되는 단계는,
상기 사용자 단말 등록 및 인증하는 단계를 더 포함하는 것을 특징으로 하는, 통역방법.
The method of claim 5,
Wherein the granting of the access right comprises:
Further comprising registering and authenticating the user terminal.
청구항 6에 있어서,
상기 사용자 단말은 적어도 하나 이상 한정된 범위에서 복수로도 등록이 가능한 것을 특징으로 하는, 통역방법.
The method of claim 6,
Wherein the user terminal can register a plurality of user terminals in a limited range.
청구항 6에 있어서,
상기 사용자, 서버 및 사용자 단말의 등록 및 인증은 온라인 인증이 가능하고,
상기 서버 및 사용자 단말의 인증은 상기 클라이언트 프로그램에 의한 오프라인 인증도 가능한 것을 특징으로 하는, 통역방법.
The method of claim 6,
The registration and authentication of the user, the server, and the user terminal can be performed online,
Wherein the authentication of the server and the user terminal is also capable of offline authentication by the client program.
청구항 5에 있어서,
상기 서버의 등록 및 인증은,
상기 서버가 제공할 수 있는 서비스 별로 가능한 것을 특징으로 하는, 통역방법.
The method of claim 5,
The registration and authentication of the server includes:
Wherein the server is provided for each service that can be provided by the server.
청구항 9에 있어서,
상기 서비스는 유료 또는 무료로 더 추가될 수 있는 것을 특징으로 하는, 통역방법.
The method of claim 9,
Wherein said service can be added for a fee or free of charge.
청구항 8에 있어서,
상기 서버의 인증은,
상기 서버가 포함하는 쓰기 방지된 하드웨어 칩에 저장된 고유의 식별인자를 이용하는 것을 특징으로 하는, 통역방법.
The method of claim 8,
The authentication of the server,
Characterized by using a unique identification factor stored in a write-protected hardware chip included in the server.
청구항 8에 있어서,
상기 서버 및 사용자 단말의 인증은,
상기 서버에 저장된 제1 식별인자와 상기 사용자 단말에 저장된 제2 식별인자의 상호 매치 여부를 이용하는 것을 특징으로 하는, 통역방법.
The method of claim 8,
The authentication of the server and the user terminal,
Wherein whether the first identification factor stored in the server and the second identification factor stored in the user terminal match each other is used.
청구항 8에 있어서,
상기 사용자 단말의 등록 및 인증은,
상기 사용자 단말의 MAC 주소(Media Access Control Address)를 이용하는 것을 특징으로 하는, 통역방법.
The method of claim 8,
Wherein the registration and authentication of the user terminal comprises:
Wherein a MAC address (Media Access Control Address) of the user terminal is used.
청구항 1에 있어서,
상기 서버는,
음성인식 엔진, 번역 엔진, 음성인식 DB 및 번역 DB를 포함하고 있는 것을 특징으로 하는, 통역방법.
The method according to claim 1,
The server comprises:
A speech recognition engine, a translation engine, a speech recognition DB, and a translation DB.
청구항 14에 있어서,
상기 음성인식 DB는,
딥 러닝의 알고리즘을 이용하여 다양한 발화로 인한 음성을 학습시키고 발화 내용의 빈도수에 따라 인식 범위를 축소 또는 확대시켜 구축된 DB인 것을 특징으로 하는, 통역방법.
15. The method of claim 14,
The speech recognition DB includes:
Wherein the DB is constructed by learning speech due to various utterances using an algorithm of deep learning and reducing or enlarging the recognition range according to the frequency of utterance contents.
청구항 14에 있어서,
상기 번역 DB는,
딥 러닝의 알고리즘을 이용하여 다양한 번역 예를 학습시키고, 번역 예의 빈도수에 따라 구어체 표현을 확대하고, 문어체 표현을 축소시켜 구축된 DB인 것을 특징으로 하는, 통역방법.
15. The method of claim 14,
The translation DB,
Wherein the DB is constructed by learning various translation examples using an algorithm of deep learning, expanding colloquial expressions according to the frequency of translation examples, and reducing the expression of the written language.
청구항 15 또는 16에 있어서,
상기 음성인식 엔진 또는 번역 엔진은,
상기 빈도수가 고려되지 않은 DB 대비 저용량의 음성인식 DB 또는 번역 DB를 이용하는 것을 특징으로 하는, 통역방법.
16. The method according to claim 15 or 16,
The speech recognition engine or translation engine,
Wherein a voice recognition DB or a translation DB of a lower capacity than the DB in which the frequency is not taken into account is used.
청구항 1에 있어서,
상기 클라이언트 프로그램을 설치하는 단계는,
상기 서버가 저장하고 있는 설치될 클라이언트 프로그램을 이용하는 것을 특징으로 하는, 통역방법.
The method according to claim 1,
Wherein the installing the client program comprises:
And the client program to be installed, which is stored in the server, is used.
KR1020170116568A 2017-09-12 2017-09-12 Method for interpreting KR101999779B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170116568A KR101999779B1 (en) 2017-09-12 2017-09-12 Method for interpreting

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170116568A KR101999779B1 (en) 2017-09-12 2017-09-12 Method for interpreting

Publications (2)

Publication Number Publication Date
KR20190029238A true KR20190029238A (en) 2019-03-20
KR101999779B1 KR101999779B1 (en) 2019-10-21

Family

ID=66036347

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170116568A KR101999779B1 (en) 2017-09-12 2017-09-12 Method for interpreting

Country Status (1)

Country Link
KR (1) KR101999779B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070062510A (en) * 2004-09-15 2007-06-15 악살토 에스.에이. Wireless usb network adapter with smart card
KR20080101835A (en) * 2008-10-06 2008-11-21 주식회사 비즈모델라인 Method for operating application(or data) for smart card
KR101517975B1 (en) * 2013-11-29 2015-05-06 유한회사 청텍 Earphone apparatus with synchronous interpretating and translating function
KR20160006682A (en) * 2013-05-13 2016-01-19 페이스북, 인크. Hybrid, offline/online speech translation system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070062510A (en) * 2004-09-15 2007-06-15 악살토 에스.에이. Wireless usb network adapter with smart card
KR20080101835A (en) * 2008-10-06 2008-11-21 주식회사 비즈모델라인 Method for operating application(or data) for smart card
KR20160006682A (en) * 2013-05-13 2016-01-19 페이스북, 인크. Hybrid, offline/online speech translation system
KR101517975B1 (en) * 2013-11-29 2015-05-06 유한회사 청텍 Earphone apparatus with synchronous interpretating and translating function

Also Published As

Publication number Publication date
KR101999779B1 (en) 2019-10-21

Similar Documents

Publication Publication Date Title
US11514886B2 (en) Emotion classification information-based text-to-speech (TTS) method and apparatus
CN110288077B (en) Method and related device for synthesizing speaking expression based on artificial intelligence
CN111261144B (en) Voice recognition method, device, terminal and storage medium
KR102108500B1 (en) Supporting Method And System For communication Service, and Electronic Device supporting the same
CN112099628A (en) VR interaction method and device based on artificial intelligence, computer equipment and medium
CN108242236A (en) Dialog process device and its vehicle and dialog process method
KR20170033722A (en) Apparatus and method for processing user's locution, and dialog management apparatus
CN109801618B (en) Audio information generation method and device
KR20190029237A (en) Apparatus for interpreting and method thereof
JP2015512062A (en) Name pronunciation system and method
CN110827826B (en) Method for converting words by voice and electronic equipment
KR102585231B1 (en) Speech signal processing mehtod for speaker recognition and electric apparatus thereof
KR20160056734A (en) Image Displaying Apparatus, Driving Method of Image Displaying Apparatus, and Computer Readable Recording Medium
KR102312993B1 (en) Method and apparatus for implementing interactive message using artificial neural network
JP6625772B2 (en) Search method and electronic device using the same
US10866948B2 (en) Address book management apparatus using speech recognition, vehicle, system and method thereof
KR101959439B1 (en) Method for interpreting
KR20200057501A (en) ELECTRONIC APPARATUS AND WiFi CONNECTING METHOD THEREOF
KR102056329B1 (en) Method for interpreting
KR100367579B1 (en) Internet utilization system using voice
KR20210042520A (en) An electronic apparatus and Method for controlling the electronic apparatus thereof
KR101999779B1 (en) Method for interpreting
KR102170684B1 (en) System for interpreting and translating using smart clothes
US12002475B2 (en) Electronic device performing speaker recognition and control method thereof
KR102631143B1 (en) Voice synthesizer using artificial intelligence, operating method of voice synthesizer and computer redable recording medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)