KR101061782B1 - Portable interpreter system - Google Patents

Portable interpreter system Download PDF

Info

Publication number
KR101061782B1
KR101061782B1 KR1020080072177A KR20080072177A KR101061782B1 KR 101061782 B1 KR101061782 B1 KR 101061782B1 KR 1020080072177 A KR1020080072177 A KR 1020080072177A KR 20080072177 A KR20080072177 A KR 20080072177A KR 101061782 B1 KR101061782 B1 KR 101061782B1
Authority
KR
South Korea
Prior art keywords
language
database
unit
signal
audio
Prior art date
Application number
KR1020080072177A
Other languages
Korean (ko)
Other versions
KR20100011113A (en
Inventor
윤성원
조욱
Original Assignee
(주)이젠커뮤니케이션즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)이젠커뮤니케이션즈 filed Critical (주)이젠커뮤니케이션즈
Priority to KR1020080072177A priority Critical patent/KR101061782B1/en
Publication of KR20100011113A publication Critical patent/KR20100011113A/en
Application granted granted Critical
Publication of KR101061782B1 publication Critical patent/KR101061782B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 지정된 제 1언어와 제 2언어를 인식하여 쌍방향으로 통역하여 음원으로 재생 출력시키는 휴대용 통역 시스템에 관한 것으로 특히, 사용자의 필요성과 화법에 맞추어 사용자가 손쉽게 제 1언어와 제 2언어 간의 통역을 위한 데이터베이스를 구현할 수 있도록 회화교육용 오디오 음원데이터를 기준으로 제 1언어와 제 2언어를 분리한 후 이를 매칭 관계에 따라 데이터베이스로 구축하고 실질적인 통역 시점에서는 유입되는 음성신호들 중 최대 레벨을 갖는 음성신호를 기준으로 인식되는 해당 언어의 유사성이 최대치에 해당하는 언어를 구축되어있는 데이터베이스에서 억세스 한 후 대응하는 상대 언어로 통역하도록 하는 휴대용 통역 시스템에 관한 것이다.

Figure R1020080072177

회화, 교육용, 오디오, 음원데이터, 통역, 휴대

The present invention relates to a portable interpretation system for recognizing a designated first language and a second language and translating them bidirectionally and reproducing and outputting them as a sound source. The first language and the second language are separated based on audio sound source data for conversational education so that the database can be implemented and then built into a database according to the matching relationship. It relates to a portable interpretation system that allows a language corresponding to a signal to be recognized based on a signal to be interpreted in a corresponding partner language after being accessed from a database in which a language corresponding to the maximum value is established.

Figure R1020080072177

Conversation, Educational, Audio, Sound Source Data, Interpreter, Mobile

Description

휴대용 통역 시스템{portable interpreting system} Portable interpreting system

본 발명은 지정된 제 1언어와 제 2언어를 인식하여 쌍방향으로 통역하여 음원으로 재생 출력시키는 휴대용 통역 시스템에 관한 것으로 특히, 사용자의 필요성과 화법에 맞추어 사용자가 손쉽게 제 1언어와 제 2언어 간의 통역을 위한 데이터베이스를 구현할 수 있도록 회화용 MP3 음원데이터를 기준으로 제 1언어와 제 2언어를 분리한 후 이를 매칭 관계에 따라 데이터베이스로 구축하고 실질적인 통역 시점에서는 유입되는 음성신호들 중 최대 레벨을 갖는 음성신호를 기준으로 인식되는 해당 언어의 유사성이 최대치에 해당하는 언어를 구축되어있는 데이터베이스에서 억세스 한 후 대응하는 상대 언어로 통역하도록 하는 휴대용 통역 시스템에 관한 것이다.The present invention relates to a portable interpretation system for recognizing a designated first language and a second language and translating them bidirectionally and reproducing them as a sound source. In particular, the user can easily translate between the first language and the second language according to the user's needs and speech methods. The first language and the second language are separated based on the MP3 sound source data for conversation so that the database can be implemented. It relates to a portable interpretation system that allows a language corresponding to a signal to be recognized based on a signal to be interpreted in a corresponding partner language after being accessed from a database in which a language corresponding to the maximum value is established.

일반적으로, 최근 국제화 시대에 적응하기 위해 외국어 교육이 국내외에서 활성화되고 있으나, 모국어를 제외하고 회화 가능한 수준의 외국어를 2~3개 이상 배우는 데는 많은 시간과 노력이 필요 할 뿐만 아니라 더욱이 단기간 내 복수의 외국어를 학습하는 경우는 외국어간의 혼동이 발생하는 등 언어적인 한계가 있었다.In general, foreign language education is active at home and abroad in order to adapt to the era of internationalization recently, but it takes much time and effort to learn more than two or three foreign languages that can be spoken, except for the mother tongue. When learning a foreign language, there was a linguistic limitation, such as confusion between foreign languages.

이에 따라 자국어를 외국어로 통역한다거나 외국어를 자국어로 통역하는 시스템이 활발히 연구 개발이 이루어지고 있는 데, 현재 이러한 통역 시스템은 컴퓨터 기반의 소프트웨어 형태로 많은 연구개발이 이루어지고 있으며, 또한 인터넷 기반의 휴대용 단말기 형태로 많은 연구 개발이 이루어지고 있다.As a result, a system for translating a native language into a foreign language or translating a foreign language into a native language is being actively researched and developed. Currently, such a translator system is being conducted in a computer-based software form. A lot of research and development is taking place.

그러나 종래의 인터넷 기반의 휴대용 통역 시스템은 인터넷 접속에 따른 실시간 처리가 어렵다는 문제점이 발생되었고 더욱이, 종래의 컴퓨터 기반의 통역 시스템은 비싼 컴퓨터라는 하드웨어를 필요로 하고 있기 때문에, 가격면이나 크기면에서 볼 때 실생활에 적용하기에는 매우 한정적이라는 문제점이 있었다.However, the conventional internet-based portable interpreter system has a problem that it is difficult to process in real time according to the Internet access. Moreover, since the conventional computer-based interpreter system requires hardware such as expensive computer, it can be seen in terms of price and size. At that time, there was a problem that it was very limited to apply in real life.

또한, 종래의 통역 시스템은 화자 종속형으로서 사용자의 음성 패턴에 민감할 뿐만 아니라 외부 잡음에도 민감하다는 문제점이 있었다.In addition, the conventional interpretation system has a problem of being sensitive to external noise as well as sensitive to the voice pattern of the user as a speaker dependent.

상술한 바와 다른 통역 서비스 제공방식으로, 전화나 휴대전화기를 통해 제3자인 통역사와 연결한 후에 통역사가 통역하는 경우에는 통역사에게 지불되는 비용이나 통화 비용이 소요되므로 거의 활성화되지 않고 있는 실정이다.According to a different interpretation service providing method as described above, when an interpreter interprets after connecting to an interpreter which is a third party through a telephone or a mobile phone, the cost to be paid to the interpreter or the cost of the call is hardly activated.

더욱이 상술한 문제점을 해소하기 위해 제안되어진 다수의 선행기술들이 제안되어 휴대용 통역 시스템의 실현가능성이 높아지고 있으나, 모든 선행기술들이 통역과 번역에 관련한 문법이나 단어의 활용과 운영의 흐름 개선에 그 주안점을 맞추고 있는 실정이라 사용자의 편의와 화법을 고려하지 못하는 문제점이 발생되었다.Moreover, although a number of prior arts proposed to solve the above problems have been proposed, the practicality of portable interpretation system is increasing, but all prior arts focus on the use of grammar or words related to interpretation and translation and improvement of operation flow. Since the situation is to fit the user's convenience and speech does not take into account.

예를 들어 ‘Have a good time’이란 문장은 ‘좋은 시간 가지세요[되세요]’라는 형식의 정형화된 격식의 말이기도 하지만 편한 관계에서는 ‘즐겁게 지네(요)’라는 표현으로도 사용된다.For example, the sentence ‘Have a good time’ is a formalized form of ‘Have a good time.’

이때 통역을 위한 데이터베이스내의 대응 관계가 「Have a good time ↔ 좋은 시간 되세요」 라는 형식이라면, 「즐겁게 지네」라는 화자의 말은 「Have a good time」이란 통역으로 이루어지지 않게 된다.At this time, if the correspondence in the database for interpretation is in the form of "Have a good time ↔ have a good time", the words "Have a good time" will not be interpreted as "Have a good time".

따라서 천편일률적으로 제작자에 의해 구축되어진 통역을 위한 데이터베이스는 사용자에 따라서는 기기가 정상 동작이라 하더라도, 통역을 위한 기본적인 조건에 위배되어 정상적인 통역이 이루어지지 않음으로 신뢰성이 저하되는 문제점이 발생됨과 동시에 사용자의 불편이 가중되는 문제점이 발생되었다.Therefore, the database for interpretation that is built by the producers is uniformly violated depending on the user, even if the device is in normal operation. The problem of aggravation of the problem occurred.

상술한 문제점을 해소하기 위한 본 발명의 목적은 지정된 제 1언어와 제 2언어를 인식하여 쌍방향으로 통역하여 음원으로 재생 출력시키는 휴대용 통역 시스템에 관한 것으로 특히, 사용자의 필요성과 화법에 맞추어 사용자가 손쉽게 제 1언어와 제 2언어 간의 통역을 위한 데이터베이스를 구현할 수 있도록 회화용 MP3 음원데이터를 기준으로 제 1언어와 제 2언어를 분리한 후 이를 매칭 관계에 따라 데이터베이스로 구축하고 실질적인 통역 시점에서는 유입되는 음성신호들 중 최대 레벨을 갖는 음성신호를 기준으로 인식되는 해당 언어의 유사성이 최대치에 해당하는 언어를 구축되어있는 데이터베이스에서 억세스 한 후 대응하는 상대 언어로 통역하도록 하는 휴대용 통역 시스템을 제공하는 데 있다.An object of the present invention for solving the above problems relates to a portable interpretation system for recognizing a designated first language and a second language and interpreting bidirectionally to reproduce the output as a sound source. In order to implement a database for interpreting between the first language and the second language, the first language and the second language are separated based on the MP3 sound source data for conversation, and then the database is constructed according to a matching relationship. It is to provide a portable interpretation system that allows a language corresponding to the maximum of the voice signals recognized based on the voice signal having the maximum level to be interpreted in a corresponding partner language after accessing the language corresponding to the maximum value from the database. .

상기와 같은 목적을 달성하기 위한 본 발명에 따른 휴대용 통역 시스템의 특징은, 마이크를 통해 입력된 아날로그 방식의 오디오 신호 중 통역해야하는 대상의 음성신호를 추출하여 출력하는 음성 인식부와; 통역을 위한 데이터베이스의 구축을 위한 소스 데이터를 입력받는 소스입력부와; 상기 소스입력부를 통해 유입되는 소스데이터에서 제 1언어와 제 2언어를 분리한 후 각 언어간의 매칭 관계를 설정하는 데이터베이스 구축기준 제공부와; 상기 데이터베이스 구축기준 제공부에서 분리되는 데이터가 저장되는 데이터베이스와; 상기 데이터베이스 구축기준 제공부에서 설정되는 각 언어간의 매칭 관계에 따른 정보를 기준으로 상기 데이터베이스에 저장되는 제 1언어와 제 2언어의 저장 공간을 할당하며 이에 따른 정보를 기준으로 요청된 정보를 억세스하는 데이터베이스 관리부와; 상기 음성 인식부에서 출력되어진 신호를 상기 데이터베이스에 저장되어진 양식의 디지털 신호로 변환하여 상기 데이터베이스 관리부에 인가함으로써 상기 데이터베이스에 저장되어진 대응관계의 정보를 억세스하도록 요청하는 통역 요청 언어 인식부; 및 사용자에 의해 선택되어진 통역 데이터베이스 구축을 위한 소스의 유입과정을 상기 소스입력부를 통해 제어하며 상기 데이터베이스 관리부를 통해 데이터베이스에 저장되는 통역용 정보를 관리하도록 제어하는 시스템 제어부를 포함하는 데 있다.Features of the portable interpretation system according to the present invention for achieving the above object, the voice recognition unit for extracting and outputting the voice signal of the target to be interpreted from the analog audio signal input through the microphone; A source input unit which receives source data for constructing a database for interpretation; A database construction reference providing unit for separating a first language and a second language from the source data introduced through the source input unit and setting a matching relationship between the languages; A database storing data separated by the database building reference providing unit; Allocating a storage space of the first language and the second language stored in the database based on the information according to the matching relationship between the languages set by the database construction reference providing unit and accessing the requested information based on the information A database manager; An interpreter request language recognition unit for converting the signal output from the speech recognition unit into a digital signal stored in the database and applying the information to the database manager to access the corresponding relation information stored in the database; And a system controller for controlling an inflow process of a source for building an interpreter database selected by a user through the source input unit, and managing interpreter information stored in a database through the database manager.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 휴대용 통역 시스템의 부가적인 특징은, 상기 데이터베이스 관리부에서 출력되는 정보를 스피커를 통해 외부로 표출하기 위해 음향정보로 변환하여 출력하는 통역정보 출력부를 더 포함하는 데 있 다.Additional features of the portable interpreter system according to the present invention for achieving the above object, further comprises an interpreter information output unit for converting the information output from the database management unit to the sound information to express to the outside through the speaker; It is.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 휴대용 통역 시스템의 부가적인 다른 특징으로, 상기 음성 인식부는 마이크를 통해 입력되는 주위환경의 소음과 각종의 오디오 신호에서 인간의 육성에 대응하는 주파수 대역의 음성신호를 추출하여 출력하는 음성신호 추출부와; 상기 음성신호 추출부에서 출력되는 신호를 입력받아 최대 볼륨을 갖는 음성신호를 추출하여 출력하는 최적 오디오 추출부를 포함하는 데 있다.As another additional feature of the portable interpretation system according to the present invention for achieving the above object, the voice recognition unit of the frequency band corresponding to the human development in the noise of the environment and various audio signals input through the microphone A voice signal extraction unit for extracting and outputting a voice signal; And an optimum audio extraction unit configured to receive a signal output from the voice signal extraction unit and extract and output a voice signal having a maximum volume.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 휴대용 통역 시스템의 부가적인 또 다른 특징으로, 상기 음성신호 추출부는 밴드패스 필터 및 노이즈 제거필터 등의 각종의 주파수 필터를 통해 구현되는 데 있다.In addition to another feature of the portable interpretation system according to the present invention for achieving the above object, the voice signal extraction unit is implemented through a variety of frequency filters, such as a bandpass filter and noise removal filter.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 휴대용 통역 시스템의 부가적인 또 다른 특징으로, 상기 최적 오디오 추출부는 상기 음성신호 추출부에서 추출되는 인간의 육성신호에서 음색에 따른 스펙트럼의 볼륨이 최대인 음색을 갖는 신호를 추출하는 데 있다.In another additional aspect of the portable interpretation system according to the present invention for achieving the above object, the optimum audio extraction unit is the maximum volume of the spectrum according to the tone in the human growth signal extracted from the voice signal extraction unit It is to extract the signal having a tone.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 휴대용 통역 시스템의 부가적인 또 다른 특징으로, 상기 소스입력부는 플래시 메모리 카드가 안착되는 구조를 가지며, 회화학습 오디오 자료인 디지털 소스 데이터를 사용자에 의해 변경 가능하도록 하기 위한 저장 공간을 제공하는 디지털 오디오 소스 저장부와; 외부의 PC와 데이터 통신을 통해 회화학습 오디오 디지털 자료를 수신하기 위한 인터페이스; 및 상기 디지털 오디오 소스 저장부 혹은 인터페이스에서 출력되는 오디오자료를 상기 시스템 제어부의 제어신호에 따라 선택적으로 상기 데이터베이스 구축기준 제공부에 제공하기 위한 소스결정부로 구성되는 데 있다.As another additional feature of the portable interpretation system according to the present invention for achieving the above object, the source input unit has a structure in which a flash memory card is seated, and the digital source data, which is conversational learning audio material, is changed by the user. A digital audio source storage unit for providing storage space for making it possible; An interface for receiving conversational learning digital audio data through data communication with an external PC; And a source determination unit for selectively providing the audio data output from the digital audio source storage unit or interface according to a control signal of the system control unit.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 휴대용 통역 시스템의 부가적인 또 다른 특징으로, 상기 디지털 오디오 소스 저장부에 저장되는 회화학습 오디오 자료의 유형은 MP3를 포함하여 일반적인 PC상에서 재생 가능한 오디오 유형을 모두 포함하는 데 있다.As another additional feature of the portable interpretation system according to the present invention for achieving the above object, the type of conversational learning audio material stored in the digital audio source storage unit is an audio type that can be played on a general PC including MP3. It's all inclusive.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 휴대용 통역 시스템의 부가적인 또 다른 특징으로, 상기 데이터베이스 구축기준 제공부는 순차적으로 제 1언어와 제 2언어가 교번적으로 교차하며 문장이나 구문이 재생되는 회화학습 오디오 자료에서 제 1언어와 제 2언어를 인식한 후 이를 분리하여 출력하는 언어 인식 분리부와; 상기 언어 인식 분리부에서 분리되어 출력되는 제 1언어와 제 2언어에 따른 문장이나 구문에 특정의 테그를 부여하여 통역을 위해 제 1언어 혹은 제 2언어를 기준으로 그에 대응하는 상대 언어를 억세스 할 수 있도록 대응관계의 언어에 매칭 관계를 부여하는 분리언어 매칭 관계 설정부를 포함하는 데 있다.As another additional feature of the portable interpreter system according to the present invention for achieving the above object, the database construction reference providing unit sequentially alternates the first language and the second language, the sentence or phrase is reproduced A language recognition separating unit for recognizing the first language and the second language from the conversational learning audio material and outputting the separated first language; By assigning a specific tag to a sentence or phrase according to the first language and the second language which are separated and output from the language recognition separation unit, the corresponding language can be accessed based on the first language or the second language for interpretation. It is to include a separate language matching relationship setting unit for giving a matching relationship to the language of the correspondence.

상술한 본 발명에 따른 특징으로 인해 기대되는 효과로는, 간단한 외국어 회화를 통역하는데 있어 회화학습용 디지털 음원데이터(MP3)를 사용자의 필요성과 화법에 맞추어 변경함에 따라 통역을 위한 제 1언어와 제 2언어를 손쉽게 변경가능하며, 실질적인 통역 시점에서는 유입되는 음성신호들 중 음색을 기준으로 최대 레벨을 갖는 음성신호를 통역 대상언어로 인식함으로써 통역 상의 오류 발생 확율을 억제한다.As expected effects due to the above-described features of the present invention, in interpreting a simple foreign language, the first language and the second language for interpretation are changed as the digital sound source data (MP3) for conversation learning is changed according to the user's needs and speech methods. The language can be easily changed, and at the time of actual interpretation, the probability of error occurrence in the interpretation is suppressed by recognizing the voice signal having the maximum level based on the tone among the incoming voice signals as the interpretation target language.

본 발명의 상술한 목적과 여러 가지 장점은 이 기술 분야에 숙련된 사람들에 의해, 첨부된 도면을 참조하여 후술되는 본 발명의 바람직한 실시 예로부터 더욱 명확하게 될 것이다.The above object and various advantages of the present invention will become more apparent from the preferred embodiments of the present invention described below with reference to the accompanying drawings by those skilled in the art.

우선, 본 발명에 따른 기술적 사상을 간략히 살펴보면, 근래 들어 회화학습 오디오 자료는 종래의 카세트 타입의 아날로그 신호유형에서 디지털 데이터로 변화되어져 PC나 MP3플레이어를 통해 재생되도록 변화되어졌다.First, briefly looking at the technical idea according to the present invention, in recent years, the conversational learning audio material has been changed from the conventional analog signal type of the cassette type to digital data has been changed to be reproduced through a PC or MP3 player.

또한, 회화 학습용 오디오 자료는 통상적으로 원어민의 발음으로 구문이나 문장을 읽거나 발성하게 되면 이후 해당하는 구문이나 문장에 대해 자국민이 그 뜻을 읽거나 발성하는 형식이 보편적이며, 이러한 회화 학습용 오디오자료의 구문이나 문장만으로도, 회의나 세미나 등을 진행하거나 참석하는 경우가 아니라면, 여행이나 일상적인 회화가 가능하고, 하나의 외국에 대해서 오디오자료의 용량은 대략 MP3로 2~3기가바이트(G byte)정도이다.In addition, the audio material for conversational learning generally reads or utters a phrase or sentence with a native speaker's pronunciation, and then a form in which the native person reads or utters the corresponding phrase or sentence is common. If you are not going to a conference or seminar or just attending a phrase or sentence, you can travel or talk everyday, and about one foreign country, the volume of audio material is about 3 to 3 gigabytes (G bytes). to be.

또한, 따라서 이미 디지털 신호로 가공되어져 있는 회화 학습용 오디오자료를 기준으로 특히 사용자가 자신이 평상시 공부하던 혹은 자신과 화법이 유사한 회화학습 오디오 자료를 제 1언어(모국어)와 제 2언어(외국어)로 분리하여 데이터베이스에 저장하고 오디오 자료의 순서에 입각하여 제 1언어와 제 2언어를 매칭 시키는 과정 은 매우 단순하게 이루어질 수 있으며, 더욱이 저장시점에 이미 원어민의 발음으로 완성된 구문이나 문장을 구현하고 있으므로 간단하게 통역시스템이 구현될 수 있을 것이라는 데 착안한 것이다.Also, based on audio material for conversational learning, which has already been processed into digital signals, the user may choose to study conversational audio material that he or she normally studies or that is similar in speech to the first language (native language) and the second language (foreign language). The process of separating and storing the first language and the second language based on the order of the audio data and storing them in a database can be very simple. Furthermore, at the time of storage, the phrases or sentences completed by native speakers are implemented. It was simply conceived that an interpreter system could be implemented.

더욱이 사용자에게 익숙한 화법으로 데이터가 구축되었기 때문에 데이터 로딩 실패의 확률이 줄어들게 될 것이며, 사용자의 필요에 따라 ‘한국어-일어’, ‘한국어-영어’, ‘한국어-중국어’, ‘한국어-불어’, ‘한국어-독어’ 혹은 ‘영어-중국어’와 같이 회화 학습용 소스만 변경시켜주면 다양한 통역기로서 사용될 수 있을 것이라는 데 착안한 것이다.Moreover, since the data is constructed in a user-friendly way, the probability of data loading failure will be reduced. According to the user's needs, 'Korean-Japanese', 'Korean-English', 'Korean-Chinese', 'Korean-French', It was conceived that if only the source for conversation learning such as 'Korean-German' or 'English-Chinese' could be changed, it could be used as various translators.

이하, 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

첨부한 도 1은 본 발명에 따른 휴대용 통역 시스템의 블록 구성 예시도로서, 마이크(MIC)를 통해 입력된 아날로그 방식의 오디오 신호 중 통역해야하는 대상의 음성신호를 추출하여 출력하는 음성 인식부(100)와; 통역을 위한 데이터베이스의 구축을 위한 소스 데이터를 입력받는 소스입력부(200)와; 상기 소스입력부(200)를 통해 유입되는 소스데이터에서 제 1언어와 제 2언어를 분리한 후 각 언어간의 매칭 관계를 설정하는 데이터베이스 구축기준 제공부(300)와, 상기 데이터베이스 구축기준 제공부(300)에서 분리되는 데이터가 저장되는 데이터베이스(400)와, 상기 데이터베이스 구축기준 제공부(300)에서 설정되는 각 언어간의 매칭 관계에 따른 정보를 기준으로 상기 데이터베이스(400)에 저장되는 제 1언어와 제 2언어의 저장 공간을 할당하며 이에 따른 정보를 기준으로 요청된 정보를 억세스하는 데이터베이스 관리부(500)와, 상기 음성 인식부(100)에서 출력되어진 신호를 상기 데이터베이스(400) 에 저장되어진 양식의 디지털 신호로 변환하여 상기 데이터베이스 관리부(500)에 인가함으로써 상기 데이터베이스(400)에 저장되어진 대응관계의 정보를 억세스하도록 요청하는 통역 요청 언어 인식부(600)와, 상기 데이터베이스 관리부(500)에서 출력되는 정보를 스피커(SP)를 통해 외부로 표출하기 위해 음향정보로 변환하여 출력하는 통역정보 출력부(700); 및 사용자에 의해 선택되어진 통역 데이터베이스 구축을 위한 소스의 유입과정을 상기 소스입력부(200)를 통해 제어하며 상기 데이터베이스 관리부(500)를 통해 데이터베이스(400)에 저장되는 통역용 정보를 관리하도록 제어하는 시스템 제어부(800)로 구성된다.1 is a block diagram illustrating a portable interpretation system according to the present invention. The voice recognition unit 100 extracts and outputs a voice signal of a target to be interpreted from an analog audio signal input through a microphone (MIC). Wow; A source input unit 200 for receiving source data for constructing a database for interpretation; A database construction reference providing unit 300 for separating a first language and a second language from the source data flowing through the source input unit 200 and setting a matching relationship between the languages, and the database construction reference providing unit 300 A first language and a first language stored in the database 400 on the basis of information according to a matching relationship between the database 400 in which data separated from the data is stored and each language set in the database construction reference providing unit 300. The database manager 500 allocates a storage space of two languages and accesses the requested information based on the information, and digitally stores the signal output from the voice recognition unit 100 in the database 400. Access the information of the correspondence relationship stored in the database 400 by converting it into a signal and applying it to the database manager 500. An interpreter request language recognition unit 600 for requesting an interpreter, and an interpreter information output unit 700 for converting and outputting the information output from the database manager 500 into sound information to be output to the outside through the speaker SP; And controlling the inflow process of the source selected for the interpretation database construction selected by the user through the source input unit 200 and managing the interpretation information stored in the database 400 through the database manager 500. The control unit 800 is configured.

또한, 미 설명 참조번호 900으로 지칭되는 표시부는 상기 시스템 제어부(800)에 의해 운영되고 있는 시스템의 현 상황이 표시되거나 상기 데이터베이스 관리부(500)를 통해 통역 요청 혹은 억세스되어 출력되는 제 2언어의 텍스트를 상기 시스템 제어부(800)를 통해 입력받아 표시하는 기능을 수행한다.In addition, the display unit, which is referred to as reference numeral 900, displays the current state of the system operated by the system control unit 800 or the text of the second language that is output through the request for interpretation or access through the database manager 500. To receive and display the input through the system control unit 800.

또한 도 1에 도시되어 있기로는 상기 시스템 제어부(800)가 소스입력부(200)와 데이터베이스 관리부(500)만을 제어하는 것으로 도시되어 있으나, 실제적으로는 시스템의 각 구성요소를 모두 제어하고 있음을 미리 밝혀둔다.In addition, although the system control unit 800 is illustrated as controlling only the source input unit 200 and the database management unit 500 as shown in FIG. 1, it is understood that the components of the system are actually controlled in advance. Reveal.

상기 구성요소 중 음성 인식부(100)는 마이크(MIC)를 통해 입력되는 주위환경의 소음과 각종의 오디오 신호에서 인간의 육성에 대응하는 주파수 대역의 음성신호를 추출하여 출력하는 음성신호 추출부(110)와, 상기 음성신호 추출부(110)에서 출력되는 신호를 입력받아 최대 볼륨을 갖는 음성신호를 추출하여 출력하는 최적 오디오 추출부(120)로 구성된다.The voice recognition unit 100 of the components is a voice signal extraction unit for extracting and outputting the voice signal of the frequency band corresponding to the human development from the noise of the surrounding environment and various audio signals input through the microphone (MIC) ( 110 and an optimum audio extractor 120 that receives the signal output from the speech signal extractor 110 and extracts and outputs a speech signal having a maximum volume.

이때 상기 음성신호 추출부(110)는 밴드패스 필터 및 노이즈 제거필터 등의 각종의 주파수 필터를 통해 구현되며, 상기 최적 오디오 추출부(120)는 상기 음성신호 추출부(110)에서 추출되는 인간의 육성신호에서 실제 통역을 해야 하는 대화자의 육성을 추출하기 위한 것으로 음색에 따른 스펙트럼의 볼륨이 최대인 음색을 갖는 신호를 추출하며 이를 통해 공공장소 혹은 다수의 사람들의 육성이 혼재하는 환경 속에서도 통역 대상인 대화자의 육성을 정확하게 추출하기 위한 것이다.In this case, the voice signal extractor 110 is implemented through various frequency filters such as a bandpass filter and a noise removing filter, and the optimum audio extractor 120 is a human extracted from the voice signal extractor 110. It is to extract the speaker who needs actual interpretation from the raising signal. It extracts the signal with the maximum volume of the spectrum according to the tone. This enables the dialogue person to be interpreted even in a mixed environment of public places or a large number of people. It is to extract the upbringing accurately.

또한 상기 구성요소 중 소스입력부(200)는 플래시 메모리 카드가 안착되는 구조를 가지며, 회화학습 오디오 자료의 MP3 소스 데이터를 사용자에 의해 변경 가능하도록 하기 위한 저장 공간을 제공하는 MP3 소스 저장부(210)와, 외부의 PC와 데이터 통신을 통해 회화학습 오디오 자료를 수신하기 위한 인터페이스(220) 및 상기 MP3 소스 저장부(210) 혹은 인터페이스(220)에서 출력되는 오디오자료를 상기 시스템 제어부(800)의 제어신호에 따라 선택적으로 상기 데이터베이스 구축기준 제공부(300)에 제공하기 위한 소스결정부(230)로 구성되어진다.In addition, the source input unit 200 of the components has a structure in which the flash memory card is seated, MP3 source storage unit 210 to provide a storage space for changing the MP3 source data of the conversational learning audio material by the user And the interface 220 for receiving conversational learning audio data through data communication with an external PC and the audio data output from the MP3 source storage 210 or the interface 220 by the system controller 800. It is composed of a source determination unit 230 for selectively providing to the database construction reference providing unit 300 according to the signal.

이때 상기 MP3 소스 저장부(210)에 저장되는 회화학습 오디오 자료의 유형은 MP3에 국한되지 않으며 일반적인 PC상에서 재생 가능한 오디오 유형을 모두 포함한다.At this time, the type of conversational learning audio material stored in the MP3 source storage unit 210 is not limited to MP3 and includes all types of audio that can be played on a general PC.

또한 상기 구성요소 중 데이터베이스 구축기준 제공부(300)는 순차적으로 제 1언어와 제 2언어가 교번적으로 교차하며 문장이나 구문이 재생되는 회화학습 오디오 자료에서 제 1언어와 제 2언어를 인식한 후 이를 분리하여 출력하는 언어 인식 분리부(310)와, 상기 언어 인식 분리부(310)에서 분리되어 출력되는 제 1언어와 제 2언어에 따른 문장이나 구문에 특정의 테그를 부여하여 통역을 위해 제 1언어 혹은 제 2언어를 기준으로 그에 대응하는 상대 언어를 억세스 할 수 있도록 대응관계의 언어에 매칭 관계를 부여하는 분리언어 매칭 관계 설정부(320)로 구성된다.In addition, the database construction reference providing unit 300 among the components sequentially recognizes the first language and the second language in the conversational learning audio material in which the first language and the second language alternately alternately and the sentences or phrases are reproduced. After this, a language recognition separation unit 310 which separates and outputs the language recognition separation unit 310 and a sentence or phrase according to the first language and the second language separated and output by the language recognition separation unit 310 are given a specific tag for interpretation. It is composed of a separate language matching relationship setting unit 320 for giving a matching relationship to the language of the corresponding relationship so that the corresponding language can be accessed based on the first language or the second language.

이때 상기 분리언어 매칭 관계 설정부(320)에서는 상기 언어 인식 분리부(310)에서 분리되어 출력되는 대응관계의 제 1언어와 제 2언어를 임시저장하며 상기 데이터베이스 관리부(500)측에 자체적으로 부여한 매칭 관계에 대한 정보를 제공한 후 상기 데이터베이스 관리부(500)측의 유도에 따라 상기 데이터베이스(400)측에 임시저장하고 있던 제 1언어와 제 2언어의 오디오신호를 제공한다.In this case, the separated language matching relationship setting unit 320 temporarily stores the first language and the second language of the corresponding relationship that are separated and output from the language recognition separation unit 310, and assigns them to the database manager 500. After providing the information on the matching relationship, the audio signal of the first language and the second language which were temporarily stored in the database 400 side is provided according to the induction of the database manager 500 side.

또한, 데이터베이스(400)는 제 1언어에 속하는 디지털 오디오신호가 저장되는 제1언어DB(410)와, 제 2언어에 속하는 디지털 오디오신호가 저장되는 제2언어DB(420)로 구분되며, 제1언어 혹은 제2언어에 대응하는 텍스트가 소스에 포함되어 있으며 이를 표출하는 기능이 존재하는 경우에는 텍스트를 저장하는 공간이 별도로 준비 될 수 있고, 이런 경우 상기 데이터베이스 구축기준 제공부(300)와 데이터베이스 관리부(400)는 텍스트 처리를 위한 별도의 구성이 부가되어진다.In addition, the database 400 is divided into a first language DB 410 storing digital audio signals belonging to a first language and a second language DB 420 storing digital audio signals belonging to a second language. If the text corresponding to the first language or the second language is included in the source and there is a function for expressing it, a space for storing the text may be prepared separately. In this case, the database construction reference provider 300 and the database may be prepared. The management unit 400 is added a separate configuration for text processing.

상기와 같이 구성되는 본 발명에 따른 휴대용 통역 시스템의 동작을 살펴보면 다음과 같다.Looking at the operation of the portable interpretation system according to the present invention configured as described above are as follows.

우선, 통역용 데이터베이스 구축과정을 살펴보면, 통상적으로 외국어 회화 학습용 자료는 예를 들어 『(일정시간 공백) Have a good time. (일정시간 공백) 좋은 시간 되세요. (일정시간 공백) Do you have a good time? (일정시간 공백) 좋은 시간 보네고 있나요?』하는 식으로 외국어와 모국어가 반복적으로 원어민에 의해 리딩(Reading) 되어 진다.First of all, if you look at the process of building a database for interpreting, the material for learning a foreign language is usually described as “Have a good time. Have a good time. Do you have a good time? Are you watching a good time? 'The foreign language and the native language are read by native speakers repeatedly.

따라서 PC를 통해 재생 가능한 형식(예를 들어 WAV 등등)이나 MP3 플레이어를 통해 재생 가능한 외국어 회화 학습용 오디오자료는 소스 그 자체가 디지털 신호이다.Therefore, audio material for learning a foreign language conversation that can be played through a PC (eg, WAV, etc.) or through an MP3 player is a digital signal.

그러므로 상기 MP3 소스저장부(210)에 저장되어진 데이터 혹은 인터페이스(220)를 통해 유입되는 데이터는 모두 디지털 데이터이며, 소스결정부(230)을 통해 유입되는 디지털 신호는 언어인식 분리부(310)에서 상술한 예에서와 같이 일정시간 공백을 기준으로 제1언어의 문장과 제2언어의 문장으로 구분하되 디지털 데이터의 손상이 없도록 인식 분리되어 아래의 예와 같이 순차적으로 출력되며, 이때 일정시간 공백을 유지하는 무음의 데이터는 제거 된다.Therefore, the data stored in the MP3 source storage unit 210 or the data flowing through the interface 220 are all digital data, and the digital signal flowing through the source determination unit 230 is the language recognition separating unit 310. As in the above-mentioned example, the sentences are classified into sentences of the first language and sentences of the second language on the basis of a predetermined time interval, and are separated so as not to damage the digital data, and are sequentially output as shown in the following example. Silent data to hold is removed.

(제 2언어)Have a good time.(제 2언어)(Second language) Have a good time. (Second language)

(제 1언어)좋은 시간 되세요.(제 1언어)(First Language) Have a good time. (First Language)

(제 2언어)Do you have a good time?(제 2언어)Do you have a good time? (Second language)

(제 1언어)좋은 시간 보네고 있나요?(제 1언어)Do you have a good time? (First language)

이후 분리언어 매칭 관계 설정부(320)에서는 제1언어와 제2언어로 분리되어진 데이터를 입력받아 임시 저장함과 동시에 대응관계에 따른 매칭 관계를 아래의 예와 같이 부여한다.Thereafter, the separated language matching relationship setting unit 320 receives data separated into the first language and the second language and temporarily stores the data, and gives a matching relationship according to the correspondence as shown in the following example.

(제 2언어)<S-T-0001>Have a good time.<E-T-0001>(제 2언어)(Second Language) <S-T-0001> Have a good time. <E-T-0001> (Second Language)

(제 1언어)<S-T-0001>좋은 시간 되세요.<E-T-0001>(제 1언어)(First language) <S-T-0001> Have a good time. <E-T-0001> (First language)

(제 2언어)<S-T-0002>Do you have a good time?<E-T-0002>(제 2언어)(Second Language) <S-T-0002> Do you have a good time? <E-T-0002> (Second Language)

(제 1언어)<S-T-0002>좋은 시간 보네고 있나요?<E-T-0002>(제 1언어)(First language) <S-T-0002> Are you having a good time? <E-T-0002> (First language)

이때 데이터베이스 관리부(500)는 상기 분리언어 매칭 관계 설정부(320)에서 대응 하는 언어간에 매칭 관계를 부여한 정보를 입력받아 데이터베이스(400)내에 저장 공간을 설정하고 설정된 저장 공간내에 상기 분리언어 매칭 관계 설정부(320)에서 임시저장하고 있던 데이터를 저장하도록 유도한다.At this time, the database management unit 500 receives the information that gives the matching relationship between the corresponding languages from the separation language matching relationship setting unit 320 sets a storage space in the database 400 and sets the separation language matching relationship in the set storage space. The unit 320 induces to store the data that was temporarily stored.

따라서 제1언어는 제1언어DB(410)내 설정영역에 저장되고, 제2언어는 제2언어DB(420)내 설정영역에 첨부한 도 1에 도시되어 잇는 바와 같이 저장된다.Therefore, the first language is stored in the setting area in the first language DB 410, and the second language is stored as shown in FIG. 1 attached to the setting area in the second language DB 420.

그러므로 추후 상기 데이터베이스 관리부(500)를 통해 ‘좋은 시간 되세요.’라는 문장의 통역요청이 입력되는 상기 데이터베이스 관리부(500)는 대응관계에 있는 ‘Have a good time’을 억세스하게 되는 것이다.Therefore, the database manager 500, which receives a translation request of the sentence “Have a good time” through the database manager 500, accesses the corresponding “Have a good time”.

반면에 사용자의 화법이 존칭보다는 평대이거나 존칭적 화법에 익숙하지 않은 경우 회화교육용 오디오자료 중 사용자 자신의 화법과 흡사하거나 익숙한 On the other hand, if the user's speech is flat or unfamiliar rather than zoning, the audio material for conversation education is similar to or familiar with the user's own speech.

「Have a good time ↔ 즐겁게 지네」로 표현하고 있는 오디오자료를 선택하여 통역 데이터베이스를 구축하면 된다.You can build an interpreter database by selecting audio data expressed as “Have a good time ↔ fun centipede”.

즉, 사용자는 자신에게 익숙한 오디오자료를 선택하면 해당 자료를 기반으로 통역시스템이 구현되는 것이다.In other words, when a user selects audio materials that are familiar to them, an interpreter system is implemented based on the data.

상술한 과정을 통해 통역을 위한 사용자만의 데이터베이스가 구축되어지면, 사용자는 도시되지 않은 키패드를 통해 시스템 제어부(800)를 조작하여 통역모드로 진행할 수 있다.When the user-only database for the interpretation is established through the above-described process, the user may proceed to the interpretation mode by operating the system controller 800 through a keypad (not shown).

통역모드에서 제1언어를 사용하는 사용자와 제2언어를 사용하는 대화자 간에 발성되는 육성은 마이크(MIC)를 통해 음성 인식부(100)내의 음성신호 추출부(110)측에 제공되어진다.The voice that is spoken between the user who uses the first language and the dialogue person who uses the second language in the interpretation mode is provided to the voice signal extraction unit 110 in the voice recognition unit 100 through a microphone (MIC).

상기 음성신호 추출부(110)는 사용자와 대화자간의 육성뿐만 아니라 주위환경의 소음과 각종의 음향 신호를 모두 마이크(MIC)를 통해 입력받기 때문에, 인간의 육성에 대응하는 주파수 대역의 음성신호를 추출하여 출력하게 된다.The voice signal extracting unit 110 receives both the noise of the surrounding environment and various sound signals through a microphone (MIC) as well as fostering the user and the talker, thereby receiving a voice signal of a frequency band corresponding to the human development. Will be extracted and output.

상기 음성신호 추출부(110)에서 출력되는 인간의 육성에 대응하는 주파수 대역의 음성신호를 입력받은 최적 오디오 추출부(120)는 상기 음성신호 추출부(110)에서 입력되는 인간의 육성신호에서 실제 통역을 해야 하는 사용자와 대화자의 육성만을 추출하기 위해 음색에 따른 스펙트럼의 볼륨이 최대인 음색을 갖는 신호만을 추출하게 된다.The optimal audio extractor 120 that receives a voice signal of a frequency band corresponding to the human growth output from the speech signal extractor 110 is actually a human growth signal input from the speech signal extractor 110. In order to extract only the user and the dialogue person who need to interpret, only the signal having the maximum tone of the spectrum according to the tone is extracted.

즉, 사용자와 대화자가 동시에 발성하여 싸우는 것이 아니므로, 사용자 혹은 대화자가 발성한 육성이 공공장소 혹은 다수의 사람들의 육성이 혼재하는 환경 속에서도 가장 볼륨이 클 것이기 때문이다.In other words, because the user and the talker do not fight by speaking at the same time, the growth of the user or the talker will be the loudest even in a mixed environment of public places or a large number of people.

이후 상기 최적 오디오 추출부(120)에서 추출된 육성의 아날로그 신호는 통역요청 언어인식부(600)측에 제공되는데, 상기 통역요청 언어인식부(600)는 상기 시스템 제어부(800)의 제어에 따라 입력되는 육성 아날로그 신호를 상기 데이터베이스(400)에 저장되어진 소스신호와 동일한 타입의 디지털신호로 변환한다. Thereafter, the analog signal fostered by the optimum audio extractor 120 is provided to the interpretation request language recognition unit 600, and the interpretation request language recognition unit 600 is controlled by the system controller 800. The input analog signal is converted into a digital signal of the same type as the source signal stored in the database 400.

즉, 상기 데이터베이스(400)에 저장되어진 소스신호의 유형이 MP3인 경우 최적 오디오 추출부(120)에서 추출된 육성의 아날로그 신호는 MP3신호로 변환하는 것이다.That is, when the type of the source signal stored in the database 400 is MP3, the analog signal generated by the optimum audio extractor 120 is converted into an MP3 signal.

이후 상기 통역요청 언어인식부(600)에서 디지털신호로 변환되어진 신호는 데이터베이스 관리부(500)에 인가되며, 상기 데이터베이스 관리부(500)는 상기 통역요청 언어인식부(600)를 통해 입력되는 디지털신호를 기준으로 가장 유사도가 높은 소스 신호를 검색한 후 검색된 소스신호에 대응하는 언어의 소스신호(예를 들어 통역 요청 언어 외 최적의 유사도를 갖는 언어가 제1언어에서 검색되었다면 그에 대응관계를 갖는 제 2언어의 소스신호)를 억세스하여 통역정보 출력부(700)측에 제공하게 된다.Thereafter, the signal converted into a digital signal by the interpreter request language recognition unit 600 is applied to the database manager 500, and the database manager 500 receives the digital signal input through the interpreter request language recognition unit 600. A source signal of a language corresponding to the retrieved source signal (for example, if a language having an optimal similarity other than an interpreter request language is found in the first language) The source signal of the language) is accessed and provided to the interpretation information output unit 700 side.

상기 통역정보 출력부(700)는 실제적으로는 디지털 신호를 아날로그신호로 변환하여 증폭한 후 스피커(SP)를 통해 외부로 표출하는 기능을 수행하게 되며, 근래 디지털 신호를 변환 없이 표출가능한 디지털 스피커를 채용한 경우 생략 가능한 구성이다.The interpreter information output unit 700 actually performs a function of converting and amplifying a digital signal into an analog signal and then expressing it externally through the speaker SP. If adopted, the configuration can be omitted.

이외 표시부(900)의 동작에 대해서는 그 설명을 생략한다.The description of the operation of the display unit 900 is omitted.

이상의 설명에서 본 발명은 특정의 실시 예와 관련하여 도시 및 설명하였지만, 특허청구범위에 의해 나타난 발명의 사상 및 영역으로부터 벗어나지 않는 한도 내에서 다양한 개조 및 변화가 가능하다는 것을 당 업계에서 통상의 지식을 가진 자라면 누구나 쉽게 알 수 있을 것이다.While the invention has been shown and described with respect to the specific embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention as defined by the appended claims. Anyone with it will know easily.

도 1은 본 발명에 따른 휴대용 통역 시스템의 블록 구성 예시도1 is an exemplary block diagram of a portable interpretation system according to the present invention

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

MIC : 마이크MIC: Microphone

100 : 음성 인식부100: speech recognition unit

200 : 소스입력부200: source input unit

300 : 데이터베이스 구축기준 제공부300: database construction standard provider

400 : 데이터베이스400: database

500 : 데이터베이스 관리부500: database management unit

600 : 통역 요청 언어 인식부600: interpreter request language recognition unit

700 : 통역정보 출력부700: interpretation information output unit

800 : 시스템 제어부800: system control unit

900 : 표시부900: display unit

Claims (8)

마이크를 통해 입력된 아날로그 방식의 오디오 신호 중 통역해야하는 대상의 음성신호를 추출하여 출력하되, 마이크를 통해 입력되는 주위환경의 소음과 각종의 오디오 신호에서 인간의 육성에 대응하는 주파수 대역의 음성신호를 추출하여 출력하는 밴드패스 필터 및 노이즈 제거 필터와 같은 주파수 필터에 의해 구현되는 음성신호 추출부와, 상기 음성신호 추출부에서 출력되는 신호를 입력받아 최대 볼륨을 갖는 음성신호를 추출하여 출력하되, 추출되는 인간의 육성신호에서 음색에 따른 스펙트럼의 볼륨이 최대인 음색을 갖는 신호를 추출하는 최적 오디오 추출부를 포함하는 음성 인식부와;Extracts and outputs the voice signal of the target to be interpreted from the analog audio signal input through the microphone, and outputs the voice signal of the frequency band corresponding to the human development from the noise of the surrounding environment and various audio signals input through the microphone. A voice signal extraction unit implemented by a frequency filter such as a bandpass filter and a noise removing filter for extracting and outputting the signal, and a voice signal having a maximum volume is output by receiving the signal output from the voice signal extraction unit, and outputting the extracted signal. A speech recognition unit including an optimum audio extracting unit extracting a signal having a maximum tone of the spectrum according to the tone in the human voice signal; 통역을 위한 데이터베이스의 구축을 위한 소스 데이터를 입력받되, 플래시 메모리 카드가 안착되는 구조를 가지며, MP3를 포함하여 일반적인 PC상에서 재생 가능한 오디오 유형을 모두 포함하는 회화학습 오디오 자료인 디지털 소스 데이터를 사용자에 의해 변경 가능하도록 하기 위한 저장공간을 제공하는 디지털 오디오 소스 저장부와, 외부의 PC와 데이터 통신을 통해 회화학습 오디오 디지털 자료를 수신하기 위한 인터페이스와, 상기 디지털 오디오 소스 저장부 혹은 인터페이스에서 출력되는 오디오자료를 시스템 제어부의 제어신호에 따라 선택적으로 데이터베이스 구축기준 제공부에 제공하기 위한 소스결정부를 포함하는 소스입력부와;Receives source data for building a database for interpretation, but has a structure in which a flash memory card is seated, and digital source data, which is a conversational learning audio material that includes all types of audio that can be played on a general PC, including MP3. A digital audio source storage unit for providing a storage space for change by a user, an interface for receiving conversational learning audio digital data through data communication with an external PC, and audio output from the digital audio source storage unit or interface A source input unit including a source determination unit for selectively providing data to the database construction reference providing unit according to a control signal of the system control unit; 상기 소스입력부를 통해 유입되는 소스데이터에서 제 1언어와 제 2언어를 분리한 후 각 언어간의 매칭 관계를 설정하되, 순차적으로 제 1언어와 제 2언어가 교번적으로 교차하며 문장이나 구문이 재생되며 사용자가 공부하거나 사용자와 화법이 유사한 회화학습 오디오 자료에서 제 1언어와 제 2언어가 리딩되는 사이의 공백을 유지하는 무음 데이터를 기준으로 제 1언어와 제 2언어를 인식한 후 이를 분리하여 출력하는 언어 인식 분리부와, 상기 언어 인식 분리부에서 분리되어 출력되는 제 1언어와 제 2언어에 따른 문장이나 구문에 특정의 테그를 부여하여 통역을 위해 제 1언어 혹은 제 2언어를 기준으로 그에 대응하는 상대 언어를 억세스 할 수 있도록 대응관계의 언어에 매칭 관계를 부여하는 분리언어 매칭 관계 설정부를 포함하는 데이터베이스 구축기준 제공부와;After separating the first language and the second language from the source data flowing through the source input unit, and establish a matching relationship between each language, the first language and the second language alternately alternately and the sentence or phrase is reproduced It recognizes the first language and the second language based on the silent data that maintains the space between the first language and the second language in the conversational learning audio material that the user is studying or has similar speech with the user. A language recognition separation unit for outputting and a specific tag is assigned to a sentence or phrase according to the first language and the second language which are separated and output from the language recognition separation unit, and are interpreted based on the first language or the second language. A database structure including a separate language matching relationship setting unit for assigning a matching relationship to a language of a correspondence so that a corresponding language can be accessed. Based on the study and; 상기 데이터베이스 구축기준 제공부에서 분리되는 데이터가 저장되는 데이터베이스와;A database storing data separated by the database building reference providing unit; 상기 데이터베이스 구축기준 제공부에서 설정되는 각 언어간의 매칭 관계에 따른 정보를 기준으로 상기 데이터베이스에 저장되는 제 1언어와 제 2언어의 저장 공간을 할당하며 이에 따른 정보를 기준으로 요청된 정보를 억세스하는 데이터베이스 관리부와;Allocating a storage space of the first language and the second language stored in the database based on the information according to the matching relationship between the languages set by the database construction reference providing unit and accessing the requested information based on the information A database manager; 상기 음성 인식부에서 출력되어진 신호를 상기 데이터베이스에 저장되어진 양식의 디지털 신호로 변환하여 상기 데이터베이스 관리부에 인가함으로써 상기 데이터베이스에 저장되어진 대응관계의 정보를 억세스하도록 요청하는 통역 요청 언어 인식부; 및An interpreter request language recognition unit for converting the signal output from the speech recognition unit into a digital signal stored in the database and applying the information to the database manager to access the corresponding relation information stored in the database; And 사용자에 의해 선택되어진 통역 데이터베이스 구축을 위한 소스의 유입과정을 상기 소스입력부를 통해 제어하며 상기 데이터베이스 관리부를 통해 데이터베이스에 저장되는 통역용 정보를 관리하도록 제어하는 시스템 제어부; 및 A system controller for controlling an inflow process of a source for building an interpreter database selected by a user through the source input unit, and managing interpreter information stored in a database through the database manager; And 상기 데이터베이스 관리부에서 출력되는 정보를 스피커를 통해 외부로 표출하기 위해 음향정보로 변환하여 출력하는 통역정보 출력부를 포함하는 것을 특징으로 하는 휴대용 통역 시스템.And a translator information output unit for converting and outputting the information output from the database manager to sound information to be output to the outside through a speaker. 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020080072177A 2008-07-24 2008-07-24 Portable interpreter system KR101061782B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080072177A KR101061782B1 (en) 2008-07-24 2008-07-24 Portable interpreter system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080072177A KR101061782B1 (en) 2008-07-24 2008-07-24 Portable interpreter system

Publications (2)

Publication Number Publication Date
KR20100011113A KR20100011113A (en) 2010-02-03
KR101061782B1 true KR101061782B1 (en) 2011-09-05

Family

ID=42085625

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080072177A KR101061782B1 (en) 2008-07-24 2008-07-24 Portable interpreter system

Country Status (1)

Country Link
KR (1) KR101061782B1 (en)

Also Published As

Publication number Publication date
KR20100011113A (en) 2010-02-03

Similar Documents

Publication Publication Date Title
US10614803B2 (en) Wake-on-voice method, terminal and storage medium
JP5598998B2 (en) Speech translation system, first terminal device, speech recognition server device, translation server device, and speech synthesis server device
RU2349969C2 (en) Synchronous understanding of semantic objects realised by means of tags of speech application
US9640175B2 (en) Pronunciation learning from user correction
KR102097710B1 (en) Apparatus and method for separating of dialogue
CN100521708C (en) Voice recognition and voice tag recoding and regulating method of mobile information terminal
US20090177461A1 (en) Mobile Speech-to-Speech Interpretation System
JPH09244686A (en) Method and device for information processing
JP5731998B2 (en) Dialog support device, dialog support method, and dialog support program
CN104050966A (en) Voice interaction method of terminal equipment and terminal equipment employing voice interaction method
WO2008084476A2 (en) Vowel recognition system and method in speech to text applications
CN104348828A (en) Interfacing device and method for supporting speech dialogue service
US10362268B2 (en) Accessible electronic door entry system
CN111683317B (en) Prompting method and device applied to earphone, terminal and storage medium
CN112164407B (en) Tone color conversion method and device
CN112927674B (en) Voice style migration method and device, readable medium and electronic equipment
US20230127787A1 (en) Method and apparatus for converting voice timbre, method and apparatus for training model, device and medium
KR20190068133A (en) Electronic device and method for speech recognition
CN111199160A (en) Instant call voice translation method and device and terminal
CN109102807A (en) Personalized speech database creation system, speech recognition control system and terminal
US20010056345A1 (en) Method and system for speech recognition of the alphabet
KR102380717B1 (en) Electronic apparatus for processing user utterance and controlling method thereof
CN109616116B (en) Communication system and communication method thereof
KR101061782B1 (en) Portable interpreter system
KR101429138B1 (en) Speech recognition method at an apparatus for a plurality of users

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140609

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150921

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160926

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170828

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190418

Year of fee payment: 8

R401 Registration of restoration
FPAY Annual fee payment

Payment date: 20190819

Year of fee payment: 9