KR102076212B1 - Method of operating a speech recognition device - Google Patents

Method of operating a speech recognition device Download PDF

Info

Publication number
KR102076212B1
KR102076212B1 KR1020190029455A KR20190029455A KR102076212B1 KR 102076212 B1 KR102076212 B1 KR 102076212B1 KR 1020190029455 A KR1020190029455 A KR 1020190029455A KR 20190029455 A KR20190029455 A KR 20190029455A KR 102076212 B1 KR102076212 B1 KR 102076212B1
Authority
KR
South Korea
Prior art keywords
speech
data
information
speech recognition
speech data
Prior art date
Application number
KR1020190029455A
Other languages
Korean (ko)
Inventor
오성조
김은직
박준우
이수익
Original Assignee
주식회사 포지큐브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 포지큐브 filed Critical 주식회사 포지큐브
Priority to KR1020190029455A priority Critical patent/KR102076212B1/en
Application granted granted Critical
Publication of KR102076212B1 publication Critical patent/KR102076212B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0635Training updating or merging of old and new templates; Mean values; Weighting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Abstract

According to an embodiment of the present invention, an operation method of a speech recognition device for more quickly and accurately detecting the end of speech comprises the steps of: receiving a voice signal of a speaker from a terminal device; obtaining speech data according to analysis of the voice signal; and automatically recognizing the speech data while a speech end timer window is continued to convert the speech data into text information and output the text information. The speech end timer window is adaptively varied according to at least one of value information of the speech data, classification information of the speech data, and disfluency information of the speech data detected according to the voice signal analysis.

Description

스피치 인식 장치의 동작 방법{Method of operating a speech recognition device}Method of operating a speech recognition device

본 발명은 스피치 인식 장치의 동작 방법에 관한 것이다. 보다 구체적으로, 본 발명은 스피치 종료 시간 검출 프로세스를 통해, 응답 시간과 대기 시간을 단축시킬 수 있는 음성 인식 장치의 동작 방법에 관한 것이다.The present invention relates to a method of operating a speech recognition device. More specifically, the present invention relates to a method of operating a speech recognition apparatus capable of shortening a response time and a waiting time through a speech end time detection process.

음성 신호는 사용자간 자신이 표현할 의사전달을 위하여 가장 보편적이고 간편하며 용이하고 신속하게 사용되는 수단 또는 매체이다.Voice signals are the most common, simple, easy and fast means or media used for communicating between users.

그러나, 자연적인 상태에서의 중장거리 의사전달이 어려운 문제점이 있어, 이러한 음성 신호의 자동화된 인식 처리를 위해 자동 스피치 인식(Automatic Speech recognition, ASR) 기술이 제안되고 있다.However, there is a problem that medium-to-long distance communication in a natural state is difficult, and automatic speech recognition (ASR) technology has been proposed for automated recognition processing of such speech signals.

이러한 자동 스피치 인식(ASR) 기술은, 음성(AUDIO) 신호로부터 스피치(SPEECH) 구간을 검출하고, 스피치 구간으로부터 의사전달을 위한 문맥 데이터를 획득 처리하여, 자동화된 응답을 가능하게 한다.This automatic speech recognition (ASR) technology detects speech sections from audio signals, acquires and processes contextual data for communication from speech sections, thereby enabling automated responses.

최근에는, 이러한 ASR 기술이 별도의 서버 기반 학습 시스템으로 구축되고, 사용자 음성 입력에 따른 자연어 해석 및 유사 텍스트 데이터로 출력하는 방식의 서비스로 제공되고 있다. 학습 시스템은 예를 들어, 딥 뉴럴 네트워크(Deep Neural Network, DNN) 기반의 언어 모델을 이용한 확률 기반 근접 텍스트 탐색 다이어그램에 의해 구축될 수 있으며, 이를 위한 다양한 데이터베이스와 트레이닝 데이터들이 이용되고 있다.Recently, such ASR technology has been built as a separate server-based learning system, and has been provided as a service of a method of outputting natural language analysis and similar text data according to a user's voice input. For example, the learning system may be constructed by a probabilistic proximity text search diagram using a deep neural network (DNN) based language model, and various databases and training data are used for this purpose.

그러나, 현재의 ASR 시스템은 문맥 데이터를 정확히 추출하는 데에는 유용할 수 있으나, 스피치 종료(END OF SPEECH, EOS) 시점을 검출하는 데에는 비효율적인 문제점이 있다.However, the current ASR system may be useful for accurately extracting context data, but there is an inefficient problem in detecting an end-of-speech point.

보다 구체적으로, 현재의 ASR 시스템은 자동화된 스피치 인식 프로세스 내부에서, 스피치 종료(EOS) 시점을 자체적으로 검출하고 있으며, 이는 EOS 시점을 너무 일찍 결정하거나 너무 늦게 결정하게 하는 요인이 되고 있다.More specifically, current ASR systems are detecting their own end-of-speech (EOS) time points within the automated speech recognition process, which has been a factor in determining the EOS time point too early or too late.

예를 들어, 음성의 비유창성(Disfluency)에 의한 무음 등이 이어질 수 있으나, 현재의 ARS 시스템은 이를 스피치 종료로 판단하여 그대로 무의미한 데이터로서 반환 출력해버리거나, 반대로 스피치 종료시점을 정상적으로 판정하지 못하여 불필요한 대기 시간을 증가시키는 문제점이 발생하고 있는 것이다.For example, silence due to speech fluency may be followed, but the current ARS system judges this as the end of speech and outputs it as meaningless data, or conversely, it is unnecessary to determine the end of speech normally. There is a problem that increases the waiting time.

이와 같은 문제점으로 인해, 의미 있는 텍스트 데이터가 정상 추출되지 못하거나, 대기 시간 증가로 인한 사용자 편의성을 저해시키는 문제점들이 발생되고 있다.Due to these problems, meaningful text data may not be extracted normally or problems may occur that impair user convenience due to increased waiting time.

한국공개특허 10-2009-0054642(발명의 명칭 : 음성 인식 방법 및 장치)Korean Laid-Open Patent No. 10-2009-0054642 (Name of the invention: Speech recognition method and apparatus)

본 발명은 상기한 바와 같은 문제점을 해결하고자 안출된 것으로, ASR 시스템과는 독립적으로, 음성 신호의 분석에 따른 스피치 데이터의 특성에 따라, 스피치 종료(EOS) 시점을 적응적으로 가변 결정하게 함으로써 보다 신속하고 정확한 스피치 종료를 검출하게 하는 스피치 인식 장치의 동작 방법을 제공하는 데 그 목적이 있다.The present invention has been made to solve the above-described problems, and independent of the ASR system, according to the characteristics of the speech data according to the analysis of the speech signal, by adaptively determining the end point of speech (EOS) more It is an object of the present invention to provide a method of operating a speech recognition device for detecting a quick and accurate speech end.

상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 스피치 인식 장치의 동작 방법은, 단말 장치로부터 발화자의 음성 신호를 수신하는 단계; 상기 음성 신호의 분석에 따라 스피치 데이터를 획득하는 단계; 및 스피치 종료 타이머 윈도우가 지속되는 동안의 스피치 데이터를 자동 인식 처리하여, 텍스트 정보로 변환 출력하는 단계를 포함하고, 상기 스피치 종료 타이머 윈도우는, 상기 음성 신호 분석에 따라 검출된 상기 스피치 데이터의 가치 정보, 상기 스피치 데이터의 분류 정보 및 상기 스피치 데이터의 비유창성(Disfluency) 정보 중 적어도 하나에 따라 적응적으로 가변되는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of operating a speech recognition device, the method comprising: receiving a voice signal of a talker from a terminal device; Acquiring speech data according to the analysis of the speech signal; And automatically recognizing speech data while the speech end timer window continues, and converting the speech data into text information, wherein the speech end timer window includes value information of the speech data detected according to the speech signal analysis. And adaptively vary according to at least one of classification information of the speech data and disfluency information of the speech data.

한편, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 스피치 인식 장치는, 단말 장치로부터 발화자의 음성 신호를 수신하는 음성 수신부; 상기 음성 신호의 분석에 따라 스피치 데이터를 획득하는 오디오 분석 모듈; 스피치 종료 타이머 윈도우가 지속되는 동안의 스피치 데이터를 자동 인식 처리하여, 텍스트 정보로 변환 출력하는 자동 스피치 인식 처리부; 및 상기 음성 신호 분석에 따라 검출된 상기 스피치 데이터의 가치 정보, 상기 스피치 데이터의 분류 정보 및 상기 스피치 데이터의 비유창성(Disfluency) 정보 중 적어도 하나에 따라, 상기 스피치 종료 타이머 윈도우를 적응적으로 가변하여 스피치 종료점을 결정하는 EOS 매칭부를 포함한다.On the other hand, speech recognition apparatus according to an embodiment of the present invention for solving the above problems, the voice receiving unit for receiving a voice signal of the talker from the terminal device; An audio analysis module for obtaining speech data according to the analysis of the speech signal; An automatic speech recognition processing unit for automatically recognizing speech data while the speech end timer window continues, and converting the speech data into text information; And adaptively vary the speech end timer window according to at least one of value information of the speech data detected according to the speech signal analysis, classification information of the speech data, and disfluency information of the speech data. The EOS matching unit determines the speech end point.

한편, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램 및 상기 프로그램이 기록된 컴퓨터가 읽을 수 있는 기록 매체로 구현될 수 있다.On the other hand, the method according to an embodiment of the present invention for solving the above problems can be implemented as a program for executing the method on a computer and a computer-readable recording medium on which the program is recorded.

본 발명의 실시 예에 따르면, 음성 신호의 분석에 따른 스피치 데이터의 특성에 따라, 상기 스피치 종료 타이머 윈도우를 적응적으로 가변 결정하게 함으로써, 보다 신속하고 정확한 스피치 종료(EOS) 시점을 검출할 수 있다. According to an exemplary embodiment of the present invention, the speech end timer window may be adaptively and variably determined according to characteristics of speech data according to analysis of a voice signal, so that a more accurate and accurate speech end point may be detected. .

또한, 상기 스피치 데이터의 특성은 상기 음성 신호 분석에 따라 검출된 상기 스피치 데이터의 가치 정보, 상기 스피치 데이터의 분류 정보 및 상기 스피치 데이터의 비유창성(Disfluency) 정보 중 적어도 하나에 따라 결정됨으로써, 높은 수준의 정확성을 유지하면서도 음성 인식 응답의 대기 시간을 단축시킬 수 있으며, 이에 따른 사용자 편의성을 크게 향상시킬 수 있다.In addition, the characteristic of the speech data is determined according to at least one of the value information of the speech data detected according to the speech signal analysis, the classification information of the speech data, and the disfluency information of the speech data, thereby providing a high level. It is possible to reduce the waiting time of the voice recognition response while maintaining the accuracy of the user, thereby greatly improving the user convenience.

도 1은 본 발명의 실시 예에 따른 전체 시스템을 개략적으로 도시한 블록도이다.
도 2 및 도 6은 본 발명의 실시 예에 따른 스피치 인식 및 대기 시간 단축 효과를 음성 데이터의 구간에 따라 설명하기 위한 도면들이다.
도 7 내지 도 9는 본 발명의 실시 예에 따른 스피치 인식 방법을 각 프로세스별로 보다 구체적으로 설명하기 위한 흐름도들이다.
도 10은 본 발명의 실시 예에 따른 스피치 인식 프로세스와 기존 프로세스간 대기 시간 단축 차이를 설명하기 위한 래더 다이어그램이다.
1 is a block diagram schematically illustrating an entire system according to an exemplary embodiment of the present invention.
2 and 6 are diagrams for explaining speech recognition and waiting time reduction effects according to sections of voice data according to an exemplary embodiment of the present invention.
7 to 9 are flowcharts for describing a speech recognition method according to an embodiment of the present invention in more detail for each process.
FIG. 10 is a ladder diagram illustrating a difference in waiting time between a speech recognition process and an existing process according to an exemplary embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the invention. Therefore, those skilled in the art, although not explicitly described or illustrated herein, may embody the principles of the present invention and invent various devices that fall within the spirit and scope of the present invention. In addition, all conditional terms and embodiments listed herein are in principle clearly intended for the purpose of understanding the concept of the invention and are not to be limited to the specifically listed embodiments and states. Should be.

또한, 본 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.In addition, it is to be understood that all detailed descriptions, including the principles, aspects, and embodiments of the present invention, as well as listing specific embodiments, are intended to include structural and functional equivalents of these matters. In addition, these equivalents should be understood to include not only equivalents now known, but also equivalents to be developed in the future, that is, all devices invented to perform the same function regardless of structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, the block diagrams herein should be understood to represent a conceptual view of example circuitry embodying the principles of the invention. Similarly, all flowcharts, state transitions, pseudocodes, etc., are understood to represent various processes performed by the computer or processor, whether the computer may be substantially represented on a readable medium and whether the computer or processor is clearly shown. Should be.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.In addition, the explicit use of terms presented in terms of processor, control, or similar concept should not be interpreted exclusively as a citation of hardware capable of executing software, and without limitation, ROM for storing digital signal processor (DSP) hardware, software. (ROM), RAM, and non-volatile memory are to be understood to implicitly include. Other hardware for the governor may also be included.

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, whereby those skilled in the art may easily implement the technical idea of the present invention. There will be. In addition, in describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 전체 시스템을 개략적으로 도시한 블록도이다.1 is a block diagram schematically showing an entire system according to an embodiment of the present invention.

도 1을 참조하면 본 발명의 일 실시 예에 따른 시스템은, 단말 장치(100), 오디오 분석 모듈(120), 로컬 색인 모듈(130), 매칭 모듈(140), 자동 스피치 인식(ASR) 시스템(200)을 포함하여 구성될 수 있다.Referring to FIG. 1, a system according to an embodiment of the present disclosure may include a terminal device 100, an audio analysis module 120, a local index module 130, a matching module 140, and an automatic speech recognition (ASR) system ( 200).

단말 장치(100)는, 도 1에 도시된 바와 같이 발화자로부터 발화 음성을 입력받아 음성 신호를 출력하기 위한 하나 이상의 음성 수신부를 구비하는 사용자 단말일 수 있으며, 입력된 발화 음성에 대응하는 음성 신호를 오디오 분석 모듈(120)로 전달하는 장치로서, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등과 같이 예시되는 사용자 입력 및 정보 표시 등이 가능한 다양한 장치일 수 있다.As illustrated in FIG. 1, the terminal device 100 may be a user terminal including one or more voice receivers for receiving a spoken voice from a talker and outputting a voice signal, and outputting a voice signal corresponding to the input spoken voice. Examples of the device to be delivered to the audio analysis module 120 include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation devices, and the like. It may be a variety of devices capable of user input and information display.

그리고, 본 발명의 실시 예에 따른 스피치 인식 장치는, 단말 장치(100)와 로컬 연결되는 오디오 분석 모듈(120), 로컬 색인 모듈(130), 로컬 데이터베이스(110) 및 매칭 모듈(140)을 포함하는 로컬 인식 시스템으로 구성될 수 있다.In addition, the speech recognition apparatus according to an exemplary embodiment of the present invention includes an audio analysis module 120, a local index module 130, a local database 110, and a matching module 140, which are locally connected to the terminal device 100. It can be configured as a local recognition system.

여기서, 로컬 인식 시스템은 원격지에 구비되는 자동 스피치 인식 시스템(200)과는 별도 구비될 수 있으며, 로컬 데이터베이스(110)를 통해 음성 신호와 매칭 가능한 오디오 또는 텍스트 정보를 획득하여 단말 장치(100)로 제공하거나, 자동 스피치 인식 시스템(200)과 네트워크를 통해 유선 또는 무선으로 연결되어, 음성 신호로부터 추출되는 스피치 음성 데이터를 자동 스피치 인식 시스템(200)으로 제공하고, 자동 스피치 인식 시스템(200)로부터 인식 결과 데이터를 단말 장치(100)로 제공할 수 있다.Here, the local recognition system may be provided separately from the automatic speech recognition system 200 provided at a remote location, and obtains audio or text information that can be matched with a voice signal through the local database 110 to the terminal device 100. Or wired or wirelessly connected to the automatic speech recognition system 200 through a network to provide speech speech data extracted from a speech signal to the automatic speech recognition system 200, and recognized from the automatic speech recognition system 200. The result data may be provided to the terminal device 100.

특히, 본 발명의 실시 예에 따른 로컬 인식 시스템에 의해, 로컬 오디오 분석 및 변환에 따라 매칭 가능한 오디오 및 텍스트 정보가 획득되어 우선적으로 단말 장치(100)로 제공될 수 있으며, 나아가 스피치 종료(EOS) 처리를 위한 강제(Forced) EOS 처리가 수행될 수 있는 바, 이에 따른 단말 장치(100)의 응답 처리 지연이 감소되고 사용자 편의성을 증진시킬 수 있다.In particular, by the local recognition system according to an exemplary embodiment of the present disclosure, matchable audio and text information may be obtained according to local audio analysis and conversion, and may be provided to the terminal device 100 first, and further, speech termination (EOS). Forced EOS processing for processing may be performed, thereby delaying response processing of the terminal device 100 and improving user convenience.

한편, 로컬 인식 시스템에서 매칭되지 않는 스피치 음성 데이터는 자동 스피치 인식 시스템(200)으로 전달될 수 있으며, 자동 스피치 인식 시스템(200)은 스피치 데이터에 대한 학습 데이터 기반의 통상의 스피치 인식 처리를 수행하고, 인식 결과에 따른 스피치 인식 데이터를 단말 장치(100)로 전송할 수 있다. 스피치 인식 데이터는 예를 들어, 텍스트 기반의 문맥 데이터를 포함할 수 있다.On the other hand, speech speech data that does not match in the local recognition system may be delivered to the automatic speech recognition system 200, and the automatic speech recognition system 200 performs a normal speech recognition process based on learning data on the speech data. In response to the recognition result, speech recognition data may be transmitted to the terminal device 100. Speech recognition data may include, for example, text based contextual data.

단말 장치(100)는 매칭 모듈(140) 또는 자동 스피치 인식 시스템(200)으로부터 매칭된 오디오/텍스트 정보 또는 자동 스피치 인식 시스템(200)의 스피치 인식 데이터를 수신하고, 수신된 정보에 대응하는 응답 처리를 수행할 수 있다.The terminal device 100 receives the matched audio / text information or speech recognition data of the automatic speech recognition system 200 from the matching module 140 or the automatic speech recognition system 200, and responds to the received information. Can be performed.

예를 들어, 단말 장치(100)는 매칭된 오디오/텍스트 정보 또는 스피치 인식 데이터로부터 사용자 음성 입력에 대응하는 명령(instruction) 정보를 식별하고, 명령 정보에 대응하는 사용자 인터페이스 출력을 처리하거나, 타 사용자로의 메시지 전송 또는 전화 연결을 처리하거나, 응답 음성의 출력 처리 등을 수행할 수 있다.For example, the terminal device 100 identifies the instruction information corresponding to the user's voice input from the matched audio / text information or speech recognition data, processes the user interface output corresponding to the instruction information, or processes other users. Messages can be sent to the phone, a telephone connection can be processed, or a response voice can be output.

또한, 예를 들어 단말 장치(100)는 상기 스피치 데이터의 단어 정보에 기초하여, 발화자로부터 요청된 질의를 결정하고, 이에 대응한 처리를 제공할 수 있다.For example, the terminal device 100 may determine a query requested from the talker based on the word information of the speech data and provide a corresponding process.

또한, 예를 들어 단말 장치(100)는 로컬 데이터베이스(110)에 기록된 통화 기록 정보에 기초하여, 기존 이용내역이 없는 경우, 상기 발화자에게 상기 스피치 데이터 기반 대화 서비스를 위한 초기 안내 정보를 제공할 수도 있다.For example, the terminal device 100 may provide the caller with initial guidance information for the speech data based conversation service when there is no existing usage history based on the call log information recorded in the local database 110. It may be.

앞서 설명한 바와 같이, 이와 같은 단말 장치(100)와 연결되는 로컬 인식 시스템은 자동 스피치 인식 시스템(200)과 네트워크를 통해 유선 또는 무선으로 연결될 수 있다. 네트워크간 상호간 통신을 위해 각 단말 장치(100) 및 로컬 인식 시스템의 모듈들과 자동 스피치 인식 시스템(200)은 인터넷 네트워크, LAN, WAN, PSTN(Public Switched Telephone Network), PSDN(Public Switched Data Network), 케이블 TV 망, WIFI, 이동 통신망 및 기타 무선 통신망 등을 통하여 데이터를 송수신할 수 있다. 또한, 각 단말 장치(100) 및 자동 스피치 인식 시스템(200)은 각 통신망에 상응하는 프로토콜로 통신하기 위한 각각의 통신 모듈을 포함할 수 있다.As described above, the local recognition system connected to the terminal device 100 may be connected to the automatic speech recognition system 200 by wire or wirelessly through a network. The modules of each terminal device 100 and the local recognition system and the automatic speech recognition system 200 for communication between networks are connected to the Internet network, LAN, WAN, PSTN (Public Switched Telephone Network) and Public Switched Data Network (PSDN). It can transmit and receive data through cable TV network, WIFI, mobile communication network and other wireless communication networks. In addition, each terminal device 100 and automatic speech recognition system 200 may include a respective communication module for communicating in a protocol corresponding to each communication network.

그리고, 본 명세서에서 설명되는 본 발명의 실시 예에 따른 로컬 인식 시스템의 로컬 데이터베이스(110), 오디오 분석 모듈(120), 로컬 색인 모듈(130) 및 매칭 모듈(140)은 단말 장치(100) 내부에 위치한 내부 모듈로서 구비되거나, 외부 인터페이스에 의해 단말 장치(100)와 로컬 연결되는 외부 모듈로서 구현될 수 있는 바, 본 발명의 실시 예에 따른 스피치 인식 장치는 단말 장치(100) 단독으로 구성되거나, 외부 확장 연결된 로컬 인식 시스템으로 구성되거나, 자동 스피치 인식 시스템(200)을 포함하는 전체 시스템으로도 구성될 수 있으며, 그 구성 형태에 제한되는 것은 아니다.In addition, the local database 110, the audio analysis module 120, the local index module 130, and the matching module 140 of the local recognition system according to an exemplary embodiment of the present disclosure are internal to the terminal device 100. The speech recognition apparatus according to an embodiment of the present invention may be configured as an external module that is provided as an internal module, or may be implemented as an external module that is locally connected to the terminal device 100 by an external interface. In addition, the system may be configured as an external extension-connected local recognition system or an entire system including the automatic speech recognition system 200, but is not limited thereto.

보다 구체적으로, 본 발명의 실시 예에 따른 스피치 인식 장치의 오디오 분석 모듈(120)은, 단말 장치(100)의 음성 수신부에 수신되는 발화 음성으로부터 음성 신호가 출력되면, 상기 음성 신호의 분석에 따른 스피치 데이터를 획득할 수 있다.More specifically, the audio analysis module 120 of the speech recognition apparatus according to an embodiment of the present invention, when a voice signal is output from the spoken voice received from the voice receiver of the terminal device 100, according to the analysis of the voice signal Speech data can be obtained.

여기서, 상기 스피치 데이터는, 음성 신호의 로컬 분류 프로세스에 의해, 스피치 음성으로 분류된 음성 데이터를 포함할 수 있다.Here, the speech data may include speech data classified as speech speech by a local classification process of the speech signal.

오디오 분석 모듈(120)은, 먼저 음성 데이터의 로컬 변환을 색인 모듈(130)로 요청할 수 있으며, 색인 모듈(130)은 로컬 데이터베이스(110)를 이용하여, 음성 데이터와 매칭되는 오디오 또는 텍스트 정보를 색인하고, 색인 결과를 매칭 모듈(140)로 전달할 수 있다.The audio analysis module 120 may first request a local conversion of voice data to the index module 130, and the index module 130 may use the local database 110 to obtain audio or text information that matches the voice data. Index and pass the index result to the matching module 140.

그리고, 매칭 모듈(140)은 음성 데이터의 색인 결과에 따라 매칭된 오디오/텍스트 정보가 존재하는 경우, 상기 매칭된 오디오/텍스트를 음성 신호에 대응되는 응답 결과로서 단말 장치(100)로 제공할 수 있다.When the matching audio / text information exists according to the index result of the voice data, the matching module 140 may provide the matched audio / text to the terminal device 100 as a response result corresponding to the voice signal. have.

한편, 매칭 모듈(140)은, 색인 결과 매칭된 오디오/텍스트 정보가 존재하지 않는 경우에는 자동 스피치 인식 시스템(200)으로 상기 스피치 음성으로 분류된 음성 데이터를 전달할 수 있다.On the other hand, if there is no matching audio / text information as a result of the index, the matching module 140 may transmit the speech data classified as the speech voice to the automatic speech recognition system 200.

이에 따라, 자동 스피치 인식 시스템(200)에서는 통상의 자동화된 스피치 인식 처리를 수행한 자동 스피치 인식 데이터를 단말 장치(100)로 제공할 수 있다.Accordingly, the automatic speech recognition system 200 may provide the terminal device 100 with automatic speech recognition data that has been subjected to normal automated speech recognition processing.

한편, 오디오 분석 모듈(120)에서 음성 신호의 분석에 따라 획득되는 스피치 데이터는, 스피치 분석 정보를 포함할 수 있다. 여기서, 스피치 분석 정보는, 상기 음성 신호 분석에 따라 검출된 상기 스피치 데이터의 유효성(Value) 정보, 상기 스피치 데이터의 분류(Categrize) 정보 및 상기 스피치 데이터의 비-유창성(Disfluency) 정보 중 적어도 하나를 포함할 수 있으며, 각 분석 정보에 대하여는 각각 구체적으로 후술하도록 한다.Meanwhile, the speech data obtained by analyzing the voice signal in the audio analysis module 120 may include speech analysis information. Here, the speech analysis information may include at least one of value information of the speech data detected according to the speech signal analysis, category information of the speech data, and non-fluency information of the speech data. Each analysis information will be described later in detail.

이에 따라, 오디오 분석 모듈(120)은 상기 스피치 음성 분류에 따른 음성 정보와, 스피치 분석 정보를 생성하기 위한 음성 신호의 분석 처리를 다각화하여 수행할 수 있는 바, 특히 본 발명의 실시 예에 따른 스피치 데이터는 매칭 모듈(140)에서의 스피치 종료(EOS) 타이머 윈도우의 결정 프로세스에 이용될 수 있다.Accordingly, the audio analysis module 120 may perform the speech processing according to the speech speech classification and the analysis process of the speech signal for generating the speech analysis information by diversifying, in particular the speech according to the embodiment of the present invention. The data may be used in the determination process of the speech end (EOS) timer window in the matching module 140.

여기서, 본 발명의 실시 예에 따른 EOS 타이머 윈도우는 원격지의 자동 스피치 인식 시스템(200)과는 독립적으로 로컬 스피치 종료를 검출하기 위하여, 매칭 모듈(140)에서 설정 및 관리되는 시간 구간 정보를 나타낼 수 있다.Here, the EOS timer window according to an embodiment of the present invention may represent time interval information set and managed by the matching module 140 to detect the local speech end independently of the remote automatic speech recognition system 200. have.

이에 따라, 매칭 모듈(140)은, 스피치 종료 타이머 윈도우가 지속되는 동안의 스피치 데이터를 로컬 색인 모듈(130) 또는 자동 스피치 인식 시스템(200)을 통해 자동 인식하여 단말 장치(100)로 응답 처리하게 하되, 스피치 종료 타이머 윈도우가 만료된 경우에는 강제 EOS 정보를 생성하여 단말 장치(100)로 제공함으로써, 자동 스피치 인식 시스템(200)과는 독립적인 로컬 스피치 종료를 가능하게 한다.Accordingly, the matching module 140 automatically recognizes the speech data while the speech end timer window continues through the local index module 130 or the automatic speech recognition system 200 to process the response to the terminal device 100. When the speech end timer window expires, however, the forced EOS information is generated and provided to the terminal device 100, thereby enabling local speech termination independent of the automatic speech recognition system 200.

특히, 매칭 모듈(140)은 상기 음성 신호 분석에 따라 검출된 상기 스피치 데이터의 유효성 정보, 상기 스피치 데이터의 분류 정보 및 상기 스피치 데이터의 비유창성(Disfluency) 중 적어도 하나에 따라, 상기 스피치종료 타이머 윈도우를 적응적으로 가변하여 스피치 종료점을 결정하게 하는 바, 자동 스피치 인식 시스템(200)만을 이용하는 기존 시스템 대비 신속하고 효과적인 응답 지연 단축효과를 가져올 수 있다.In particular, the matching module 140 may determine the speech end timer window according to at least one of validity information of the speech data detected according to the speech signal analysis, classification information of the speech data, and disfluency of the speech data. By adaptively varying to determine the speech end point, it can bring about a quick and effective response delay shortening effect compared to the existing system using only the automatic speech recognition system 200.

또한, 로컬 데이터베이스(110)는 단말 장치(100)의 이전 질의 및 응답 정보에 기초한 확률 모델을 저장할 수 있으며, 색인 모듈(130)은 오디오 분석 모듈(120)에서 추출된 텍스트 정보에 매칭되는 응답 정보를 색인하여 매칭 모듈(140)로 전달할 수 있다.In addition, the local database 110 may store a probability model based on previous query and response information of the terminal device 100, and the index module 130 may respond to the text information extracted from the audio analysis module 120. The index may be delivered to the matching module 140.

여기서, 이와 같은 로컬 데이터베이스(110)는 입력 음성 데이터 및 응답 명령 데이터를 축적하고, 확률 모델을 업데이트함으로써, 정확도를 더 높일 수 있다.Here, such a local database 110 may accumulate input voice data and response command data and update the probability model to further increase accuracy.

그리고, 매칭 모듈(140)은 매칭이 확인된 경우의 응답 정보를 단말 장치(100)로 제공할 수 있는 바, 사용자가 질의한 음성이 원격 자동 스피치 인식 시스템(200)으로 전달되지 않고도, 조기에 응답 결과가 제공되도록 할 수 있으며, 응답 결과 매칭에 따른 EOS가 조기 결정될 수 있다.In addition, the matching module 140 may provide the terminal apparatus 100 with response information when the matching is confirmed, so that the voice queried by the user may not be delivered to the remote automatic speech recognition system 200. The response result may be provided, and the EOS according to the response result matching may be determined early.

따라서, 본 발명의 실시 예에 따르면, 원격지의 자동 스피치 인식 시스템(200)만을 이용한 색인 프로세스보다 훨씬 더 빠른 명령 처리가 가능하게 된다.Therefore, according to an embodiment of the present invention, the command processing is much faster than the indexing process using only the remote automatic speech recognition system 200.

도 2 내지 도 6은 본 발명의 실시 예에 따른 스피치 인식 및 대기 시간 단축 프로세스를 음성 데이터의 구간에 따라 설명하기 위한 도면들이다.2 to 6 are diagrams for explaining a speech recognition and waiting time reduction process according to an interval of voice data according to an exemplary embodiment of the present invention.

예를 들어, 통상적 사용자 단말의 하드웨어 사양만으로는 언어 모델의 처리가 용이하지 않은 바, 원격지의 서버로서 구비되는 자동 스피치 인식 시스템이 이용되고 있다. 이러한 일반적 자동 스피치 인식 시스템은 단말의 요청에 따른 스피치 음성 데이터에 대응하는 중간 결과를 제공하되 스피치 종료(EOS)호출 시점을 스피치 인식 시스템이 결정하고, EOS 호출에 따른 최종 문장 정보를 제공한다.For example, since a language model is not easily processed only by hardware specifications of a typical user terminal, an automatic speech recognition system provided as a remote server is used. Such a general automatic speech recognition system provides an intermediate result corresponding to speech voice data according to a request of a terminal, but the speech recognition system determines a speech end point (EOS) call time and provides final sentence information according to an EOS call.

일반적 자동 스피치 인식 시스템은 미리 정해진 묵음(Silence) 시간 프레임이 식별되는 경우, EOS를 호출하도록 설정되어 있으며, 자동 스피치 인식 시스템은 EOS가 호출될 때까지의 음성 데이터를 텍스트 데이터로 해석할 수 있으므로, EOS 결정을 위한 자동 스피치 인식 시스템의 처리 시간에 의한 지연 시간이 발생될 수밖에 없으며, 사용자의 불편함이 가중될 수 있다. 또한, 사용자가 명령을 말하는 동안 어떤 이유로든 음성이 일시 중단될 수 있으므로 잘못된 EOS가 호출될 가능성 또한 존재하고 있다.In general, an automatic speech recognition system is set to call EOS when a predetermined silence time frame is identified, and the automatic speech recognition system can interpret voice data until text is called as text data. Delay time due to the processing time of the automatic speech recognition system for EOS determination is inevitably generated, and user inconvenience may be increased. There is also the possibility of a false EOS being called as the voice may be suspended for any reason while the user is speaking the command.

예를 들어, 도 2를 참조하면 통상적 자동 스피치 인식 시스템의 사용자 경험에 따른 전체 대기 시간은, 로그 선형 모델 기반의 방정식으로 표현될 수 있다. For example, referring to FIG. 2, the overall waiting time according to the user experience of the conventional automatic speech recognition system may be represented by an equation based on a log linear model.

Figure 112019026456748-pat00001
Figure 112019026456748-pat00001

여기서, (μ)는 네트워크 지연(13)인 응답 변수일 수 있으며, (α)는 자동 스피치 인식(ASR) 처리 시간(12)인 독립 변수일 수 있고, (β)는 EOS 검출을 위한 ASR 처리 시간(11)인 차단 변수일 수 있으며, (e) 는 사용자가 예측한 것과 맞지 않는 결과를 나타낼 오류 비율을 나타낼 수 있다. 그리고, (X)는 EOS 호출 시점에 의해 결정되는 발화 길이(14)를 나타낼 수 있다. 예를 들어, 예기치 않은 결과로 인해 발화가 반복되면 전체적인 X가 증가할 수 있다.Here, (μ) may be a response variable which is a network delay 13, (α) may be an independent variable which is an automatic speech recognition (ASR) processing time 12, and (β) may be an ASR process for EOS detection. It may be a blocking variable that is a time 11, and (e) may represent an error rate that will result in a result that does not match the user's prediction. And, (X) may represent the utterance length 14 determined by the EOS call time. For example, if an utterance is repeated due to an unexpected result, the overall X may increase.

그리고, 이와 같은 통상의 자동 스피치 인식 시스템에서, 오디오 입력의 묵음을 감지하면 EOS 시간 제한(time-out)이 시작될 수 있다. 예를 들어, EOS 시간 제한 (100 초, 도 2 구간 11) 이전에 오디오가 감지되면 시간 제한이 재설정되며. 오디오가 EOS 시간 제한 구간(11)내에 검출되지 않으면, EOS가 호출될 수 있다. 이후, 자동 스피치 인식 시스템이 오디오를 처리한 결과가 단말로 제공되는 시점(15)이 형성된다.And, in such a conventional automatic speech recognition system, EOS time-out may be started upon detecting silence of the audio input. For example, if audio is detected before the EOS time limit (100 seconds, Fig. 2 section 11), the time limit is reset. If audio is not detected within the EOS time limit section 11, EOS can be called. Thereafter, a time point 15 at which the result of processing the audio by the automatic speech recognition system is provided to the terminal is formed.

도 3은 통상의 자동 스피치 인식 시스템에서 음성 입력 데이터를 확인하는 방식을 나타내며, 음성 데이터는 버스트(burst) 및 묵음 패턴(21, 28, 22, 29)들을 포함할 수 있고, 복수의 시간 프레임에 따른 연속적인 데이터로서 구성될 수 있다. 그리고, 통상의 자동 스피치 인식 시스템에서 스피치 종료(EOS) 시점은 완전한 문장 구성을 위해, 복수의 시간 프레임이 종료된 이후의 시점(27)에서 호출될 수 있다.3 illustrates a method of verifying voice input data in a conventional automatic speech recognition system, which may include burst and silence patterns 21, 28, 22, and 29, and includes a plurality of time frames. It can be configured as continuous data according to. In an automatic speech recognition system, a speech end point (EOS) may be called at a time point 27 after a plurality of time frames ends for complete sentence construction.

그러나, 본 발명의 실시 예에 따른 매칭 모듈(140)은 오디오 분석 모듈(120)의 분석 프로세스에 따라, 중간 묵음 구간(31)에서 초기 EOS를 빠르게 호출할 수 있는 바, 이에 따른 사용자 경험 대기 시간이 단축될 수 있다. 또한, 매칭 모듈(140)은 색인 모듈(130)의 로컬 데이터베이스(110) 색인 결과를 제공함으로써, 초기 EOS 검출로 인한 해석 오류를 보완할 수 있다. 이를 위해, 로컬 인식 시스템은 단말 장치(100) 내부에 상주하는 모듈로서 구비될 수 있으며, 로컬 데이터베이스(110)는 단말 장치(100)의 구동 히스토리 정보를 저장하는 캐시 데이터베이스 또는 로컬 TTS/STT 변환 엔진 데이터베이스를 포함할 수 있다.However, the matching module 140 according to an embodiment of the present invention can quickly call the initial EOS in the middle silent section 31 according to the analysis process of the audio analysis module 120, and thus the user experience waiting time accordingly. This can be shortened. In addition, the matching module 140 may compensate for the interpretation error due to initial EOS detection by providing the local database 110 index result of the index module 130. To this end, the local recognition system may be provided as a module residing inside the terminal device 100, and the local database 110 may be a cache database or a local TTS / STT conversion engine that stores driving history information of the terminal device 100. It can include a database.

이와 같이, 초기 EOS가 로컬 프로세스에 의해 빠르게 호출되는 경우, 지연 감소로 인해 사용자가 느끼는 대기 시간은 크게 줄어들 수 있으며, 전술한 수학식 1 모델에 기초한 이상적 효과를 도출할 수 있다.As such, when the initial EOS is quickly called by the local process, the waiting time felt by the user due to the delay reduction can be greatly reduced, and the ideal effect based on the above Equation 1 model can be derived.

다만, 초기 EOS 검출은 잠재적 오역을 유발할 수 있는 바, 재질의에 의한 추가적 대기 시간이 소요될 수 있고, 따라서, 본 발명의 실시 예에 따른 로컬 데이터베이스(110)는 사용자가 원하는 결과를 미리 색인하기 위해, 단말 장치(100)의 이전 질의 정보(QUERY)를 기록하고, 자주 묻는 질의에 대응되는 응답 정보를 캐싱하여 로컬 데이터베이스(110)에 미리 저장할 수 있다.However, since initial EOS detection may cause a potential misinterpretation, it may take additional waiting time due to material, and therefore, the local database 110 according to an embodiment of the present invention may pre-index the desired result. In addition, the previous query information QUERY of the terminal device 100 may be recorded, and response information corresponding to a frequently asked query may be cached and stored in advance in the local database 110.

이에 따라, 로컬 데이터베이스(110)는 잘못된 응답의 가능성을 줄이기 위한 확률 모델을 구축할 수 있으며, 색인 모듈(130)을 통해 색인된 응답 정보를 매칭 모듈(140)로 제공할 수 있다.Accordingly, the local database 110 may construct a probabilistic model to reduce the probability of a false response, and provide the matching module 140 with indexed response information through the index module 130.

한편, 오디오 분석 모듈(120)은 노이즈를 잘못 해석하여 원치 않는 초기 EOS를 유발할 수있는 잠재적인 오류를 보완하기 위해, 잡음 분석 및 음성 활동 감지를 통한 비 문맥 데이터의 필터링을 처리할 수 있다. 이에 따라 스피치 데이터로 분류되지 않은 음성 데이터는 색인 모듈(130) 또는 자동 스피치 인식 시스템(200)으로 전달되기 이전에 차단될 수 있다. 이러한 로컬 필터링 프로세스에 의해, 자동 스피치 인식 시스템(200)으로의 불필요한 데이터 전송을 줄일 수 있으며 리소스 사용을 최적화 할 수 있다.On the other hand, the audio analysis module 120 may process filtering of non-context data through noise analysis and voice activity detection to compensate for potential errors that may misinterpret noise and cause unwanted initial EOS. Accordingly, voice data not classified as speech data may be blocked before being transmitted to the index module 130 or the automatic speech recognition system 200. By this local filtering process, unnecessary data transmission to the automatic speech recognition system 200 can be reduced and resource usage can be optimized.

이러한 처리를 위해, 오디오 분석 모듈(120)은 먼저 입력되는 음성 데이터의 노이즈 레벨 모니터링을 처리하여, 노이즈 구간과 음성 구간을 초기 식별할 수 있으며, 음성 구간의 버스트(burst) 패턴을 검출하거나, 연속적 노이즈 레벨 데이터를 검출함으로써, 음성 신호로부터 스피치 음성 데이터만을 분류 추출할 수 있다.For this processing, the audio analysis module 120 may first process noise level monitoring of the input voice data to initially identify the noise section and the voice section, detect a burst pattern of the voice section, or continuously By detecting the noise level data, only speech speech data can be classified and extracted from the speech signal.

또한, 오디오 분석 모듈(120)은 주파수 영역에서의 음성 변수 범위를 설정함으로써, 사람의 말로 간주될 수 있는 스피치 데이터만을 분류 추출할 수도 있다.In addition, the audio analysis module 120 may classify and extract only speech data that may be regarded as human speech by setting a range of voice variables in the frequency domain.

한편, 도 4 및 도 5는 비유창성 구간이 포함된 경우의 음성 데이터 파형을 나타낸다.4 and 5 illustrate voice data waveforms when a non-fluent period is included.

본 발명의 실시 예에 따른 음성 인식 시스템에 있어서, 의미 없는 데이터를 반환하거나 음성 명령을 다시 반복해야 하는 추가 지연이 발생되지 않도록, 매칭 모듈(140)은 비-유창성(Disfluency) 구간의 존재를 확인하고, 비 유창성이 확인된 경우 인식될 다음 단어의 중요도 가중치를 증가시키는 처리를 수행할 수 있다.In the speech recognition system in accordance with an embodiment of the present invention, the matching module 140 confirms the existence of a non-fluency interval so that an additional delay that returns meaningless data or repeats a voice command does not occur. If the non-fluentness is confirmed, a process of increasing the importance weight of the next word to be recognized may be performed.

특히, 한국어의 경우 "주어-목적어-동사"의 형식을 따르며, 주어가 완전히 생략되기도 하는 바, 비유창성 정보는 적절한 텍스트 및 문맥 인식을 제공하면서도, 초기 EOS를 검출하기 위한 이상적인 정보로 이용될 수 있다. 본 발명의 실시 예에 따른 시스템에 기반한 3개월간의 데이터 수집 및 테스트 처리에 있어서도, 90%이상이 "주어-목적어-동사" 또는 "목적어-동사" 형태였음을 확인한 바 있다.In particular, in the case of Korean, it follows the format of "subject-object-verb", and the subject is omitted entirely. Therefore, the non-fluent information can be used as an ideal information for detecting the initial EOS while providing proper text and context recognition. have. In the three months of data collection and test processing based on the system according to an embodiment of the present invention, it was confirmed that more than 90% was in the form of "subject-object-verb" or "object-verb".

보다 구체적으로, 도 4를 참조하면 통상적 자동 스피치 인식 시스템의 경우, '아', '그' 및 침묵이 반복되는 말더듬과 같은 비유창성 구간(400, 402)이 발생되면 상황과 관련성이 부족한 해석을 산출하게 된다. 또한, 시간 프레임의 사전 설정된 크기에 따라 침묵구간(401, 403) 등에서 잘못된 EOS를 호출 할 수 있다. 또한, 잘못된 입력 또는 EOS가 처리되고 최종 결과가 반환되는 동안 자동 스피치 인식 시스템은 추가 입력을 허용하지 않는 경우가 존재한다. 따라서, 사용자는 원하는 발화를 반복하게 되고, 전반적 대기 시간이 증가되는 문제점이 존재한다.More specifically, referring to FIG. 4, in the case of a typical automatic speech recognition system, when a non-fluent interval 400, 402 such as stuttering repeating 'a', 'he', and silence is generated, an interpretation that is not relevant to the situation is insufficient. Will be calculated. In addition, the wrong EOS may be called in the silent sections 401 and 403 according to a preset size of the time frame. In addition, there are cases where the automatic speech recognition system does not allow further input while wrong input or EOS is processed and the final result is returned. Therefore, the user repeats the desired speech, and there is a problem that the overall waiting time is increased.

이를 해결하기 위해, 본 발명의 실시 예에 따른 매칭 모듈(140)은 EOS 검출을 위한 EOS 시간 윈도우를 로컬 설정하고, 이에 대응한 윈도우 크기를 가변시킬 수 있으며, 특히 비유창성 구간 검출시 EOS 타임 윈도우를 확장하면서 다음 단어의 인식 가중치를 증가시킬 수 있다. 예를 들어, 본 발명의 실시 예에 따른 매칭 모듈(140)은, 도 4에서의 비유창성 발화로 인한 묵음 구간(401, 403)에서의 EOS 타임 윈도우를 연장시킬 수 있으며, 이에 따라 EOS 검출이 비활성화될 수 있다. In order to solve this problem, the matching module 140 according to an embodiment of the present invention may locally set an EOS time window for EOS detection and change a window size corresponding thereto, and in particular, an EOS time window when a non-fluent interval is detected. While extending the can increase the recognition weight of the next word. For example, the matching module 140 according to an embodiment of the present invention may extend the EOS time windows in the silent sections 401 and 403 due to non-fluent speech in FIG. Can be deactivated.

또한, 매칭 모듈(140)은 EOS 타임 윈도우의 종료 시간을 연속된 프레임의 음성 데이터가 종료되는 시점까지로 재설정할 수 있는 바, 이에 따른 EOS 호출 연장 시점(408)이 재설정될 수 있게 된다.In addition, the matching module 140 may reset the end time of the EOS time window to the time point at which the voice data of the continuous frame ends, and thus the EOS call extension time point 408 may be reset.

또한, 도 5는 EOS 타임 윈도우의 동적 크기 가변에 의한 시간 지연 단축을 나타내는 것으로, 매칭 모듈(140)은 음성 데이터가 비유창성에 따른 버스트 데이터를 포함하는 경우, 발화 길이에 따른 EOS 타임 윈도우의 동적 변경을 처리할 수 있다.In addition, FIG. 5 illustrates a reduction in time delay due to the dynamic size change of the EOS time window. When the speech module includes burst data according to non-fluency, the matching module 140 dynamically adjusts the EOS time window according to the speech length. The change can be processed.

도 5를 참조하면, 일반적 EOS 검출의 경우, 발화 종료 이후의 고정된 길이의 시간 프레임 구간(410)이 지나야 하지만, 본 발명의 실시 예에 따른 매칭 모듈(140)의 경우 비유창성을 포함한 음성 데이터에 대하여는 발화 길이에 대응한 EOS 타임 윈도우의 동적 감축 변경(411)을 처리함으로써, 사용자는 그 차이만큼의 대기 시간(412) 감소 효과를 받을 수 있다.Referring to FIG. 5, in the case of general EOS detection, the fixed length time frame section 410 must pass after the end of the utterance, but in the case of the matching module 140 according to an exemplary embodiment of the present invention, voice data including non-fluency With respect to, by processing the dynamic reduction change 411 of the EOS time window corresponding to the utterance length, the user can receive the effect of reducing the waiting time 412 by the difference.

한편, 도 6은 본 발명의 실시 예에 따라, 비유창성(disfluency)을 포함하는 음성 데이터의 처리 지연 시간 단축을 종래 기술 대비 설명하기 위한 도면이다.Meanwhile, FIG. 6 is a diagram for explaining a reduction in processing delay time of speech data including non-fluence according to an embodiment of the present invention, compared to the related art.

도 6(A)에 도시된 바와 같이, 종래 기술에 있어서 발화자의 음성에서 비유창성을 포함하는 음성 구간(500, 501)과 침묵 구간(503)이 발생되면, 음성 인식 시스템에서는 침묵 구간에 의한 EOS 구간(515)을 검출하고, 인식 처리 시간(505)이 지난 후, 잘못된 문맥 인식 결과(506)를 제공한다.As shown in FIG. 6 (A), when the voice sections 500 and 501 and the silence section 503 including non-fluentness are generated in the voice of the talker in the prior art, EOS by the silence section in the speech recognition system is generated. Interval 515 is detected, and after recognition processing time 505 passes, an incorrect context recognition result 506 is provided.

결과적으로, 사용자는 실제 질의 음성(502)에 대한 응답을 얻지 못하여, 다시 발화(504)하여야 하고, 이에 따라, 추가적인 EOS 구간(516) 검출과, 인식 시간(514)이 소요되어 추가 지연 시간(517)이 소요된 이후에 응답 결과가 제공되게 된다.As a result, the user does not get a response to the actual question voice 502 and needs to speak 504 again. Accordingly, additional EOS interval 516 detection and recognition time 514 are required, resulting in additional delay time ( After 517 is taken, the response result is provided.

반면, 본 발명의 실시 예에 따른 프로세스에 의한 도 7(B)를 참조하면, 발화자로부터 비유창성 구간(508, 509)을 포함하는 음성 입력이 수신되더라도, 매칭 모듈(140)에서는 EOS 타임 윈도우를 로컬 설정하되, 비유창성 검출에 따른 타임 윈도우 종료 시간을 연장함으로써 실제 질의음성(510)까지 수신될 때까지 대기할 수 있게 된다.On the other hand, referring to FIG. 7B by a process according to an embodiment of the present invention, even if a voice input including non-fluent intervals 508 and 509 is received from the talker, the matching module 140 may generate an EOS time window. By setting the local time, the time window ending time according to the non-fluency detection is extended to wait until the actual query voice 510 is received.

또한, EOS 윈도우 만료(511)에 따른 조기 EOS가 검출되고, 이에 따른 처리 시간(512)만이 적절히 소요된 이후에 인식 결과가 사용자에게 제공될 수 있다.In addition, the recognition result may be provided to the user after early EOS according to the EOS window expiration 511 is detected and only the processing time 512 is appropriately taken.

이와 같이, 종래 기술 대비 대기 시간 차이(513)가 명확히 단축될 수 있음을 확인할 수 있는 바, 이는 사용자 편의성 향상의 주요 요소가 될 수 있다.As such, it can be seen that the waiting time difference 513 can be clearly shortened compared to the prior art, which can be a major factor in improving user convenience.

도 7 내지 도 9는 본 발명의 실시 예에 따른 스피치 인식 방법을 각 프로세스별로 보다 구체적으로 설명하기 위한 흐름도들이다.7 to 9 are flowcharts for describing a speech recognition method according to an embodiment of the present invention in more detail for each process.

도 7은 본 발명의 실시 예에 따른 로컬 스피치 인식 프로세스를 전체적으로 설명하기 위한 흐름도이다.7 is a flowchart illustrating an entire process of local speech recognition according to an exemplary embodiment of the present invention.

도 7을 참조하면, 먼저 오디오 분석 모듈(120)은 단말 장치(100)로부터 수신되는 음성 신호로부터 노이즈 분석을 처리한다(S101).Referring to FIG. 7, first, the audio analysis module 120 processes noise analysis from a voice signal received from the terminal device 100 (S101).

그리고, 오디오 분석 모듈(120)은 노이즈 분석에 따른 음성 활동(Activity) 정보를 검출한다(S103).The audio analysis module 120 detects voice activity information according to the noise analysis (S103).

이후, 오디오 분석 모듈(120)은 스피치 데이터 연속성(Succesivity)를 확인한다(S105).Thereafter, the audio analysis module 120 checks speech data continuity (Succesivity) (S105).

이에 따라, 오디오 분석 모듈(120)는 종합적 분석 결과에 따른 음성 신호의 스피치 데이터 분류 가능여부를 판단하며(S107), 분류 가능한 경우 음성 신호를 색인 모듈(130)로 전달하여 로컬 자동 스피치 인식 프로세스에 진입한다(S109).Accordingly, the audio analysis module 120 determines whether speech data can be classified according to the comprehensive analysis result (S107), and if possible, the audio analysis module 120 transmits the speech signal to the index module 130 to the local automatic speech recognition process. Enter (S109).

여기서, 매칭 모듈(140)은 자동 스피치 인식 프로세스를 위한 로컬 EOS 타임 윈도우를 설정할 수 있다.Here, the matching module 140 may set a local EOS time window for the automatic speech recognition process.

또한, S107단계에서 노이즈 검출에 따라 스피치 데이터로 분류 가능하지 않은 것으로 판단된 경우에는 오디오 분석 모듈(120)은 다음 시간 프레임의 음성 신호에 대한 노이즈 분석을 수행할 수 있다.In addition, when it is determined in step S107 that the speech data cannot be classified according to the noise detection, the audio analysis module 120 may perform noise analysis on the voice signal of the next time frame.

로컬 자동 스피치 인식 프로세스에 있어서, 색인 모듈(130)은 스피치 데이터 사전 분류(Categorize) 처리를 수행한다(S111). 사전 분류는 스피치 데이터를 미리 설정된 분류값들에 매칭시키는 분류 처리를 포함할 수 있다.In the local automatic speech recognition process, the index module 130 performs speech data pre-category processing (S111). The pre-classification may include a classification process of matching the speech data with preset classification values.

그리고, 매칭 모듈(140)은 오디오 분석 모듈(120)의 분석 결과로부터 스피치 데이터에 비유창성(Disfluency) 구간이 존재하는지 판단하며(S113), 스피치 데이터의 컨텐츠 유효성(valuable)이 존재하는지 판단하고(S115), 비유창성이 존재하지 않고 유효성이 존재하는 경우, 색인 모듈(130)을 통해 로컬 데이터베이스(110)의 데이터 분석 기반의 매칭 처리를 수행한다(S117).In addition, the matching module 140 determines whether there is a disfluency section in the speech data from the analysis result of the audio analysis module 120 (S113), and determines whether there is a content validity of the speech data (S113). S115) If non-fluency does not exist and validity exists, data analysis based matching processing of the local database 110 is performed through the index module 130 (S117).

여기서, 매칭 처리는 로컬 데이터베이스(110)에 캐시된 히스토리 정보에 기초하거나, 로컬 데이터베이스(110)에 탑재된 TTS 및 STT 엔진에 의해 처리될 수 있으며, 매칭 모듈(140)은 색인 모듈(130)의 응답 결과를 확인하여 매칭여부를 확인(S119)할 수 있다.Here, the matching process may be based on history information cached in the local database 110 or may be processed by the TTS and STT engines mounted in the local database 110, and the matching module 140 may be configured as the index module 130. By checking the response result, it may be checked whether or not matching is performed (S119).

한편, S113 단계에서 스피치 데이터에 비유창성 구간이 존재하거나, S115 단계에서 스피치 데이터의 컨텐츠 유효성이 존재하지 않거나, S119 단계에서 매칭여부가 확인되지 않는 경우, 매칭 모듈(140)은 EOS 타임 윈도우를를 미리 설정된 시간 구간동안 연장한다(S125).On the other hand, if there is a non-fluent interval in the speech data in step S113, the content validity of the speech data does not exist in step S115, or whether matching is not confirmed in step S119, the matching module 140 advances the EOS time window in advance. It extends for a set time period (S125).

이후, 매칭 모듈(140)은 타임 윈도우 만료 여부를 확인하고(S127), 만료된 시점에 EOS를 호출하여 매칭 확인에 따른 문장 종료를 판단하며(S121), 문장 종료에 따른 출력 데이터가 존재하는 경우 단말 장치(100)로 제공하여, 문장 응답에 대응하는 적절한 데이터 처리가 수행되도록 한다(S123).Thereafter, the matching module 140 checks whether the time window expires (S127), calls EOS at the time when it expires, determines the sentence termination according to the matching check (S121), and when there is output data according to the sentence termination, Provided to the terminal device 100, the appropriate data processing corresponding to the sentence response is performed (S123).

한편, 도 8은 본 발명의 실시 예에 따른 스피치 데이터 분류 프로세스를 보다 구체적으로 도시한 흐름도이다.8 is a flowchart illustrating a speech data classification process according to an exemplary embodiment of the present invention in more detail.

도 8을 참조하면, 오디오 분석 모듈(120)은 먼저 음성 버퍼로부터 데이터를 리드한다(S201).Referring to FIG. 8, the audio analysis module 120 first reads data from a voice buffer (S201).

그리고, 오디오 분석 모듈(120)은 데이터 프레임별 음성 활동 정보를 검출하며(S203), 프레임별 활동 정보를 판단하고(S205), 이에 따른 연속적(consecutive) 활동을 판단하며(S207), 연속적 활동 정보로부터 음성 패턴에 대응하는 연속적 특징의 존재를 판단함으로써(S209), 스피치 데이터로의 분류 가능성을 판단(S211)할 수 있다.The audio analysis module 120 detects voice activity information for each data frame (S203), determines activity information for each frame (S205), and determines continuous activity accordingly (S207). By judging the existence of the continuous feature corresponding to the speech pattern from (S209), it is possible to determine the possibility of classifying into speech data (S211).

오디오 분석 모듈(120)은 분류 가능성 판단에 따라, 분류 가능한 경우에는 스피치 데이터로 분류 처리하며(S213), 분류 불가한 경우에는 데이터 무시 처리를 수행한다(S215).According to the classification possibility determination, the audio analysis module 120 classifies the speech data into speech data (S213), and if it is not classifiable, ignores the data (S215).

이와 같은 오디오 분석 모듈(120)의 처리에 따라, 음성 데이터에 대한 로컬 자동 스피치 인식 프로세스로 진입하거나, 자동 스피치 인식 시스템(200)으로 전달하기 이전에 잘못된 오디오 데이터로 인한 EOS 호출 영향을 최소화할 수 있다. 이를 위해, 오디오 분석 모듈(120)은 음성 버퍼로부터 판독된 데이터의 음성 활동 정보를 확인할 수 있으며, 고정된 시간 프레임을 기반으로 하는 음성 활동을 검출하고, 다음 프레임 구성의 기대치 설정을 위한 연속적 활동 검출여부를 판단할 수 있다.According to the processing of the audio analysis module 120 as described above, it is possible to minimize the impact of EOS calls due to erroneous audio data before entering the local automatic speech recognition process for voice data or passing it to the automatic speech recognition system 200. have. To this end, the audio analysis module 120 may check the voice activity information of the data read from the voice buffer, detect voice activity based on a fixed time frame, and detect continuous activity for setting expectations of the next frame configuration. It can be determined.

예를 들어, 오디오 분석 모듈(120)은 연속적 파형에 따른 현재 프레임 내 음성 활동 검출에 따라, 다음 프레임의 음성 존재 가능성을 예측할 수 있으며, 스피치 데이터의 경우 음성 데이터 사이에 침묵구간이 존재하는 경향이 있으므로, 이에 대응하는 음성 활동의 시간 프레임 패턴 분석에 따라, 음성 데이터가 노이즈인지 또는 스피치 데이터를 포함하는지를 검출할 수 있다.For example, the audio analysis module 120 may predict the presence of voice in the next frame according to the detection of voice activity in the current frame according to the continuous waveform. Therefore, according to the time frame pattern analysis of the voice activity corresponding thereto, it is possible to detect whether the voice data includes noise or speech data.

보다 구체적으로, 오디오 분석 모듈(120)은 상기 음성 신호로부터 스피치 예측 데이터에 대응하는 묵음 패턴 및 버스트 음성 데이터를 검출하고, 상기 스피치 예측 데이터의 묵음 대 사운드 레벨 비율 연산에 따라, 상기 스피치 예측 데이터를 상기 스피치 데이터로 분류할 수 있는 것이다.More specifically, the audio analysis module 120 detects the silence pattern and the burst speech data corresponding to the speech prediction data from the speech signal, and analyzes the speech prediction data according to the silent-to-sound level ratio calculation of the speech prediction data. It can be classified into the speech data.

또한, 오디오 분석 모듈(120)은 상기 음성 신호의 연속적 레벨 지속 검출에 따른 노이즈 레벨을 결정하고, 상기 음성 신호 샘플 대비 비 침묵 구간 및 비 노이즈 구간의 비율에 따라, 상기 스피치 데이터의 컨텐츠 유효성(Valuable)을 결정할 수 있는 바, 매칭 모듈(140)은 컨텐츠 유효성 분석 결과에 따라, 데이터 분석 기반 매칭 수행여부를 결정할 수 있다.In addition, the audio analysis module 120 determines a noise level according to continuous level continuous detection of the speech signal, and verifies the content validity of the speech data according to the ratio of the non-silence section and the non-noise section to the speech signal sample. ), The matching module 140 may determine whether to perform data analysis based matching according to the content validity analysis result.

한편, 도 9는 본 발명의 실시 예에 따른 비유창성 존재여부 기반 음성 인식 프로세스를 도시한 흐름도이다.9 is a flowchart illustrating a speech recognition process based on non-fluentness according to an embodiment of the present invention.

도 9를 참조하면, 오디오 분석 모듈(120)에서 음성 데이터가 수신되고(S301), 스피치 데이터가 분류되면(S303), 매칭 모듈(140)은 스피치 종료(EOS) 타이머 윈도우를 설정하고, 이에 따른 EOS 타이머를 개시한다(S305).Referring to FIG. 9, when voice data is received from the audio analysis module 120 (S301), and speech data is classified (S303), the matching module 140 sets a speech end (EOS) timer window. The EOS timer is started (S305).

그리고, 매칭 모듈(140)은 로컬 데이터베이스(110)의 캐시 데이터 또는 STT/TTS 엔진을 통해 스피치 데이터에 대응하는 텍스트 정보를 획득한다(S307).The matching module 140 obtains text information corresponding to the speech data through the cache data of the local database 110 or the STT / TTS engine (S307).

여기서, 매칭 모듈(140)은 오디오 분석 모듈(120)의 분석에 따른 스피치 데이터의 비유창성(Disfluency)의 존재를 판단하고(S309), 존재하는 경우 EOS 타이머를 연장하며(S311), 다음 단어에 대응하는 단어 중요도 가중치를 증가시킨다(S313).Here, the matching module 140 determines the existence of disfluency of speech data according to the analysis of the audio analysis module 120 (S309), and if present, extends an EOS timer (S311), The corresponding word importance weight is increased (S313).

한편, 비유창성이 확인되지 않는 경우, 매칭 모듈(140)은 색인 모듈(130)을 통해 텍스트 정보의 중요도 가중치를 기반으로 하는 응답 매칭 분석을 수행하고(S315), 불필요한 단어가 예측되었는지 판단하며(S317), 불필요한 단어가 아니라면 추가 오디오 이전에 EOS 타이머가 종료되었는지를 판단하여(S319), 응답 결과에 대응하는 출력을 리턴하고, 이에 대응하는 명령 데이터 처리가 단말 장치(100)에서 처리되도록 한다(S321).On the other hand, when the non-fluency is not confirmed, the matching module 140 performs a response matching analysis based on the importance weight of the text information through the index module 130 (S315), and determines whether unnecessary words are predicted (S315). In step S317, if it is not an unnecessary word, it is determined whether the EOS timer expires before the additional audio (S319), and an output corresponding to the response result is returned, and the corresponding command data processing is processed in the terminal device 100 ( S321).

만약 S317 단계에서 불필요한 단어가 예측되었거나, S319 단계에서 EOS 타이머가 종료되지 않은 경우에는, 오디오 분석 모듈(120)에서 다시 다음 음성 데이터를 수신하여 처리한다.If unnecessary words are predicted in step S317 or the EOS timer does not expire in step S319, the audio analysis module 120 receives and processes the next voice data again.

또한, 매칭 모듈(140)은 상기 비유창성(Disfluency) 정보 획득을 위한 비유창성 단어 리스트 및 예측 키워드 가중치 정보를 로컬 데이터베이스(110)에 저장 및 관리할 수 있다.In addition, the matching module 140 may store and manage the non-fluent word list and the prediction keyword weight information for obtaining the non-fluency information in the local database 110.

이에 따라, 매칭 모듈(140)은 상기 비유창성 정보에 대응하는 상기 스피치 종료 타이머 윈도우 가변값을 미리 저장된 정보에 기초하여 설정하되, 상기 비유창성 정보에 따른 가변 정도는 상기 예측 키워드 가중치 정보에 기초하여 결정되도록 설정될 수 있다.Accordingly, the matching module 140 sets the speech end timer window variable value corresponding to the non-fluent information based on previously stored information, and the degree of variation according to the non-fluent information is based on the prediction keyword weight information. Can be set to be determined.

도 10은 본 발명의 실시 예에 따른 스피치 인식 프로세스와 기존 프로세스간 대기 시간 단축 차이를 설명하기 위한 래더 다이어그램이다.FIG. 10 is a ladder diagram illustrating a difference in waiting time between a speech recognition process and an existing process according to an exemplary embodiment of the present invention.

도 10(A)를 참조하면, 종래 기술의 단말 장치는 스피치의 종료에 따른 종료 스피치 데이터가 전송되고, 이에 따른 ASR 시스템의 EOS 검출에 따라 스피치 응답 시간이 지연됨을 확인할 수 있다.Referring to FIG. 10A, the terminal device according to the related art may confirm that the end speech data according to the end of the speech is transmitted, and the speech response time is delayed according to the EOS detection of the ASR system.

이에 반해, 도 10(B)를 참조하면, 본 발명의 실시 예에 따른 단말 장치(100)는, 동일한 스피치 종료 시점이 도래하더라도, 로컬 인식 시스템에 의한 강제 EOS 처리가 가능하게 되며, 이에 따른 EOS 타임 윈도우 가변에 의한 최종 인식 결과 처리가 조기 수행되어 스피치 응답이 종래 기술보다 빠르게 발화자에게 제공될 수 있다.On the contrary, referring to FIG. 10B, the terminal device 100 according to an embodiment of the present invention enables the forced EOS processing by the local recognition system even when the same speech end point arrives. Processing of the final recognition result by the time window variable is performed early so that the speech response can be provided to the talker faster than in the prior art.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 방법은 프로그램으로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 각 서버 또는 기기들에 제공될 수 있다. 이에 따라, 사용자 단말(100)은 서버 또는 기기에 접속하여, 상기 프로그램을 다운로드할 수 있다.Meanwhile, the aforementioned method according to various embodiments of the present disclosure may be implemented as a program and provided to each server or devices in a state of being stored in various non-transitory computer readable mediums. Accordingly, the user terminal 100 may access the server or the device and download the program.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium refers to a medium that stores data semi-permanently and is read by a device, not a medium that stores data for a short time such as a register, a cache, or a memory. Specifically, the various applications or programs described above may be stored and provided in a non-transitory readable medium such as a CD, a DVD, a hard disk, a Blu-ray disk, a USB, a memory card, a ROM, or the like.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In addition, although the preferred embodiment of the present invention has been shown and described above, the present invention is not limited to the specific embodiments described above, but the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present invention.

Claims (12)

원격지의 자동 스피치 인식 시스템과 네트워크를 통해 연결된 단말 장치에 구비되는 스피치 인식 장치의 동작 방법에 있어서,
발화자의 음성 신호를 수신하는 단계;
상기 음성 신호의 분석에 따라 스피치 데이터를 획득하는 단계; 및
스피치 종료 타이머 윈도우가 지속되는 동안의 스피치 데이터를 로컬 색인 모듈 또는 상기 원격지의 자동 스피치 인식 시스템에 의해 자동 인식 처리하여, 스피치 데이터에 대응하는 응답 정보를 제공하는 단계;를 포함하고,
상기 스피치 종료 타이머 윈도우는, 상기 음성 신호 분석에 따라 검출된 상기 스피치 데이터의 유효성(Valuable) 정보, 상기 스피치 데이터의 분류(Categraize) 정보 및 상기 스피치 데이터의 비유창성(Disfluency) 정보 중 적어도 하나에 따라 적응적으로 가변되며,
상기 스피치 종료 타이머 윈도우는 상기 원격지의 자동 음성 인식 시스템과 구분되는 상기 단말 장치 내부의 별도의 로컬 프로세스에 의해 구동된 매칭 모듈에 의해 가변되고,
상기 매칭 모듈은 상기 스피치 종료 타이머 윈도우가 지속되는 동안의 스피치 데이터를 상기 음성 신호로부터 분류하고, 상기 로컬 색인 모듈을 통해 로컬 데이터베이스로부터 색인된 상기 스피치 데이터에 매칭되는 응답 정보를 출력하며, 매칭되지 않은 경우 상기 자동 스피치 인식 시스템으로 전송한 상기 스피치 데이터의 자동 인식에 의해 매칭된 응답 정보가 상기 단말 장치로 수신되어 출력되도록 처리하는 모듈로서,
상기 매칭 모듈은 상기 스피치 종료 타이머가 만료된 경우 로컬 자동 스피치 인식 프로세스의 강제 스피치 인식 종료를 결정하거나, 강제 스피치 종료 신호를 상기 원격지의 자동 음성 시스템으로 전달하여, 상기 응답 정보의 출력 처리가 조기 수행되도록 하고,
상기 매칭 모듈은 상기 로컬 색인 모듈을 이용한 로컬 자동 스피치 인식 프로세스에 있어서, 상기 분류된 스피치 데이터로부터 비유창성 구간이 확인된 경우, 상기 스피치 종료 타이머 윈도우를 확장하고, 다음 인식될 단어의 중요도 가중치를 증가시키는 것을 특징으로 하며,
상기 응답 정보를 제공하는 단계는,
상기 스피치 데이터의 단어 정보에 기초하여, 발화자로부터 요청된 질의를 결정하는 단계;를 더 포함하는
스피치 인식 장치의 동작 방법.
A method of operating a speech recognition device provided in a terminal device connected to a remote automatic speech recognition system through a network,
Receiving a talker's voice signal;
Acquiring speech data according to the analysis of the speech signal; And
And automatically recognizing speech data during the duration of the speech end timer window by a local index module or the remote automatic speech recognition system to provide response information corresponding to the speech data.
The speech end timer window may be configured according to at least one of validity information of the speech data detected according to the voice signal analysis, classification information of the speech data, and disfluency information of the speech data. Adaptively variable,
The speech end timer window is varied by a matching module driven by a separate local process inside the terminal device that is distinct from the remote automatic speech recognition system,
The matching module classifies speech data for the duration of the speech end timer window from the voice signal, outputs response information matching the speech data indexed from a local database via the local index module, and does not match. A module for processing the response information matched by the automatic recognition of the speech data transmitted to the automatic speech recognition system to be received and outputted to the terminal device;
The matching module determines the forced speech recognition end of the local automatic speech recognition process when the speech end timer expires, or transmits the forced speech end signal to the remote automatic voice system so that the output processing of the response information is performed early. Make sure,
The matching module, in the local automatic speech recognition process using the local index module, when the non-fluent interval is identified from the classified speech data, expands the speech end timer window and increases the importance weight of the next word to be recognized. Characterized in that,
Providing the response information,
Determining a query requested from a talker based on the word information of the speech data;
Method of operation of speech recognition device.
삭제delete 삭제delete 제1항에 있어서,
상기 스피치 데이터를 획득하는 단계는,
상기 음성 신호로부터 연속적 레벨 지속을 검출하는 노이즈 레벨 결정 단계;를 더 포함하는
스피치 인식 장치의 동작 방법.
The method of claim 1,
Acquiring the speech data,
Determining a noise level for detecting continuous level duration from the speech signal;
Method of operation of speech recognition device.
제1항에 있어서,
상기 음성 신호의 샘플 대비 비 침묵 구간 및 비 노이즈 구간의 비율에 따라, 상기 스피치 데이터의 유효성 정보를 결정하는 단계;를 더 포함하는
스피치 인식 장치의 동작 방법.
The method of claim 1,
Determining validity information of the speech data according to a ratio of a non-silence section and a non-noise section to a sample of the speech signal;
Method of operation of speech recognition device.
제1항에 있어서,
상기 비유창성(Disfluency) 정보 획득을 위한 비유창성 단어 리스트 및 예측 키워드 가중치 정보를 저장 및 관리하는 단계;를 더 포함하는
스피치 인식 장치의 동작 방법.
The method of claim 1,
And storing and managing the non-fluent word list and the predicted keyword weight information for obtaining the non-fluency information.
Method of operation of speech recognition device.
제6항에 있어서,
상기 비유창성 정보에 대응하는 상기 스피치 종료 타이머 윈도우 가변값을 상기 로컬 데이터베이스에 미리 설정하는 단계;를 더 포함하는
스피치 인식 장치의 동작 방법.
The method of claim 6,
Presetting the speech end timer window variable value corresponding to the non-fluent information to the local database;
Method of operation of speech recognition device.
제7항에 있어서,
상기 비유창성 정보는 상기 예측 키워드 가중치 정보에 기초하여 결정되는 것을 특징으로 하는
스피치 인식 장치의 동작 방법.
The method of claim 7, wherein
The non-fluent information is determined based on the prediction keyword weight information.
Method of operation of speech recognition device.
제1항에 있어서,
상기 스피치 데이터를 획득하는 단계는,
상기 음성 신호로부터 스피치 예측 데이터에 대응하는 묵음 패턴 및 버스트 음성 데이터를 검출하는 단계;를 포함하는
스피치 인식 장치의 동작 방법.
The method of claim 1,
Acquiring the speech data,
Detecting a silence pattern and burst speech data corresponding to speech prediction data from the speech signal;
Method of operation of speech recognition device.
제9항에 있어서,
상기 스피치 데이터를 획득하는 단계는,
상기 스피치 예측 데이터의 묵음 대 사운드 레벨 비율 연산에 따라, 상기 스피치 예측 데이터를 상기 스피치 데이터로 분류하는 단계;를 더 포함하는
스피치 인식 장치의 동작 방법.
The method of claim 9,
Acquiring the speech data,
Classifying the speech prediction data into the speech data according to a silence-to-sound level ratio calculation of the speech prediction data.
Method of operation of speech recognition device.
삭제delete 제1항에 있어서,
통화 기록 정보에 기초하여, 상기 발화자에게 상기 스피치 데이터 기반 대화 서비스를 위한 초기 안내 정보를 제공하는 단계;를 더 포함하는
스피치 인식 장치의 동작 방법.
The method of claim 1,
Providing initial guide information for the speech data based conversation service to the caller based on call log information;
Method of operation of speech recognition device.
KR1020190029455A 2019-03-14 2019-03-14 Method of operating a speech recognition device KR102076212B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190029455A KR102076212B1 (en) 2019-03-14 2019-03-14 Method of operating a speech recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190029455A KR102076212B1 (en) 2019-03-14 2019-03-14 Method of operating a speech recognition device

Publications (1)

Publication Number Publication Date
KR102076212B1 true KR102076212B1 (en) 2020-02-11

Family

ID=69568829

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190029455A KR102076212B1 (en) 2019-03-14 2019-03-14 Method of operating a speech recognition device

Country Status (1)

Country Link
KR (1) KR102076212B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11431766B2 (en) 2021-01-04 2022-08-30 International Business Machines Corporation Setting timers based on processing of group communications using natural language processing
KR102658808B1 (en) * 2024-02-14 2024-04-19 주식회사 빛가람시스템 Method, device and system for remotely controlling a display screen based on stt

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020041036A (en) * 2000-11-25 2002-06-01 송근섭 providing method of statistic information using internet connection history from internet terminals of users
JP2005017932A (en) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd Device and program for speech recognition
KR20090054642A (en) 2007-11-27 2009-06-01 엘지전자 주식회사 Method for recognizing voice, and apparatus for implementing the same
KR20120038686A (en) * 2010-10-14 2012-04-24 에스케이텔레콤 주식회사 Method for evaluating study using language application of terminal and system
KR20140105214A (en) * 2013-02-22 2014-09-01 (주)케이믹글로벌 Dialog Engine for Speaking Training with ASR Dialog Agent
KR20180056281A (en) * 2016-11-18 2018-05-28 주식회사 인텔로이드 Apparatus and method for keyword recognition

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020041036A (en) * 2000-11-25 2002-06-01 송근섭 providing method of statistic information using internet connection history from internet terminals of users
JP2005017932A (en) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd Device and program for speech recognition
KR20090054642A (en) 2007-11-27 2009-06-01 엘지전자 주식회사 Method for recognizing voice, and apparatus for implementing the same
KR20120038686A (en) * 2010-10-14 2012-04-24 에스케이텔레콤 주식회사 Method for evaluating study using language application of terminal and system
KR20140105214A (en) * 2013-02-22 2014-09-01 (주)케이믹글로벌 Dialog Engine for Speaking Training with ASR Dialog Agent
KR20180056281A (en) * 2016-11-18 2018-05-28 주식회사 인텔로이드 Apparatus and method for keyword recognition

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11431766B2 (en) 2021-01-04 2022-08-30 International Business Machines Corporation Setting timers based on processing of group communications using natural language processing
US11563781B2 (en) 2021-01-04 2023-01-24 International Business Machines Corporation Setting timers based on processing of group communications using natural language processing
KR102658808B1 (en) * 2024-02-14 2024-04-19 주식회사 빛가람시스템 Method, device and system for remotely controlling a display screen based on stt

Similar Documents

Publication Publication Date Title
KR102260216B1 (en) Intelligent voice recognizing method, voice recognizing apparatus, intelligent computing device and server
CN110047481B (en) Method and apparatus for speech recognition
US20170084274A1 (en) Dialog management apparatus and method
WO2022105861A1 (en) Method and apparatus for recognizing voice, electronic device and medium
US9595261B2 (en) Pattern recognition device, pattern recognition method, and computer program product
CN112002349B (en) Voice endpoint detection method and device
EP3989217A1 (en) Method for detecting an audio adversarial attack with respect to a voice input processed by an automatic speech recognition system, corresponding device, computer program product and computer-readable carrier medium
KR20190104278A (en) Intelligent voice recognizing method, apparatus, and intelligent computing device
CN113362828B (en) Method and apparatus for recognizing speech
CN112614514A (en) Valid voice segment detection method, related device and readable storage medium
KR102076212B1 (en) Method of operating a speech recognition device
KR102075399B1 (en) A speech recognition apparatus
KR20200109841A (en) A speech recognition apparatus
CN114155839A (en) Voice endpoint detection method, device, equipment and storage medium
CN112863496B (en) Voice endpoint detection method and device
CN115512687B (en) Voice sentence-breaking method and device, storage medium and electronic equipment
KR20200109826A (en) A computer-readable recording medium on which a program for executing a speech recognition method is recorded
KR20200109843A (en) A speech recognition method
KR20200109830A (en) A computer-readable recording medium on which an automatic speech recognition program is recorded
EP3503093A1 (en) Method for associating a device with a speaker in a gateway, corresponding computer program computer and apparatus
CN112037772B (en) Response obligation detection method, system and device based on multiple modes
CN110021295B (en) Method and system for identifying erroneous transcription generated by a speech recognition system
KR20200109844A (en) A computer program for speech recognition
US11430435B1 (en) Prompts for user feedback
KR20200109836A (en) Method of operating a speech recognition device

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant