KR102075399B1 - 스피치 인식 장치 - Google Patents

스피치 인식 장치 Download PDF

Info

Publication number
KR102075399B1
KR102075399B1 KR1020190029523A KR20190029523A KR102075399B1 KR 102075399 B1 KR102075399 B1 KR 102075399B1 KR 1020190029523 A KR1020190029523 A KR 1020190029523A KR 20190029523 A KR20190029523 A KR 20190029523A KR 102075399 B1 KR102075399 B1 KR 102075399B1
Authority
KR
South Korea
Prior art keywords
speech
data
speech recognition
module
information
Prior art date
Application number
KR1020190029523A
Other languages
English (en)
Inventor
오성조
김은직
이수익
박준우
Original Assignee
주식회사 포지큐브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 포지큐브 filed Critical 주식회사 포지큐브
Priority to KR1020190029523A priority Critical patent/KR102075399B1/ko
Application granted granted Critical
Publication of KR102075399B1 publication Critical patent/KR102075399B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Abstract

본 발명의 실시 예에 따른 스피치 인식 장치의 동작 방법은, 단말 장치로부터 발화자의 음성 신호를 수신하는 단계; 상기 음성 신호의 분석에 따라 스피치 데이터를 획득하는 단계; 및 스피치 종료 타이머 윈도우가 지속되는 동안의 스피치 데이터를 자동 인식 처리하여, 텍스트 정보로 변환 출력하는 단계를 포함하고, 상기 스피치 종료 타이머 윈도우는, 상기 음성 신호 분석에 따라 검출된 상기 스피치 데이터의 가치 정보, 상기 스피치 데이터의 분류 정보 및 상기 스피치 데이터의 비유창성(Disfluency) 정보 중 적어도 하나에 따라 적응적으로 가변되는 것을 특징으로 한다.

Description

스피치 인식 장치{A SPEECH RECOGNITION APPARATUS}
본 발명은 스피치 인식 장치에 관한 것이다. 보다 구체적으로, 본 발명은 스피치 종료 시간 검출 프로세스를 통해, 응답 시간과 대기 시간을 단축시킬 수 있는 음성 인식 장치에 관한 것이다.
음성 신호는 사용자간 자신이 표현할 의사전달을 위하여 가장 보편적이고 간편하며 용이하고 신속하게 사용되는 수단 또는 매체이다.
그러나, 자연적인 상태에서의 중장거리 의사전달이 어려운 문제점이 있어, 이러한 음성 신호의 자동화된 인식 처리를 위해 자동 스피치 인식(Automatic Speech recognition, ASR) 기술이 제안되고 있다.
이러한 자동 스피치 인식(ASR) 기술은, 음성(AUDIO) 신호로부터 스피치(SPEECH) 구간을 검출하고, 스피치 구간으로부터 의사전달을 위한 문맥 데이터를 획득 처리하여, 자동화된 응답을 가능하게 한다.
최근에는, 이러한 ASR 기술이 별도의 서버 기반 학습 시스템으로 구축되고, 사용자 음성 입력에 따른 자연어 해석 및 유사 텍스트 데이터로 출력하는 방식의 서비스로 제공되고 있다. 학습 시스템은 예를 들어, 딥 뉴럴 네트워크(Deep Neural Network, DNN) 기반의 언어 모델을 이용한 확률 기반 근접 텍스트 탐색 다이어그램에 의해 구축될 수 있으며, 이를 위한 다양한 데이터베이스와 트레이닝 데이터들이 이용되고 있다.
그러나, 현재의 ASR 시스템은 문맥 데이터를 정확히 추출하는 데에는 유용할 수 있으나, 스피치 종료(END OF SPEECH, EOS) 시점을 검출하는 데에는 비효율적인 문제점이 있다.
보다 구체적으로, 현재의 ASR 시스템은 자동화된 스피치 인식 프로세스 내부에서, 스피치 종료(EOS) 시점을 자체적으로 검출하고 있으며, 이는 EOS 시점을 너무 일찍 결정하거나 너무 늦게 결정하게 하는 요인이 되고 있다.
예를 들어, 음성의 비유창성(Disfluency)에 의한 무음 등이 이어질 수 있으나, 현재의 ARS 시스템은 이를 스피치 종료로 판단하여 그대로 무의미한 데이터로서 반환 출력해버리거나, 반대로 스피치 종료시점을 정상적으로 판정하지 못하여 불필요한 대기 시간을 증가시키는 문제점이 발생하고 있는 것이다.
이와 같은 문제점으로 인해, 의미 있는 텍스트 데이터가 정상 추출되지 못하거나, 대기 시간 증가로 인한 사용자 편의성을 저해시키는 문제점들이 발생되고 있다.
한국공개특허 10-2009-0054642(발명의 명칭 : 음성 인식 방법 및 장치)
본 발명은 상기한 바와 같은 문제점을 해결하고자 안출된 것으로, ASR 시스템과는 독립적으로, 음성 신호의 분석에 따른 스피치 데이터의 특성에 따라, 스피치 종료(EOS) 시점을 적응적으로 가변 결정하게 함으로써 보다 신속하고 정확한 스피치 종료를 검출하게 하는 스피치 인식 장치 및 그 동작 방법을 제공하는 데 그 목적이 있다.
상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 스피치 인식 장치는, 단말 장치로부터 발화자의 음성 신호를 수신하는 음성 수신부; 상기 음성 신호의 분석에 따라 스피치 데이터를 획득하는 오디오 분석 모듈; 스피치 종료 타이머 윈도우가 지속되는 동안의 스피치 데이터를 자동 인식 처리하여, 텍스트 정보로 변환 출력하고, 상기 음성 신호 분석에 따라 검출된 상기 스피치 데이터의 가치 정보, 상기 스피치 데이터의 분류 정보 및 상기 스피치 데이터의 비유창성(Disfluency) 정보 중 적어도 하나에 따라, 상기 스피치 종료 타이머 윈도우를 적응적으로 가변하여 스피치 종료점을 결정하는 매칭 모듈을 포함한다.
한편, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 스피치 인식 장치의 동작 방법은, 단말 장치로부터 발화자의 음성 신호를 수신하는 단계; 상기 음성 신호의 분석에 따라 스피치 데이터를 획득하는 단계; 및 스피치 종료 타이머 윈도우가 지속되는 동안의 스피치 데이터를 자동 인식 처리하여, 텍스트 정보로 변환 출력하는 단계를 포함하고, 상기 스피치 종료 타이머 윈도우는, 상기 음성 신호 분석에 따라 검출된 상기 스피치 데이터의 가치 정보, 상기 스피치 데이터의 분류 정보 및 상기 스피치 데이터의 비유창성(Disfluency) 정보 중 적어도 하나에 따라 적응적으로 가변되는 것을 특징으로 한다.
한편, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램 및 상기 프로그램이 기록된 컴퓨터가 읽을 수 있는 기록 매체로 구현될 수 있다.
본 발명의 실시 예에 따르면, 음성 신호의 분석에 따른 스피치 데이터의 특성에 따라, 상기 스피치 종료 타이머 윈도우를 적응적으로 가변 결정하게 함으로써, 보다 신속하고 정확한 스피치 종료(EOS) 시점을 검출할 수 있다.
또한, 상기 스피치 데이터의 특성은 상기 음성 신호 분석에 따라 검출된 상기 스피치 데이터의 가치 정보, 상기 스피치 데이터의 분류 정보 및 상기 스피치 데이터의 비유창성(Disfluency) 정보 중 적어도 하나에 따라 결정됨으로써, 높은 수준의 정확성을 유지하면서도 음성 인식 응답의 대기 시간을 단축시킬 수 있으며, 이에 따른 사용자 편의성을 크게 향상시킬 수 있다.
도 1은 본 발명의 실시 예에 따른 전체 시스템을 개략적으로 도시한 블록도이다.
도 2 및 도 6은 본 발명의 실시 예에 따른 스피치 인식 및 대기 시간 단축 효과를 음성 데이터의 구간에 따라 설명하기 위한 도면들이다.
도 7 내지 도 9는 본 발명의 실시 예에 따른 스피치 인식 방법을 각 프로세스별로 보다 구체적으로 설명하기 위한 흐름도들이다.
도 10은 본 발명의 실시 예에 따른 스피치 인식 프로세스와 기존 프로세스간 대기 시간 단축 차이를 설명하기 위한 래더 다이어그램이다.
이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.
또한, 본 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.
따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.
또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 실시 예에 따른 전체 시스템을 개략적으로 도시한 블록도이다.
도 1을 참조하면 본 발명의 일 실시 예에 따른 시스템은, 단말 장치(100), 오디오 분석 모듈(120), 로컬 색인 모듈(130), 매칭 모듈(140), 자동 스피치 인식(ASR) 시스템(200)을 포함하여 구성될 수 있다.
단말 장치(100)는, 도 1에 도시된 바와 같이 발화자로부터 발화 음성을 입력받아 음성 신호를 출력하기 위한 하나 이상의 음성 수신부를 구비하는 사용자 단말일 수 있으며, 입력된 발화 음성에 대응하는 음성 신호를 오디오 분석 모듈(120)로 전달하는 장치로서, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등과 같이 예시되는 사용자 입력 및 정보 표시 등이 가능한 다양한 장치일 수 있다.
그리고, 본 발명의 실시 예에 따른 스피치 인식 장치는, 단말 장치(100)와 로컬 연결되는 오디오 분석 모듈(120), 로컬 색인 모듈(130), 로컬 데이터베이스(110) 및 매칭 모듈(140)을 포함하는 로컬 인식 시스템으로 구성될 수 있다.
여기서, 로컬 인식 시스템은 원격지에 구비되는 자동 스피치 인식 시스템(200)과는 별도 구비될 수 있으며, 로컬 데이터베이스(110)를 통해 음성 신호와 매칭 가능한 오디오 또는 텍스트 정보를 획득하여 단말 장치(100)로 제공하거나, 자동 스피치 인식 시스템(200)과 네트워크를 통해 유선 또는 무선으로 연결되어, 음성 신호로부터 추출되는 스피치 음성 데이터를 자동 스피치 인식 시스템(200)으로 제공하고, 자동 스피치 인식 시스템(200)로부터 인식 결과 데이터를 단말 장치(100)로 제공할 수 있다.
특히, 본 발명의 실시 예에 따른 로컬 인식 시스템에 의해, 로컬 오디오 분석 및 변환에 따라 매칭 가능한 오디오 및 텍스트 정보가 획득되어 우선적으로 단말 장치(100)로 제공될 수 있으며, 나아가 스피치 종료(EOS) 처리를 위한 강제(Forced) EOS 처리가 수행될 수 있는 바, 이에 따른 단말 장치(100)의 응답 처리 지연이 감소되고 사용자 편의성을 증진시킬 수 있다.
한편, 로컬 인식 시스템에서 매칭되지 않는 스피치 음성 데이터는 자동 스피치 인식 시스템(200)으로 전달될 수 있으며, 자동 스피치 인식 시스템(200)은 스피치 데이터에 대한 학습 데이터 기반의 통상의 스피치 인식 처리를 수행하고, 인식 결과에 따른 스피치 인식 데이터를 단말 장치(100)로 전송할 수 있다. 스피치 인식 데이터는 예를 들어, 텍스트 기반의 문맥 데이터를 포함할 수 있다.
단말 장치(100)는 매칭 모듈(140) 또는 자동 스피치 인식 시스템(200)으로부터 매칭된 오디오/텍스트 정보 또는 자동 스피치 인식 시스템(200)의 스피치 인식 데이터를 수신하고, 수신된 정보에 대응하는 응답 처리를 수행할 수 있다.
예를 들어, 단말 장치(100)는 매칭된 오디오/텍스트 정보 또는 스피치 인식 데이터로부터 사용자 음성 입력에 대응하는 명령(instruction) 정보를 식별하고, 명령 정보에 대응하는 사용자 인터페이스 출력을 처리하거나, 타 사용자로의 메시지 전송 또는 전화 연결을 처리하거나, 응답 음성의 출력 처리 등을 수행할 수 있다.
또한, 예를 들어 단말 장치(100)는 상기 스피치 데이터의 단어 정보에 기초하여, 발화자로부터 요청된 질의를 결정하고, 이에 대응한 처리를 제공할 수 있다.
또한, 예를 들어 단말 장치(100)는 로컬 데이터베이스(110)에 기록된 통화 기록 정보에 기초하여, 기존 이용내역이 없는 경우, 상기 발화자에게 상기 스피치 데이터 기반 대화 서비스를 위한 초기 안내 정보를 제공할 수도 있다.
앞서 설명한 바와 같이, 이와 같은 단말 장치(100)와 연결되는 로컬 인식 시스템은 자동 스피치 인식 시스템(200)과 네트워크를 통해 유선 또는 무선으로 연결될 수 있다. 네트워크간 상호간 통신을 위해 각 단말 장치(100) 및 로컬 인식 시스템의 모듈들과 자동 스피치 인식 시스템(200)은 인터넷 네트워크, LAN, WAN, PSTN(Public Switched Telephone Network), PSDN(Public Switched Data Network), 케이블 TV 망, WIFI, 이동 통신망 및 기타 무선 통신망 등을 통하여 데이터를 송수신할 수 있다. 또한, 각 단말 장치(100) 및 자동 스피치 인식 시스템(200)은 각 통신망에 상응하는 프로토콜로 통신하기 위한 각각의 통신 모듈을 포함할 수 있다.
그리고, 본 명세서에서 설명되는 본 발명의 실시 예에 따른 로컬 인식 시스템의 로컬 데이터베이스(110), 오디오 분석 모듈(120), 로컬 색인 모듈(130) 및 매칭 모듈(140)은 단말 장치(100) 내부에 위치한 내부 모듈로서 구비되거나, 외부 인터페이스에 의해 단말 장치(100)와 로컬 연결되는 외부 모듈로서 구현될 수 있는 바, 본 발명의 실시 예에 따른 스피치 인식 장치는 단말 장치(100) 단독으로 구성되거나, 외부 확장 연결된 로컬 인식 시스템으로 구성되거나, 자동 스피치 인식 시스템(200)을 포함하는 전체 시스템으로도 구성될 수 있으며, 그 구성 형태에 제한되는 것은 아니다.
보다 구체적으로, 본 발명의 실시 예에 따른 스피치 인식 장치의 오디오 분석 모듈(120)은, 단말 장치(100)의 음성 수신부에 수신되는 발화 음성으로부터 음성 신호가 출력되면, 상기 음성 신호의 분석에 따른 스피치 데이터를 획득할 수 있다.
여기서, 상기 스피치 데이터는, 음성 신호의 로컬 분류 프로세스에 의해, 스피치 음성으로 분류된 음성 데이터를 포함할 수 있다.
오디오 분석 모듈(120)은, 먼저 음성 데이터의 로컬 변환을 색인 모듈(130)로 요청할 수 있으며, 색인 모듈(130)은 로컬 데이터베이스(110)를 이용하여, 음성 데이터와 매칭되는 오디오 또는 텍스트 정보를 색인하고, 색인 결과를 매칭 모듈(140)로 전달할 수 있다.
그리고, 매칭 모듈(140)은 음성 데이터의 색인 결과에 따라 매칭된 오디오/텍스트 정보가 존재하는 경우, 상기 매칭된 오디오/텍스트를 음성 신호에 대응되는 응답 결과로서 단말 장치(100)로 제공할 수 있다.
한편, 매칭 모듈(140)은, 색인 결과 매칭된 오디오/텍스트 정보가 존재하지 않는 경우에는 자동 스피치 인식 시스템(200)으로 상기 스피치 음성으로 분류된 음성 데이터를 전달할 수 있다.
이에 따라, 자동 스피치 인식 시스템(200)에서는 통상의 자동화된 스피치 인식 처리를 수행한 자동 스피치 인식 데이터를 단말 장치(100)로 제공할 수 있다.
한편, 오디오 분석 모듈(120)에서 음성 신호의 분석에 따라 획득되는 스피치 데이터는, 스피치 분석 정보를 포함할 수 있다. 여기서, 스피치 분석 정보는, 상기 음성 신호 분석에 따라 검출된 상기 스피치 데이터의 유효성(Value) 정보, 상기 스피치 데이터의 분류(Categrize) 정보 및 상기 스피치 데이터의 비-유창성(Disfluency) 정보 중 적어도 하나를 포함할 수 있으며, 각 분석 정보에 대하여는 각각 구체적으로 후술하도록 한다.
이에 따라, 오디오 분석 모듈(120)은 상기 스피치 음성 분류에 따른 음성 정보와, 스피치 분석 정보를 생성하기 위한 음성 신호의 분석 처리를 다각화하여 수행할 수 있는 바, 특히 본 발명의 실시 예에 따른 스피치 데이터는 매칭 모듈(140)에서의 스피치 종료(EOS) 타이머 윈도우의 결정 프로세스에 이용될 수 있다.
여기서, 본 발명의 실시 예에 따른 EOS 타이머 윈도우는 원격지의 자동 스피치 인식 시스템(200)과는 독립적으로 로컬 스피치 종료를 검출하기 위하여, 매칭 모듈(140)에서 설정 및 관리되는 시간 구간 정보를 나타낼 수 있다.
이에 따라, 매칭 모듈(140)은, 스피치 종료 타이머 윈도우가 지속되는 동안의 스피치 데이터를 로컬 색인 모듈(130) 또는 자동 스피치 인식 시스템(200)을 통해 자동 인식하여 단말 장치(100)로 응답 처리하게 하되, 스피치 종료 타이머 윈도우가 만료된 경우에는 강제 EOS 정보를 생성하여 단말 장치(100)로 제공함으로써, 자동 스피치 인식 시스템(200)과는 독립적인 로컬 스피치 종료를 가능하게 한다.
특히, 매칭 모듈(140)은 상기 음성 신호 분석에 따라 검출된 상기 스피치 데이터의 유효성 정보, 상기 스피치 데이터의 분류 정보 및 상기 스피치 데이터의 비유창성(Disfluency) 중 적어도 하나에 따라, 상기 스피치종료 타이머 윈도우를 적응적으로 가변하여 스피치 종료점을 결정하게 하는 바, 자동 스피치 인식 시스템(200)만을 이용하는 기존 시스템 대비 신속하고 효과적인 응답 지연 단축효과를 가져올 수 있다.
또한, 로컬 데이터베이스(110)는 단말 장치(100)의 이전 질의 및 응답 정보에 기초한 확률 모델을 저장할 수 있으며, 색인 모듈(130)은 오디오 분석 모듈(120)에서 추출된 텍스트 정보에 매칭되는 응답 정보를 색인하여 매칭 모듈(140)로 전달할 수 있다.
여기서, 이와 같은 로컬 데이터베이스(110)는 입력 음성 데이터 및 응답 명령 데이터를 축적하고, 확률 모델을 업데이트함으로써, 정확도를 더 높일 수 있다.
그리고, 매칭 모듈(140)은 매칭이 확인된 경우의 응답 정보를 단말 장치(100)로 제공할 수 있는 바, 사용자가 질의한 음성이 원격 자동 스피치 인식 시스템(200)으로 전달되지 않고도, 조기에 응답 결과가 제공되도록 할 수 있으며, 응답 결과 매칭에 따른 EOS가 조기 결정될 수 있다.
따라서, 본 발명의 실시 예에 따르면, 원격지의 자동 스피치 인식 시스템(200)만을 이용한 색인 프로세스보다 훨씬 더 빠른 명령 처리가 가능하게 된다.
도 2 내지 도 6은 본 발명의 실시 예에 따른 스피치 인식 및 대기 시간 단축 프로세스를 음성 데이터의 구간에 따라 설명하기 위한 도면들이다.
예를 들어, 통상적 사용자 단말의 하드웨어 사양만으로는 언어 모델의 처리가 용이하지 않은 바, 원격지의 서버로서 구비되는 자동 스피치 인식 시스템이 이용되고 있다. 이러한 일반적 자동 스피치 인식 시스템은 단말의 요청에 따른 스피치 음성 데이터에 대응하는 중간 결과를 제공하되 스피치 종료(EOS)호출 시점을 스피치 인식 시스템이 결정하고, EOS 호출에 따른 최종 문장 정보를 제공한다.
일반적 자동 스피치 인식 시스템은 미리 정해진 묵음(Silence) 시간 프레임이 식별되는 경우, EOS를 호출하도록 설정되어 있으며, 자동 스피치 인식 시스템은 EOS가 호출될 때까지의 음성 데이터를 텍스트 데이터로 해석할 수 있으므로, EOS 결정을 위한 자동 스피치 인식 시스템의 처리 시간에 의한 지연 시간이 발생될 수밖에 없으며, 사용자의 불편함이 가중될 수 있다. 또한, 사용자가 명령을 말하는 동안 어떤 이유로든 음성이 일시 중단될 수 있으므로 잘못된 EOS가 호출될 가능성 또한 존재하고 있다.
예를 들어, 도 2를 참조하면 통상적 자동 스피치 인식 시스템의 사용자 경험에 따른 전체 대기 시간은, 로그 선형 모델 기반의 방정식으로 표현될 수 있다.
Figure 112019026511830-pat00001
여기서, (μ)는 네트워크 지연(13)인 응답 변수일 수 있으며, (α)는 자동 스피치 인식(ASR) 처리 시간(12)인 독립 변수일 수 있고, (β)는 EOS 검출을 위한 ASR 처리 시간(11)인 차단 변수일 수 있으며, (e) 는 사용자가 예측한 것과 맞지 않는 결과를 나타낼 오류 비율을 나타낼 수 있다. 그리고, (X)는 EOS 호출 시점에 의해 결정되는 발화 길이(14)를 나타낼 수 있다. 예를 들어, 예기치 않은 결과로 인해 발화가 반복되면 전체적인 X가 증가할 수 있다.
그리고, 이와 같은 통상의 자동 스피치 인식 시스템에서, 오디오 입력의 묵음을 감지하면 EOS 시간 제한(time-out)이 시작될 수 있다. 예를 들어, EOS 시간 제한 (100 초, 도 2 구간 11) 이전에 오디오가 감지되면 시간 제한이 재설정되며. 오디오가 EOS 시간 제한 구간(11)내에 검출되지 않으면, EOS가 호출될 수 있다. 이후, 자동 스피치 인식 시스템이 오디오를 처리한 결과가 단말로 제공되는 시점(15)이 형성된다.
도 3은 통상의 자동 스피치 인식 시스템에서 음성 입력 데이터를 확인하는 방식을 나타내며, 음성 데이터는 버스트(burst) 및 묵음 패턴(21, 28, 22, 29)들을 포함할 수 있고, 복수의 시간 프레임에 따른 연속적인 데이터로서 구성될 수 있다. 그리고, 통상의 자동 스피치 인식 시스템에서 스피치 종료(EOS) 시점은 완전한 문장 구성을 위해, 복수의 시간 프레임이 종료된 이후의 시점(27)에서 호출될 수 있다.
그러나, 본 발명의 실시 예에 따른 매칭 모듈(140)은 오디오 분석 모듈(120)의 분석 프로세스에 따라, 중간 묵음 구간(31)에서 초기 EOS를 빠르게 호출할 수 있는 바, 이에 따른 사용자 경험 대기 시간이 단축될 수 있다. 또한, 매칭 모듈(140)은 색인 모듈(130)의 로컬 데이터베이스(110) 색인 결과를 제공함으로써, 초기 EOS 검출로 인한 해석 오류를 보완할 수 있다. 이를 위해, 로컬 인식 시스템은 단말 장치(100) 내부에 상주하는 모듈로서 구비될 수 있으며, 로컬 데이터베이스(110)는 단말 장치(100)의 구동 히스토리 정보를 저장하는 캐시 데이터베이스 또는 로컬 TTS/STT 변환 엔진 데이터베이스를 포함할 수 있다.
이와 같이, 초기 EOS가 로컬 프로세스에 의해 빠르게 호출되는 경우, 지연 감소로 인해 사용자가 느끼는 대기 시간은 크게 줄어들 수 있으며, 전술한 수학식 1 모델에 기초한 이상적 효과를 도출할 수 있다.
다만, 초기 EOS 검출은 잠재적 오역을 유발할 수 있는 바, 재질의에 의한 추가적 대기 시간이 소요될 수 있고, 따라서, 본 발명의 실시 예에 따른 로컬 데이터베이스(110)는 사용자가 원하는 결과를 미리 색인하기 위해, 단말 장치(100)의 이전 질의 정보(QUERY)를 기록하고, 자주 묻는 질의에 대응되는 응답 정보를 캐싱하여 로컬 데이터베이스(110)에 미리 저장할 수 있다.
이에 따라, 로컬 데이터베이스(110)는 잘못된 응답의 가능성을 줄이기 위한 확률 모델을 구축할 수 있으며, 색인 모듈(130)을 통해 색인된 응답 정보를 매칭 모듈(140)로 제공할 수 있다.
한편, 오디오 분석 모듈(120)은 노이즈를 잘못 해석하여 원치 않는 초기 EOS를 유발할 수있는 잠재적인 오류를 보완하기 위해, 잡음 분석 및 음성 활동 감지를 통한 비 문맥 데이터의 필터링을 처리할 수 있다. 이에 따라 스피치 데이터로 분류되지 않은 음성 데이터는 색인 모듈(130) 또는 자동 스피치 인식 시스템(200)으로 전달되기 이전에 차단될 수 있다. 이러한 로컬 필터링 프로세스에 의해, 자동 스피치 인식 시스템(200)으로의 불필요한 데이터 전송을 줄일 수 있으며 리소스 사용을 최적화 할 수 있다.
이러한 처리를 위해, 오디오 분석 모듈(120)은 먼저 입력되는 음성 데이터의 노이즈 레벨 모니터링을 처리하여, 노이즈 구간과 음성 구간을 초기 식별할 수 있으며, 음성 구간의 버스트(burst) 패턴을 검출하거나, 연속적 노이즈 레벨 데이터를 검출함으로써, 음성 신호로부터 스피치 음성 데이터만을 분류 추출할 수 있다.
또한, 오디오 분석 모듈(120)은 주파수 영역에서의 음성 변수 범위를 설정함으로써, 사람의 말로 간주될 수 있는 스피치 데이터만을 분류 추출할 수도 있다.
한편, 도 4 및 도 5는 비유창성 구간이 포함된 경우의 음성 데이터 파형을 나타낸다.
본 발명의 실시 예에 따른 음성 인식 시스템에 있어서, 의미 없는 데이터를 반환하거나 음성 명령을 다시 반복해야 하는 추가 지연이 발생되지 않도록, 매칭 모듈(140)은 비-유창성(Disfluency) 구간의 존재를 확인하고, 비 유창성이 확인된 경우 인식될 다음 단어의 중요도 가중치를 증가시키는 처리를 수행할 수 있다.
특히, 한국어의 경우 "주어-목적어-동사"의 형식을 따르며, 주어가 완전히 생략되기도 하는 바, 비유창성 정보는 적절한 텍스트 및 문맥 인식을 제공하면서도, 초기 EOS를 검출하기 위한 이상적인 정보로 이용될 수 있다. 본 발명의 실시 예에 따른 시스템에 기반한 3개월간의 데이터 수집 및 테스트 처리에 있어서도, 90%이상이 "주어-목적어-동사" 또는 "목적어-동사" 형태였음을 확인한 바 있다.
보다 구체적으로, 도 4를 참조하면 통상적 자동 스피치 인식 시스템의 경우, '아', '그' 및 침묵이 반복되는 말더듬과 같은 비유창성 구간(400, 402)이 발생되면 상황과 관련성이 부족한 해석을 산출하게 된다. 또한, 시간 프레임의 사전 설정된 크기에 따라 침묵구간(401, 403) 등에서 잘못된 EOS를 호출 할 수 있다. 또한, 잘못된 입력 또는 EOS가 처리되고 최종 결과가 반환되는 동안 자동 스피치 인식 시스템은 추가 입력을 허용하지 않는 경우가 존재한다. 따라서, 사용자는 원하는 발화를 반복하게 되고, 전반적 대기 시간이 증가되는 문제점이 존재한다.
이를 해결하기 위해, 본 발명의 실시 예에 따른 매칭 모듈(140)은 EOS 검출을 위한 EOS 시간 윈도우를 로컬 설정하고, 이에 대응한 윈도우 크기를 가변시킬 수 있으며, 특히 비유창성 구간 검출시 EOS 타임 윈도우를 확장하면서 다음 단어의 인식 가중치를 증가시킬 수 있다. 예를 들어, 본 발명의 실시 예에 따른 매칭 모듈(140)은, 도 4에서의 비유창성 발화로 인한 묵음 구간(401, 403)에서의 EOS 타임 윈도우를 연장시킬 수 있으며, 이에 따라 EOS 검출이 비활성화될 수 있다.
또한, 매칭 모듈(140)은 EOS 타임 윈도우의 종료 시간을 연속된 프레임의 음성 데이터가 종료되는 시점까지로 재설정할 수 있는 바, 이에 따른 EOS 호출 연장 시점(408)이 재설정될 수 있게 된다.
또한, 도 5는 EOS 타임 윈도우의 동적 크기 가변에 의한 시간 지연 단축을 나타내는 것으로, 매칭 모듈(140)은 음성 데이터가 비유창성에 따른 버스트 데이터를 포함하는 경우, 발화 길이에 따른 EOS 타임 윈도우의 동적 변경을 처리할 수 있다.
도 5를 참조하면, 일반적 EOS 검출의 경우, 발화 종료 이후의 고정된 길이의 시간 프레임 구간(410)이 지나야 하지만, 본 발명의 실시 예에 따른 매칭 모듈(140)의 경우 비유창성을 포함한 음성 데이터에 대하여는 발화 길이에 대응한 EOS 타임 윈도우의 동적 감축 변경(411)을 처리함으로써, 사용자는 그 차이만큼의 대기 시간(412) 감소 효과를 받을 수 있다.
한편, 도 6은 본 발명의 실시 예에 따라, 비유창성(disfluency)을 포함하는 음성 데이터의 처리 지연 시간 단축을 종래 기술 대비 설명하기 위한 도면이다.
도 6(A)에 도시된 바와 같이, 종래 기술에 있어서 발화자의 음성에서 비유창성을 포함하는 음성 구간(500, 501)과 침묵 구간(503)이 발생되면, 음성 인식 시스템에서는 침묵 구간에 의한 EOS 구간(515)을 검출하고, 인식 처리 시간(505)이 지난 후, 잘못된 문맥 인식 결과(506)를 제공한다.
결과적으로, 사용자는 실제 질의 음성(502)에 대한 응답을 얻지 못하여, 다시 발화(504)하여야 하고, 이에 따라, 추가적인 EOS 구간(516) 검출과, 인식 시간(514)이 소요되어 추가 지연 시간(517)이 소요된 이후에 응답 결과가 제공되게 된다.
반면, 본 발명의 실시 예에 따른 프로세스에 의한 도 7(B)를 참조하면, 발화자로부터 비유창성 구간(508, 509)을 포함하는 음성 입력이 수신되더라도, 매칭 모듈(140)에서는 EOS 타임 윈도우를 로컬 설정하되, 비유창성 검출에 따른 타임 윈도우 종료 시간을 연장함으로써 실제 질의음성(510)까지 수신될 때까지 대기할 수 있게 된다.
또한, EOS 윈도우 만료(511)에 따른 조기 EOS가 검출되고, 이에 따른 처리 시간(512)만이 적절히 소요된 이후에 인식 결과가 사용자에게 제공될 수 있다.
이와 같이, 종래 기술 대비 대기 시간 차이(513)가 명확히 단축될 수 있음을 확인할 수 있는 바, 이는 사용자 편의성 향상의 주요 요소가 될 수 있다.
도 7 내지 도 9는 본 발명의 실시 예에 따른 스피치 인식 방법을 각 프로세스별로 보다 구체적으로 설명하기 위한 흐름도들이다.
도 7은 본 발명의 실시 예에 따른 로컬 스피치 인식 프로세스를 전체적으로 설명하기 위한 흐름도이다.
도 7을 참조하면, 먼저 오디오 분석 모듈(120)은 단말 장치(100)로부터 수신되는 음성 신호로부터 노이즈 분석을 처리한다(S101).
그리고, 오디오 분석 모듈(120)은 노이즈 분석에 따른 음성 활동(Activity) 정보를 검출한다(S103).
이후, 오디오 분석 모듈(120)은 스피치 데이터 연속성(Succesivity)를 확인한다(S105).
이에 따라, 오디오 분석 모듈(120)는 종합적 분석 결과에 따른 음성 신호의 스피치 데이터 분류 가능여부를 판단하며(S107), 분류 가능한 경우 음성 신호를 색인 모듈(130)로 전달하여 로컬 자동 스피치 인식 프로세스에 진입한다(S109).
여기서, 매칭 모듈(140)은 자동 스피치 인식 프로세스를 위한 로컬 EOS 타임 윈도우를 설정할 수 있다.
또한, S107단계에서 노이즈 검출에 따라 스피치 데이터로 분류 가능하지 않은 것으로 판단된 경우에는 오디오 분석 모듈(120)은 다음 시간 프레임의 음성 신호에 대한 노이즈 분석을 수행할 수 있다.
로컬 자동 스피치 인식 프로세스에 있어서, 색인 모듈(130)은 스피치 데이터 사전 분류(Categorize) 처리를 수행한다(S111). 사전 분류는 스피치 데이터를 미리 설정된 분류값들에 매칭시키는 분류 처리를 포함할 수 있다.
그리고, 매칭 모듈(140)은 오디오 분석 모듈(120)의 분석 결과로부터 스피치 데이터에 비유창성(Disfluency) 구간이 존재하는지 판단하며(S113), 스피치 데이터의 컨텐츠 유효성(valuable)이 존재하는지 판단하고(S115), 비유창성이 존재하지 않고 유효성이 존재하는 경우, 색인 모듈(130)을 통해 로컬 데이터베이스(110)의 데이터 분석 기반의 매칭 처리를 수행한다(S117).
여기서, 매칭 처리는 로컬 데이터베이스(110)에 캐시된 히스토리 정보에 기초하거나, 로컬 데이터베이스(110)에 탑재된 TTS 및 STT 엔진에 의해 처리될 수 있으며, 매칭 모듈(140)은 색인 모듈(130)의 응답 결과를 확인하여 매칭여부를 확인(S119)할 수 있다.
한편, S113 단계에서 스피치 데이터에 비유창성 구간이 존재하거나, S115 단계에서 스피치 데이터의 컨텐츠 유효성이 존재하지 않거나, S119 단계에서 매칭여부가 확인되지 않는 경우, 매칭 모듈(140)은 EOS 타임 윈도우를를 미리 설정된 시간 구간동안 연장한다(S125).
이후, 매칭 모듈(140)은 타임 윈도우 만료 여부를 확인하고(S127), 만료된 시점에 EOS를 호출하여 매칭 확인에 따른 문장 종료를 판단하며(S121), 문장 종료에 따른 출력 데이터가 존재하는 경우 단말 장치(100)로 제공하여, 문장 응답에 대응하는 적절한 데이터 처리가 수행되도록 한다(S123).
한편, 도 8은 본 발명의 실시 예에 따른 스피치 데이터 분류 프로세스를 보다 구체적으로 도시한 흐름도이다.
도 8을 참조하면, 오디오 분석 모듈(120)은 먼저 음성 버퍼로부터 데이터를 리드한다(S201).
그리고, 오디오 분석 모듈(120)은 데이터 프레임별 음성 활동 정보를 검출하며(S203), 프레임별 활동 정보를 판단하고(S205), 이에 따른 연속적(consecutive) 활동을 판단하며(S207), 연속적 활동 정보로부터 음성 패턴에 대응하는 연속적 특징의 존재를 판단함으로써(S209), 스피치 데이터로의 분류 가능성을 판단(S211)할 수 있다.
오디오 분석 모듈(120)은 분류 가능성 판단에 따라, 분류 가능한 경우에는 스피치 데이터로 분류 처리하며(S213), 분류 불가한 경우에는 데이터 무시 처리를 수행한다(S215).
이와 같은 오디오 분석 모듈(120)의 처리에 따라, 음성 데이터에 대한 로컬 자동 스피치 인식 프로세스로 진입하거나, 자동 스피치 인식 시스템(200)으로 전달하기 이전에 잘못된 오디오 데이터로 인한 EOS 호출 영향을 최소화할 수 있다. 이를 위해, 오디오 분석 모듈(120)은 음성 버퍼로부터 판독된 데이터의 음성 활동 정보를 확인할 수 있으며, 고정된 시간 프레임을 기반으로 하는 음성 활동을 검출하고, 다음 프레임 구성의 기대치 설정을 위한 연속적 활동 검출여부를 판단할 수 있다.
예를 들어, 오디오 분석 모듈(120)은 연속적 파형에 따른 현재 프레임 내 음성 활동 검출에 따라, 다음 프레임의 음성 존재 가능성을 예측할 수 있으며, 스피치 데이터의 경우 음성 데이터 사이에 침묵구간이 존재하는 경향이 있으므로, 이에 대응하는 음성 활동의 시간 프레임 패턴 분석에 따라, 음성 데이터가 노이즈인지 또는 스피치 데이터를 포함하는지를 검출할 수 있다.
보다 구체적으로, 오디오 분석 모듈(120)은 상기 음성 신호로부터 스피치 예측 데이터에 대응하는 묵음 패턴 및 버스트 음성 데이터를 검출하고, 상기 스피치 예측 데이터의 묵음 대 사운드 레벨 비율 연산에 따라, 상기 스피치 예측 데이터를 상기 스피치 데이터로 분류할 수 있는 것이다.
또한, 오디오 분석 모듈(120)은 상기 음성 신호의 연속적 레벨 지속 검출에 따른 노이즈 레벨을 결정하고, 상기 음성 신호 샘플 대비 비 침묵 구간 및 비 노이즈 구간의 비율에 따라, 상기 스피치 데이터의 컨텐츠 유효성(Valuable)을 결정할 수 있는 바, 매칭 모듈(140)은 컨텐츠 유효성 분석 결과에 따라, 데이터 분석 기반 매칭 수행여부를 결정할 수 있다.
한편, 도 9는 본 발명의 실시 예에 따른 비유창성 존재여부 기반 음성 인식 프로세스를 도시한 흐름도이다.
도 9를 참조하면, 오디오 분석 모듈(120)에서 음성 데이터가 수신되고(S301), 스피치 데이터가 분류되면(S303), 매칭 모듈(140)은 스피치 종료(EOS) 타이머 윈도우를 설정하고, 이에 따른 EOS 타이머를 개시한다(S305).
그리고, 매칭 모듈(140)은 로컬 데이터베이스(110)의 캐시 데이터 또는 STT/TTS 엔진을 통해 스피치 데이터에 대응하는 텍스트 정보를 획득한다(S307).
여기서, 매칭 모듈(140)은 오디오 분석 모듈(120)의 분석에 따른 스피치 데이터의 비유창성(Disfluency)의 존재를 판단하고(S309), 존재하는 경우 EOS 타이머를 연장하며(S311), 다음 단어에 대응하는 단어 중요도 가중치를 증가시킨다(S313).
한편, 비유창성이 확인되지 않는 경우, 매칭 모듈(140)은 색인 모듈(130)을 통해 텍스트 정보의 중요도 가중치를 기반으로 하는 응답 매칭 분석을 수행하고(S315), 불필요한 단어가 예측되었는지 판단하며(S317), 불필요한 단어가 아니라면 추가 오디오 이전에 EOS 타이머가 종료되었는지를 판단하여(S319), 응답 결과에 대응하는 출력을 리턴하고, 이에 대응하는 명령 데이터 처리가 단말 장치(100)에서 처리되도록 한다(S321).
만약 S317 단계에서 불필요한 단어가 예측되었거나, S319 단계에서 EOS 타이머가 종료되지 않은 경우에는, 오디오 분석 모듈(120)에서 다시 다음 음성 데이터를 수신하여 처리한다.
또한, 매칭 모듈(140)은 상기 비유창성(Disfluency) 정보 획득을 위한 비유창성 단어 리스트 및 예측 키워드 가중치 정보를 로컬 데이터베이스(110)에 저장 및 관리할 수 있다.
이에 따라, 매칭 모듈(140)은 상기 비유창성 정보에 대응하는 상기 스피치 종료 타이머 윈도우 가변값을 미리 저장된 정보에 기초하여 설정하되, 상기 비유창성 정보에 따른 가변 정도는 상기 예측 키워드 가중치 정보에 기초하여 결정되도록 설정될 수 있다.
도 10은 본 발명의 실시 예에 따른 스피치 인식 프로세스와 기존 프로세스간 대기 시간 단축 차이를 설명하기 위한 래더 다이어그램이다.
도 10(A)를 참조하면, 종래 기술의 단말 장치는 스피치의 종료에 따른 종료 스피치 데이터가 전송되고, 이에 따른 ASR 시스템의 EOS 검출에 따라 스피치 응답 시간이 지연됨을 확인할 수 있다.
이에 반해, 도 10(B)를 참조하면, 본 발명의 실시 예에 따른 단말 장치(100)는, 동일한 스피치 종료 시점이 도래하더라도, 로컬 인식 시스템에 의한 강제 EOS 처리가 가능하게 되며, 이에 따른 EOS 타임 윈도우 가변에 의한 최종 인식 결과 처리가 조기 수행되어 스피치 응답이 종래 기술보다 빠르게 발화자에게 제공될 수 있다.
한편, 상술한 본 발명의 다양한 실시 예들에 따른 방법은 프로그램으로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 각 서버 또는 기기들에 제공될 수 있다. 이에 따라, 사용자 단말(100)은 서버 또는 기기에 접속하여, 상기 프로그램을 다운로드할 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.

Claims (6)

  1. 원격지의 자동 스피치 인식 시스템과 네트워크를 통해 연결된 단말 장치에 구비되는 스피치 인식 장치에 있어서,
    발화자의 음성 신호를 수신하는 음성 수신부;
    상기 음성 신호의 분석에 따라 스피치 데이터를 획득하는 오디오 분석 모듈;
    스피치 종료 타이머 윈도우가 지속되는 동안의 스피치 데이터를 로컬 색인 모듈 또는 상기 원격지의 자동 스피치 인식 시스템에 의해 자동 인식 처리하여, 상기 스피치 데이터에 대응하는 응답 정보를 제공하며,
    상기 음성 신호 분석에 따라 검출된 상기 스피치 데이터의 가치 정보, 상기 스피치 데이터의 분류 정보 및 상기 스피치 데이터의 비유창성(Disfluency) 정보 중 적어도 하나에 따라, 상기 스피치 종료 타이머 윈도우를 적응적으로 가변하여 스피치 종료점을 결정하는 매칭 모듈;을 포함하고,
    상기 스피치 종료 타이머 윈도우는 상기 원격지의 자동 음성 인식 시스템과 구분되는 상기 단말 장치 내부의 별도의 로컬 프로세스에 의해 구동된 상기 매칭 모듈에 의해 가변되며,
    상기 매칭 모듈은 상기 스피치 종료 타이머 윈도우가 지속되는 동안의 스피치 데이터를 상기 음성 신호로부터 분류하고, 상기 로컬 색인 모듈을 통해 로컬 데이터베이스로부터 색인된 상기 스피치 데이터에 매칭되는 응답 정보를 출력하며, 매칭되지 않은 경우 상기 자동 스피치 인식 시스템으로 전송한 상기 스피치 데이터의 자동 인식에 의해 매칭된 응답 정보가 상기 단말 장치로 수신되어 출력되도록 처리하는 모듈로서,
    상기 매칭 모듈은 상기 스피치 종료 타이머가 만료된 경우 로컬 자동 스피치 인식 프로세스의 강제 스피치 인식 종료를 결정하거나, 강제 스피치 종료 신호를 상기 원격지의 자동 음성 시스템으로 전달하여, 상기 응답 정보의 출력 처리가 조기 수행되도록 하고,
    상기 매칭 모듈은 상기 로컬 색인 모듈을 이용한 로컬 자동 스피치 인식 프로세스에 있어서, 상기 분류된 스피치 데이터로부터 비유창성 구간이 확인된 경우, 상기 스피치 종료 타이머 윈도우를 확장하고, 다음 인식될 단어의 중요도 가중치를 증가시키는 것을 특징으로 하는
    스피치 인식 장치.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 오디오 분석 모듈은,
    상기 음성 신호의 연속적 레벨 지속 검출에 따른 노이즈 레벨을 결정하고, 상기 음성 신호 샘플 대비 비 침묵 구간 및 비 노이즈 구간의 비율에 따라, 상기 스피치 데이터의 유효성 정보를 결정하는
    스피치 인식 장치.
  5. 삭제
  6. 삭제
KR1020190029523A 2019-03-14 2019-03-14 스피치 인식 장치 KR102075399B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190029523A KR102075399B1 (ko) 2019-03-14 2019-03-14 스피치 인식 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190029523A KR102075399B1 (ko) 2019-03-14 2019-03-14 스피치 인식 장치

Publications (1)

Publication Number Publication Date
KR102075399B1 true KR102075399B1 (ko) 2020-02-10

Family

ID=69627347

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190029523A KR102075399B1 (ko) 2019-03-14 2019-03-14 스피치 인식 장치

Country Status (1)

Country Link
KR (1) KR102075399B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116110396A (zh) * 2023-04-07 2023-05-12 广州小鹏汽车科技有限公司 语音交互方法、服务器和计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005017932A (ja) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd 音声認識装置および音声認識用プログラム
KR20090054642A (ko) 2007-11-27 2009-06-01 엘지전자 주식회사 음성 인식 방법 및 장치
KR20120038686A (ko) * 2010-10-14 2012-04-24 에스케이텔레콤 주식회사 단말기의 어학 어플리케이션을 통한 학습 평가 방법 및 시스템
KR20140105214A (ko) * 2013-02-22 2014-09-01 (주)케이믹글로벌 음성인식 대화에이전트를 통한 영어 말하기 학습 시스템
KR20180056281A (ko) * 2016-11-18 2018-05-28 주식회사 인텔로이드 키워드 인식 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005017932A (ja) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd 音声認識装置および音声認識用プログラム
KR20090054642A (ko) 2007-11-27 2009-06-01 엘지전자 주식회사 음성 인식 방법 및 장치
KR20120038686A (ko) * 2010-10-14 2012-04-24 에스케이텔레콤 주식회사 단말기의 어학 어플리케이션을 통한 학습 평가 방법 및 시스템
KR20140105214A (ko) * 2013-02-22 2014-09-01 (주)케이믹글로벌 음성인식 대화에이전트를 통한 영어 말하기 학습 시스템
KR20180056281A (ko) * 2016-11-18 2018-05-28 주식회사 인텔로이드 키워드 인식 장치 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116110396A (zh) * 2023-04-07 2023-05-12 广州小鹏汽车科技有限公司 语音交互方法、服务器和计算机可读存储介质
CN116110396B (zh) * 2023-04-07 2023-08-29 广州小鹏汽车科技有限公司 语音交互方法、服务器和计算机可读存储介质

Similar Documents

Publication Publication Date Title
KR102260216B1 (ko) 지능적 음성 인식 방법, 음성 인식 장치, 지능형 컴퓨팅 디바이스 및 서버
CN110047481B (zh) 用于语音识别的方法和装置
US20170084274A1 (en) Dialog management apparatus and method
US9595261B2 (en) Pattern recognition device, pattern recognition method, and computer program product
CN112530408A (zh) 用于识别语音的方法、装置、电子设备和介质
KR20190104278A (ko) 지능적 음성 인식 방법, 음성 인식 장치 및 지능형 컴퓨팅 디바이스
KR101496876B1 (ko) 휴대 단말기의 소리 인식 방법 및 장치
CN109712610A (zh) 用于识别语音的方法和装置
CN113362828B (zh) 用于识别语音的方法和装置
CN112002349A (zh) 一种语音端点检测方法及装置
KR102075399B1 (ko) 스피치 인식 장치
KR102076212B1 (ko) 스피치 인식 장치의 동작 방법
KR20200109841A (ko) 자동 음성 인식 장치
CN114155839A (zh) 一种语音端点检测方法、装置、设备及存储介质
US11302334B2 (en) Method for associating a device with a speaker in a gateway, corresponding computer program, computer and apparatus
CN115512687B (zh) 一种语音断句方法、装置、存储介质及电子设备
KR20200109826A (ko) 스피치 인식 방법을 실행 시키기 위한 프로그램이 기록된 컴퓨터에서 읽을 수 있는 기록매체
KR20200109843A (ko) 스피치 인식 방법
KR20200109830A (ko) 대기 시간을 감소시키는 자동 음성 인식 프로그램이 기록된 컴퓨터에서 읽을 수 있는 기록매체
CN110021295B (zh) 用于识别由语音识别系统生成的错误转录的方法和系统
KR20200109844A (ko) 스피치 인식을 위한 컴퓨터 프로그램
KR20200109836A (ko) 스피치 인식 장치의 동작 프로그램이 기록된 컴퓨터가 읽을 수 있는 기록매체
KR20200109827A (ko) 대기 시간을 감소시키는 자동 음성 인식 방법
KR20200109829A (ko) 대기 시간을 감소시키는 자동 음성 인식 컴퓨터 프로그램
KR20200109835A (ko) 스피치 인식 장치의 동작 방법을 컴퓨터에서 실행시키기 위한 프로그램

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant