KR101863098B1 - 음성 인식 장치 및 방법 - Google Patents

음성 인식 장치 및 방법 Download PDF

Info

Publication number
KR101863098B1
KR101863098B1 KR1020160154375A KR20160154375A KR101863098B1 KR 101863098 B1 KR101863098 B1 KR 101863098B1 KR 1020160154375 A KR1020160154375 A KR 1020160154375A KR 20160154375 A KR20160154375 A KR 20160154375A KR 101863098 B1 KR101863098 B1 KR 101863098B1
Authority
KR
South Korea
Prior art keywords
noise pattern
speech recognition
collected
noise
external device
Prior art date
Application number
KR1020160154375A
Other languages
English (en)
Other versions
KR20180056284A (ko
Inventor
양태영
박민수
Original Assignee
주식회사 인텔로이드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인텔로이드 filed Critical 주식회사 인텔로이드
Priority to KR1020160154375A priority Critical patent/KR101863098B1/ko
Publication of KR20180056284A publication Critical patent/KR20180056284A/ko
Application granted granted Critical
Publication of KR101863098B1 publication Critical patent/KR101863098B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • G10L21/055Time compression or expansion for synchronising with other signals, e.g. video signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)

Abstract

본 발명은 음성 인식 장치 및 방법에 관한 것으로, 더욱 상세하게는 음향에 포함된 잡음 패턴을 이용하여 정밀한 음성 인식을 수행하는 음성 인식 장치 및 방법에 관한 것이다. 본 발명의 실시예에 따르면, 음성 인식을 위한 음향을 수집하는 음향 수집부 및 상기 수집한 음향의 일부 시간 구간과 잡음 패턴의 일부 시간 구간을 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정하고, 상기 결정된 잡음 패턴을 이용하여 상기 수집한 음향으로부터 음성을 인식하는 프로세서를 포함하는 음성 인식 장치를 제공할 수 있다.

Description

음성 인식 장치 및 방법{APPARATUS AND METHOD FOR SPEECH RECOGNITION}
본 발명은 음성 인식 장치 및 방법에 관한 것으로, 더욱 상세하게는 음향에 포함된 잡음 패턴을 이용하여 정밀한 음성 인식을 수행하는 음성 인식 장치 및 방법에 관한 것이다.
음성 인식 기술은 사용자와 단말기(또는 기계) 간의 상호작용이 보다 원활하게 이루어지도록 할 수 있는 핵심기술 중 하나이다. 음성 인식 기술을 통해 단말기는 사용자의 음성을 듣고, 사용자의 음성을 이해할 수 있으며, 이해한 내용을 바탕으로 사용자에게 적절한 서비스를 제공할 수도 있다. 이에 따라, 사용자는 별도의 조작 없이도 단말기에 대하여 사용자가 원하는 서비스를 직관적으로 요청할 수 있다.
음성 인식을 수행할 때 음성이 포함된 음향의 잡음 특성에 따라 인식률 또는 음성 인식의 정확도가 결정될 수 있다. 간단한 예로써, 배경 잡음의 잡음 레벨(noise level)이 높거나 신호 대 잡음 비가 매우 낮은 경우, 음성 인식을 수행하기가 함들 수 있다. 또는, 주파수 대역에 따른 에너지 분포, 특정 주파수 대역에 에너지가 집중되어있는지 여부 등의 특성에 따라 음성 인식의 성공률이 변화될 수 있다. 만약 사람의 음성과 연관된 주파수 대역에 많은 에너지가 집중된 배경 잡음이 음성과 혼재되어 있다면 음성 인식 장치는 상기 배경 잡음 및 상기 음성을 포함하는 음향에 대해서 음성 인식을 용이하게 수행할 수 없을 것이다. 이 외에도 음성 인식에 있어서 잡음 패턴 등 다양한 배경 잡음의 특성이 고려될 필요가 있다. 따라서, 배경 잡음의 특성에 대응하여, 음성 인식의 정확도를 높이기 위한 방안에 대한 연구가 필요하다.
본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 본 발명의 목적은 배경 잡음의 특성을 고려한 음성 인식 기법을 제공하는데 있다.
상기와 같은 과제를 해결하기 위한 본 발명의 실시예에 따르면, 음성 인식을 위한 음향을 수집하는 음향 수집부; 및 상기 수집한 음향의 일부 시간 구간과 잡음 패턴의 일부 시간 구간을 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정하고, 상기 결정된 잡음 패턴을 이용하여 상기 수집한 음향으로부터 음성을 인식하는 프로세서를 포함하는 음성 인식 장치를 제공할 수 있다.
바람직하게는, 상기 프로세서는 상기 수집한 음향이 수집된 시간 및 장소 중 적어도 어느 하나를 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정한다.
바람직하게는, 상기 프로세서는 상기 수집한 음향이 수집된 요일 및 계절 중 적어도 어느 하나를 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정한다.
바람직하게는, 상기 음성 인식 장치는 적어도 하나의 외부 장치를 제어하고, 상기 프로세서는 상기 적어도 하나의 외부 장치의 제어에 따라 상기 수집한 음향에 매칭되는 잡음 패턴을 결정한다.
바람직하게는, 상기 프로세서는 상기 적어도 하나의 외부 장치 중 상기 음성 인식 장치에 의해 턴 온(turn on)된 외부 장치에 따라 상기 수집한 음향에 매칭되는 잡음 패턴을 결정한다.
바람직하게는, 상기 프로세서는 상기 적어도 하나의 외부 장치 중 어느 하나의 외부 장치를 턴 온한 경우, 상기 턴 온된 외부 장치가 턴 오프(turn off)될 때까지 잡음 패턴을 수집한다.
바람직하게는, 상기 음성 인식 장치는 영상을 감지하는 영상 수집부를 더 포함하고, 상기 프로세서는 상기 감지한 영상을 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정한다.
바람직하게는, 상기 프로세서는 상기 감지한 영상으로부터 턴 온된 외부 장치를 식별한다.
바람직하게는, 상기 프로세서는 상기 감지한 영상으로부터 상기 수집된 음향에 포함된 음성의 화자의 위치를 식별하고, 상기 식별한 화자의 위치를 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정한다.
바람직하게는, 상기 음성 인식 장치는 다른 음성 인식 장치와 정보를 송수신하는 송수신부를 더 포함하고, 상기 프로세서는 상기 송수신부를 통해 동일한 네트워크에 접속된 다른 음성 인식 장치로부터 상기 잡음 패턴을 수신한다.
바람직하게는, 상기 수집한 음향의 일부 시간 구간과 잡음 패턴의 일부 시간 구간의 길이는 주위 소음 크기에 따라 결정된다.
본 발명의 다른 실시예에 따르면, 음성 인식을 위한 음향을 수집하는 단계; 상기 수집한 음향의 일부 시간 구간과 잡음 패턴의 일부 시간 구간을 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정하는 단계; 및 상기 결정된 잡음 패턴을 이용하여 상기 수집한 음향으로부터 음성을 인식하는 단계를 포함하는 음성 인식 방법이 제공될 수 있다.
본 발명의 실시예에 따르면, 수집된 음향에 매칭되는 잡음 패턴을 결정할 수 있고, 상기 잡음 패턴에 기초한 효과적인 음성 인식을 수행할 수 있다.
또한, 본 발명의 실시예에 따르면 잡음 패턴을 추가적으로 수집하거나 외부 기기로부터 수신할 수 있으며, 상기 비교 대상인 잡음 패턴의 종류/수의 증가에 따라 음성 인식의 정확도를 높일 수 있다.
도 1은 본 발명의 실시예에 따른 음성 인식 장치를 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 잡음 패턴의 매칭 방식을 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 잡음 패턴의 결정 방식을 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 잡음 패턴의 수집 방식을 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 음성 인식 방법을 나타낸 도면이다.
본 발명은 음성 인식 장치 및 방법에 관한 것으로, 더욱 상세하게는 음향에 포함된 잡음 패턴을 이용하여 정밀한 음성 인식을 수행하는 음성 인식 장치 및 방법에 관한 것이다. 이하, 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 실시예에 따른 음성 인식 장치를 나타낸 도면이다. 도 1에 따르면, 본 발명의 실시예에 따른 음성 인식 장치(100)는 음향 수집부(120) 및 프로세서(110)를 포함할 수 있다. 본 발명을 실시하는 방식에 따라서, 상기 음향 수집부(120) 및 프로세서(110)는 하나의 구성요소로 구현되거나 상기 음향 수집부(120)가 생략될 수도 있다.
음향 수집부(120)는 음성 인식을 위한 음향을 수집할 수 있다. 음향 수집부(120)는 음향을 전기적 신호인 음향 신호(또는 음성 신호)로 변환하는 마이크 등의 음향 수집 수단을 포함할 수 있다. 음향 수집부(120)는 상기 음향 수집 수단을 통해 상기 음성 인식 장치(100)의 주변 환경의 음향을 수집할 수 있다. 이때, 상기 음향은 배경 잡음 또는 음성을 포함할 수 있다.
프로세서(110)는 음성 인식 장치(100)의 전반적인 작동을 제어한다. 프로세서(110)는 각종 데이터와 신호의 연산 및 처리를 수행하고 음성 인식 장치(100)의 각 구성 요소를 제어할 수 있다. 프로세서(110)는 반도체 칩 또는 전자 회로 형태의 하드웨어로 구현되거나 상기 하드웨어를 제어하는 소프트웨어로 구현될 수 있으며, 상기 하드웨어와 상기 소프트웨어가 결합된 형태로 구현될 수도 있다.
본 발명의 바람직한 실시예에 따르면, 상기 프로세서(110)는 상기 음향 수집부(110)를 통해 음향을 수집할 수 있으며, 상기 수집한 음향(또는 상기 음향이 전기 신호의 형태로 변환된 음향 신호/음성 신호)의 일부 시간 구간과 잡음 패턴의 일부 시간 구간을 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정할 수 있다. 그리고, 프로세서(110)는 상기 결정된 잡음 패턴을 이용하여 상기 수집한 음향으로부터 음성을 인식할 수 있다. 상기 음성 인식 장치(100)의 잡음 패턴의 매칭 방식 및 음성 인식 방식에 대한 상세한 설명은 도 2 내지 도 4를 설명할 때 다루도록 한다.
도 2는 본 발명의 실시예에 따른 잡음 패턴의 매칭 방식을 나타낸 도면이다. 도 2에서 좌측의 n_1 내지 n_N은 잡음 패턴 1 내지 잡음 패턴 N을 나타내고, 우측의 s는 수집된 음향을 나타낸다. 여기서, 상기 s는 상기 음향이 전기 신호의 형태로 변환된 음향 신호/음성 신호를 의미할 수 있으며, 잡음 패턴은 시영역(time domain)에서의 배경 잡음의 형상을 의미할 수 있다. 또는, 상기 잡음 패턴은 배경 잡음 신호를 주파수 대역에 따른 에너지 분포의 변화를 시간의 흐름에 따라 나타낸 스펙트로그램(spectrogram)의 한 종류일 수 있다. 또는, 상기 잡음 패턴은 배경 잡음 신호의 각 주파수 성분을 나타내는 계수(예를 들어 STFT(Short Time Fourier Transform)의 계수)들을 시간의 흐름에 따라 나타낸 것일 수 있다. 상기 잡음 패턴은 음성 인식 장치가 자체적으로 보유하고 있는 신호일 수 있으나 이에 한정되지 않으며, 음성 인식 장치는 외부 기기 또는 외부 저장소로부터 잡음 패턴을 수신하고, 수신된 잡음 패턴을 음성 인식에 이용할 수도 있다.
전술한 바에 따르면, 음성 인식 장치는 수집한 음향의 일부 시간 구간과 잡음 패턴의 일부 시간 구간을 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정할 수 있다. 즉, 음성 인식 장치는 수집된 음향 전체와 잡음 패턴 전체를 비교할 수도 있다. 하지만, 보다 효율적인 잡음 패턴 매칭을 위해 음성 인식 장치는 기 설정된 길이 L에 해당하는 음향 및 잡음 패턴을 상호 비교할 수 있다. 이때, 음성 인식 장치는 음향 및 잡음 패턴의 동일한 시간 구간을 상호 비교할 수 있다. 도 2에 따르면, 음성 인식 장치는 잡음 패턴 1 내지 잡음 패턴 N과 수집된 음향 s를 개별적으로 비교할 수 있다. 본 발명의 바람직한 실시예에 따르면, 수집된 음향에서 화자의 음성이 포함되어있지 않은 부분(예를 들어, 음향의 시작부의 0 초 내지 0.5 초 사이, 상기 음향이 변환된 음향 신호의 1 내지 5 프레임 등)과 상기 잡음 패턴이 상호 비교될 수 있다. 여기서, 음성 인식 장치는 잡음 패턴 1 내지 잡음 패턴 N의 0 내지 L의 시간 구간과 수집된 음향 s의 0 내지 L의 시간 구간을 상호 비교할 수 있다. 물론, 도 2에 도시된 매칭 방식은 예시에 불과한 것으로, 잡음 패턴과 수집된 음향이 비교되는 일부 시간 구간은 도 2에 한정되지 않는다.
본 발명의 실시예에 따르면, 음성 인식 장치는 잡음 패턴 1 내지 잡음 패턴 N의 일부 시간 구간과 수집된 음향 s의 일부 시간 구간의 유사도를 비교할 수 있으며, 상기 수집된 음향 s의 일부 시간 구간과 가장 높은 유사도를 나타내는 잡음 패턴을 판별할 수 있다. 여기서, 상기 유사도 비교 방식은 수집된 음향의 일부 시간 구간과 잡음 패턴의 상관도(correlation)를 계산하는 방식으로 구현될 수 있다. 이 경우, 음성 인식 장치는 상기 잡음 패턴 1 내지 잡음 패턴 N의 일부 시간 구간과 상기 수집된 음향 s의 일부 시간 구간의 크로스 코릴레이션(cross correlation)를 계산할 수 있으며, 상기 음향의 일부 시간 구간과 가장 높은 상관도를 나타내는 잡음 패턴을 선택할 수 있다. 하지만, 음성 인식 장치가 상기 잡음 패턴 1 내지 잡음 패턴 N의 일부 시간 구간과 상기 수집된 음향 s의 일부 시간 구간의 유사도를 계산하는 방식은 이에 한정되지 않는다.
한편, 본 발명의 바람직한 실시예에 따르면 상기 수집한 음향의 일부 시간 구간과 잡음 패턴의 일부 시간 구간의 길이 L은 주위 소음 크기에 따라 결정될 수 있다. 상기 주위 소음 크기는 상기 음성 인식 장치가 수집한 음향에 포함된 배경 잡음의 추정된 잡음 레벨(noise level) 또는 배경 잡음 신호의 에너지를 의미할 수 있다. 이에 따라, 음성 인식 장치는 상기 주위 소음 크기가 증가할수록 상기 길이 L을 감소시킬 수 있고, 상기 주위 소음 크기가 감소할수록 상기 길이 L을 증가시킬 수 있다. 즉, 주위 소음 크기가 증가하면 수집된 음향의 일부 구간에 포함된 배경 잡음이 용이하게 검출될 수 있기 때문에(또는 배경 잡음의 신호 특성이 상대적으로 더욱 명확하게 나타나기 때문에) 상대적으로 짧은 시간 구간의 음향을 이용하더라도 잡음 패턴의 결정이 용이하게 수행될 수 있다. 이와는 반대로, 주위 수음 크기가 감소하면 음향의 배경 잡음의 신호 특성이 잘 나타나지 않기 때문에 잡음 패턴의 결정을 위해서는 보다 긴 길이의 시간 구간이 요구될 수 있다. 본 발명의 또 다른 실시예에 따르면, 음성 인식 장치는 수집된 음향의 신호 대 잡음 비(signal to noise ratio)에 기초하여 상기 일부 시간 구간의 길이 L을 결정할 수 있다. 즉, 음성 인식 장치는 수집된 음향의 신호 대 잡음 비가 감소하는 경우(즉, 상대적으로 배경 잡음이 약할 때) 상기 길이 L을 증가시킬 수 있고, 상기 신호 대 잡음 비가 증가하는 경우(즉, 상대적으로 배경 잡음이 강할 때) 상기 길이 L을 감소시킬 수 있다.
상기 수집한 음향에 매칭되는 잡음 패턴은 상기 수집된 음향에 포함된 배경 잡음과 동일 또는 유사한 신호 특성(시영역에서의 특정 형상 포함 여부, 주파수 대역에 따른 에너지 분포 등)을 가지는 것으로 간주할 수 있다. 이때, 음성 인식 장치는 상기 결정된 잡음 패턴을 이용하여 상기 수집한 음향으로부터 음성을 인식할 수 있다. 본 발명의 바람직한 실시예에 따르면, 음성 인식 장치는 상기 결정된 잡음 패턴을 이용하여 상기 음성 신호에 포함된 배경 잡음을 제거할 수 있다. 여기서, 음성 인식 장치는 상기 수집된 음향에 따른 전기 신호, 즉 음향 신호(또는 음성 신호)로부터 상기 결정된 잡음 패턴을 차감하여 상기 음향 신호에 포함된 배경 잡음을 제거할 수 있다. 여기서, 상기 신호의 차감은 시영역 또는 주파수 영역(frequency domain)에서 수행될 수 있다. 상기 차감에 따른 배경 잡음 제거는 하나의 예시에 불과한 것으로, 다양한 방식으로 상기 음향 신호로부터 상기 배경 잡음이 제거될 수 있다. 음성 인식 장치는 배경 잡음이 제거된 음향 신호로부터 음성 인식에 필요한 기본적인 정보들인 음향학적 특징(acoustic feature)를 추출할 수 있다. 음성 인식 장치는 음성 신호를 기 설정된 길이의 프레임으로 분할하고, 각 프레임의 주파수 대역에 따른 에너지 분포 등의 정보를 상기 음향학적 특징으로써 추출할 수 있다. 바람직한 실시예에 따르면, 상기 주파수 대역에 따른 정보는 벡터 수치화될 수 있다. 또는, 상기 음향학적 특징은 피치(pitch), 포먼트(formant)일 수 있다. 상기 음향학적 특징을 추출하는 방법으로 LPC(Linear Predictive Coding) Cepstrum, PLP(Perceptual Linear Prediction) Cepstrum, Mel Frequency Cepstral Coefficient (MFCC), 필터뱅크 에너지 분석(Filter Bank Energy Analysis) 등이 사용될 수 있다. 그리고, 음성 인식 장치는 상기 음향학적 특징에 대응되는 언어의 기본 단위를 판별할 수 있다. 여기서 상기 언어의 기본 단위는 음성의 음소, 음절, 단어 등이 될 수 있다. 예를 들어, 음성 인식 장치는 영어 음성 ‘tea’에 포함된 음향 신호의 음향학적 특징이 단어 ‘tea’의 음소인 /t/, /i:/의 각 음향 모델(acoustic model)에 대응되는지 또는 상기 음향학적 특징이 상기 각 음소의 음향 모델과 얼마나 유사한지 등을 비교할 수 있다. 여기서, 상기 음향 모델은 적어도 하나의 가우시안 분포(Gaussian distribution)를 포함하는 혼합 모델(mixture model)일 수 있다. 음성 인식 장치는 상기 음향학적 특징과 적어도 하나의 상기 음향 모델 간의 유사도를 판별할 수 있으며, 특정 음향학적 특징에 대하여 가장 높은 유사도를 나타내는 음향 모델을 상기 특정 음향학적 특징에 대응되는 음향 모델인 것으로 판별할 수 있다. 음성 인식 장치는 상기 음향학적 특징에 대응되는 음향 모델에 연관된 언어의 기본 단위에 기초하여 상기 음향 신호를 음성 인식의 결과물인 텍스트 데이터로 변환할 수 있다. 전술한 예에서, 음성 인식 장치는 음향 신호에 포함된 영어 음성 ‘tea’의 각 음소에 대응되는 음향 모델을 판별할 수 있고, 상기 음향 모델에 연관된 음소를 조합하여 음성 인식의 결과물인 텍스트 데이터 ‘tea’를 생성할 수 있다.
음성 인식 장치는 음성 인식 결과물을 사용자에게 출력하거나, 음성 인식 결과물에 대응되는 후속 처리 과정을 수행할 수 있다. 예를 들어, 음성 인식 장치는 음성 인식 결과물에 포함된 기 설정된 단어/문장인 키워드(keyword)에 대응하는 서비스를 사용자에게 제공할 수 있다.
본 발명의 실시예에 따른 음성 인식 장치는 잡음 패턴을 이용하여 음성 인식을 수행할 수 있다. 여기서, 환경 또는 조건(예를 들어, 시간 및 장소)이 동일/유사한 경우, 동일/유사한 잡음 패턴이 발생할 가능성이 높다. 따라서, 음성 인식 장치는 다양한 환경 또는 조건에 따른 잡음 패턴과 음향에 포함되어있는 배경 잡음의 잡음 패턴을 매칭시킬 수 있으며, 매칭되는 잡음 패턴을 이용함으로써 음향에 포함되어있는 배경 잡음을 제거하거나 억제할 수 있다. 결과적으로, 음성 인식 장치는 다양한 환경 또는 조건에 따른 잡음 패턴을 이용하여 음성 인식 성능을 향상시킬 수 있다.
도 3은 본 발명의 실시예에 따른 잡음 패턴의 결정 방식을 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 음성 인식 장치는 상기 수집한 음향이 수집된 시간을 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정할 수 있다. 도 3(a)는 시간에 따른 잡음 패턴의 변화를 나타낸 도면이다. 즉, 동일한 장소라도 시간에 따라 음성 인식 장치에 의해 수집되는 음향에 포함되는 배경 잡음의 신호 특성 또는 잡음 패턴이 변화될 수 있다. 여기서, 음성 인식 장치는 음향이 수집된 시간에 대응하는 잡음 패턴을 선택하고, 상기 잡음 패턴을 이용한 음성 인식을 수행할 수 있다. 도 3(a)에서 t1이 0시, t6이 24시를 나타내며, 각 잡음 패턴은 특정 장소에서 하루 동안 수집된 잡음 패턴인 것으로 가정할 수 있다. 도 3(a)에 따르면, 음성 인식 장치는 시간 t2 내지 t3 동안 수집된 음향에 대한 음성 인식을 수행할 때, 잡음 패턴 2를 이용할 수 있다. 이때, 상기 잡음 패턴 2는 과거 여러 날의 시간 t2 내지 t3에 수집된 복수의 잡음 패턴에 대한 통계적 처리를 적용한 잡음 패턴의 대표 값일 수 있다. 예를 들어, 상기 잡음 패턴 2는 과거 여러 날의 시간 t2 내지 t3에 수집된 복수의 잡음 패턴의 평균값일 수도 있다. 한편, 특정 장소의 잡음 패턴은 요일에 따라 변화될 수 있다. 이 경우, 음성 인식 장치는 각 요일 마다 개별적으로 수집된 잡음 패턴으로부터, 음성 인식 대상인 음향이 수집된 요일에 대응하는 잡음 패턴을 선택할 수 있다. 그리고 음성 인식 장치는 상기 요일에 따른 잡음 패턴을 이용하여 전술한 음성 인식 과정을 수행할 수 있다. 한편, 특정 장소의 잡음 패턴은 계절에 따라 변화될 수 있다. 이 경우, 음성 인식 장치는 각 계절 마다 개별적으로 수집된 잡음 패턴으로부터, 음성 인식 대상인 음향이 수집된 계절에 대응하는 잡음 패턴을 선택할 수 있다. 그리고 음성 인식 장치는 상기 계절에 따른 잡음 패턴을 이용하여 전술한 음성 인식 과정을 수행할 수 있다.
본 발명의 다른 실시예에 따르면, 음성 인식 장치는 상기 수집한 음향이 수집된 장소를 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정할 수 있다. 즉, 장소에 따라 배경 잡음의 신호 특성 또는 잡음 패턴이 결정될 수 있다. 예를 들어, 거실의 배경 잡음과 화장실의 배경 잡음은 서로 전혀 다른 특성을 가진다. 따라서, 음성 인식 장치가 위치하는 장소에 따라 서로 다른 잡음 패턴을 이용하여 음향에 포함된 배경 잡음을 제거할 필요가 있다. 음성 인식 장치는 각 장소에서 수집된 잡음 패턴으로부터, 음성 인식 대상인 음향이 수집된 장소에 대응하는 잡음 패턴을 선택할 수 있다. 그리고 음성 인식 장치는 상기 장소에 따른 잡음 패턴을 이용하여 전술한 음성 인식 과정을 수행할 수 있다.
배경 잡음의 신호 특성 또는 잡음 패턴은 음성 인식 장치에 대한 화자의 상대적인 위치에 기초하여 결정될 수도 있다. 도 3(b)에서 음성 인식 장치(100)가 거실 가운데 설치되어있고, 위치 A는 화장실에 인접한 장소, 위치 B는 현관에 인접한 장소, 위치 C는 부엌에 인접한 장소, 위치 D는 침실에 인접한 장소인 상황을 가정할 수 있다. 만약 화자(또는 사용자)가 위치 B에서 발화를 하는 경우, 화자의 음성은 현관의 배경 잡음과 혼합될 수 있으며, 음성 인식 장치는 상기 화자의 음성 및 상기 현관의 배경 잡음을 포함하는 음향을 수집할 수 있다. 여기서, 상기 화자가 B에 존재하는지 여부는 후술하는 음성 인식 장치(100)의 영상 수집부를 통해 감지될 수 있다. 이 경우, 음성 인식 장치는 상기 화자의 위치에 대응하는 잡음 패턴 - 즉 현관의 배경 잡음의 신호 특성과 연관된 잡음 패턴 - 을 이용함으로써 효과적인 음성 인식을 수행할 수 있다. 도 3(b)의 실시예에서, 전술한 위치는 화자와 음성 인식 장치의 사이의 거리 또는 음성 인식 장치를 기준으로 한 화자의 방향을 의미할 수도 있다. 음성 인식 장치는 화자와의 거리에 따른 잡음 패턴을 이용하여 음성 인식을 수행하거나 음성 인식 장치를 기준으로 한 화자의 방향(예를 들어 남서 45도 방향 등)에 따른 잡음 패턴을 이용하여 음성 인식을 수행할 수도 있다.
본 발명의 다른 실시예에 따르면, 음성 인식 장치는 영상을 감지하는 영상 수집부를 더 포함할 수 있다. 여기서, 상기 영상 수집부는 카메라일 수 있으나 이에 한정되지 않는다. 음성 인식 장치는 상기 감지한 영상을 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정할 수 있다. 도 3(c)에 따르면, 음성 인식 장치(100)는 외부 기기(또는 외부 장치/단말)인 청소기(200) 또는 믹서기(300)와 동일한 장소에 함께 존재할 수 있다. 음성 인식 장치(100)가 카메라를 포함하는 경우, 상기 카메라를 통해 상기 청소기(200) 또는 믹서기(300)가 턴 온(turn on) 상태인지 여부를 판별할 수 있다. 상기 외부 기기기의 턴 온 여부는 카메라를 통해 취득한 영상에 대한 이미지 신호 처리 기법 - 예를 들어 패턴 인식 등 - 를 통해 확인될 수 있다. 만약 청소기(200)의 작동으로 인해 발생될 수 있는 배경 잡음에 연관된 잡음 패턴 또는 믹서기(300)의 작동으로 인해 발생될 수 있는 배경 잡음에 연관된 잡음 패턴이 존재하는 경우, 음성 인식 장치(100)는 상기 각 외부 기기의 턴 온 여부를 판별하고, 턴 온된 외부 기기에 대응하는 잡음 패턴을 이용하여, 수집된 음향으로부터 상기 턴 온된 외부 기기로 인해 발생될 수 있는 배경 잡음을 제거할 수 있으며, 그 이후의 음성 인식 과정을 수행할 수 있다.
여기서, 도 3(b)의 경우와 도 3(c)의 경우가 결합된 복합적인 상황을 가정할 수 있다. 예를 들어, 도 3(b)의 위치 B(현관 주변)에 화자가 존재하고, 음성 인식 장치(100) 주변에 청소기(200)가 위치하는 상황을 가정할 수 있다. 음성 인식 장치(100)는 영상 수집부를 통해 화자가 위치 B에 존재함을 감지할 수 있고, 청소기(200)가 턴 온 상태임을 감지할 수 있다. 이 경우, 음성 인식 장치(100)는 위치 B에 대응하는 현관의 잡음 패턴 및 청소기(200)에 대응하는 잡음 패턴을 동시에 사용하여 화자의 음성에 대한 음성 인식을 수행할 수 있다. 이때, 음성 인식 장치(100)는 상기 두 잡음 패턴을 수집된 음향으로부터 차감함으로써 상기 음향에 포함된 서로 다른 배경 잡음을 제거할 수 있다.
도 4는 본 발명의 실시예에 따른 잡음 패턴의 수집 방식을 나타낸 도면이다.
본 발명의 실시예에 따르면, 음성 인식 장치는 적어도 하나의 외부 장치를 제어할 수 있다. 도 4(a)에 따르면, 음성 인식 장치(100)는 제어 신호 ctrl_sig를 외부 장치인 청소기(200)로 전송할 수 있다. 이때, 음성 인식 장치(100)는 상기 제어 신호를 외부 장치로 전송하기 위한 유선 또는 무선 모듈을 포함할 수 있다. 이에 따라, 상기 제어 신호는 유선 케이블에 의한 유선 통신 방식, 무선랜(wireless LAN) 통신 방식, 데이터 통신 방식 또는 블루투스(Bluetooth) 통신 방식 등을 통해 외부 장치로 전송될 수 있다. 하지만 본 발명의 실시예에 따른 음성 인식 장치의 통신 방식은 이에 한정되지 않는다. 여기서, 상기 제어 신호 ctrl_sig는 상기 외부 장치의 턴 온, 턴 오프 또는 기타 다양한 작동 방식을 제어하는 신호일 수 있다. 도 4(b)에 따르면, 음성 인식 장치(100)는 턴 온에 해당하는 제어 신호를 청소기(200)에게 전송한 상황일 수 있으며, 이에 따라 청소기(200)는 턴 온되어 작동을 시작할 수 있다. 청소기(200)가 턴 온 되면, 청소기(200)의 작동에 따른 배경 잡음이 발생될 수 있으며, 음성 인식 장치(100)는 상기 배경 잡음에 대응하는 잡음 패턴이 포함된 음향을 취득할 수 있다. 이때, 음성 인식 장치(100)는 이미 보유 중인 잡음 패턴 또는 과거 외부 기기로부터 수신한 잡음 패턴과 상기 청소기(200)의 턴 온에 따른 잡음 패턴이 포함된 음향을 매칭시킬 수 있다. 만약, 상기 청소기(200)의 잡음 패턴이 이미 보유 중인 잡음 패턴 또는 과거 외부 기기로부터 수신한 잡음 패턴에 매칭되지 않는 경우(또는 상호 유사도가 낮은 경우), 음성 인식 장치(100)는 상기 청소기(200)의 잡음 패턴을 새로운 잡음 패턴으로 간주하고, 내장된 저장소 또는 외부의 저장소에 상기 새로운 잡음 패턴을 저장할 수 있다. 상기 새로운 잡음 패턴(즉, 청소기(200)의 잡음 패턴)은 추후 상기 청소기(200)가 턴 온 상태일 때 화자의 음성을 인식하는 과정에서 이용될 수 있다. 이러한 새로운 잡음 패턴의 취득 방식은 전술한 도 3의 상황에서도 적용될 수 있다. 즉, 음성 인식 장치(200)가 각 방향(예를 들어, 동서남북의 4 방위)에 대한 잡음 패턴을 보유하고 있지 않은 경우, 복수의 마이크 어레이(array)를 통한 빔포밍(beamforming)을 통해 각 방향에 대한 잡음 패턴을 새롭게 취득할 수 있다(각 방향으로부터 수집된 음향에 기존의 잡음 패턴에 매칭되는 잡음 패턴이 존재하지 않는 경우). 또는, 음성 인식 장치는 시간 또는 요일 또는 계절에 따른 잡음 패턴이 포함된 음향을 수집할 수 있으며, 수집된 음향에 포함된 잡음 패턴이 기존의 잡음 패턴에 매칭되지 않는 경우, 상기 음향이 수집된 시간 또는 요일 또는 계절에 대한 새로운 잡음 패턴인 것으로 간주할 수 있다.
음성 인식 장치는 음성 인식시 이용할 잡음 패턴의 수 또는 종류가 증가할 수록 수집되는 음향에 매칭되는 잡음 패턴을 찾을 확률이 높아지며, 이에 따라 수집된 음향으로부터 상기 매칭되는 잡음 패턴에 대응하는 배경 잡음을 용이하게 제거할 수 있다. 결과적으로, 음성 인식 장치는 음성 인식의 정확도를 높일 수 있다.
한편, 본 발명의 실시예에 따른 음성 인식 장치(100)는 적어도 하나의 외부 장치를 제어할 수 있으며, 각 외부 장치의 턴 온에 따른 개별적인 잡음 패턴을 취득하거나, 턴 온된 복수의 외부 장치의 조합에 따른 잡음 패턴도 취득할 수 있다. 예를 들어, 음성 인식 장치는 세탁기 또는 믹서기를 개별적으로 턴 온시킨 뒤 세탁기의 잡음 패턴과 믹서기의 잡음 패턴을 개별적으로 취득하거나, 상기 세탁기 및 믹서기를 동시에 턴 온시킨 뒤 상기 세탁기 및 믹서기의 동시 턴 온에 따른 잡음 패턴도 취득할 수 있다. 음성 인식 장치(200)는 적어도 하나의 외부 장치 중 어느 하나의 외부 장치를 턴 온한 경우, 상기 턴 온된 외부 장치가 턴 오프될 때까지 잡음 패턴을 수집할 수 있다(도 4(c)).
한편, 본 발명의 실시예에 따른 음성 인식 장치(100)는 외부 장치의 작동 상태를 변경하는 제어 신호를 상기 외부 장치로 전송할 수 있다. 예를 들어, 도 4(b)의 경우, 음성 인식 장치(100)는 청소기(200)의 흡입력을 증가시키는 제어 신호를 청소기(200)로 전송할 수 있으며, 상기 청소기(200)의 흡입력 증가에 따른 잡음 패턴을 취득할 수도 있다.
전술한 방식에 따라 취득된 잡음 패턴은 음성 인식 과정에서 이용될 수 있다. 본 발명의 바람직한 실시예에 따르면, 상기 프로세서는 상기 적어도 하나의 외부 장치 중 상기 음성 인식 장치에 의해 턴 온된 외부 장치에 따라 상기 수집한 음향에 매칭되는 잡음 패턴을 결정할 수 있다. 음성 인식 장치(100)는 외부 장치를 제어할 수 있으므로, 상기 외부 장치의 턴 온 여부 역시 알 수 있다. 도 4(b)의 상황에서 화자가 발화하는 경우, 음성 인식 장치(100)는 청소기(200)의 턴 온 여부를 알 수 있으며, 수집된 음향에 포함된 청소기(200)의 잡음 패턴을 이용하여 상기 화자의 음성을 인식할 수 있다.
한편, 본 발명의 다른 실시예에 따르면, 상기 음성 인식 장치는 다른 음성 인식 장치와 정보를 송수신하는 송수신부(또는 전술한 유선 또는 무선 모듈)를 더 포함할 수 있다. 이 경우, 음성 인식 장치는 상기 송수신부를 통해 동일한 네트워크에 접속된 다른 음성 인식 장치로부터 상기 잡음 패턴을 수신할 수 있다. 여기서, 상기 동일한 네트워크는 동일한 액세스 포인트(access point)를 통해 통신을 수행하는 외부 기기 또는 동일한 공유기/브릿지/분배기를 통해 상호 연결된 외부 기기 또는 상기 음성 인식 장치로부터 기 설정된 거리 범위 이내에 위치하는 외부 기기를 총칭할 수 있다. 동일한 네트워크에 포함된 외부 기기는 음성 인식 장치와 유사한 배경 잡음 또는 잡음 패턴을 취득할 가능성이 존재하며, 이에 따라 잡음 패턴의 상호 공유를 통해 음성 인식 성능을 더 높일 수 있다. 또는, 음성 인식 장치는 도 3(b)의 상황에서, 위치 B에 설치된 타 음성 인식 장치 또는 위치 D에 설치된 타 음성 인식 장치로부터 각 타 음성 인식 장치가 취득한 잡음 패턴을 수신할 수 있으며, 수신된 잡음 패턴을 이용한 음성 인식을 수행할 수도 있다.
본 발명의 실시예에 따른 음성 인식 장치는 타 음성 인식 장치와의 협업을 통해 정확한 음성 인식을 수행할 수도 있다. 예를 들어, 집 내부에 현관, 거실, 화장실이 순서대로 배치되어 있고, 제 1 음성 인식 장치가 현관과 거실 사이, 제 2 음성 인식 장치가 거실과 화장실 사이에 설치된 상황을 가정할 수 있다. 이때, 화자가 거실에서 발화한 경우, 제 1 음성 인식 장치 및 제 2 음성 인식 장치는 화자의 음성을 포함하는 음향을 개별적으로 취득할 수 있으며, 각 음성 인식 장치는 자신이 보유 중인 잡음 패턴(또는 외부로부터 수신한 잡음 패턴)의 일부 시간 구간과 상기 음향의 일부 시간 구간을 매칭시킬 수 있다. 이때, 각 음성 인식 장치는 상기 음향과 각자의 잡음 패턴의 매칭되는 정도(예를 들어, 0 내지 1 사이의 유사도에 관한 수치)를 산출할 수 있으며, 상기 매칭되는 정보를 상호 공유할 수 있다. 만약 제 1 음성 인식 장치가 보유 중인 잡음 패턴과 상기 음향(또는 음향에 포함된 배경 잡음)의 유사도가 0.9이고, 제 2 음성 인식 장치가 보유 중인 잡음 패턴과 상기 음향(또는 음향에 포함된 배경 잡음)의 유사도가 0.6인 경우, 제 1 음성 인식 장치가 후속 음성 인식 과정(음향 모델을 이용한 음성 인식 결과물 생성 등)을 수행하고, 그 수행 결과에 따른 서비스를 사용자에게 제공할 수 있으며, 제 2 음성 인식 장치는 후속 음성 인식 과정을 수행하지 않을 수 있다.
즉, 본 발명의 실시예에 따른 음성 인식 장치는 다양한 환경 또는 조건에 따른 잡음 패턴을 수집할 수 있으며, 특히 기존의 잡음 패턴과 상이한 잡음 패턴은 새로운 잡음 패턴으로 간주하고 차후의 음향과의 매칭시 이용할 수 있다. 이를 통해 음성 인식 장치는 잡음 패턴의 수집을 통해 음성 인식의 정확도를 상승시킬 수 있다.
도 5는 본 발명의 실시예에 따른 음성 인식 방법을 나타낸 도면이다. 도 5에 따르면, 음성 인식 장치는 음성 인식을 위한 음향을 수집(S101)할 수 있다. 그리고, 음성 인식 장치는 상기 수집한 음향의 일부 시간 구간과 잡음 패턴의 일부 시간 구간을 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정(S102)할 수 있다. 그리고, 음성 인식 장치는 상기 결정된 잡음 패턴을 이용하여 상기 수집한 음향으로부터 음성을 인식(S103)할 수 있다. 음성 인식 장치가 수집한 음향에 매칭되는 잡음 패턴을 결정하고, 결정된 잡음 패턴을 이용하여 음성 인식을 수행하는 방식은 도 2 내지 도 4를 설명할 때 다루었으므로 이에 대한 기재는 생략한다.
전술한 본 발명의 실시예에 따르면, 수집된 음향에 매칭되는 잡음 패턴을 결정할 수 있고, 상기 잡음 패턴에 기초한 효과적인 음성 인식을 수행할 수 있다. 또한, 본 발명의 실시예에 따르면 잡음 패턴을 추가적으로 수집하거나 외부 기기로부터 수신할 수 있으며, 상기 비교 대상인 잡음 패턴의 종류/수의 증가에 따라 음성 인식의 정확도를 높일 수 있다.
이상에서 본 발명을 구체적인 실시예를 통하여 설명하였으나, 당업자라면 본 발명의 취지를 벗어나지 않는 범위 내에서 수정, 변경을 할 수 있을 것이다. 따라서 본 발명이 속하는 기술분야에 속한 사람이 본 발명의 상세한 설명 및 실시예로부터 용이하게 유추할 수 있는 것은 본 발명의 권리범위에 속하는 것으로 해석되어야 할 것이다.

Claims (12)

  1. 음성 인식을 위한 음향을 수집하는 음향 수집부; 및
    외부 장치의 동작을 제어하는 제어 신호를 상기 외부 장치에 전송하고, 상기 외부 장치를 턴온(turn-on)하는 제어 신호를 상기 외부 장치에게 전송한 시점 또는 상기 외부 장치를 턴 오프(turn-off)하는 제어 신호를 상기 외부 장치에게 전송한 시점을 기초로 상기 외부 장치의 동작에 따라 발생하는 잡음 패턴을 수집하는 수집 시간을 결정하고, 상기 결정된 수집 시간 동안 상기 잡음 패턴을 수집하고, 상기 수집한 음향의 일부 시간 구간과 상기 수집된 잡음 패턴을 포함하는 잡음 패턴의 일부 시간 구간을 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정하고, 상기 결정된 잡음 패턴을 이용하여 상기 수집한 음향으로부터 음성을 인식하는 프로세서를 포함하고,
    상기 수집된 잡음 패턴은 상기 외부 장치가 턴온 상태에 있는 경우 상기 수집한 음향에 매칭되는 잡음 패턴인, 음성 인식 장치.
  2. 제1항에서,
    상기 프로세서는
    상기 수집한 음향이 수집된 시간 및 장소 중 적어도 어느 하나를 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정하는
    음성 인식 장치.
  3. 제2항에서,
    상기 프로세서는
    상기 수집한 음향이 수집된 요일 및 계절 중 적어도 어느 하나를 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정하는
    음성 인식 장치.
  4. 삭제
  5. 삭제
  6. 삭제
  7. 제1항에서
    상기 음성 인식 장치는 영상을 감지하는 영상 수집부를 더 포함하고,
    상기 프로세서는 상기 감지한 영상을 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정하는
    음성 인식 장치.
  8. 제7항에서,
    상기 프로세서는 상기 감지한 영상으로부터 턴 온된 외부 장치를 식별하는
    음성 인식 장치.
  9. 제7항에서,
    상기 프로세서는 상기 감지한 영상으로부터 상기 수집된 음향에 포함된 음성의 화자의 위치를 식별하고,
    상기 식별한 화자의 위치를 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정하는
    음성 인식 장치.
  10. 제1항에서,
    상기 음성 인식 장치는
    다른 음성 인식 장치와 정보를 송수신하는 송수신부를 더 포함하고,
    상기 프로세서는
    상기 송수신부를 통해 동일한 네트워크에 접속된 다른 음성 인식 장치로부터 상기 잡음 패턴을 수신하는
    음성 인식 장치.
  11. 제1항에서,
    상기 수집한 음향의 일부 시간 구간과 잡음 패턴의 일부 시간 구간의 길이는 주위 소음 크기에 따라 결정되는
    음성 인식 장치.
  12. 음성 인식을 위한 음향을 수집하는 단계;
    외부 장치의 동작을 제어하는 제어 신호를 상기 외부 장치에 전송하는 단계;
    상기 외부 장치를 턴온하는 제어 신호를 상기 외부 장치에게 전송한 시점 또는 상기 외부 장치를 턴 오프하는 제어 신호를 상기 외부 장치에게 전송한 시점을 기초로 상기 외부 장치의 동작에 따라 발생하는 잡음 패턴을 수집하는 수집 시간을 결정하는 단계;
    상기 결정된 수집 시간 동안 음향 수집부를 통해 상기 잡음 패턴을 수집하는 단계;
    상기 수집한 음향의 일부 시간 구간과 상기 수집된 잡음패턴을 포함하는 잡음 패턴의 일부 시간 구간을 기초로 상기 수집한 음향에 매칭되는 잡음 패턴을 결정하는 단계; 및
    상기 결정된 잡음 패턴을 이용하여 상기 수집한 음향으로부터 음성을 인식하는 단계를 포함하고,
    상기 수집된 잡음 패턴은 상기 외부 장치가 턴온 상태에 있는 경우, 상기 수집한 음향에 매칭되는 잡음 패턴인,
    음성 인식 방법.
KR1020160154375A 2016-11-18 2016-11-18 음성 인식 장치 및 방법 KR101863098B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160154375A KR101863098B1 (ko) 2016-11-18 2016-11-18 음성 인식 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160154375A KR101863098B1 (ko) 2016-11-18 2016-11-18 음성 인식 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20180056284A KR20180056284A (ko) 2018-05-28
KR101863098B1 true KR101863098B1 (ko) 2018-05-31

Family

ID=62451323

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160154375A KR101863098B1 (ko) 2016-11-18 2016-11-18 음성 인식 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101863098B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200046262A (ko) * 2018-10-24 2020-05-07 주식회사 케이티 소음을 유발하는 작업 장치에 대한 음성 인식 처리 방법 및 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006050303A (ja) * 2004-08-05 2006-02-16 Nissan Motor Co Ltd 音入力装置
JP2006227634A (ja) * 2006-03-29 2006-08-31 Seiko Epson Corp 音声認識を用いた機器制御方法および音声認識を用いた機器制御システムならびに音声認識を用いた機器制御プログラムを記録した記録媒体
JP2008242067A (ja) * 2007-03-27 2008-10-09 Advanced Telecommunication Research Institute International 音声認識装置、音声認識システムおよび音声認識方法
JP2011118124A (ja) * 2009-12-02 2011-06-16 Murata Machinery Ltd 音声認識システムと認識方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006050303A (ja) * 2004-08-05 2006-02-16 Nissan Motor Co Ltd 音入力装置
JP2006227634A (ja) * 2006-03-29 2006-08-31 Seiko Epson Corp 音声認識を用いた機器制御方法および音声認識を用いた機器制御システムならびに音声認識を用いた機器制御プログラムを記録した記録媒体
JP2008242067A (ja) * 2007-03-27 2008-10-09 Advanced Telecommunication Research Institute International 音声認識装置、音声認識システムおよび音声認識方法
JP2011118124A (ja) * 2009-12-02 2011-06-16 Murata Machinery Ltd 音声認識システムと認識方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200046262A (ko) * 2018-10-24 2020-05-07 주식회사 케이티 소음을 유발하는 작업 장치에 대한 음성 인식 처리 방법 및 시스템
KR102333376B1 (ko) 2018-10-24 2021-12-02 주식회사 케이티 소음을 유발하는 작업 장치에 대한 음성 인식 처리 방법 및 시스템

Also Published As

Publication number Publication date
KR20180056284A (ko) 2018-05-28

Similar Documents

Publication Publication Date Title
US11710478B2 (en) Pre-wakeword speech processing
US11875820B1 (en) Context driven device arbitration
US10134421B1 (en) Neural network based beam selection
KR102339594B1 (ko) 객체 인식 방법, 컴퓨터 디바이스 및 컴퓨터 판독 가능 저장 매체
US11138977B1 (en) Determining device groups
CN111370014B (zh) 多流目标-语音检测和信道融合的系统和方法
JP6574169B2 (ja) 多方向の復号をする音声認識
CN110503970A (zh) 一种音频数据处理方法、装置及存储介质
JP6169910B2 (ja) 音声処理装置
US10242677B2 (en) Speaker dependent voiced sound pattern detection thresholds
US11488617B2 (en) Method and apparatus for sound processing
US10650306B1 (en) User representation using a generative adversarial network
JP6077957B2 (ja) 音声処理装置、音声処理方法、及び音声処理プログラム
EP3387648A1 (en) Localization algorithm for sound sources with known statistics
EP3714452B1 (en) Method and system for speech enhancement
KR101863097B1 (ko) 키워드 인식 장치 및 방법
US10878812B1 (en) Determining devices to respond to user requests
CN112397083A (zh) 语音处理方法及相关装置
US20080120100A1 (en) Method For Detecting Target Sound, Method For Detecting Delay Time In Signal Input, And Sound Signal Processor
KR101874946B1 (ko) 홈 네트워크 시스템
KR101863098B1 (ko) 음성 인식 장치 및 방법
KR102071865B1 (ko) 서버인식 결과를 이용하여 호출어를 인식하는 장치 및 방법
Varela et al. Combining pulse-based features for rejecting far-field speech in a HMM-based voice activity detector
WO2020230460A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
Lee et al. Space-time voice activity detection

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant