KR100556365B1 - 음성 인식장치 및 방법 - Google Patents

음성 인식장치 및 방법 Download PDF

Info

Publication number
KR100556365B1
KR100556365B1 KR1020030045765A KR20030045765A KR100556365B1 KR 100556365 B1 KR100556365 B1 KR 100556365B1 KR 1020030045765 A KR1020030045765 A KR 1020030045765A KR 20030045765 A KR20030045765 A KR 20030045765A KR 100556365 B1 KR100556365 B1 KR 100556365B1
Authority
KR
South Korea
Prior art keywords
command
echo
user command
user
noise
Prior art date
Application number
KR1020030045765A
Other languages
English (en)
Other versions
KR20050005868A (ko
Inventor
신종근
유창동
김상균
김종욱
진민호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020030045765A priority Critical patent/KR100556365B1/ko
Priority to US10/883,775 priority patent/US8046223B2/en
Priority to EP04015881A priority patent/EP1496499A3/en
Priority to CNB2004100637266A priority patent/CN100345184C/zh
Publication of KR20050005868A publication Critical patent/KR20050005868A/ko
Application granted granted Critical
Publication of KR100556365B1 publication Critical patent/KR100556365B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Selective Calling Equipment (AREA)
  • Details Of Television Systems (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

주변 환경음에 상관없이 원격에서도 음성 인식이 정확히 이루어질 수 있도록 한 음성 인식 장치 및 방법에 관한 것으로, 시작점 및 끝점 정보를 이용한 적응 필터링 방식으로 모든 입력음에서 반향음과 잡음을 제거하기 위한 반향 및 잡음 제거부와, 반향 및 잡음 제거부에서 출력되는 연속적인 사용자 음성에서 명령어를 검출하고 그 시작점 및 끝점 정보를 반향 및 잡음 제거부와 음성 인식부에 제공하는 시작점 및 끝점 검출부와, 시작점 및 끝점 검출부에서 검출된 명령어가 기설정된 명령어 리스트에 포함된 명령어일 경우 해당 명령에 따른 동작이 수행되도록 상기 명령어를 피제어기기로 전송하는 음성 인식부를 포함하므로 잡음 및 반향이 다수 존재하는 환경에서도 원격에서 사용자 음성만을 인식하고 해당 명령을 정확히 수행할 수 있으므로 사용자 편의를 극대화시킬 수 있다.
음성/원격/단어/필러/음성인식/반향 및 잡음제거

Description

음성 인식장치 및 방법{Apparatus and Method for Speech Recognition}
도 1은 본 발명에 따른 음성 인식장치가 적용된 A/V 기기의 구성을 나타낸 블록도
도 2는 도 1의 음성 인식장치의 구성을 나타낸 블록도
도 3은 본 발명에 따른 음성 인식방법을 나타낸 순서도
- 도면의 주요 부분에 대한 부호의 설명 -
10: A/V 기기 11: 제어부
20: 음성 인식 장치 21: 반향 및 잡음 제거부
22: 시작점 및 끝점 검출부 23: 음성 인식부
본 발명은 에이브이(AV)기기 등의 출력음과 같은 주변 환경음에 상관없이 원격에서 음성인식이 가능한 음성 인식장치 및 방법에 관한 것이다.
음성 인식기술은 인간의 가장 자연스러운 의사 전달 수단인 음성을 통해 기계나 컴퓨터에게 인간의 의사를 전달하여 원하는 동작을 하도록 하는 기술이다.
이러한 음성 인식 기술은 현재 여러 분야에서 사람들에게 많은 편리함을 제 공하고 있으며, 앞으로 그 발전이 더욱 기대되고 있다.
그러나 우리는 지금까지 티브이, 오디오 등의 A/V 기기를 제어하기 위해서, 리모콘을 이용하거나, 해당 기기에 설치된 버튼을 눌러야 했다.
리모콘을 이용할 경우, 항상 리모콘이 사용자 근처에 존재해야하고 사람이 직접 들고 손으로 조작해야 하는 번거로움이 있고, 리모콘이 작은 기기이므로 종종 그 위치를 찾기 힘들 때가 있다. 특히, 고령의 사용자의 경우 리모콘의 사용에 적지 않은 어려움을 느끼고 있는 실정이다.
이러한 문제점을 해결하기 위해 음성 인식 기술을 이용하여 동작 제어가 가능한 A/V 기기의 발명이 요구되고 있다.
그러나 티브이, 오디오 등의 A/V 기기의 경우 일반적인 음성 인식기로는 원하는 제어동작을 수행하기 힘들다.
그 이유는 일반적인 음성 인식기가 동작하는 환경이 사람의 음성이 주를 이루는 조용한 환경이 아니고, 주변 잡음과 A/V 기기의 소리가 사람의 음성에 비해 크기 때문이다.
또한 음성 인식기를 장착해야 하는 A/V 기기와 이를 사용하는 사용자간의 거리가 가깝지 않은 것도 또 하나의 이유이다.
즉, 종래의 음성 인식기는 장착 대상인 기기가 자체적인 음성출력이 이루어지고 원격 제어가 수행되는 A/V 기기에서는 음성인식이 정확히 이루어지지 못하는 문제점이 있다.
따라서 본 발명은 상기한 종래의 문제점을 해결하기 위하여 안출한 것으로서, 주변 환경음에 상관없이 원격에서도 음성 인식이 정확히 이루어질 수 있도록 한 음성 인식 장치 및 방법을 제공함에 그 목적이 있다.
본 발명에 따른 음성 인식 장치는 시작점 및 끝점 정보를 이용한 적응 필터링 방식으로 모든 입력음에서 반향음과 잡음을 제거하기 위한 반향 및 잡음 제거부와, 반향 및 잡음 제거부에서 출력되는 연속적인 사용자 음성에서 명령어를 검출하고 그 시작점 및 끝점 정보를 반향 및 잡음 제거부와 음성 인식부에 제공하는 시작점 및 끝점 검출부와, 시작점 및 끝점 검출부에서 검출된 명령어가 기설정된 명령어 리스트에 포함된 명령어일 경우 해당 명령에 따른 동작이 수행되도록 상기 명령어를 피제어기기로 전송하는 음성 인식부를 포함함을 특징으로 한다.
본 발명에 따른 음성 인식 방법은 사용자 명령을 포함한 연속적인 입력에서 반향 및 잡음을 적응 필터링 방식을 이용하여 제거하고 사용자 명령을 검출하는 단계와, 검출된 사용자 명령어의 핵심어 확률과 비핵심어 확률의 비율을 산출하는 단계와, 산출된 비율과 제1 문턱값 및 제2 문턱값의 비교 결과에 따라 해당 명령이 수행되도록 사용자 명령어를 피제어기기로 전송하는 단계를 포함함을 특징으로 한다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 음성 인식 장치 및 방법의 바람직한 일실시예를 상세히 설명하면 다음과 같다.
도 1은 본 발명에 따른 음성 인식 장치가 적용된 A/V 기기의 구성을 나타낸 블록도, 도 2는 도 1의 음성 인식 장치의 구성을 나타낸 블록도이고, 도 3은 본 발명에 따른 음성 인식 방법을 나타낸 순서도이다.
먼저, 본 발명에 따른 음성 인식 장치(20)를 A/V 기기중 하나인 티브이에 설치한 예가 도 1에 도시되어 있다.
이때 음성 인식 장치(20)의 위치는 사용자의 음성을 직접적으로 입력받을 수 있는 위치 즉, 티브이(10)의 화면 출력이 이루어지는 정면측이 가장 바람직하다.
그리고 음성 인식 장치(20)의 구성을 살펴보면, 도 2에 도시된 바와 같이, 타이밍 정보 즉, 시작점 및 끝점정보를 이용한 적응 필터링 방식으로 모든 입력음에서 반향음과 잡음을 제거하고 사용자 음성만을 검출하기 위한 반향 및 잡음 제거부(21), 상기 반향 및 잡음 제거부(21)에서 출력되는 연속적인 사용자 음성에서 명령어를 검출하고 그 시작점 및 끝점 정보를 상기 반향 및 잡음 제거부(21)와 음성 인식부(23)에 제공하는 시작점 및 끝점 검출부(22), 그리고 상기 시작점 및 끝점 검출부(22)에서 출력된 명령어가 기설정된 명령어 리스트에 포함된 명령어일 경우 해당 명령에 따른 동작이 수행되도록 A/V 기기(10)의 제어부(11)로 전송하는 음성 인식부(23)를 포함하여 구성된다.
이때 반향 및 잡음 제거부(21)는 M 채널 IIR(Infinite Impulse Response) 필터 뱅크를 사용한 서브 밴드(Sub band) 적응 필터링 방식이 적용된다.
그리고 시작점 및 끝점 검출부(22)는 상기 반향 및 잡음 제거부(21)의 출력에서 명령어만을 검출하여 음성 인식부(23)로 제공하고, 명령어의 시작점과 끝점을 상기 반향 및 잡음 제거부(21)로 제공한다. 이때 시작점과 끝점이 검출되더라도 무조건 명령어로 인식하는 것이 아니고, 명령어의 크기가 기설정된 기준값 이상일 경우에만 유효한 명령어로 검출하도록 구성되어 사용자가 명령어를 일정크기 이상으로 발음하도록 유도한다.
이어서 음성 인식부(23)는 상기 시작점 및 끝점 검출부(22)에서 출력된 명령어가 핵심어라고 판단될 경우 이를 A/V 기기(10)의 제어부(11)로 전송하고, 비핵심어라고 판단될 경우 사용자 확인(사용자에게 그 명령어를 선택할 것인지 여부를 묻거나 재입력을 요구)에 해당하는 화면표시를 A/V 기기(10)의 제어부(11)에 요청하도록 구성된다.
이와 같이 구성된 본 발명에 따른 음성 인식 방법을 도 3을 참조하여 상세히 설명하면 다음과 같다.
먼저, 사용자가 A/V 기기중 하나인 티브이를 시청하는 도중 볼륨을 높이고 싶을 경우, 예를 들어, '볼륨 업'이라고 말하게 되면, 상기 사용자의 음성인 '볼륨 업'과 티브이에서 출력되어 반향된 음성 및 잡음이 티브이의 음성 인식 장치(20)로 입력된다.
이때 반향 및 잡음 제거부(21)는 시작점 및 끝점 검출부(22)의 시작점 및 끝점 정보에 따라 전체 입력음에서 반향 및 잡음을 제거하고 시작점 및 끝점 검출부(22)는 그 출력을 이용하여 명령어를 검출한다(S31).
이때 시작점 및 끝점 검출부(22)는 반향 및 잡음 제거부(21)를 통해 입력되는 음성의 시작점과 끝점을 검출하여 각각 반향 및 잡음 제거부(21)로 알린다. 따라서 반향 및 잡음 제거부(21)는 상기 시작점 정보에 따라 적응을 멈추고 해당 필터 계수를 이용하여 반향을 제거하는 필터링 동작을 하고, 끝점 정보에 따라 적응을 다시 시작하여 최적의 필터 계수를 찾는다.
이어서 음성 인식부(23)는 인식된 명령어의 핵심어 확률과 비핵심어 확률을 산출한다(S32).
이때 음성 인식부(23)의 핵심어 확률은 다음과 같이 산출된다.
각각의 명령어 즉, 단어에 대한 모델을 만들고 입력된 음성을 각각의 단어 모델을 통과시켜 그 확률값들을 얻고, 이렇게 얻어진 확률값 중 가장 큰 확률을 가지는 단어 모델을 인식결과로 선택하게 된다. A/V 기기(10)가 티브이일 경우 50단어 정도의 적은 수의 명령어 집합에 대한 인식이므로 적은 수의 단어에 대해 높은 인식률을 보이는 단어 단위 모델을 생성한다.
또한 음성 인식부(23)의 비핵심어 확률은 각 단어에 대한 모델과 지정된 명령어가 아닌 단어에 대해 높은 확률을 가지도록 훈련된 필러(Filler) 모델을 이용하여 산출된다.
그리고 상기 단계(S32)에서 산출된 핵심어 확률과 비핵심어 확률의 비(比)를 제1 및 제2 문턱값과 비교하여 핵심어 인식 및 배제 동작을 수행한다.
이때 티브이와 같은 A/V 기기는 실제 사용자 음성 이외에 자체적으로 출력된 음성이 재 입력되는 등 잡음이 크므로 오동작을 배제하기 위해 두 가지 문턱값(dB 단위)을 사용한다. 제1 문턱값은 오동작의 확률이 0.5% 이내가 되도록 설정하고, 제2 문턱값은 오동작의 확률이 5% 이내가 되도록 설정한다.
따라서 상기 단계(S32)에서 핵심어 확률과 비핵심어 확률이 산출되면, 핵심어 확률과 비핵심어 확률의 비가 제1 문턱값보다 큰지 판단한다(S33).
이어서 상기 판단결과(S33), 핵심어 확률과 비핵심어 확률의 비가 제1 문턱값 이상이면 사용자 명령이 올바르게 인식된 것으로 판단하여 인식된 명령어를 A/V 기기(10)의 제어부(11)로 전송하여 해당 명령이 수행되도록 한다(S34).
따라서 A/V 기기(10)는 출력 음성의 볼륨을 올린다.
한편, 상기 판단결과(S33), 핵심어 확률과 비핵심어 확률의 비가 제1 문턱값 이상이 아니면, 제1 문턱값보다는 작고 제2 문턱값 이상인지 판단한다(S35).
이어서 상기 판단결과(S35), 핵심어 확률과 비핵심어 확률의 비가 제1 문턱값보다는 작고 제2 문턱값 이상이면, 사용자 확인을 요청한다(S36).
즉, A/V 기기(10)의 제어부(11)로 인식된 단어를 표시하고 예를 들어, 선택이라는 명령을 통해 확인할 수 있도록 하는 것이다. 따라서 A/V 기기(10)는 화면상에 인식된 단어 '볼륨 업'을 표시하게 된다.
그리고 상기 화면을 보고 사용자가 '선택'을 명령하는지 판단하고(S37), 사용자가 '선택'을 명령하면 상기 단계(S34)와 마찬가지로 인식된 명령어를 A/V 기기(10)의 제어부(11)로 전송하여 해당 명령이 수행되도록 한다(S38).
이때 사용자가 상기 화면을 보고 자신의 의사와는 다른 명령어일 경우, 아무런 동작을 필요로 하지 않으며, 다음 명령어가 입력되면 이미 인식된 명령어는 자동으로 무시된다.
한편, 상기 판단결과(S35), 핵심어 확률과 비핵심어 확률의 비가 제1 문턱값 보다는 작고 제2 문턱값 이상이 아니면, 즉, 핵심어 확률과 비핵심어 확률의 비가 제2 문턱값 미만이면 인식결과를 배제한다(S39).
즉, 인식된 명령어를 A/V 기기(10)로 전송하지 않고 무시한다.
상술한 본 발명은 환경 잡음 및 반향음 등이 발생하여 인식 환경이 열악한 A/V 기기의 예를 들어 설명하였으나, 환경 잡음이 많은 또 하나의 예로서, 자동차의 동작을 제어하는 경우 등에도 적용가능하며, 그 이외의 각종 기기의 경우 상기 A/V 기기에 비해 인식환경이 뛰어나므로 본 발명의 기술 적용이 쉽게 이루어질 수 있음은 명백하다.
본 발명에 따른 음성 인식 장치 및 방법은 잡음 및 반향이 다수 존재하는 환경에서도 원격에서 사용자 음성만을 인식하고 해당 명령을 정확히 수행할 수 있으므로 사용자 편의를 극대화시킬 수 있는 효과가 있다.

Claims (8)

  1. 적응 필터링 방식으로 모든 입력음에서 반향음과 잡음을 제거하고, 사용자 음성만을 검출하거나, 시작점 및 끝점 검출부로부터 제공받은 시작점 및 끝점 정보를 이용한 적응 필터링 방식으로 모든 입력음에서 반향음과 잡음을 제거하고 사용자 음성만을 검출하기 위한 반향 및 잡음 제거부;
    상기 반향 및 잡음 제거부에서 출력되는 연속적인 사용자 음성에서 명령어를 검출하고 그 시작점 및 끝점 정보를 상기 반향 및 잡음 제거부와 음성 인식부에 제공하는 시작점 및 끝점 검출부; 그리고
    상기 시작점 및 끝점 검출부에서 출력된 사용자 명령어의 핵심어 확률과 비핵심어 확률의 비율을 산출하고, 상기 산출된 비율과 제 1 문턱값 및 제 2 문턱값의 비교 결과에 따라 해당 명령이 수행되도록 상기 사용자 명령어를 피제어기기로 전송하는 음성 인식부를 포함하여 이루어 지는 것을 특징으로 하는 음성 인식 장치.
  2. 제1 항에 있어서,
    상기 반향 및 잡음 제거부는 IIR 필터 뱅크를 사용한 서브 밴드(Sub band) 적응 필터를 포함함을 특징으로 하는 음성 인식 장치.
  3. 제1 항에 있어서,
    상기 음성 인식부는 명령어 판단을 위해 필러(Filler) 모델이 적용됨을 특징으로 하는 음성 인식 장치.
  4. 사용자 명령을 포함한 연속적인 입력에서 반향음 및 잡음을 적응 필터링 방식을 이용하여 제거하고, 상기 사용자 명령을 검출하는 단계;
    상기 검출된 사용자 명령어의 핵심어 확률과 비핵심어 확률의 비율을 산출하는 단계; 그리고
    상기 산출된 비율과 제 1 문턱값 및 제 2 문턱값의 비교 결과에 따라 해당 명령이 수행되도록 상기 사용자 명령어를 피제어기기로 전송하는 단계를 포함하여 이루어 지는 것을 특징으로 하는 음성 인식 방법.
  5. 제4 항에 있어서,
    상기 사용자 명령을 포함한 연속적인 입력에서 반향 및 잡음을 적응 필터링 방식을 이용하여 제거하고 사용자 명령을 검출하는 단계는
    상기 연속적인 입력에서 사용자 명령어의 시작점부터 필터 적응을 멈추고 사용자 명령어의 끝점에서 필터 적응을 시작하여 이루어짐을 특징으로 하는 음성 인식 방법.
  6. 제4 항에 있어서,
    상기 비핵심어 확률은 사용자 명령을 필러(Filler) 모델 각각에 통과시켜 각 확률을 구하고 그중 최고값을 인식결과로 선택하여 산출됨을 특징으로 하는 음성 인식 방법.
  7. 제4 항에 있어서,
    산출된 비율과 제1 문턱값 및 제2 문턱값의 비교 결과에 따라 해당 명령이 수행되도록 상기 사용자 명령어를 피제어기기로 전송하는 단계는
    산출된 비율이 제1 문턱값 이상일 경우 상기 사용자 명령어를 피제어기기로 전송하는 단계와,
    산출된 비율이 제1 문턱값 미만이고 제2 문턱값 이상일 경우 피제어기기를 통해 사용자 확인을 수행하고, 사용자 확인시 상기 사용자 명령어를 피제어기기로 전송하는 단계와,
    산출된 비율이 제2 문턱값 미만일 경우 사용자 명령어를 무시하는 단계를 포함함을 특징으로 하는 음성 인식 방법.
  8. 제7 항에 있어서,
    상기 제1 문턱값은 제2 문턱값에 비해 음성인식 오동작 확률이 낮도록 설정된 값임을 특징으로 하는 음성 인식 방법.
KR1020030045765A 2003-07-07 2003-07-07 음성 인식장치 및 방법 KR100556365B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020030045765A KR100556365B1 (ko) 2003-07-07 2003-07-07 음성 인식장치 및 방법
US10/883,775 US8046223B2 (en) 2003-07-07 2004-07-06 Apparatus and method of voice recognition system for AV system
EP04015881A EP1496499A3 (en) 2003-07-07 2004-07-06 Apparatus and method of voice recognition in an audio-video system
CNB2004100637266A CN100345184C (zh) 2003-07-07 2004-07-07 用于音频-视频系统的语音识别系统的设备及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030045765A KR100556365B1 (ko) 2003-07-07 2003-07-07 음성 인식장치 및 방법

Publications (2)

Publication Number Publication Date
KR20050005868A KR20050005868A (ko) 2005-01-15
KR100556365B1 true KR100556365B1 (ko) 2006-03-03

Family

ID=33448354

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030045765A KR100556365B1 (ko) 2003-07-07 2003-07-07 음성 인식장치 및 방법

Country Status (4)

Country Link
US (1) US8046223B2 (ko)
EP (1) EP1496499A3 (ko)
KR (1) KR100556365B1 (ko)
CN (1) CN100345184C (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9953654B2 (en) 2014-05-20 2018-04-24 Samsung Electronics Co., Ltd. Voice command recognition apparatus and method
KR20200017160A (ko) 2018-08-08 2020-02-18 주식회사 케이티 음성을 인식하는 장치, 방법 및 컴퓨터 판독 가능 매체

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100556365B1 (ko) 2003-07-07 2006-03-03 엘지전자 주식회사 음성 인식장치 및 방법
KR20080061901A (ko) * 2006-12-28 2008-07-03 주식회사 유진로봇 로봇의 입출력 장치에 의한 효율적인 음성인식 방법 및시스템
KR101086304B1 (ko) 2009-11-30 2011-11-23 한국과학기술연구원 로봇 플랫폼에 의해 발생한 반사파 제거 신호처리 장치 및 방법
AU2013298956B2 (en) 2012-07-31 2016-06-16 Geistlich Pharma Ag Hydrophilic phosphate group containing dehydrated partially purified bone replacement material
US9508343B2 (en) * 2014-05-27 2016-11-29 International Business Machines Corporation Voice focus enabled by predetermined triggers
CN105988049B (zh) * 2015-02-28 2019-02-19 惠州市德赛西威汽车电子股份有限公司 一种噪声抑制的调试方法
WO2017039575A1 (en) * 2015-08-28 2017-03-09 Hewlett-Packard Development Company, L.P. Remote sensor voice recognition
CN105554609A (zh) * 2015-12-26 2016-05-04 北海鸿旺电子科技有限公司 通过语音输入进行功能切换的方法及耳机
US10958747B2 (en) * 2017-08-24 2021-03-23 Google Llc Digital component transmission
USD915360S1 (en) * 2018-08-27 2021-04-06 Lg Electronics Inc. Voice recognition device for television
US11521604B2 (en) 2020-09-03 2022-12-06 Google Llc User mediation for hotword/keyword detection
US11849291B2 (en) * 2021-05-17 2023-12-19 Apple Inc. Spatially informed acoustic echo cancelation

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5512939A (en) * 1994-04-06 1996-04-30 At&T Corp. Low bit rate audio-visual communication system having integrated perceptual speech and video coding
US5956674A (en) * 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
US6016473A (en) * 1998-04-07 2000-01-18 Dolby; Ray M. Low bit-rate spatial coding method and system
US6292778B1 (en) * 1998-10-30 2001-09-18 Lucent Technologies Inc. Task-independent utterance verification with subword-based minimum verification error training
US6571210B2 (en) * 1998-11-13 2003-05-27 Microsoft Corporation Confidence measure system using a near-miss pattern
KR100587260B1 (ko) 1998-11-13 2006-09-22 엘지전자 주식회사 음향 기기의 음성인식장치
WO2001001571A1 (en) * 1999-06-24 2001-01-04 Koninklijke Philips Electronics N.V. Acoustic echo and noise cancellation
DE10002321C2 (de) * 2000-01-20 2002-11-14 Micronas Munich Gmbh Sprachgesteuerte Vorrichtung und System mit einer derartigen sprachgesteuerten Vorrichtung
US20020039425A1 (en) 2000-07-19 2002-04-04 Burnett Gregory C. Method and apparatus for removing noise from electronic signals
EP1312078A1 (en) * 2000-08-15 2003-05-21 Koninklijke Philips Electronics N.V. Multi-device audio-video with common echo canceling
US6968064B1 (en) * 2000-09-29 2005-11-22 Forgent Networks, Inc. Adaptive thresholds in acoustic echo canceller for use during double talk
ATE474377T1 (de) * 2001-01-23 2010-07-15 Koninkl Philips Electronics Nv Asymmetrisches mehrkanalfilter
KR100368289B1 (ko) * 2001-02-20 2003-01-24 (주)성우테크노 음성인식장치를 위한 음성명령식별기
US6985859B2 (en) * 2001-03-28 2006-01-10 Matsushita Electric Industrial Co., Ltd. Robust word-spotting system using an intelligibility criterion for reliable keyword detection under adverse and unknown noisy environments
JP2003308091A (ja) * 2002-04-17 2003-10-31 Pioneer Electronic Corp 音声認識装置、音声認識方法および音声認識プログラム
KR100556365B1 (ko) 2003-07-07 2006-03-03 엘지전자 주식회사 음성 인식장치 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9953654B2 (en) 2014-05-20 2018-04-24 Samsung Electronics Co., Ltd. Voice command recognition apparatus and method
KR20200017160A (ko) 2018-08-08 2020-02-18 주식회사 케이티 음성을 인식하는 장치, 방법 및 컴퓨터 판독 가능 매체

Also Published As

Publication number Publication date
CN100345184C (zh) 2007-10-24
EP1496499A2 (en) 2005-01-12
EP1496499A3 (en) 2005-02-02
CN1591566A (zh) 2005-03-09
US20050033572A1 (en) 2005-02-10
KR20050005868A (ko) 2005-01-15
US8046223B2 (en) 2011-10-25

Similar Documents

Publication Publication Date Title
KR100556365B1 (ko) 음성 인식장치 및 방법
US10515640B2 (en) Generating dialogue based on verification scores
US20030138118A1 (en) Method for control of a unit comprising an acoustic output device
US6018711A (en) Communication system user interface with animated representation of time remaining for input to recognizer
US7006974B2 (en) Voice controller and voice-controller system having a voice-controller apparatus
EP2587481B1 (en) Controlling an apparatus based on speech
JP2020525850A (ja) 方法、電子装置、家庭用機器ネットワークおよび記憶媒体
US8666750B2 (en) Voice control system
EP1933303B1 (en) Speech dialog control based on signal pre-processing
CN108346425B (zh) 一种语音活动检测的方法和装置、语音识别的方法和装置
EP3602241B1 (en) Method and apparatus for interaction with an intelligent personal assistant
JP2017117371A (ja) 制御方法、制御装置およびプログラム
JP2007501420A (ja) ダイアログシステムの駆動方法
JP4520596B2 (ja) 音声認識方法および音声認識装置
CN107274895B (zh) 一种语音识别设备及方法
TW200809768A (en) Method of driving a speech recognition system
WO2019142418A1 (ja) 情報処理装置および情報処理方法
WO2003107327A1 (en) Controlling an apparatus based on speech
US20180332340A1 (en) Set-Top Box with Enhanced Functionality and System and Method for Use of Same
KR100567828B1 (ko) 향상된 음성인식 장치 및 방법
CN110839169B (zh) 一种智能设备遥控装置及基于其的控制方法
KR100651940B1 (ko) 음성 인식 장치 및 방법
KR20150009757A (ko) 영상처리장치 및 그 제어방법
JP2009109536A (ja) 音声認識システム及び音声認識装置
US20070118381A1 (en) Voice control methods

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130128

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140124

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150213

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160122

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170124

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20180124

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20190123

Year of fee payment: 14