KR20180012464A - 전자 장치 및 그의 음성 인식 방법 - Google Patents

전자 장치 및 그의 음성 인식 방법 Download PDF

Info

Publication number
KR20180012464A
KR20180012464A KR1020160095301A KR20160095301A KR20180012464A KR 20180012464 A KR20180012464 A KR 20180012464A KR 1020160095301 A KR1020160095301 A KR 1020160095301A KR 20160095301 A KR20160095301 A KR 20160095301A KR 20180012464 A KR20180012464 A KR 20180012464A
Authority
KR
South Korea
Prior art keywords
voice
user
speech
recognition module
speech recognition
Prior art date
Application number
KR1020160095301A
Other languages
English (en)
Other versions
KR102691889B1 (ko
Inventor
배재현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160095301A priority Critical patent/KR102691889B1/ko
Priority to EP20201122.7A priority patent/EP3799041A1/en
Priority to PCT/KR2017/007738 priority patent/WO2018021750A1/ko
Priority to US16/317,865 priority patent/US12094460B2/en
Priority to CN201780046774.XA priority patent/CN109564758B/zh
Priority to CN202410372004.6A priority patent/CN118230733A/zh
Priority to EP17834692.0A priority patent/EP3471090B1/en
Publication of KR20180012464A publication Critical patent/KR20180012464A/ko
Priority to KR1020240101744A priority patent/KR20240122394A/ko
Application granted granted Critical
Publication of KR102691889B1 publication Critical patent/KR102691889B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Navigation (AREA)

Abstract

전자 장치가 개시된다. 본 전자 장치는 사용자 음성을 입력받는 음성 수신부, 사용자 음성을 인식하기 위한 제1 음성 인식 모듈 및 사용자 음성에서 기설정된 음성만을 인식하기 위한 제2 음성 인식 모듈을 저장하는 저장부 및 제2 음성 인식 모듈을 통한 음성 인식 결과, 사용자 음성에 기설정된 음성이 존재하는 경우, 제1 음성 인식 모듈을 통해 사용자 음성 중 일부에 대해서만 음성 인식을 수행하는 프로세서를 포함한다.

Description

전자 장치 및 그의 음성 인식 방법 { ELECTRONIC DEVICE AND SPEECH RECOGNITION METHOD THEREOF }
본 발명은 전자 장치 및 그의 음성 인식 방법에 관한 것으로, 더욱 상세하게는 사용자 음성을 인식하는 전자 장치 그의 음성 인식 방법에 관한 것이다.
최근 전자 기술의 발전에 힘입어, 사용자는 전자 장치를 다양한 방식으로 제어할 수 있으며, 음성 인식은 그 중 하나의 방법이다.
종래 음성 인식의 경우, 사용자는 음성 인식 시스템을 준비시킨 후, 음성을 발화하였고, 음성 인식 시스템은 사용자가 발화한 음성을 수신하여 음성 인식을 수행하고, 그에 따른 동작을 수행하였다.
이 경우, 사용자가 의도치 않은 음성을 발화한 경우, 음성 인식 시스템은 이러한 사용자 음성까지 음성 인식을 수행하였다는 점에서, 잘못된 음성 인식 결과를 제공하였고, 이러한 경우, 사용자는 제대로 된 내용의 음성을 다시 발화하여야 한다는 점에서, 불편함을 초래하게 되었다.
이에 따라, 사용자가 의도치 않은 음성을 발화한 경우라도, 사용자의 발화 의도에 부합하는 정확한 음성 인식 결과를 제공하기 위한 방안의 모색이 요청된다.
본 발명은 상술한 필요성에 따른 것으로, 본 발명의 목적은 사용자가 의도치 않거나 잘못 발화한 음성만을 인식하기 위한 별도의 음성 인식 모듈을 통해 해당 음성을 인식하고, 해당 음성을 제외한 나머지 음성에 대해서만 음성 인식을 수행할 수 있는 전자 장치 및 그의 음성 인식 방법을 제공함에 있다.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치는 사용자 음성을 입력받는 음성 수신부, 상기 사용자 음성을 인식하기 위한 제1 음성 인식 모듈 및 상기 사용자 음성에서 기설정된 음성만을 인식하기 위한 제2 음성 인식 모듈을 저장하는 저장부 및 상기 제2 음성 인식 모듈을 통한 음성 인식 결과, 상기 사용자 음성에 상기 기설정된 음성이 존재하는 경우, 상기 제1 음성 인식 모듈을 통해 상기 사용자 음성 중 일부에 대해서만 음성 인식을 수행하는 프로세서를 포함한다.
여기에서, 상기 기설정된 음성은 사용자가 상기 기설정된 음성 이전에 발화한 음성을 취소하기 위한 의도로 발화한 음성을 포함할 수 있다.
이 경우, 상기 프로세서는 상기 제1 음성 인식 모듈을 통해, 상기 사용자 음성에서 상기 기설정된 음성 이후에 존재하는 음성에 대해서만 음성 인식을 수행할 수 있다.
또한, 상기 기설정된 음성은 사용자가 별다른 의미 없이 발화한 음성을 포함할 수 있다.
이 경우, 상기 프로세서는 상기 제1 음성 인식 모듈을 통해, 상기 사용자 음성에서 상기 기설정된 음성을 제외한 나머지 음성에 대해서만 음성 인식을 수행할 수 있다.
한편, 상기 프로세서는 상기 음성 인식 결과에 따라 상기 전자 장치의 동작을 제어할 수 있다.
또한, 상기 프로세서는 상기 제2 음성 인식 모듈에 의해 상기 기설정된 음성에 대해 산출된 음성 인식 점수가 기설정된 임계값 이상인 경우, 상기 제1 음성 인식 모듈을 통해 상기 사용자 음성 중 일부에 대해서만 음성 인식을 수행할 수 있다.
한편, 상기 프로세서는 상기 제2 음성 인식 모듈을 통해 상기 사용자 음성에서 상기 기설정된 음성이 인식되지 않는 경우, 상기 제1 음성 인식 모듈을 통한 상기 사용자 음성에 대한 음성 인식 결과에 따라 상기 전자 장치의 동작을 제어할 수 있다.
한편, 본 발명의 일 실시 예에 따른, 사용자 음성을 인식하기 위한 제1 음성 인식 모듈 및 상기 사용자 음성에서 기설정된 음성만을 인식하기 위한 제2 음성 인식 모듈이 저장된 전자 장치의 음성 인식 방법은 사용자 음성을 입력받는 단계 및 상기 제2 음성 인식 모듈을 통한 음성 인식 결과, 상기 사용자 음성에 상기 기설정된 음성이 존재하는 경우, 상기 제1 음성 인식 모듈을 통해 상기 사용자 음성 중 일부에 대해서만 음성 인식을 수행하는 단계를 포함한다.
여기에서, 상기 기설정된 음성은 사용자가 상기 기설정된 음성 이전에 발화한 음성을 취소하기 위한 의도로 발화한 음성을 포함할 수 있다.
이 경우, 상기 수행하는 단계는 상기 제1 음성 인식 모듈을 통해, 상기 사용자 음성에서 상기 기설정된 음성 이후에 존재하는 음성에 대해서만 음성 인식을 수행할 수 있다.
또한, 상기 기설정된 음성은, 사용자가 별다른 의미 없이 발화한 음성을 포함할 수 있다.
이 경우, 상기 수행하는 단계는 상기 제1 음성 인식 모듈을 통해, 상기 사용자 음성에서 상기 기설정된 음성을 제외한 나머지 음성에 대해서만 음성 인식을 수행할 수 있다.
한편, 본 실시 예에 따른 음성 인식 방법은 음성 인식 결과에 따라 상기 전자 장치의 동작을 제어하는 단계를 더 포함할 수 있다.
또한, 상기 수행하는 단계는 상기 제2 음성 인식 모듈에 의해 상기 기설정된 음성에 대해 산출된 음성 인식 점수가 기설정된 임계값 이상인 경우, 상기 제1 음성 인식 모듈을 통해 상기 사용자 음성 중 일부에 대해서만 음성 인식을 수행할 수 있다.
한편, 본 실시 예에 따른 음성 인식 방법은 상기 제2 음성 인식 모듈을 통해 상기 사용자 음성에서 상기 기설정된 음성이 인식되지 않는 경우, 상기 제1 음성 인식 모듈을 통한 상기 사용자 음성에 대한 음성 인식 결과에 따라 상기 전자 장치의 동작을 제어하는 단계를 더 포함할 수 있다.
한편, 본 발명의 일 실시 예에 따른 전자 장치는 사용자 음성을 입력받는 음성 수신부, 상기 사용자 음성을 인식하기 위한 음성 인식 모듈을 저장하는 저장부 및 상기 음성 인식 모듈을 통한 음성 인식 결과, 기 설정된 음성이 존재하면, 상기 음성 인식 결과에서 기설정된 음성을 제외한 부분에 대해서만 음성 인식을 수행하도록 하는 프로세서를 포함한다.
이 경우, 상기 음성 인식 모듈은 사용자 음성을 인식하기 위한 제1 음성 인식 모듈과 상기 사용자 음성에서 기설정된 음성만을 인식하기 위한 제2 음성 인식 모듈로 이루어질 수 있다.
또한, 상기 프로세서는 상기 제 2 음성 인식 모듈을 통해 인식된 상기 기설정된 음성이, 사용자가 상기 기설정된 음성 이전에 발화한 음성을 취소하기 위한 의도로 발화한 음성에 해당하는 경우, 상기 제1 음성 인식 모듈을 통해, 상기 사용자 음성에서 상기 기설정된 음성 이후에 존재하는 음성에 대해서만 음성 인식을 수행하도록 할 수 있다.
이상과 같은 본 발명의 다양한 실시 예에 따르면, 음성 인식 도중 사용자가 의도하지 않게 발화하더라고, 해당 음성을 제거하고 음성 인식을 수행한다는 점에서, 사용자가 다시 해당 음성을 발화하는 방식으로 처음부터 다시 음성 인식을 수행하지 않아도 사용자가 음성을 발화한 의도에 부합하는 동작을 수행할 수 있게 된다. 또한, 사용자가 의도하지 않은 음성만을 인식하기 위한 별도의 모듈을 통해 해당 음성에 대한 음성 인식을 수행한다는 점에서 음성 인식 성능이 강화될 수 있다.
도 1은 본 발명의 일 실시 예에 따른 전자 장치를 설명하기 위한 도면,
도 2는 본 발명의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도,
도 3 및 도 4는 본 발명의 일 실시 예에 따른 전자 장치의 음성 인식 동작을 설명하기 위한 도면들,
도 5는 본 발명의 일 실시 예에 따른 전자 장치의 음성 인식을 수행하는 과정을 설명하기 위한 흐름도,
도 6은 본 발명의 일 실시 예에 따른 전자 장치의 세부 구성을 설명하기 위한 블록도, 그리고
도 7은 본 발명의 일 실시 예에 따른 전자 장치의 음성 인식 방법을 설명하기 위한 흐름도이다.
이하에서는 첨부된 도면을 참조하여 본 발명을 더욱 상세하게 설명한다.
도 1은 본 발명의 일 실시 예에 따른 전자 장치를 설명하기 위한 도면이다.
도 1을 참조하면, 전자 장치(100)는 사용자(10)가 발화하는 음성을 입력받고, 사용자 음성에 대한 음성 인식을 수행하여 사용자 음성에 포함된 발화 의도에 따른 동작을 수행할 수 있다.
예를 들어, 전자 장치(100)는 사용자(10)가 발화한 음성인 "서울의 날씨를 알려줘"가 입력되면, 해당 음성에 대한 음성 인식을 수행하고, 음성 인식 결과에 기초하여 서울의 날씨에 대한 정보를 검색하여 화면 상에 디스플레이하거나, 이를 오디오 신호로 출력할 수 있다.
이러한 기능을 수행하는 전자 장치(100)는 텔레비전이나 셋톱박스(Settop Box)와 같은 방송 컨텐츠 수신 장치와 일체로 구현될 수 있다. 하지만, 이는 일 예일 뿐, 전자 장치(100)는 스마트 폰, 태블릿 등과 같은 다양한 유형의 장치로 구현되거나, 별도의 음성 인식 장치로도 구현될 수 있다.
한편, 전자 장치(100)는 사용자 음성에 기설정된 음성이 존재하는 경우, 사용자 음성의 일부에 대해서만 음성 인식을 수행할 수 있다.
여기에서, 기설정된 음성은 사용자가 기설정된 음성 이전에 발화한 음성을 취소하기 위한 의도로 발화한 음성 및 사용자가 별다른 의미 없이 발화한 음성 중 적어도 하나를 포함할 수 있다.
예를 들어, 사용자가 "수원 아니 서울의 날씨를 알려줘"라고 발화한 경우를 가정한다. 이 경우, "아니"는 "수원 아니 서울의 날씨를 알려줘"에서 "수원"이라는 음성을 취소하기 위한 의도로 발화한 것으로 볼 수 있다.
이 경우, 전자 장치(100)는 "수원 아니 서울의 날씨를 알려줘"에서 "아니" 이후의 음성인 "서울의 날씨를 알려줘"에 대해서만 음성 인식을 수행하고, 음성 인식 결과에 따라 서울의 날씨에 대한 정보를 사용자에게 제공하여 줄 수 있다.
다른 예로, 사용자가 "서울의 음~ 날씨를 알려줘"라고 발화한 경우를 가정한다. 이 경우, "음~"은 사용자가 발화하는 중간에 머뭇거리는 동안 아무런 의미 없이 발화한 음성으로 볼 수 있다.
이 경우, 전자 장치(100)는 "서울의 음~ 날씨를 알려줘"에서 "음~"을 제외한 나머지 음성인 "서울의 날씨를 알려줘"에 대해서만 음성 인식을 수행하고, 음성 인식 결과에 따라 서울의 날씨에 대한 정보를 사용자에게 제공하여 줄 수 있다.
이와 같이, 본 발명의 다양한 실시 예에 따르면, 사용자가 이전 발화를 취소하기를 원하는 음성 및 별다른 의미 없이 발화한 음성이 입력된 경우라도, 사용자가 음성을 발화한 의도에 부합하는 음성 인식 결과를 제공할 수 있어, 사용자 편의성이 향상될 수 있다.
도 2는 본 발명의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.
도 2를 참조하면, 전자 장치(100)는 음성 수신부(110), 저장부(120) 및 프로세서(130)를 포함한다.
음성 수신부(110)는 사용자 음성을 입력받는다. 즉, 음성 수신부(110)는 마이크 등으로 구현되어, 사용자가 발화한 음성을 입력받을 수 있다.
이 경우, 마이크는 전자 장치(100)에 내장되어 일체형을 이루거나, 전자 장치(100)와 분리된 형태로 구현될 수 있다. 분리된 형태로 구현되는 경우, 마이크는 사용자가 손으로 쥐는 형태 또는 식탁이나 테이블에 놓일 수 있는 형태로 구현될 수 있으며, 전자 장치(100)와 유선 또는 무선으로 연결되어 입력된 사용자 음성을 전자 장치(100)로 전송할 수 있다
저장부(120)는 음성 인식을 위한 모듈(이하, 음성 인식 모듈)을 저장한다.
여기에서, 음성 인식 모듈은 음성 인식 모델을 이용하여, 음성 수신부(110)를 통해 입력된 사용자 음성에 대해 음성 인식을 수행하고, 그에 따른 음성 인식 결과를 출력할 수 있다.
이 경우, 음성 인식 결과는 음성 인식에 의해 사용자 음성이 변환된 텍스트, 음성 인식 점수 및 음성이 속하는 도메인에 대한 정보를 포함할 수 있으며, 음성 인식 결과의 일 예는 하기의 표 1과 같이 나타낼 수 있다.
result text confidence score domain
1 volume up 5300 control command
2 volume down 4200 control command
3 App 1 3200 application
예를 들어, 음성 인식 모듈은 사용자 음성에 대한 음성 인식을 수행하여, 사용자 음성과 일치되는 확률을 갖는 텍스트를 판단하고, 텍스트가 사용자 음성과 일치되는 확률에 기초하여 텍스트별로 음성 인식 점수를 산출하고, 가장 높은 음성 인식 점수를 갖는 텍스트를 사용자 음성에 해당하는 텍스트로 결정할 수 있다. 다만, 이는 일 예일 뿐이고, 음성 인식 모듈은 다양한 방식으로 사용자 음성에 대한 음성 인식을 수행할 수 있음은 물론이다.
이 경우, 음성 인식 모듈은 복수의 도메인(가령, 방송 서비스, 제어 명령, 어플리케이선 등) 중 사용자 음성이 속하는 도메인을 판단할 수도 있다.
이와 같이, 음성 인식 모듈은 사용자 음성에 대한 음성 인식을 수행하여, 사용자 음성이 변환된 텍스트, 음성 인식 점수 및 음성이 속하는 도메인에 대한 정보를 출력할 수 있다.
한편, 저장부(120)는 사용자 음성을 인식하기 위한 제1 음성 인식 모듈 및 사용자 음성에서 기설정된 음성만을 인식하기 위한 제2 음성 인식 모듈을 저장할 수 있다. 즉, 저장부(120)에 저장된 음성 인식 모듈은 사용자 음성을 인식하기 위한 제1 음성 인식 모듈과 사용자 음성에서 기설정된 음성만을 인식하기 위한 제2 음성 인식 모듈로 이루어질 수 있다.
여기에서, 제1 음성 인식 모듈은 사용자 음성을 인식하기 위해 모델링된, 일반적인 음성 인식 모델을 포함할 수 있다.
이에 반해, 제2 음성 인식 모듈은 제1 음성 인식 모듈과는 다르게, 특정한 음성만을 인식하도록 모델링된 음성 인식 모델을 포함할 수 있다.
여기에서, 특정한 음성은 사용자가 이전에 발화한 음성을 취소하기 위한 의도로 발화한 음성 및 사용자가 별다른 의미 없이 발화한 음성을 포함할 수 있다.
이를 위해, 제2 음성 인식 모듈은 사용자가 발화 도중에 이전 음성을 취소하기 위해 발화하는 음성을 나타내는 워드(word) 셋(가령, "아니", "다시다시" 등) 및 사용자가 발화 도중에 별다른 의미 없이 발화하는 음성을 나타내는 워드 셋(가령, "음~", "어~", "아~" 등)만을 인식하도록 훈련된 상태일 수 있다.
한편, 저장부(120)는 하드디스크, 비휘발성 메모리, 휘발성 메모리 등과 같은 다양한 저장매체로 구현될 수 있다.
프로세서(130)는 전자 장치(100)의 전반적인 동작을 제어한다. 이를 위해, 프로세서(130)는 CPU(central processing unit), RAM(Random Access Memory) 및 ROM(Read Only Memory)을 포함하여, 전자 장치(100)에 포함된 다른 구성요소들의 제어에 관한 연산이나 데이터 처리를 실행할 수 있다.
먼저, 프로세서(130)는 사용자 음성이 입력되면, 저장부(120)에 저장된 음성 인식 모듈을 구동하여 사용자 음성에 대한 음성 인식을 수행할 수 있다.
이 경우, 프로세서(130)는 음성 인식 모듈을 통한 음성 인식 결과, 기설정된 음성인 존재하면, 음성 인식 결과에서 기설정된 음성을 제외한 부분에 대해서만 음성 인식을 수행하도록 할 수 있다.
구체적으로, 프로세서(130)는 음성 수신부(110)를 통해 사용자 음성이 입력되면, 제2 음성 인식 모듈을 구동하여 음성 수신부(110)를 통해 입력된 사용자 음성에 대한 음성 인식을 수행할 수 있다.
그리고, 프로세서(130)는 제2 음성 인식 모듈을 통한 음성 인식 결과 사용자 음성에 기설정된 음성이 존재하는 경우, 제1 음성 인식 모듈을 통해 사용자 음성 중 일부에 대해서만 음성 인식을 수행할 수 있다.
이를 위해, 프로세서(130)는 제2 음성 인식 모듈의 음성 인식 결과에 기초하여, 사용자 음성에 기설정된 음성이 포함되어 있는지 여부를 판단할 수 있다.
여기에서, 기설정된 음성은 사용자가 기설정된 음성 이전에 발화한 음성을 취소하기 위한 의도로 발화한 음성 및 사용자가 별다른 의미 없이 발화한 음성을 포함할 수 있다.
구체적으로, 사용자가 이전에 발화한 음성을 취소하기 위한 의도로 발화한 음성은 사용자가 발화 도중 실수로 잘못 발화하여 해당 발화 내용을 취소하고 싶을 때 발화한 음성으로, 일 예로, "아니", "다시다시" 등을 포함할 수 있다.
그리고, 사용자가 의미 없이 발화한 음성은 사용자가 발화하는 도중 이후에 발화할 내용을 생각하는 동안 별다른 의미 없이 발화한 음성으로, 일 예로, "음~", "어~", "아~" 등을 포함할 수 있다.
이 경우, 상술한 바와 같이, 제2 음성 인식 모듈은 이전 음성을 취소하기 위한 음성 및 별다른 의미를 갖지 않는 음성만을 인식하기 위해 모델링된 상태라는 점에서, 프로세서(130)는 제2 음성 인식 모듈의 음성 인식 결과를 이용하여, 사용자 음성에 해당 음성이 존재하는지를 판단할 수 있다.
그리고, 프로세서(130)는 제2 음성 인식 모듈의 음성 인식 결과에 따라 사용자 음성에 기설정된 음성이 존재하는 경우, 제1 음성 인식 모듈을 통해 사용자 음성 중 일부에 대해서만 음성 인식을 수행할 수 있다.
먼저, 프로세서(130)는 제1 음성 인식 모듈을 통해, 사용자 음성에서 기설정된 음성 이후에 존재하는 음성에 대해서만 음성 인식을 수행할 수 있다.
즉, 프로세서(130)는 제2 음성 인식 모듈을 통해 인식된 기설정된 음성이 사용자가 기설정된 음성 이전에 발화한 음성을 취소하기 위한 의도로 발화한 음성에 해당하는 경우, 제1 음성 인식 모듈을 통해 사용자 음성에서 기설정된 음성 이후에 존재하는 음성에 대해서만 음성 인식을 수행할 수 있다.
구체적으로, 이전에 발화한 음성을 취소하기 위한 음성이 존재하는 경우, 해당 음성 이전에 존재하는 음성에 대해서까지 음성 인식이 수행되면 사용자의 발화 의도에 부합하지 않는 음성 인식 결과가 제공될 수 있다. 이에 따라, 프로세서(130)는 사용자 음성에 이전에 발화한 음성을 취소하기 위한 음성이 존재하는 경우, 이전에 발화한 음성을 취소하기 위한 음성 이후에 존재하는 음성에 대해서만 음성 인식을 수행할 수 있다.
이 경우, 프로세서(130)는 사용자 음성에서 이전에 발화한 음성을 취소하기 위한 음성이 존재하는 구간(가령, 전체 사용자 음성에서 해당 음성이 존재하는 시간 구간)을 판단하고, 사용자 음성에서 해당 구간까지의 음성을 제거한 후 제1 음성 인식 모듈을 통해 사용자 음성에 대한 음성 인식을 수행할 수 있다.
또한, 프로세서(130)는 제1 음성 인식 모듈을 통해 사용자 음성에서 기설정된 음성을 제외한 나머지 음성에 대해서만 음성 인식을 수행할 수 있다.
즉, 사용자가 별다른 의미 없이 발화한 음성이 존재하는 경우, 해당 음성이 앞뒤로 사용자가 발화한 음성과 연관된 음성으로 인식될 가능성이 있어, 사용자의 발화 의도에 부합하지 않는 음성 인식 결과가 제공될 수 있다. 이에 따라, 프로세서(130)는 사용자 음성에 사용자가 의미 없이 발화한 음성이 존재하는 경우, 사용자가 의미 없이 발화한 음성을 제외한 나머지 음성에 대해서만 음성 인식을 수행할 수 있다.
이 경우, 프로세서(130)는 사용자 음성에서 사용자가 의미 없이 발화한 음성이 존재하는 구간을 판단하고, 사용자 음성에서 해당 구간의 음성을 제거한 후 제1 음성 인식 모듈을 통해 사용자 음성에 대한 음성 인식을 수행할 수 있다.
한편, 프로세서(130)는 음성 인식 결과에 따라 전자 장치(100)의 동작을 제어할 수 있다.
즉, 프로세서(130)는 제2 음성 인식 모듈을 통해 사용자 음성에서 이전에 발화한 음성을 취소하기 위한 음성 및 사용자가 별다른 의미 없이 발화한 음성이 인식된 경우, 제1 음성 인식 모듈을 통해 해당 음성 이후에 존재하는 음성 및 해당 음성을 제외한 나머지 음성에 대해서만 음성 인식을 수행하고, 제1 음성 인식 모듈의 음성 인식 결과에 따라 전자 장치(100)의 동작을 제어할 수 있다.
상술한 예와 같이, 제1 음성 인식 모듈을 통해 "서울의 날씨를 알려줘"에 대한 음성 인식이 수행되면, 음성 인식 결과로 "서울의 날씨를 알려줘"가 텍스트로 변환되어 출력될 수 있다.
이 경우, 프로세서(130)는 해당 텍스트를 통해 사용자의 발화 의도를 판단하고, 서울의 날씨를 검색하기 위한 키워드(가령, 서울, 날씨 등)를 서버(미도시)로 전송하고, 그에 대한 검색 결과로서 서울의 날씨에 대한 정보를 수신하여 화면 상에 디스플레이하거나, 오디오 신호를 통해 출력할 수 있다.
다만, 이는 일 예일 뿐이며, 프로세서(130)는 제1 음성 인식 모듈의 음성 인식 결과에 기초하여 전자 장치(100)가 다양한 동작(가령, 채널 조절, 볼륨 조절, 어플리케이션 실행 등)을 수행하도록 제어할 수 있다.
한편, 상술한 바와 같이, 음성 인식 모듈에서 출력되는 음성 인식 결과는 음성 인식 점수를 포함할 수 있다.
이 경우, 음성 인식 점수는 음성 인식 결과 생성된 텍스트가 사용자가 실제 발화한 음성과 얼마나 일치하는지에 대한 정확도를 수치화하여 나타낸 것이므로, 음성 인식 점수가 낮은 경우에는 음성 인식 결과가 부정확한 것으로 볼 수 있다.
따라서, 제2 음성 인식 모듈에 의해 산출된 음성 인식 점수가 낮은 경우에도 사용자 음성 중 일부에 대해서만 음성 인식을 수행하게 되면, 사용자의 발화 의도와는 무관한 다른 동작이 수행될 가능성도 있다.
이에 따라, 프로세서(130)는 제2 음성 인식 모듈에 의해 기설정된 음성에 대해 산출된 음성 인식 점수가 기설정된 임계 값 이상인 경우, 제1 음성 인식 모듈을 통해 사용자 음성 중 일부에 대해서만 음성 인식을 수행할 수 있다.
이 경우, 기설정된 임계값은 전자 장치(100)의 제조 시 디폴트 값으로 기설정되고, 이후 사용자에 의해 변경될 수도 있다.
한편, 프로세서(130)는 제2 음성 인식 모듈을 통해 사용자 음성에서 기설정된 음성이 인식되지 않는 경우, 제1 음성 인식 모듈을 통한 음성 인식 결과에 따라 전자 장치(100)의 동작을 제어할 수 있다.
즉, 제2 음성 인식 모듈을 통한 음성 인식 결과, 사용자 음성에서 사용자가 이전에 발화한 음성을 취소하기 위한 의도로 발화한 음성 및 사용자가 별다른 의미를 갖지 않고 발화한 음성이 존재하지 않는 경우, 사용자 음성에는 사용자가 음성 인식 대상으로 의도한 발화한 음성만이 존재하는 것으로 볼 수 있다.
이에 따라, 프로세서(130)는 제2 음성 인식 모듈의 음성 인식 결과, 사용자 음성에서 이전 음성을 취소하기 위한 음성 및 별다른 의미를 갖지 않는 음성이 존재하지 않는 경우, 제1 음성 인식 모듈을 통해 사용자 음성 전체에 대한 음성 인식을 수행하고, 제1 음성 인식 모듈의 음성 인식 결과에 따라 전자 장치(100)의 동작을 제어할 수 있다.
예를 들어, 사용자가 발화한 "서울의 날씨를 알려줘"가 음성 수신부(110)를 통해 입력된 경우를 가정한다.
프로세서(130)는 제2 음성 인식 모듈을 구동하여 "서울의 날씨를 알려줘"에 대한 음성 인식을 수행할 수 있다.
이 경우, "서울의 날씨를 알려줘"에는 이전 음성을 취소하기 위한 음성 및 별다른 의미를 갖지 않는 음성이 존재하지 않는다는 점에서, 제2 음성 인식 모듈은 "서울의 날씨를 알려줘"을 인식할 수 없다.
이에 따라, 프로세서(130)는 제2 음성 인식 모듈의 음성 인식 결과에 기초하여 "서울의 날씨를 알려줘"에는 이전 음성을 취소하기 위한 음성 및 별다른 의미를 갖지 않는 음성이 존재하지 않는다는 것을 판단할 수 있다.
이 경우, 프로세서(130)는 제1 음성 인식 모듈을 통해 "서울의 날씨를 알려줘"에 대해 음성 인식을 수행할 수 있다.
이에 따라, 제1 음성 인식 모듈을 통해 "서울의 날씨를 알려줘"에 대한 음성 인식이 수행되면, 음성 인식 결과로 "서울의 날씨를 알려줘"가 텍스트로 변환되어 출력될 수 있다.
이 경우, 프로세서(130)는 해당 텍스트를 통해 사용자의 발화 의도를 판단하고, 서울의 날씨를 검색하기 위한 키워드(가령, 서울, 날씨 등)를 서버(미도시)로 전송하고, 그에 대한 검색 결과로서 서울의 날씨에 대한 정보를 수신하여 화면 상에 디스플레이하거나, 오디오 신호를 통해 출력할 수 있다.
한편, 상술한 예에서, 프로세서(130)는 음성 수신부(110)를 통해 사용자 음성이 입력되면, 제1 및 제2 음성 인식 모듈을 함께 구동하여 사용자 음성에 대한 음성 인식을 수행할 수 있다.
이 경우, 프로세서(130)는 제2 음성 인식 모듈의 인식 결과에 기초하여 사용자 음성에 이전 음성을 취소하기 위한 음성 및 별다른 의미를 갖지 않는 음성이 존재하는 것으로 판단되면, 제1 음성 인식 모듈에서 수행되는 음성 인식을 중단하고, 중단된 시점까지 제1 음성 인식 모듈에서 인식된 결과를 제거할 수 있다.
그리고, 프로세서(130)는 제1 음성 인식 모듈을 통해 사용자 음성에서 이전 음성을 취소하기 위한 음성 이후의 음성에 대해서만 음성 인식을 다시 수행하거나, 제1 음성 인식 모듈을 통해 사용자 음성에서 별다른 의미를 갖지 않는 음성을 제외한 나머지 음성에 대해서만 음성 인식을 다시 수행할 수 있다.
이후, 프로세서(130)는 제1 음성 인식 모듈의 음성 인식 결과에 기초하여 전자 장치(100)의 동작을 제어할 수 있다.
이상과 같은 본 발명의 다양한 실시 예에 따르면, 전자 장치(100)는 음성 인식 도중 사용자가 의도하지 않게 발화한 음성이 입력되더라도, 해당 음성을 제거하고 음성 인식을 수행한다는 점에서, 처음부터 다시 음성 인식을 수행하지 않아도 사용자가 음성을 발화한 의도에 부합하는 동작을 수행할 수 있게 된다.
특히, 전자 장치(100)는 사용자가 의도하지 않은 음성만을 인식하기 위한 별도의 모듈을 구비하고 있다는 점에서, 해당 음성에 대한 인식 성능이 강화될 수 있다.
또한, 전자 장치(100)는 사용자 음성에 대한 음성 인식과 사용자가 의도하지 않은 음성에 대한 음성 인식을 병렬로 수행할 수 있어, 딜레이 없이 사용자 음성에서 사용자가 의도하지 않은 음성을 제거하여 사용자의 발화 의도에 부합하는 동작을 수행할 수 있다.
도 3 및 도 4는 본 발명의 일 실시 예에 따른 전자 장치의 음성 인식 동작을 설명하기 위한 도면들이다.
예를 들어, 도 3(a)와 같이, 사용자(10)가 발화한 "수원 아니 서울의 날씨를 알려줘"가 음성 수신부(110)를 통해 입력된 경우를 가정한다.
프로세서(130)는 제2 음성 인식 모듈을 구동하여 "수원 아니 서울의 날씨를 알려줘"에 대한 음성 인식을 수행할 수 있다.
여기에서, 제2 음성 인식 모듈은 이전에 발화한 음성을 취소하기 위한 음성을 인식하도록 모델링되었다는 점에서, "수원 아니 서울의 날씨를 알려줘"에서 이전에 발화한 음성을 취소하기 위한 음성인 "아니"를 인식할 수 있다. 이 경우, 프로세서(130)는 제2 음성 인식 모듈의 음성 인식 결과에 기초하여 사용자 음성에 이전에 발화한 음성을 취소하기 위한 음성인 "아니"가 존재하는 것을 판단할 수 있다. 그리고, 프로세서(130)는 "수원 아니 서울의 날씨를 알려줘"에서 "아니"가 존재하는 구간을 판단할 수 있다.
이 경우, 프로세서(130)는 "수원 아니 서울의 날씨를 알려줘"에서 "아니"가 존재하는 구간까지의 음성 즉, "수원 아니"를 제거하고, 제1 음성 인식 모듈을 통해 사용자 음성에서 "아니" 이후에 존재하는 "서울의 날씨를 알려줘"에 대해서만 음성 인식을 수행할 수 있다.
이에 따라, 프로세서(130)는 제1 음성 인식 모듈의 음성 인식 결과에 따라 서울의 날씨를 검색하여, 서울의 날씨에 대한 정보를 화면 상에 디스플레이할 수 있다.
다른 예로, 도 4(a)와 같이, 사용자(10)가 발화한 "서울의 음~ 날씨를 알려줘"가 음성 수신부(110)를 통해 입력된 경우를 가정한다.
프로세서(130)는 제2 음성 인식 모듈을 구동하여, "서울의 음~ 날씨를 알려줘"에 대한 음성 인식을 수행할 수 있다.
여기에서, 제2 음성 인식 모듈은 사용자가 의미 없이 발화한 음성을 인식하도록 모델링되었다는 점에서, "서울의 음~ 날씨를 알려줘"에서 사용자가 의미 없이 발화한 음성인 "음~"을 인식할 수 있다. 이 경우, 프로세서(130)는 제2 음성 인식 모듈의 음성 인식 결과에 기초하여 사용자 음성에 사용자가 의미 없이 발화한 음성인 "음~"이 존재하는 것을 판단할 수 있다. 그리고, 프로세서(130)는 "서울의 음~ 날씨를 알려줘"에서 "음~"이 존재하는 구간을 판단할 수 있다.
이 경우, 프로세서(130)는 "서울의 음~ 날씨를 알려줘"에서 "음~"이 존재하는 구간의 음성 즉, "음~"을 제거하고, 제1 음성 인식 모듈을 통해 사용자 음성에서 "음~"이 제거된 "서울의 날씨를 알려줘"에 대해서만 음성 인식을 수행할 수 있다.
이에 따라, 프로세서(130)는 제1 음성 인식 모듈의 음성 인식 결과에 따라 서울의 날씨를 검색하여, 서울의 날씨에 대한 정보를 화면 상에 디스플레이할 수 있다.
도 5는 본 발명의 일 실시 예에 따른 전자 장치의 음성 인식을 수행하는 과정을 설명하기 위한 흐름도이다.
먼저, 사용자 음성을 입력받는다(S510).
그리고, 제1 및 제2 음성 인식 모듈을 통해 사용자 음성에 대한 음성 인식을 수행한다(S520, S530).
이 경우, 제2 음성 인식 모듈의 음성 인식 결과, 사용자 음성으로부터 취소 음성이 인식되는 경우(S540), 사용자 음성에서 취소 음성 및 취소 음성 이전에 존재하는 음성을 제거한다(S550).
또한, 제2 음성 인식 모듈의 음성 인식 결과, 사용자 음성으로부터 의미 없는 음성이 인식되는 경우(S550), 사용자 음성에서 의미 없는 음성을 제거한다(S560).
이후, 제1 음성 인식 모듈을 통해 수행되던 사용자 음성 전체에 대한 음성 인식을 중단하고, 취소 음성 및 의미 없는 음성 중 적어도 하나에 기초하여 일부의 음성이 제거된 사용자 음성에 대한 음성 인식을 수행하고(S510), 제1 음성 인식 모듈을 통한 음성 인식 결과에 따라 그에 대응되는 동작을 수행한다(S580).
다만, 제2 음성 인식 모듈을 통해 사용자 음성으로부터 취소 음성 및 의미 없는 음성이 인식되지 않는 경우, 제1 음성 인식 모듈을 통해 사용자 음성 전체에 대한 음성 인식 결과에 따라 그에 대응되는 동작을 수행할 수 있다.
도 6은 본 발명의 일 실시 예에 따른 전자 장치의 세부 구성을 설명하기 위한 블록도이다.
도 6(a)를 참조하면, 전자 장치(100)는 도 2에 도시된 구성요소 외에 수신부(140), 신호처리부(150), 영상 신호 생성부(160), 출력부(170), 입력부(180), 인터페이스부(190) 및 리모컨 신호 수신부(195)를 더 포함할 수 있으며, 이러한 구성요소의 동작은 프로세서(130)에 의해 제어될 수 있다.
저장부(120)는 전자 장치(100)의 구성요소의 전반적인 동작을 제어하기 위한 운영체제(Operating System: OS) 및 전자 장치(100)의 구성요소와 관련된 명령 또는 데이터를 저장할 수 있다.
이에 따라, 프로세서(130)는 운영체제를 구동하여 프로세서(130)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 다른 구성요소들 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
한편, 저장부(120)는 도 6(b)와 같이, 음성 인식을 수행하기 위한 제1 음성 인식 모듈(121) 및 제2 음성 인식 모듈(122)을 저장할 수 있다.
여기에서, 제1 음성 인식 모듈(121)은 사용자 음성을 인식하기 위해 모델링된, 일반적인 음성 인식 모델을 포함하고, 제2 음성 인식 모듈(122)은 제1 음성 인식 모듈과는 다르게, 특정한 음성만을 인식하도록 모델링된 음성 인식 모델을 포함할 수 있다.
이러한 음성 인식 모듈의 적어도 일부는 소프트웨어, 프로그램 등으로 구현될 수 있고, 프로세서(130))에 의해 구현(implement)(예: 실행)될 수 있다.
수신부(140)는 방송 컨텐츠(또는, 방송 신호)를 수신할 수 있다. 방송 컨텐츠는 영상, 오디오 및 부가 데이터(예를 들어, EPG)를 포함할 수 있으며, 수신부(140)는 지상파 방송, 케이블 방송, 위성 방송, 인터넷 방송 등과 같이 다양한 소스로부터 방송 컨텐츠를 수신할 수 있다.
예를 들어, 수신부(140)는 방송국으로부터 전송되는 방송 컨텐츠를 수신하기 위해 튜너(미도시), 복조기(미도시), 등화기(미도시) 등과 같은 구성을 포함하는 형태로 구현될 수 있다.
신호 처리부(150)는 수신부(140)를 통해 수신된 컨텐츠에 대한 신호처리를 수행한다. 구체적으로, 신호 처리부(150)는 컨텐츠를 구성하는 영상에 대해 디코딩, 스케일링 및 프레임 레이트 변환 등의 동작을 수행하여, 출력부(170)의 디스플레이(미도시)에서 출력 가능한 형태로 신호처리를 수행할 수 있다. 또한, 신호 처리부(150)는 컨텐츠를 구성하는 오디오에 대해 디코딩 등의 신호 처리를 수행하여 출력부(170)의 오디오 출력부(미도시)에서 출력 가능한 형태로 신호처리를 수행할 수 있다.
영상 신호 생성부(160)는 사용자에게 제공하기 위한 GUI(Graphic User Interface)를 생성한다. 그리고 영상 신호 생성부(160)는 생성된 GUI를 신호 처리부(150)에 의해 처리된 영상에 부가할 수 있다.
출력부(170)는 신호 처리부(150)에서 출력되는 영상 및 영상 신호 생성부(160)에 의해 생성된 GUI 등을 디스플레이하기 위한 디스플레이(미도시) 및 신호 처리부(150)에서 출력되는 오디오를 출력하기 위한 오디오 출력부(미도시)를 포함할 수 있다.
이 경우, 디스플레이(미도시)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이 등으로 구현되고, 오디오 출력부(미도시)는 스피커(미도시) 또는 외부 출력단자(미도시) 등으로 구현될 수 있다.
입력부(180)는 다양한 사용자 명령을 입력받는다. 프로세서(130)는 입력부(180)에서 입력된 사용자 명령에 대응되는 기능을 실행할 수 있다.
예를 들어, 입력부(180)는 채널 변경, 볼륨 조절 등을 수행하기 위한 사용자 명령을 입력받을 수 있으며, 프로세서(130)는 입력된 사용자 명령에 따라 채널을 변경하거나, 볼륨을 조절할 수 있다.
특히, 입력부(180)는 사용자의 음성을 수신하고, 사용자 음성에 대한 음성 인식을 수행하여 그에 따라 동작하는 음성 인식 모드를 개시하기 위한 사용자 명령을 입력받을 수 있다. 이 경우, 프로세서(130)는 음성 인식 모드가 개시되면, 음성 수신부(110)를 통해 기설정된 거리 내에서 발화되는 사용자의 음성을 수신하고, 제1 음성 인식 모듈 및 제2 음성 인식 모듈을 통해 사용자의 음성에 대한 음성 인식 동작을 수행할 수 있다.
이를 위해, 입력부(180)는 입력 패널로 구현될 수 있다. 입력 패널은 터치패드(Touch Pad) 혹은 각종 기능키, 숫자키, 특수키, 문자키 등을 구비한 키패드(Key Pad) 또는 터치 스크린(Touch Screen) 방식으로 이루어질 수 있다.
인터페이스부(190)는 다양한 다른 전자 자치(미도시)와 전자 장치(100)를 연결한다. 이 경우, 프로세서(130)는 인터페이스부(190)를 통해 전자 장치(100)에 기저장되어 있던 데이터를 다른 전자 장치(미도시)로 전송하거나, 전자 장치(미도시)로부터 데이터를 수신받을 수 있다.
이를 위해, 인터페이스부(190)는 HDMI(High-Definition Multimedia Interface) 입력 단자, 컴포넌트 입력 단자, PC 입력 단자, 또는 USB 입력 단자 중 적어도 하나를 포함할 수 있다.
리모컨 신호 수신부(195)는 리모컨(미도시)으로부터 입력되는 리모컨 제어 신호를 수신한다.
이 경우, 리모컨 신호 수신부(195)는 다양한 리모컨 제어 신호를 수신할 수 있다. 예를 들어, 리모컨 신호 수신부(195)는 채널 변경, 볼륨 조절 등을 수행하기 위한 리모컨 제어 신호를 수신할 수 있으며, 프로세서(130)는 수신된 리모컨 제어 신호에 따라 전자 장치(100)의 채널을 변경하거나, 볼륨을 조절할 수 있다.
특히, 리모컨 신호 수신부(195)는 음성 인식 모드를 개시하기 위한 리모컨 제어 신호를 수신할 수 있다. 이 경우, 프로세서(130)는 음성 인식 모드가 개시되면, 음성 수신부(110)를 통해 기설정된 거리 내에서 발화되는 사용자의 음성을 수신하고, 제1 음성 인식 모듈 및 제2 음성 인식 모듈을 통해 사용자의 음성에 대한 음성 인식 동작을 수행할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 전자 장치의 음성 인식 방법을 설명하기 위한 흐름도이다.
한편, 본 발명의 일 실시 예에 따른 전자 장치는 사용자 음성을 인식하기 위한 제1 음성 인식 모듈 및 사용자 음성에서 기설정된 음성만을 인식하기 위한 제2 음성 인식 모듈을 저장하고 있을 수 있다.
먼저, 사용자 음성을 입력받는다(S710).
이후, 제2 음성 인식 모듈을 통한 음성 인식 결과, 사용자 음성에 기설정된 음성이 존재하는 경우, 제1 음성 인식 모듈을 통해 사용자 음성 중 일부에 대해서만 음성 인식을 수행한다(S720).
여기에서, 기설정된 음성은 사용자가 기설정된 음성 이전에 발화한 음성을 취소하기 위한 의도로 발화한 음성을 포함할 수 있다.
이 경우, S720 단계는 제1 음성 인식 모듈을 통해, 사용자 음성에서 기설정된 음성 이후에 존재하는 음성에 대해서만 음성 인식을 수행할 수 있다.
또한, 기설정된 음성은, 사용자가 별다른 의미 없이 발화한 음성을 포함할 수 있다.
이 경우, S720 단계는 제1 음성 인식 모듈을 통해, 사용자 음성에서 기설정된 음성을 제외한 나머지 음성에 대해서만 음성 인식을 수행할 수 있다.
한편, 음성 인식 결과에 따라 전자 장치의 동작을 제어할 수 있다.
또한, S720 단계는 제2 음성 인식 모듈에 의해 기설정된 음성에 대해 산출된 음성 인식 점수가 기설정된 임계값 이상인 경우, 제1 음성 인식 모듈을 통해 사용자 음성 중 일부에 대해서만 음성 인식을 수행할 수 있다.
그리고, 제2 음성 인식 모듈을 통해 사용자 음성에서 기설정된 음성이 인식되지 않는 경우, 제1 음성 인식 모듈을 통한 사용자 음성에 대한 음성 인식 결과에 따라 전자 장치의 동작을 제어할 수 있다.
한편, 제1 및 제2 음성 인식 모듈 및 제1 및 제2 음성 인식 모듈을 통해 음성 인식을 수행하는 방법에 대해서는 상술한 바 있다.
본 발명에 따른 전자 장치의 음성 인식 방법을 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 전자 장치에 대해 도시한 상술한 블록도에서는 버스(bus)를 미도시하였으나, 디스플레이 장치 및 서버에서 각 구성요소 간의 통신은 버스를 통해 이루어질 수도 있다. 또한, 전자 장치에는 상술한 다양한 단계를 수행하는 CPU, 마이크로 프로세서 등과 같은 프로세서가 더 포함될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100 : 전자 장치 110 : 음성 수신부
120 : 저장부 130 : 프로세서

Claims (19)

  1. 전자 장치에 있어서,
    사용자 음성을 입력받는 음성 수신부;
    상기 사용자 음성을 인식하기 위한 제1 음성 인식 모듈 및 상기 사용자 음성에서 기설정된 음성만을 인식하기 위한 제2 음성 인식 모듈을 저장하는 저장부; 및
    상기 제2 음성 인식 모듈을 통한 음성 인식 결과, 상기 사용자 음성에 상기 기설정된 음성이 존재하는 경우, 상기 제1 음성 인식 모듈을 통해 상기 사용자 음성 중 일부에 대해서만 음성 인식을 수행하는 프로세서;를 포함하는 전자 장치.
  2. 제1항에 있어서,
    상기 기설정된 음성은,
    사용자가 상기 기설정된 음성 이전에 발화한 음성을 취소하기 위한 의도로 발화한 음성을 포함하는 것을 특징으로 하는 전자 장치.
  3. 제2항에 있어서,
    상기 프로세서는,
    상기 제1 음성 인식 모듈을 통해, 상기 사용자 음성에서 상기 기설정된 음성 이후에 존재하는 음성에 대해서만 음성 인식을 수행하는 것을 특징으로 하는 전자 장치.
  4. 제1항에 있어서,
    상기 기설정된 음성은, 사용자가 별다른 의미 없이 발화한 음성을 포함하는 것을 특징으로 하는 전자 장치.
  5. 제4항에 있어서,
    상기 프로세서는,
    상기 제1 음성 인식 모듈을 통해, 상기 사용자 음성에서 상기 기설정된 음성을 제외한 나머지 음성에 대해서만 음성 인식을 수행하는 것을 특징으로 하는 전자 장치.
  6. 제1항에 있어서,
    상기 프로세서는,
    상기 음성 인식 결과에 따라 상기 전자 장치의 동작을 제어하는 것을 특징으로 하는 전자 장치.
  7. 제1항에 있어서,
    상기 프로세서는,
    상기 제2 음성 인식 모듈에 의해 상기 기설정된 음성에 대해 산출된 음성 인식 점수가 기설정된 임계값 이상인 경우, 상기 제1 음성 인식 모듈을 통해 상기 사용자 음성 중 일부에 대해서만 음성 인식을 수행하는 것을 특징으로 하는 전자 장치.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 제2 음성 인식 모듈을 통해 상기 사용자 음성에서 상기 기설정된 음성이 인식되지 않는 경우, 상기 제1 음성 인식 모듈을 통한 상기 사용자 음성에 대한 음성 인식 결과에 따라 상기 전자 장치의 동작을 제어하는 것을 특징으로 하는 전자 장치.
  9. 사용자 음성을 인식하기 위한 제1 음성 인식 모듈 및 상기 사용자 음성에서 기설정된 음성만을 인식하기 위한 제2 음성 인식 모듈이 저장된 전자 장치의 음성 인식 방법에 있어서,
    사용자 음성을 입력받는 단계; 및
    상기 제2 음성 인식 모듈을 통한 음성 인식 결과, 상기 사용자 음성에 상기 기설정된 음성이 존재하는 경우, 상기 제1 음성 인식 모듈을 통해 상기 사용자 음성 중 일부에 대해서만 음성 인식을 수행하는 단계;를 포함하는 음성 인식 방법.
  10. 제9항에 있어서,
    상기 기설정된 음성은,
    사용자가 상기 기설정된 음성 이전에 발화한 음성을 취소하기 위한 의도로 발화한 음성을 포함하는 것을 특징으로 하는 음성 인식 방법.
  11. 제10항에 있어서,
    상기 수행하는 단계는,
    상기 제1 음성 인식 모듈을 통해, 상기 사용자 음성에서 상기 기설정된 음성 이후에 존재하는 음성에 대해서만 음성 인식을 수행하는 것을 특징으로 하는 음성 인식 방법.
  12. 제9항에 있어서,
    상기 기설정된 음성은, 사용자가 별다른 의미 없이 발화한 음성을 포함하는 것을 특징으로 하는 음성 인식 방법.
  13. 제12항에 있어서,
    상기 수행하는 단계는,
    상기 제1 음성 인식 모듈을 통해, 상기 사용자 음성에서 상기 기설정된 음성을 제외한 나머지 음성에 대해서만 음성 인식을 수행하는 것을 특징으로 하는 음성 인식 방법.
  14. 제9항에 있어서,
    상기 음성 인식 결과에 따라 상기 전자 장치의 동작을 제어하는 단계;를 더 포함하는 것을 특징으로 하는 음성 인식 방법.
  15. 제9항에 있어서,
    상기 수행하는 단계는,
    상기 제2 음성 인식 모듈에 의해 상기 기설정된 음성에 대해 산출된 음성 인식 점수가 기설정된 임계값 이상인 경우, 상기 제1 음성 인식 모듈을 통해 상기 사용자 음성 중 일부에 대해서만 음성 인식을 수행하는 것을 특징으로 하는 음성 인식 방법.
  16. 제9항에 있어서,
    상기 제2 음성 인식 모듈을 통해 상기 사용자 음성에서 상기 기설정된 음성이 인식되지 않는 경우, 상기 제1 음성 인식 모듈을 통한 상기 사용자 음성에 대한 음성 인식 결과에 따라 상기 전자 장치의 동작을 제어하는 단계;를 더 포함하는 것을 특징으로 하는 음성 인식 방법.
  17. 전자 장치에 있어서,
    사용자 음성을 입력받는 음성 수신부;
    상기 사용자 음성을 인식하기 위한 음성 인식 모듈을 저장하는 저장부; 및
    상기 음성 인식 모듈을 통한 음성 인식 결과, 기 설정된 음성이 존재하면, 상기 음성 인식 결과에서 기설정된 음성을 제외한 부분에 대해서만 음성 인식을 수행하도록 하는 프로세서;를 포함하는 전자 장치.
  18. 제17항에 있어서,
    상기 음성 인식 모듈은,
    사용자 음성을 인식하기 위한 제1 음성 인식 모듈과,
    상기 사용자 음성에서 기설정된 음성만을 인식하기 위한 제2 음성 인식 모듈로 이루어지는 것을 특징으로 하는 전자 장치.
  19. 제18항에 있어서,
    상기 프로세서는,
    상기 제 2 음성 인식 모듈을 통해 인식된 상기 기설정된 음성이, 사용자가 상기 기설정된 음성 이전에 발화한 음성을 취소하기 위한 의도로 발화한 음성에 해당하는 경우, 상기 제1 음성 인식 모듈을 통해, 상기 사용자 음성에서 상기 기설정된 음성 이후에 존재하는 음성에 대해서만 음성 인식을 수행하도록 하는 것을 특징으로 하는 전자 장치.
KR1020160095301A 2016-07-27 2016-07-27 전자 장치 및 그의 음성 인식 방법 KR102691889B1 (ko)

Priority Applications (8)

Application Number Priority Date Filing Date Title
KR1020160095301A KR102691889B1 (ko) 2016-07-27 2016-07-27 전자 장치 및 그의 음성 인식 방법
EP20201122.7A EP3799041A1 (en) 2016-07-27 2017-07-18 Electronic device and voice recognition method thereof
PCT/KR2017/007738 WO2018021750A1 (ko) 2016-07-27 2017-07-18 전자 장치 및 그의 음성 인식 방법
US16/317,865 US12094460B2 (en) 2016-07-27 2017-07-18 Electronic device and voice recognition method thereof
CN201780046774.XA CN109564758B (zh) 2016-07-27 2017-07-18 电子设备及其语音识别方法
CN202410372004.6A CN118230733A (zh) 2016-07-27 2017-07-18 电子设备及其语音识别方法
EP17834692.0A EP3471090B1 (en) 2016-07-27 2017-07-18 Electronic device and voice recognition method thereof
KR1020240101744A KR20240122394A (ko) 2016-07-27 2024-07-31 전자 장치 및 그의 음성 인식 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160095301A KR102691889B1 (ko) 2016-07-27 2016-07-27 전자 장치 및 그의 음성 인식 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020240101744A Division KR20240122394A (ko) 2016-07-27 2024-07-31 전자 장치 및 그의 음성 인식 방법

Publications (2)

Publication Number Publication Date
KR20180012464A true KR20180012464A (ko) 2018-02-06
KR102691889B1 KR102691889B1 (ko) 2024-08-06

Family

ID=61016219

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020160095301A KR102691889B1 (ko) 2016-07-27 2016-07-27 전자 장치 및 그의 음성 인식 방법
KR1020240101744A KR20240122394A (ko) 2016-07-27 2024-07-31 전자 장치 및 그의 음성 인식 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020240101744A KR20240122394A (ko) 2016-07-27 2024-07-31 전자 장치 및 그의 음성 인식 방법

Country Status (5)

Country Link
US (1) US12094460B2 (ko)
EP (2) EP3799041A1 (ko)
KR (2) KR102691889B1 (ko)
CN (2) CN109564758B (ko)
WO (1) WO2018021750A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200125034A (ko) * 2019-04-25 2020-11-04 에스케이텔레콤 주식회사 음성분석장치 및 음성분석장치의 동작 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110459224B (zh) * 2019-07-31 2022-02-25 北京百度网讯科技有限公司 语音识别结果处理方法、装置、计算机设备及存储介质
CN111105794B (zh) * 2019-12-13 2023-01-24 珠海格力电器股份有限公司 设备的语音识别方法和装置

Family Cites Families (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5577164A (en) * 1994-01-28 1996-11-19 Canon Kabushiki Kaisha Incorrect voice command recognition prevention and recovery processing method and apparatus
JPH11175095A (ja) 1997-12-11 1999-07-02 Hitachi Medical Corp 医用診断装置
US6904405B2 (en) * 1999-07-17 2005-06-07 Edwin A. Suominen Message recognition using shared language model
JP2001075589A (ja) * 1999-09-02 2001-03-23 Denso Corp 音声認識方法及び音声認識装置
JP2002073079A (ja) 2000-08-29 2002-03-12 Tokai Rika Co Ltd 車両用音声認識装置
JP3782943B2 (ja) * 2001-02-20 2006-06-07 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声認識装置、コンピュータ・システム、音声認識方法、プログラムおよび記録媒体
WO2003034404A1 (en) * 2001-10-12 2003-04-24 Koninklijke Philips Electronics N.V. Speech recognition device to mark parts of a recognized text
US20030115289A1 (en) * 2001-12-14 2003-06-19 Garry Chinn Navigation in a voice recognition system
US7398209B2 (en) * 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US20040148170A1 (en) * 2003-01-23 2004-07-29 Alejandro Acero Statistical classifiers for spoken language understanding and command/control scenarios
US20050131677A1 (en) * 2003-12-12 2005-06-16 Assadollahi Ramin O. Dialog driven personal information manager
US8504369B1 (en) * 2004-06-02 2013-08-06 Nuance Communications, Inc. Multi-cursor transcription editing
US8200495B2 (en) * 2005-02-04 2012-06-12 Vocollect, Inc. Methods and systems for considering information about an expected response when performing speech recognition
US20070118514A1 (en) * 2005-11-19 2007-05-24 Rangaraju Mariappan Command Engine
US20070239453A1 (en) * 2006-04-06 2007-10-11 Microsoft Corporation Augmenting context-free grammars with back-off grammars for processing out-of-grammar utterances
JP5127201B2 (ja) 2006-11-08 2013-01-23 キヤノン株式会社 情報処理装置及び方法並びにプログラム
EP1936606B1 (en) * 2006-12-21 2011-10-05 Harman Becker Automotive Systems GmbH Multi-stage speech recognition
US8712757B2 (en) * 2007-01-10 2014-04-29 Nuance Communications, Inc. Methods and apparatus for monitoring communication through identification of priority-ranked keywords
KR101415534B1 (ko) * 2007-02-23 2014-07-07 삼성전자주식회사 다단계 음성인식장치 및 방법
US8352261B2 (en) * 2008-03-07 2013-01-08 Canyon IP Holdings, LLC Use of intermediate speech transcription results in editing final speech transcription results
US8886521B2 (en) * 2007-05-17 2014-11-11 Redstart Systems, Inc. System and method of dictation for a speech recognition command system
US8538757B2 (en) * 2007-05-17 2013-09-17 Redstart Systems, Inc. System and method of a list commands utility for a speech recognition command system
US8099289B2 (en) * 2008-02-13 2012-01-17 Sensory, Inc. Voice interface and search for electronic devices including bluetooth headsets and remote systems
US8958848B2 (en) * 2008-04-08 2015-02-17 Lg Electronics Inc. Mobile terminal and menu control method thereof
KR100988397B1 (ko) * 2008-06-09 2010-10-19 엘지전자 주식회사 이동 단말기 및 그의 텍스트 수정방법
KR101502003B1 (ko) * 2008-07-08 2015-03-12 엘지전자 주식회사 이동 단말기 및 그 텍스트 입력 방법
WO2011082340A1 (en) 2009-12-31 2011-07-07 Volt Delta Resources, Llc Method and system for processing multiple speech recognition results from a single utterance
JP2012037820A (ja) 2010-08-11 2012-02-23 Murata Mach Ltd 音声認識装置、ピッキング用の音声認識装置及び音声認識方法
KR101329281B1 (ko) 2010-10-26 2013-11-13 한국전자통신연구원 음성 인식 장치 및 방법
EP2678861B1 (en) * 2011-02-22 2018-07-11 Speak With Me, Inc. Hybridized client-server speech recognition
KR101197010B1 (ko) 2011-03-30 2012-11-05 포항공과대학교 산학협력단 음성 처리 장치 및 방법
US10387536B2 (en) * 2011-09-19 2019-08-20 Personetics Technologies Ltd. Computerized data-aware agent systems for retrieving data to serve a dialog between human user and computerized system
US8798995B1 (en) * 2011-09-23 2014-08-05 Amazon Technologies, Inc. Key word determinations from voice data
US8762156B2 (en) * 2011-09-28 2014-06-24 Apple Inc. Speech recognition repair using contextual information
US8880397B2 (en) * 2011-10-21 2014-11-04 Wal-Mart Stores, Inc. Systems, devices and methods for list display and management
KR101724748B1 (ko) 2011-12-06 2017-04-19 현대자동차주식회사 차량용 음성인식 장치
US9257115B2 (en) * 2012-03-08 2016-02-09 Facebook, Inc. Device for extracting information from a dialog
US20130325482A1 (en) * 2012-05-29 2013-12-05 GM Global Technology Operations LLC Estimating congnitive-load in human-machine interaction
KR20130133629A (ko) * 2012-05-29 2013-12-09 삼성전자주식회사 전자장치에서 음성명령을 실행시키기 위한 장치 및 방법
US20130332168A1 (en) * 2012-06-08 2013-12-12 Samsung Electronics Co., Ltd. Voice activated search and control for applications
US9092415B2 (en) * 2012-09-25 2015-07-28 Rovi Guides, Inc. Systems and methods for automatic program recommendations based on user interactions
US10373615B2 (en) * 2012-10-30 2019-08-06 Google Technology Holdings LLC Voice control user interface during low power mode
US9584642B2 (en) * 2013-03-12 2017-02-28 Google Technology Holdings LLC Apparatus with adaptive acoustic echo control for speakerphone mode
US10565862B2 (en) * 2012-11-27 2020-02-18 Comcast Cable Communications, Llc Methods and systems for ambient system control
WO2014142702A1 (en) * 2013-03-15 2014-09-18 Obschestvo S Ogranichennoy Otvetstvennostiyu "Speaktoit" Selective speech recognition for chat and digital personal assistant systems
KR20140075997A (ko) * 2012-12-12 2014-06-20 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
EP2936834A1 (en) * 2012-12-20 2015-10-28 Widex A/S Hearing aid and a method for improving speech intelligibility of an audio signal
US9672825B2 (en) * 2013-01-03 2017-06-06 Sestek Ses Iletisim Bilgisayar Teknolojileri Sanayi Ve Ticaret Anonim Sirketi Speech analytics system and methodology with accurate statistics
US20180350359A1 (en) * 2013-03-14 2018-12-06 Majd Bakar Methods, systems, and media for controlling a media content presentation device in response to a voice command
US9805718B2 (en) * 2013-04-19 2017-10-31 Sri Internaitonal Clarifying natural language input using targeted questions
DK2994908T3 (da) * 2013-05-07 2019-09-23 Veveo Inc Grænseflade til inkrementel taleinput med realtidsfeedback
US9390079B1 (en) * 2013-05-10 2016-07-12 D.R. Systems, Inc. Voice commands for report editing
US9058805B2 (en) * 2013-05-13 2015-06-16 Google Inc. Multiple recognizer speech recognition
US20140365213A1 (en) * 2013-06-07 2014-12-11 Jurgen Totzke System and Method of Improving Communication in a Speech Communication System
US10956433B2 (en) * 2013-07-15 2021-03-23 Microsoft Technology Licensing, Llc Performing an operation relative to tabular data based upon voice input
CN104143328B (zh) * 2013-08-15 2015-11-25 腾讯科技(深圳)有限公司 一种关键词检测方法和装置
EP3040985B1 (en) * 2013-08-26 2023-08-23 Samsung Electronics Co., Ltd. Electronic device and method for voice recognition
KR102158210B1 (ko) 2013-09-04 2020-09-22 엘지전자 주식회사 음성 인식 장치 및 그 방법
US9640181B2 (en) * 2013-12-27 2017-05-02 Kopin Corporation Text editing with gesture control and natural speech
US9430186B2 (en) * 2014-03-17 2016-08-30 Google Inc Visual indication of a recognized voice-initiated action
US9754503B2 (en) * 2014-03-24 2017-09-05 Educational Testing Service Systems and methods for automated scoring of a user's performance
US9462230B1 (en) * 2014-03-31 2016-10-04 Amazon Technologies Catch-up video buffering
US20150302856A1 (en) * 2014-04-17 2015-10-22 Qualcomm Incorporated Method and apparatus for performing function by speech input
CN105210147B (zh) * 2014-04-22 2020-02-07 纳宝株式会社 用于改进至少一个语义单元集合的方法、设备及计算机可读记录介质
JP6410491B2 (ja) 2014-06-27 2018-10-24 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 発音辞書の拡張システム、拡張プログラム、拡張方法、該拡張方法により得られた拡張発音辞書を用いた音響モデルの学習方法、学習プログラム、および学習システム
KR102246900B1 (ko) * 2014-07-29 2021-04-30 삼성전자주식회사 전자 장치 및 이의 음성 인식 방법
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US20160180214A1 (en) * 2014-12-19 2016-06-23 Google Inc. Sharp discrepancy learning
US9583097B2 (en) * 2015-01-30 2017-02-28 Google Inc. Dynamic inference of voice command for software operation from help information
US10522140B2 (en) * 2015-02-23 2019-12-31 Sony Corporation Information processing system and information processing method
US10642843B2 (en) * 2015-05-28 2020-05-05 Google Llc World knowledge triggers
US10178218B1 (en) * 2015-09-04 2019-01-08 Vishal Vadodaria Intelligent agent / personal virtual assistant with animated 3D persona, facial expressions, human gestures, body movements and mental states
US10236017B1 (en) * 2015-09-29 2019-03-19 Amazon Technologies, Inc. Goal segmentation in speech dialogs
WO2017112813A1 (en) * 2015-12-22 2017-06-29 Sri International Multi-lingual virtual personal assistant
US20170213552A1 (en) * 2016-01-26 2017-07-27 Motorola Mobility Llc Detection of audio public announcements by a mobile device
WO2017130486A1 (ja) * 2016-01-28 2017-08-03 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR102501083B1 (ko) * 2016-02-05 2023-02-17 삼성전자 주식회사 음성 인식 방법 및 이를 사용하는 전자 장치
US9858927B2 (en) * 2016-02-12 2018-01-02 Amazon Technologies, Inc Processing spoken commands to control distributed audio outputs
US9905248B2 (en) * 2016-02-29 2018-02-27 International Business Machines Corporation Inferring user intentions based on user conversation data and spatio-temporal data
US10210862B1 (en) * 2016-03-21 2019-02-19 Amazon Technologies, Inc. Lattice decoding and result confirmation using recurrent neural networks
US9805714B2 (en) * 2016-03-22 2017-10-31 Asustek Computer Inc. Directional keyword verification method applicable to electronic device and electronic device using the same
US11010396B1 (en) * 2016-04-12 2021-05-18 Tableau Software, Inc. Data visualization user interface using cohesion of sequential natural language commands
US10817527B1 (en) * 2016-04-12 2020-10-27 Tableau Software, Inc. Systems and methods of using natural language processing for visual analysis of a data set
KR20190016536A (ko) * 2016-06-06 2019-02-18 시러스 로직 인터내셔널 세미컨덕터 리미티드 보이스 사용자 인터페이스
US20180048943A1 (en) * 2016-08-11 2018-02-15 Yen4Ken, Inc. Method and system for rendering time-compressed multimedia content
US10186263B2 (en) * 2016-08-30 2019-01-22 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Spoken utterance stop event other than pause or cessation in spoken utterances stream
US10600406B1 (en) * 2017-03-20 2020-03-24 Amazon Technologies, Inc. Intent re-ranker
US11314793B2 (en) * 2017-04-07 2022-04-26 Soleo Communications, Inc. Query processing
KR102068182B1 (ko) * 2017-04-21 2020-01-20 엘지전자 주식회사 음성 인식 장치, 및 음성 인식 시스템
US10282166B2 (en) * 2017-05-03 2019-05-07 The Reverie Group, Llc Enhanced control, customization, and/or security of a sound controlled device such as a voice controlled assistance device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200125034A (ko) * 2019-04-25 2020-11-04 에스케이텔레콤 주식회사 음성분석장치 및 음성분석장치의 동작 방법

Also Published As

Publication number Publication date
US12094460B2 (en) 2024-09-17
CN109564758A (zh) 2019-04-02
KR102691889B1 (ko) 2024-08-06
EP3471090A1 (en) 2019-04-17
US20210280178A1 (en) 2021-09-09
WO2018021750A1 (ko) 2018-02-01
CN118230733A (zh) 2024-06-21
EP3471090B1 (en) 2020-11-25
EP3799041A1 (en) 2021-03-31
EP3471090A4 (en) 2019-07-24
KR20240122394A (ko) 2024-08-12
CN109564758B (zh) 2024-04-19

Similar Documents

Publication Publication Date Title
US9520133B2 (en) Display apparatus and method for controlling the display apparatus
US9245521B2 (en) Method for correcting voice recognition error and broadcast receiving apparatus applying the same
US20190333515A1 (en) Display apparatus, method for controlling the display apparatus, server and method for controlling the server
KR101309794B1 (ko) 디스플레이 장치, 디스플레이 장치의 제어 방법 및 대화형 시스템
US20200260127A1 (en) Interactive server, display apparatus, and control method thereof
USRE47168E1 (en) Display apparatus, electronic device, interactive system, and controlling methods thereof
US20130339015A1 (en) Terminal apparatus and control method thereof
US20140195230A1 (en) Display apparatus and method for controlling the same
US9230559B2 (en) Server and method of controlling the same
KR20240122394A (ko) 전자 장치 및 그의 음성 인식 방법
JP6244560B2 (ja) 音声認識処理装置、音声認識処理方法、および表示装置
TW201435856A (zh) 電子裝置以及控制電子裝置的方法
KR20140009002A (ko) 외부 입력 제어 방법 및 이를 적용한 방송 수신 장치
CN108111922B (zh) 电子设备和用于更新其频道映射表的方法
KR102091006B1 (ko) 디스플레이 장치 및 그의 제어 방법
KR102317742B1 (ko) 서버 및 그 제어방법과, 영상처리장치 및 그 제어방법
KR20140026220A (ko) 단말 장치 및 단말 장치의 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant