KR20220020859A - 전자 장치 및 이의 음성 인식 방법 - Google Patents

전자 장치 및 이의 음성 인식 방법 Download PDF

Info

Publication number
KR20220020859A
KR20220020859A KR1020220013295A KR20220013295A KR20220020859A KR 20220020859 A KR20220020859 A KR 20220020859A KR 1020220013295 A KR1020220013295 A KR 1020220013295A KR 20220013295 A KR20220013295 A KR 20220013295A KR 20220020859 A KR20220020859 A KR 20220020859A
Authority
KR
South Korea
Prior art keywords
voice
user
voice input
electronic device
input
Prior art date
Application number
KR1020220013295A
Other languages
English (en)
Other versions
KR102494051B1 (ko
Inventor
류희섭
권남영
박경미
복찬식
최찬희
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210010879A external-priority patent/KR102359163B1/ko
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020220013295A priority Critical patent/KR102494051B1/ko
Publication of KR20220020859A publication Critical patent/KR20220020859A/ko
Priority to KR1020230010284A priority patent/KR102594683B1/ko
Application granted granted Critical
Publication of KR102494051B1 publication Critical patent/KR102494051B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Abstract

전자 장치 및 이의 음성 인식 방법을 제공한다. 본 전자 장치의 음성 인식 방법은 트리거 음성을 수신하는 단계, 트리거 음성을 분석하여 음성 인식을 위한 사용자 음성의 특성을 저장하는 단계, 사용자 음성이 입력된 경우, 사용자 음성이 사용자 음성의 특성에 해당하는지 여부를 판단하는 단계 및 사용자 음성이 상기 사용자 음성의 특성에 해당하는 경우, 사용자 음성에 대한 음성 인식을 수행하는 단계를 포함한다. 이에 의해, 사용자는 용이하게 전자 장치의 음성 인식 기능을 사용할 수 있게 된다.

Description

전자 장치 및 이의 음성 인식 방법 { ELECTRONIC DEVICE FOR SPEECH RECOGNITION AND METHOD THEREOF }
본 발명은 전자 장치 및 이의 음성 인식 방법에 관한 것으로, 더욱 상세하게는 트리거 음성을 이용하여 음성 인식을 수행할 수 있는 전자 장치 및 이의 음성 인식 방법에 관한 것이다.
사용자는 전자 장치를 더욱 편리하게 사용하고자 한다. 이에 따라, 전자 장치를 용이하게 제어하는 기술은 점차 발달하는 추세이다. 즉, 전자 장치를 용이하게 제어하는 기술은 전자 장치에 부착된 입력부를 통해 전자 장치를 제어하던 방법에서 시작하여, 근거리에서도 제어 가능한 외부 리모트 컨트롤러(Remote Controller)를 이용하는 방법으로 발전하였다. 최근에는 전자 장치에서 터치 패널을 구비하는 디스플레이부의 사용이 일반화됨에 따라, 터치 입력을 이용하여 전자 장치를 제어하는 기술이 보편적으로 사용된다.
그러나 터치로 전자 장치를 제어하는 방법은 사용자가 반드시 전자 장치와 터치할 수 있는 거리 내에 있어야 한다는 불편함이 존재한다. 따라서 사용자의 근거리 내에서 리모트 컨트롤러와 같은 외부 기기 없이 전자 장치를 제어하려는 니즈(needs)가 증가하였다.
이에 따라, 음성 인식 기술이 개발되었으나, 음성 인식 기술은 사용자의 음성 외에 외부 잡음(예를 들면, 반려 동물의 소리)에도 반응한다는 문제점이 존재한다. 따라서 사용자의 음성에만 반응하도록 하기 위해 전자 장치를 제어하기 위한 음성을 발화할 때마다 전자 장치에 부착된 또는 리모트 컨트롤러에 부착된 버튼을 누르는 방법이 사용되었다.
그러나 이러한 방법은 사용자가 매 발화시마다 전자 장치에 부착된 또는 리모트 컨트롤러에 부착된 버튼을 누르는 등의 행위가 필요하므로 사용자에게 불편을 초래하였다.
따라서, 외부 잡음이 존재하거나, 복수의 사용자가 존재하는 경우에도 사용자가 용이하게 음성 인식 기능을 사용할 수 있도록 하는 기술에 대한 필요성이 대두하였다.
본 발명은 상술한 필요성에 따라 안출된 것으로, 본 발명의 목적은 사용자가 용이하게 음성 인식 기능을 사용할 수 있는 전자 장치 및 이의 음성 인식 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 전자 장치의 음성 인식 방법은 사용자 음성이 입력된 경우, 상기 입력된 사용자 음성이 트리거 음성에 해당하는지 판단하는 단계, 상기 사용자 음성이 트리거 음성으로 판단된 경우, 상기 전자 장치의 모드를 음성 인식 모드로 변환하고, 상기 사용자 음성을 분석하여 상기 사용자 음성의 특성을 저장하는 단계, 상기 전자 장치를 제어하기 위한 제어 음성이 입력된 경우, 상기 제어 음성을 분석하여 분석된 제어 음성의 특성을 상기 사용자 음성의 특성과 비교하는 단계 및 상기 비교 결과를 바탕으로 상기 제어 음성에 대응되는 기능을 수행하는 단계를 포함할 수 있다.
한편, 상기 저장하는 단계는, 상기 사용자 음성의 에너지, 주파수 대역폭, 상기 사용자 음성의 발화 시의 울림값 및 음성 신호 대 잡음비 중 적어도 하나를 상기 사용자 음성의 특성으로 저장하는 것을 특징으로 할 수 있다.
그리고 상기 수행하는 단계는, 상기 제어 음성의 에너지, 주파수 대역폭, 상기 제어 음성의 발화 시의 울림값 및 음성 신호 대 잡음비 중 적어도 하나를 분석한 데이터가 상기 트리거 음성의 에너지, 주파수 대역폭, 상기 트리거 음성의 발화 시의 울림값 및 음성 신호 대 잡음비 중 적어도 하나를 분석한 데이터의 기 설정된 범위 내인 경우, 상기 제어 음성에 대응되는 기능을 수행하는 것을 특징으로 할 수 있다.
한편, 상기 비교하는 단계는, 복수의 사용자 음성이 입력된 경우, 상기 복수의 사용자 음성을 분석하여, 상기 복수의 사용자 음성을 분석한 결과 중 상기 저장된 사용자 음성의 분석 결과와 매칭되는 결과를 갖는 적어도 하나의 사용자 음성을 상기 제어 음성으로 판단하는 단계를 더 포함하며, 상기 수행하는 단계는, 상기 판단된 적어도 하나의 제어 음성에 대응되는 기능을 수행하는 것을 특징으로 할 수 있다.
그리고 상기 분석된 제어 음성의 특성이 상기 사용자 음성 특성에 해당하지 않는 경우, 상기 제어 음성을 바이 패스하는 단계를 더 포함하는 것을 특징으로 할 수 있다.
한편, 제1항에 있어서, 상기 사용자 음성이 트리거 음성으로 판단되어 상기 전자 장치의 모드를 음성 인식 모드로 변환한 경우, 상기 음성 인식 모드 상태임을 알려주는 UI를 디스플레이하는 단계를 더 포함할 수 있다.
그리고 상기 디스플레이하는 단계는, 상기 비교 결과에 따라 상기 제어 음성에 대응되는 기능을 수행하는 경우 상기 UI에 인디케이터를 디스플레이하는 것을 특징으로 할 수 있다.
한편, 상기 트리거 음성은, 상기 전자 장치의 모드를 상기 음성 인식을 수행하기 위한 음성 인식 모드로 전환하기 위해 기 설정된 음성인 것을 특징으로 할 수 있다.
그리고 상기 사용자 음성 및 상기 제어 음성은 외부 장치 또는 상기 전자 장치 중 적어도 하나에 포함된 마이크를 통해 수신되는 것을 특징으로 할 수 있다.
한편, 기 설정된 시간 동안 상기 제어 음성이 입력되지 않는 경우, 상기 음성 인식 모드를 종료하는 단계를 더 포함할 수 있다.
한편, 본 발명의 일 실시 예에 따른, 전자 장치는 사용자 음성을 입력받는 음성 수신부, 상기 수신된 음성을 분석하는 음성 신호 분석부, 상기 사용자 음성의 특성을 저장하는 저장부 및 상기 입력된 사용자 음성이 트리거 음성에 해당하는지 판단하여, 상기 사용자 음성이 트리거 음성으로 판단된 경우, 상기 전자 장치의 모드를 음성 인식 모드로 변환하고, 상기 사용자 음성을 분석하여 상기 사용자 음성의 특성을 상기 저장부에 저장하도록 제어하는 제어부를 포함하고, 상기 제어부는, 상기 전자 장치를 제어하기 위한 제어 음성이 입력된 경우, 상기 제어 음성을 분석하도록 상기 음성 신호 분석부를 제어하고, 상기 분석된 제어 음성의 특성을 상기 사용자 음성의 특성과 비교하여 상기 비교 결과를 바탕으로 상기 제어 음성에 대응되는 기능을 수행하는 것을 특징으로 할 수 있다.
그리고 상기 제어부는, 상기 사용자 음성의 에너지, 주파수 대역폭, 상기 사용자 음성의 발화 시의 울림값 및 음성 신호 대 잡음비 중 적어도 하나를 상기 사용자 음성의 특성으로 저장하도록 상기 저장부를 제어하는 것을 특징으로 할 수 있다.
한편, 상기 제어부는, 상기 제어 음성의 에너지, 주파수 대역폭, 상기 제어 음성의 발화 시의 울림값 및 음성 신호 대 잡음비 중 적어도 하나를 분석한 데이터가 상기 트리거 음성의 에너지, 주파수 대역폭, 상기 트리거 음성의 발화 시의 울림값 및 음성 신호 대 잡음비 중 적어도 하나를 분석한 데이터의 기 설정된 범위 내인 경우, 상기 제어 음성에 대응되는 기능을 수행하도록 제어하는 것을 특징으로 할 수 있다.
그리고 상기 제어부는, 상기 음성 수신부를 통해 복수의 사용자 음성이 입력된 경우, 상기 복수의 사용자 음성을 분석하도록 상기 음성 신호 분석부를 제어하며, 상기 복수의 사용자 음성을 분석한 결과 중 상기 저장된 사용자 음성의 분석 결과와 매칭되는 결과를 갖는 적어도 하나의 사용자 음성을 상기 제어 음성으로 판단하여, 상기 판단된 적어도 하나의 제어 음성에 대응되는 기능을 수행하도록 제어하는 것을 특징으로 할 수 있다.
한편, 상기 제어부는, 상기 분석된 제어 음성의 특성이 상기 사용자 음성 특성에 해당하지 않는 경우, 상기 제어 음성을 바이 패스하도록 제어하는 것을 특징으로 할 수 있다.
그리고 디스플레이부를 더 포함하고, 상기 제어부는, 상기 사용자 음성이 트리거 음성으로 판단되어 상기 전자 장치의 모드를 음성 인식 모드로 변환한 경우, 상기 음성 인식 모드 상태임을 알려주는 UI를 디스플레이하도록 상기 디스플레이부를 제어하는 것을 특징으로 할 수 있다.
한편, 상기 제어부는, 상기 비교 결과에 따라 상기 제어 음성에 대응되는 기능을 수행하는 경우 상기 UI에 인디케이터를 디스플레이하도록 상기 디스플레이부를 제어하는 것을 특징으로 할 수 있다.
그리고 상기 트리거 음성은, 상기 전자 장치의 모드를 상기 음성 인식을 수행하기 위한 음성 인식 모드로 전환하기 위해 기 설정된 음성인 것을 특징으로 할 수 있다.
한편, 통신부를 더 포함하고, 상기 제어부는, 상기 사용자 음성 및 상기 제어 음성이 외부 장치를 통해 입력된 경우, 상기 입력된 음성을 수신하도록 상기 통신부를 제어하는 것을 특징으로 할 수 있다.
그리고 상기 제어부는, 기 설정된 시간 동안 상기 제어 음성이 입력되지 않는 경우, 상기 음성 인식 모드를 종료하도록 제어하는 것을 특징으로 할 수 있다.
본 발명의 다양한 실시예에 따르면, 사용자 발화한 사용자 음성이 사용자에 의한 의도적 발화인지 여부를 판단하여 사용자는 용이하게 전자 장치의 음성 인식 기능을 사용할 수 있게 된다.
도 1은 본 발명의 일 실시 예에 따른, 전자 장치에 대해 트리거 음성을 입력하는 방법을 도시한 도면,
도 2는 본 발명의 일 실시예에 따른, 외부 장치를 이용하여 트리거 음성을 입력하는 방법을 도시한 도면,
도 3은 본 발명의 일 실시예에 따른, 전자 장치의 구성을 간략히 도시한 블럭도,
도 4는 본 발명의 일 실시예에 따른, 전자 장치의 구성을 구체적으로 도시한 블럭도,
도 5는 본 발명의 일 실시예에 따른, 사용자 음성을 분석하여 음성 인식을 수행하는 방법을 도시한 흐름도,
도 6은 본 발명의 일 실시예에 따른, 사용자 음성을 분석하여 음성 인식을 수행하고 음성 인식 모드를 종료하는 방법을 도시한 흐름도, 그리고
도 7 내지 도 10은 본 발명의 실시 예에 따른, UI를 디스플레이하는 도면을 도시한 도면이다.
이하에서는 첨부된 도면을 참조하여, 본 발명의 다양한 실시 예를 좀더 상세하게 설명한다. 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술 되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시예에 따른, 사용자가 전자 장치(100)의 음성 인식 기능을 사용하기 위해 트리거 음성을 발화하는 모습을 도시한 도면이다. 도 1에서는 전자 장치(100)의 예시로 TV가 도시되었으나 이는 일 실시예에 불과할 뿐, 전자 장치(100)는 음성 인식 기능이 포함된 휴대폰, 태블릿 PC, 디지털 카메라, 캠코더, 노트북 PC, PDA 등과 같은 다양한 전자 장치로 구현될 수 있다.
전자 장치(100)는 마이크를 포함할 수 있다. 따라서, 전자 장치(100)는 일정 거리 내에서 발화된 사용자의 음성을 수신할 수 있다. 그리고 사용자로부터 수신한 음성을 분석하여 트리거 음성인지 여부를 판단할 수 있다. 즉, 트리거 음성은 "Hi TV"와 같이 기 설정된 세네음절 길이의 짧은 단어일 수 있다.
수신한 음성이 기 설정된 트리거 음성인 것으로 판단되면, 전자 장치(100)는 음성 인식 모드로 전자 장치(100)의 모드를 변경할 수 있다. 또한, 전자 장치(100)는 트리거 음성에 포함된 사용자 음성의 특성을 저장할 수 있다.
구체적으로 사용자 음성의 특성은 사용자 발화 컨디션 및 발화 환경을 포함할 수 있다. 사용자 발화 컨디션은 사용자 음성의 에너지, 사용자 음성의 주파수 대역 분포를 포함할 수 있다. 그리고 발화 환경은 음성 발화 당시의 울림값(RT) 또는 음성 신호 대 잡음비(SNR)를 포함할 수 있다.
즉, 사용자 음성의 특성은 사용자 음성의 에너지, 사용자 음성의 주파수 대역 분포, 음성 발화 당시의 울림값(RT) 또는 음성 신호 대 잡음비(SNR)를 포함할 수 있다.
예를 들면, "Hi TV"와 같은 트리거 음성을 발화한 사용자의 음성의 크기, 사용자의 성별 또는 나이 등에 따른 주파수 대역 분포, 전자 장치(100)가 존재하는 위치에 따라 달라지는 사용자 음성의 울림값 또는 조용한 실내, 외부에 공사 현장의 존재, 반려 동물의 존재, 실내에 존재하는 사람의 수 등에 따라 달라지는 음성 신호 대 잡음비(SNR) 등이 사용자 음성의 특성에 해당할 수 있다.
트리거 음성을 분석한 결과를 사용자 음성의 특성으로 저장한 후 사용자 음성이 입력된 경우, 전자 장치(100)는 입력된 사용자 음성을 분석하여 저장된 사용자 음성의 특성에 해당하는지 여부를 판단한다. 즉, 전자 장치(100)는 입력된 사용자 음성의 특성이 상술한 사용자 음성의 특성과 유사한지 여부를 판단한다.
그리고 입력된 사용자 음성이 저장된 사용자 음성의 특성과 유사한 특성을 갖는 것으로 판단되면, 사용자 음성에 대한 음성 인식을 수행한다. 예를 들어, 사용자가 트리거 음성으로 "Hi TV"를 발화하고, 동일한 사용자 음성의 특성으로 "채널 십삼"이라고 발화하면, 전자 장치(100)는 디스플레이하는 채널을 13번으로 변경할 수 있다.
한편, 도 2는 발명의 일 실시예에 따른, 사용자가 전자 장치(100)의 음성 인식 기능을 사용하기 위해 마이크를 포함하는 리모컨(10)을 이용하여 트리거 음성을 발화하는 모습을 도시한 도면이다.
구체적으로, 리모컨(10)을 통해 사용자 음성이 수신되어 음성 인식 기능이 수행되는 경우, 사용자는 리모컨(10)의 음성을 수신하기 위한 입력 버튼(20)을 누른 뒤, 사용자 음성을 발화할 수 있다. 이때, 입력 버튼(20)을 누른 뒤 첫 번째로 수신되는 사용자 음성이 트리거 음성이 될 수 있다. 즉, 전자 장치(100)에 "Hi TV"와 같은 문구가 트리거 음성으로 기 설정된 경우라도, 입력 버튼(20)을 통해 음성이 입력된다는 신호가 수신되었으므로, 입력 버튼(20)을 누른 뒤 첫 번째로 수신되는 사용자 음성이 트리거 음성이 될 수 있다.
따라서, 도 2에 도시된 바와 같이 사용자로부터 입력 버튼(20)이 눌러지고, "채널 십"이라는 사용자 음성이 수신되면, 전자 장치(100)는 "채널 십"을 트리거 음성으로 인식할 수 있다. 그리고 전자 장치(100)는 "채널 십"이라는 트리거 음성에 의해 음성 인식 모드로 변환하고 음성 인식이 수행된다. 즉, 전자 장치(100)는 디스플레이하는 채널을 십(10) 번으로 변경할 수 있다.
상술한 바와 같은 전자 장치에 의해, 사용자는 트리거 음성을 발화하여 전자 장치의 음성 인식 기능을 용이하게 사용할 수 있다. 전자 장치의 구체적인 음성 인식 방법에 대해서는 후술한다.
도 3은 본 발명의 일 실시예에 따른, 전자 장치의 구성을 간략히 도시한 블럭도이다. 도 3에 도시된 바와 같이, 전자 장치(100)는 음성 수신부(110), 음성 신호 분석부(120), 저장부(130) 및 제어부(140)를 포함한다. 이때, 전자 장치(100)는 TV일 수 있으나, 이는 일 실시예에 불과할 뿐, 음성 인식 기능을 포함하는 태블릿 PC, 디지털 카메라, 캠코더, 노트북 PC, PDA, 휴대폰 등과 같은 다양한 전자 장치로 구현될 수 있다.
음성 수신부(110)는 사용자 음성을 입력받기 위한 구성요소이다. 음성 수신부(110)는 마이크(미도시)를 포함할 수 있고, 마이크를 통해 사용자 음성을 입력받을 수 있다. 마이크는 전자 장치(100)에 포함될 수 있다. 또한, 마이크는 외부 장치에 포함될 수 있다. 예를 들면, 외부 장치는 리모컨일 수 있고, 리모컨은 마이크를 통해 사용자 음성을 수신하여, 음성 수신부(110)로 전달할 수 있다.
즉, 음성 수신부(110)는 마이크를 통해 입력된 사용자의 음성을 수신하여 전기적인 음성 데이터로 처리한다. 그리고 음성 수신부(110)는 처리된 음성 데이터를 음성 신호 분석부(120)로 전송한다.
음성 신호 분석부(120)는 음성 수신부(110)를 통해 수신된 음성을 분석하기 위한 구성요소이다. 예를 들면, 음성 신호 분석부(120)는 수신된 사용자 음성의 에너지, 주파수 대역 분포 또는 사용자 음성의 울림값(RT, reverberation time)을 구하도록 사용자 음성을 분석할 수 있다.
또한, 사용자 음성이 수신되면서 사용자 주변의 잡음 등이 함께 수신되는 경우가 많다. 따라서, 음성 신호 분석부(120)는 사용자 음성 신호 대 잡음비(SNR, signal to noise ratio)을 구하도록 사용자 음성을 분석할 수 있다.
한편, 저장부(130)는 음성 신호 분석부(120)에 의해 분석된 다양한 결과를 저장할 수 있다. 구체적으로, 저장부(130)는 분석된 사용자 음성의 특성, 즉 수신된 사용자 음성의 에너지, 주파수 대역 분포, 사용자 음성의 울림값 또는 사용자 음성 신호 대 잡음비를 저장할 수 있다.
그리고 저장부(130)는 전자 장치(100)를 구동하기 위한 다양한 소프트웨어 모듈 및 데이터 등을 저장할 수 있다. 예를 들어, 저장부(130)에는 음성 인식 모듈, 베이스 모듈, 센싱 모듈, 통신 모듈, 프리젠테이션 모듈, 웹 브라우저 모듈, 서비스 모듈을 포함하는 소프트웨어가 저장될 수 있다.
한편, 제어부(140)는 전자 장치(100)의 전반적인 동작을 제어하기 위한 구성요소이다. 특히, 제어부(140)는 음성 수신부(110)를 통해 입력된 음성이 트리거 음성에 해당하는지 판단할 수 있다.
트리거 음성은 전자 장치(100)의 모드를 음성 인식을 수행하기 위한 음성 인식 모드로 전환하기 위한 음성이다. 구체적으로, 트리거 음성은 전자 장치(100)에 기설정된 세네음절 길이의 단어일 수 있다. 예를 들면, 전자 장치(100)는 "Hi TV"를 트리거 음성으로 초기 설정될 수 있다. 즉, 트리거 음성은 상술한 바와 같이 음성 수신부(110)를 통해 수신된 기 설정된 문구를 발화한 사용자 음성이거나 리모컨과 같은 전자 장치(100)의 외부 장치에 포함된 입력 버튼이 누르고 첫 번째로 입력된 사용자 음성일 수 있다.
제어부(140)는 입력된 음성이 트리거 음성에 해당하는 것으로 판단된 경우, 전자 장치(100)의 모드를 음성 인식 모드로 변환할 수 있다. 그리고 제어부(140)는 음성 신호 분석부(120)를 통해 트리거 음성을 분석하여, 사용자 음성 특성을 저장하도록 저장부(130)를 제어할 수 있다.
사용자 음성의 특성은 음성 신호 분석부(120)가 분석한 결과의 예시인 사용자 음성의 에너지, 주파수 대역 분포, 사용자 음성의 울림값 또는 사용자 음성 신호 대 잡음비가 포함될 수 있다.
또한, 제어부(140)는 전자 장치(100)를 제어하기 위한 제어 음성이 입력된 경우, 제어 음성을 분석하도록 음성 신호 분석부(120)를 제어할 수 있다.
제어부(140)는 분석된 제어 음성의 특성을 저장부(130)에 저장된 사용자 음성의 특성과 비교할 수 있다. 그리고 제어부(140)는 비교 결과를 바탕으로 제어 음성에 대응되는 기능을 수행하도록 제어할 수 있다.
구체적으로 음성 수신부(110)를 통해 입력받은 제어 음성의 에너지, 주파수 대역폭, 제어 음성의 발화 시의 울림값 또는 음성 신호 대 잡음비 중 적어도 하나를 분석한 데이터가 트리거 음성에 해당하는 사용자 음성의 에너지, 주파수 대역폭, 트리거 음성의 발화 시의 울림값 또는 음성 신호 대 잡음비 중 적어도 하나를 분석한 데이터의 기 설정된 범위 내인 경우, 제어부(140)는 제어 음성에 대응되는 기능을 수행하도록 제어할 수 있다.
또한, 제어부(140)는 음성 신호 분석부(120)를 통해 분석한 사용자 음성의 사용자 발화 컨디션 또는 사용자 발화 환경을 사용자 음성의 특성으로 저장하도록 저장부(130)를 제어할 수 있다.
한편, 제어부(140)는 기 설정된 시간이 소요되면, 상기 음성 인식 모드를 종료하도록 제어할 수 있다. 즉, 음성 수신부(110)를 통해 입력된 사용자 음성이 트리거 음성인 것으로 판단되어 음성 인식 모드가 수행된 경우라도 제어 음성이 입력되지 않아 기 설정된 시간이 소요된 경우 제어부(140)는 음성 인식 모드를 종료하도록 제어할 수 있다.
또한, 제어부(140)는 음성 신호 분석부(120)를 통해 분석한 제어 음성의 특성이 저장부(130)에 저장된 사용자 음성 특성에 해당하지 않는 경우, 제어 음성을 바이 패스하도록 제어할 수 있다.
한편, 도 4에 따르면, 전자 장치(100)는 음성 수신부(110), 음성 신호 분석부(120), 저장부(130), 제어부(140), 영상 수신부(150), 영상 처리부(160), 디스플레이부(170), 오디오 처리부(180), 오디오 출력부(190), 통신부(200) 및 입력부(210)를 포함할 수 있다. 도 4는 전자 장치(200)가 음성 인식 기능, 통신 기능, 동영상 재생 기능, 디스플레이 기능 등과 같이 다양한 기능을 구비한 장치인 경우를 예로 들어 각종 구성 요소들을 종합적으로 도시한 것이다. 따라서, 실시 예에 따라서는, 도 4에 도시된 구성 요소 중 일부는 생략 또는 변경될 수도 있고, 다른 구성요소가 더 추가될 수도 있다.
음성 수신부(110)는 사용자 음성을 입력받기 위한 구성요소이다. 음성 수신부(110)는 마이크(미도시)를 포함할 수 있고, 마이크를 통해 사용자 음성을 수신할 수 있다. 마이크는 전자 장치(100)에 포함될 수 있다. 또한, 마이크는 외부 장치에 포함될 수 있다. 예를 들면, 외부 장치는 리모컨일 수 있고, 리모컨은 마이크를 통해 사용자 음성을 수신하여, 음성 수신부(110)로 전달할 수 있다.
즉, 음성 수신부(110)는 마이크를 통해 입력된 사용자의 음성을 수신하여 전기적인 음성 데이터로 처리한다. 그리고 음성 수신부(110)는 처리된 음성 데이터를 음성 신호 분석부(120)로 전송한다.
음성 신호 분석부(120)는 음성 수신부(110)를 통해 수신된 음성을 분석하기 위한 구성요소이다. 예를 들면, 음성 신호 분석부(120)는 수신된 사용자 음성의 에너지, 주파수 대역 분포 또는 사용자 음성의 울림값(RT, reverberation time)을 구하도록 사용자 음성을 분석할 수 있다.
또한, 사용자 음성이 수신되면서 사용자 주변의 잡음 등이 함께 수신되는 경우가 많다. 따라서, 음성 신호 분석부(120)는 사용자 음성 신호 대 잡음비(SNR, signal to noise ratio)을 구하도록 사용자 음성을 분석할 수 있다.
한편, 저장부(130)는 음성 신호 분석부(120)에 의해 분석된 다양한 결과를 저장할 수 있다. 구체적으로, 저장부(130)는 분석된 사용자 음성의 특성, 즉 수신된 사용자 음성의 에너지, 주파수 대역 분포, 사용자 음성의 울림값 또는 사용자 음성 신호 대 잡음비를 저장할 수 있다.
그리고 저장부(130)는 전자 장치(100)를 구동하기 위한 다양한 소프트웨어 모듈 및 데이터 등을 저장할 수 있다. 예를 들어, 저장부(130)에는 음성 인식 모듈, 베이스 모듈, 센싱 모듈, 통신 모듈, 프리젠테이션 모듈, 웹 브라우저 모듈, 서비스 모듈을 포함하는 소프트웨어가 저장될 수 있다.
한편, 제어부(140)는 전자 장치(100)의 전반적인 동작을 제어하기 위한 구성요소이다. 특히, 제어부(140)는 음성 수신부(110)를 통해 입력된 음성이 트리거 음성에 해당하는지 판단할 수 있다.
트리거 음성은 전자 장치(100)의 모드를 음성 인식을 수행하기 위한 음성 인식 모드로 전환하기 위한 음성이다. 구체적으로, 트리거 음성은 전자 장치(100)에 기설정된 세네음절 길이의 단어일 수 있다. 예를 들면, 전자 장치(100)는 "Hi TV"를 트리거 음성으로 초기 설정될 수 있다. 즉, 트리거 음성은 상술한 바와 같이 음성 수신부(110)를 통해 수신된 기 설정된 문구를 발화한 사용자 음성이거나 리모컨과 같은 전자 장치(100)의 외부 장치에 포함된 입력 버튼이 누르고 첫 번째로 수신된 사용자 음성일 수 있다.
구체적으로, 기 설정된 문구가 "Hi TV"인 경우, 마이크를 통해 "Hi TV"가 입력되면, 제어부(140)는 전자 장치(100)의 모드를 음성 인식 모드로 변환하고, 입력된 사용자 음성 "Hi TV"를 분석하도록 음성 신호 분석부(120)를 제어할 수 있다. 마이크는 전자 장치(100)에 포함되거나, 리모컨과 같은 전자 장치(100)의 외부 장치에 포함될 수 있다. 또한, 리모컨에 포함된 입력 버튼을 누르는 사용자 명령이 입력되고 첫 번째로 음성이 입력된 경우, 제어부(140)는 입력된 첫 번째 음성을 트리거 음성으로 판단할 수 있다.
즉, 제어부(140)는 입력된 음성이 기 설정된 트리거 음성에 해당하는 것으로 판단된 경우, 전자 장치(100)의 모드를 음성 인식 모드로 변환하고 음성 신호 분석부(120)를 통해 트리거 음성을 분석하여, 사용자 음성 특성을 저장하도록 저장부(130)를 제어할 수 있다. 예를 들면, 제어부(140)는 트리거 음성의 에너지, 주파수 대역폭, 트리거 음성의 발화 시의 울림값 또는 음성 신호 대 잡음비 등을 분석한 결과를 저장하도록 저장부(130)를 제어할 수 있다.
음성 인식 모드로 변환한 후, 음성 수신부(110)를 통해 제어 음성이 입력되면, 제어부(140)는 제어 음성을 분석하도록 음성 신호 분석부(120)를 제어할 수 있다. 제어 음성은 전자 장치(100)의 기능을 제어할 수 있는 모든 사용자 음성을 포함할 수 있다. 또한, 제어부(140)는 기 설정된 에너지 이상을 갖는 사용자 음성을 제어 음성으로 인식하여 분석하도록 음성 신호 분석부(120)를 제어할 수 있다.
예를 들어, 음성 인식 모드로 변환한 후 음성 수신부(110)를 통해 "채널 십삼"이라는 제어 음성이 수신된 경우, 제어부(140)는 음성 신호 분석부(120)를 통해 "채널 십삼"이라는 제어 음성의 에너지, 주파수 대역폭, 제어 음성의 발화 시의 울림값 또는 음성 신호 대 잡음비 등을 분석하도록 제어할 수 있다.
"채널 십삼"이라는 제어 음성의 에너지, 주파수 대역폭, 제어 음성의 발화 시의 울림값 또는 음성 신호 대 잡음비 등의 분석 결과가 저장부(130)에 저장된 트리거 음성의 에너지, 주파수 대역폭, 트리거 음성의 발화 시의 울림값 또는 음성 신호 대 잡음비 등을 분석한 결과의 기 설정된 범위 내에 해당하는 경우 제어부(140)는 제어 음성에 대해 음성 인식을 수행하여 전자 장치(100)가 디스플레이하는 영상의 채널을 십삼 번으로 변경할 수 있다.
또는, 외부 장치에 포함된 입력 버튼을 누르고 "채널 십삼"이라는 사용자 음성이 수신되면, 제어부(140)는 "채널 십삼"을 트리거 음성으로 판단할 수 있다. 그리고 상술한 방법에 의해 제어부(140)는 "채널 십삼"을 분석하여 분석 결과를 사용자 음성의 특성으로 저장하고, 전자 장치(100)의 모드를 음성 인식 모드로 변환할 수 있다. 또한, 음성 인식을 수행하여 전자 장치(100)가 디스플레이하는 영상의 채널을 십삼(13) 번으로 변경할 수 있다.
그리고 디스플레이하는 영상의 채널을 십삼 번으로 변경한 뒤, 음성 수신부(110)를 통해 "볼륨 업"이라는 제어 음성이 수신되면, 제어부(140)는 음성 신호 분석부(120)를 통해 수신된 제어 음성을 분석하여 분석한 결과가 사용자 음성의 특성의 기 설정된 범위 내에 해당하는지 여부를 판단한다. 분석된 결과가 생성된 사용자 음성의 특성의 기 설정된 범위 내에 해당하는 경우, 제어부(140)는 음성 인식을 수행하여 전자 장치(100)가 디스플레이하는 영상의 볼륨을 올리도록 제어할 수 있다.
한편, 음성 인식 모드로 변환한 후 음성 수신부(110)를 통해 복수의 사용자 음성이 수신된 경우, 제어부(140)는 복수의 사용자 음성 각각 분석하도록 음성 신호 분석부(120)를 제어할 수 있다. 그리고 복수의 사용자 음성 중 저장부(130)에 저장된 사용자 음성의 특성 결과와 유사한 분석결과를 가지는 사용자 음성을 제어 음성으로 판단할 수 있다. 제어부(140)는 판단된 제어 음성에 따라 음성 인식을 수행할 수 있다.
예를 들어, 제1, 제2 및 제3 사용자가 전자 장치(100)의 근처에서 발화하고 있으며, 제1 사용자가 기 설정된 트리거 음성인 "Hi TV"를 발화하여, 음성 수신부(110)를 통해 제1 사용자의 음성이 수신되고 제어부(140)가 전자 장치(100)의 모드를 음성 인식 모드로 변환한 경우, 제어부(140)는 제1 사용자의 트리거 음성을 분석하도록 음성 신호 분석부(120)를 제어할 수 있다.
구체적으로, 음성 신호 분석부(120)는 제1 사용자의 음성의 에너지, 제1 사용자 음성의 주파수 대역 분포를 분석할 수 있다. 그리고 음성 신호 분석부(120)는 제1 사용자의 음성 발화 당시의 울림값(RT), 제1 사용자의 음성 신호 대 잡음비(SNR)를 분석할 수 있다. 그리고 제어부(140)는 제1 사용자의 트리거 음성에 대한 분석 결과를 사용자 음성의 특성으로 저장하도록 저장부(130)를 제어할 수 있다.
트리거 음성에 대한 사용자 음성의 특성이 저장된 후, 제1, 제2 및 제3 사용자가 각각 "볼륨 업", "종료" 및 "채널 십삼"을 발화하여 음성 수신부(110)를 통해 각 사용자의 음성이 입력된 경우, 제어부(140)는 입력된 각 사용자의 음성을 분석하도록 음성 신호 분석부(120)를 제어할 수 있다.
음성 신호 분석부(120)는 각 사용자의 음성의 에너지, 주파수 대역 분포, 울림값 및 음성 신호대 잡음비 중 적어도 하나를 분석할 수 있다. 그리고 제어부(140)는 각 사용자 음성의 특성에 대한 분석 결과를 저장부(130)에 저장된 사용자 음성의 특성과 비교할 수 있다. 즉, 제어부(140)는 동일한 사용자가 발화한 "볼륨 업"을 분석한 결과가 저장부(130)에 저장된 사용자 음성의 특성에 가장 유사한 것으로 판단할 수 있다. 따라서, 제어부(140)는 "볼륨 업"에 따라 전자 장치(100)의 볼륨을 올리도록 제어할 수 있다.
또한, 제어부(140)는 저장부(130)에 저장된 사용자 음성의 특성과 분석 결과가 상이한 제2 및 제3 사용자의 발화는 바이 패스할 수 있다. 따라서, 전자 장치(100)는 "종료" 및 "채널 십삼"을 음성 수신부(110)를 통해 입력받았으나, 이에 대응되는 기능을 수행하지 않게 된다.
한편, 제어부(140)는 음성 인식을 수행하고, 기 설정된 시간이 소요되면 사용자 음성에 대한 음성 인식을 종료하도록 제어할 수 있다. 즉, 사용자로부터 음성 인식을 종료하기 위한 명령이 입력되지 않아도, 기 설정된 시간 동안 음성 수신부(110)를 통해 제어 음성을 포함하여 사용자 음성이 수신되지 않으면, 제어부(140)는 전자 장치(100)가 음성 인식을 종료하도록 제어할 수 있다.
또한, 음성 신호 분석부(120)를 통해 분석한 제어 음성의 특성이 저장부(130)에 저장된 사용자 음성 특성에 해당하지 않는 경우, 제어부(140)는 제어 음성을 바이 패스하도록 제어할 수 있다.
예를 들어, 제어부(140)는 음성 신호 분석부(120)를 통해 트리거 음성으로 판단된 사용자 음성을 분석하여 음성의 발화 에너지와 음성 신호 대 잡음비를 사용자 음성의 특성으로 저장하도록 저장부(130)를 제어한다.
사용자 음성의 특성이 저장된 후, 음성 수신부(110)를 통해 제어 음성이 수신되면, 제어부(140)는 음성 신호 분석부(120)를 통해 사용자 음성을 분석한 결과가 저장부(130)에 저장된 사용자 음성의 특성에 해당하는지 여부를 판단한다. 그리고 제어부(140)는 사용자 음성이 트리거 음성과 발화 에너지 또는 음성 신호 대 잡음비가 상이하여 사용자 음성의 특성에 해당하지 않는 것으로 판단되면, 상술한 바와 같이 수신된 사용자 음성에 의해 전자 장치(100)가 제어되지 않도록 수신된 사용자 음성을 바이 패스하도록 제어할 수 있다.
한편, 영상 수신부(150)는 다양한 소스를 통해 영상 데이터를 수신한다. 예를 들어, 영상 수신부(150)는 외부의 방송국으로부터 방송 데이터를 수신할 수 있으며, 외부 서버로부터 실시간으로 영상 데이터를 수신할 수 있으며, 내부의 저장부(130)에 저장된 영상 데이터를 수신할 수 있다.
영상 처리부(160)는 영상 수신부(150)에서 수신한 영상 데이터에 대한 처리를 수행하는 구성요소이다. 영상 처리부(160)에서는 영상 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다.
디스플레이부(170)는 영상 수신부(150)로부터 수신한 영상 데이터를 영상 처리부(160)에서 처리한 비디오 프레임 및 그래픽 처리부(143)에서 생성된 다양한 화면 중 적어도 하나를 디스플레이한다.
특히, 디스플레이부(170)는 음성 인식 모드 상태임을 알려주는 UI를 디스플레이할 수 있다. 예를 들면, 음성 수신부(110)를 통해 "Hi TV"가 입력되고, 음성 신호 분석부(120)를 통해 입력된 "Hi TV"를 분석하여, 트리거 음성으로 판단되면, 디스플레이부(170)는 트리거 음성이 인식되었으며, 전자 장치(100)의 모드가 음성 인식 모드 상태임을 알려주는 UI를 디스플레이할 수 있다.
구체적으로 도 7에 도시된 바와 같이 디스플레이부(170)는 음성 인식 기능의 예시로 "다음과 같이 말할 수 있습니다. 채널 십구, 볼륨 업" 등을 디스플레이할 수 있다. 그리고 디스플레이부(170)는 사용자 음성을 수신할 준비가 되었다는 문구로 "무엇을 하시겠어요?"를 디스플레이할 수 있다.
또한, 음성 인식 모드 상태에서 제어 음성이 입력되어 제어 음성에 대응되는 기능을 수행하는 경우, 디스플레이부(170)는 제어부(140)의 제어에 의해 UI에 인디케이터를 디스플레이할 수 있다.
구체적으로, 음성 인식 모드 상태에서 음성 수신부(110)를 통해 제어 음성이 입력되고 음성 신호 분석부(120)를 통해 제어 음성이 분석되는 동안, 디스플레이부(170)는 제어 음성이 분석 중임을 알리기 위해 디스플레이부(170)의 일부에 기 설정된 색(예를 들면, 백색)을 디스플레이하거나, 기 설정된 색(예를 들면, 백색)을 깜빡거리는 인디케이터를 디스플레이할 수 있다. 상술한 바와 같은 인디케이터는 일 실시 예에 불과할 뿐, 디스플레이부(170)는 다양한 형태의 인디케이터를 음성 인식 모드 상태임을 알려주는 UI에 디스플레이할 수 있다.
예를 들면, 도 8에 도시된 바와 같이 디스플레이부(170)는 UI에 포함된 마이크 모양의 아이콘에 인디케이터를 디스플레이할 수 있다. 그리고 음성을 인식 중임을 알리기 위해 디스플레이부(170)는 "음성을 인식중입니다."와 같은 문구를 함께 디스플레이할 수 있다.
한편, 음성 인식 모드 상태임을 알려주는 UI는 디스플레이부(170)의 일부에 디스플레이될 수 있다. 예를 들면, 도 9에 도시된 바와 같이 트리거 음성 및 제어 음성이 입력된 경우에도, 디스플레이부(170)는 디스플레이하는 컨텐츠를 계속하여 디스플레이하면서 디스플레이부(170)의 일부에 음성 인식 모드 상태임을 알리는 UI를 디스플레이할 수 있다.
그리고 제어 음성이 입력되어 제어 음성을 분석하는 경우에도, 도 10에 도시된 바와 같이 디스플레이부(170)는 디스플레이하는 컨텐츠를 계속하여 디스플레이하면서, 디스플레이부(170)의 일부에 음성 인식 모드 상태임을 알리는 UI에 인디케이터를 디스플레이할 수 있다.
오디오 처리부(180)는 오디오 데이터에 대한 처리를 수행하는 구성요소이다. 오디오 처리부(180)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다. 오디오 처리부(180)에서 처리된 오디오 데이터는 오디오 출력부(190)로 출력될 수 있다.
오디오 출력부(190)는 오디오 처리부(180)에서 처리된 각종 오디오 데이터뿐만 아니라 각종 알림 음이나 음성 메시지를 출력하는 구성이다. 이때, 오디오 출력부(190)는 스피커로 구현될 수 있으나, 이는 일 실시예에 불과할 뿐, 오디오 단자로 구현될 수 있다.
통신부(200)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행하는 구성이다. 통신부(200)는 USB 모듈, 와이파이 모듈, 블루투스 모듈, NFC 모듈 등과 같은 다양한 통신 모듈로 포함할 수 있다. 이때, 와이파이 모듈, 블루투스 모듈, NFC 모듈은 각각 WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 이 중 NFC 모듈은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 모듈을 의미한다. 와이파이 모듈이나 블루투스 모듈을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다.
또한, 통신부(200)는 사용자 음성 및 제어 음성이 외부 장치를 통해 입력된 경우, 입력된 음성을 수신할 수 있다. 예를 들면, 사용자 음성이 리모컨에 포함된 마이크를 통해 입력된 경우 전자 장치(100)는 통신부(200)를 통해 입력된 음성을 수신할 수 있다.
입력부(210)는 전자 장치(100)의 전반적인 동작을 제어하기 위한 사용자 명령을 수신한다. 이때, 입력부(210)는 상하 좌우의 4 방향 키 및 확인 키를 포함하는 리모컨으로 구현될 수 있으나, 이는 일 실시예에 불과할 뿐, 터치 스크린, 마우스, 포인팅 디바이스 등과 같은 다양한 입력 장치에 의해 구현될 수 있다.
또한, 입력부(210)가 리모컨으로 구현되는 경우, 리모컨은 음성을 수신하기 위한 입력 버튼을 포함할 수 있다. 사용자는 리모컨의 입력 버튼을 누른 뒤, 사용자 음성을 발화할 수 있다. 또한, 입력 버튼을 누른 뒤 첫 번째로 수신되는 사용자 음성이 트리거 음성이 될 수 있다.
한편, 제어부(140)는 도 4에 도시된 바와 같이, RAM(141), ROM(142), 그래픽 처리부(143), 메인 CPU(144), 제1 내지 n 인터페이스(145-1 ~ 145-n), 버스(146)를 포함한다. 이때, RAM(141), ROM(142), 그래픽 처리부(143), 메인 CPU(144), 제1 내지 n 인터페이스(145-1 ~ 145-n) 등은 버스(146)를 통해 서로 연결될 수 있다.
ROM(142)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU(144)는 ROM(142)에 저장된 명령어에 따라 저장부(130)에 저장된 O/S를 RAM(141)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(144)는 저장부(130)에 저장된 각종 어플리케이션 프로그램을 RAM(141)에 복사하고, RAM(141)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.
그래픽 처리부(143)는 연산부(미도시) 및 렌더링 부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부는 입력부(210)로부터 수신된 제어 명령을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부에서 생성된 화면은 디스플레이부(170)의 디스플레이 영역 내에 표시된다. 특히, 그래픽 처리부(143)는 트리거 음성이 인식되었으며, 사용자 음성을 수신할 수 있음을 나타내는 UI를 생성할 수 있다.
메인 CPU(144)는 저장부(130)에 액세스하여, 저장부(130)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고 메인 CPU(144)는 저장부(130)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
또한, 제1 내지 n 인터페이스(295-1 내지 295-n)는 상술한 각종 구성요소들과 연결된다.
한편, 도 5는 본 발명의 일 실시예에 따른, 사용자 음성을 분석하여 음성 인식을 수행하는 방법을 도시한 흐름도이다.
먼저, 전자 장치(100)는 사용자 음성을 입력받는다(S500). 전자 장치(100)는 전자 장치(100)에 포함된 마이크를 통해 사용자 음성을 입력받을 수 있다. 그리고 리모컨과 같은 외부 장치에 포함된 마이크를 통해 사용자 음성을 입력받을 수도 있다.
전자 장치(100)는 입력된 사용자 음성이 트리거 음성에 해당하는지 여부를 판단한다(S510). 트리거 음성은 전자 장치의 모드를 음성 인식을 수행하기 위한 음성 인식 모드로 전환하기 위한 음성일 수 있다. 그리고 트리거 음성은 전자 장치(100)에 기 설정되거나, 사용자의 설정에 의해 일정한 길이를 가지는 특정 문구로 설정될 수 있다. 예를 들면, 트리거 음성이 "Hi, TV"로 기 설정된 경우, 전자 장치(100)는 수신한 사용자 음성이 "Hi, TV"인지 여부를 판단한다. 그리고 수신한 사용자 음성이 "Hi, TV"로 판단된 경우(S510-Y), 전자 장치(100)는 전자 장치의 모드를 음성 인식 모드로 변환한다(S520).
한편, 사용자 음성이 리모컨과 같은 외부 장치를 통해 수신되는 경우, 전자 장치(100)는 리모컨과 같은 외부 장치에 포함된 입력 버튼이 눌러진 뒤, 첫 번째로 수신된 사용자 음성을 트리거 음성으로 인식할 수 있다. 즉, 트리거 음성이 "Hi TV"로 기설정된 경우에도 전자 장치(100)는 리모컨과 같은 외부 장치에 포함된 입력 버튼이 눌러진 뒤, 첫 번째로 "채널 십삼"이 입력되면, 입력된 "채널 십삼" 자체를 트리거 음성으로 인식할 수 있다.
그리고 전자 장치(100)는 트리거 음성으로 판단된 사용자 음성을 분석하여 사용자 음성의 특성을 저장한다(S530). 구체적으로 사용자 음성의 특성은 사용자 발화 컨디션 및 발화 환경을 포함할 수 있다. 사용자 발화 컨디션은 사용자 음성의 에너지, 사용자 음성의 주파수 대역 분포를 포함할 수 있다. 그리고 발화 환경은 사용자 음성 발화 당시의 울림값(RT) 또는 음성 신호 대 잡음비(SNR)를 포함할 수 있다. 즉, 사용자 음성의 특성은 사용자 음성의 에너지, 사용자 음성의 주파수 대역 분포, 음성 발화 당시의 울림값(RT) 또는 음성 신호 대 잡음비(SNR)를 포함할 수 있다.
전자 장치(100)를 제어하기 위한 제어 음성이 입력된 경우(S540-Y), 전자 장치(100)는 제어 음성을 분석하여 제어 음성의 특성을 사용자 음성의 특성과 비교한다(S550). 제어 음성은 전자 장치(100)의 기능을 제어할 수 있는 모든 사용자 음성을 포함할 수 있다. 또한, 전자 장치(100)는 기 설정된 에너지 이상을 갖는 사용자 음성을 제어 음성으로 인식하여 분석할 수 있다.
그리고 전자 장치(100)는 비교 결과를 바탕으로 제어 음성에 대응되는 기능을 수행한다(S560). 구체적으로 제어 음성의 에너지, 주파수 대역폭, 상기 제어 음성의 발화 시의 울림값 또는 음성 신호 대 잡음비 중 적어도 하나를 분석한 데이터가 트리거 음성에 해당하는 사용자 음성의 에너지, 주파수 대역폭, 상기 트리거 음성에 대응되는 사용자 음성의 발화 시의 울림값 또는 음성 신호 대 잡음비 중 적어도 하나를 분석한 데이터의 기 설정된 범위 내인 경우, 전자 장치(100)는 제어 음성에 대응되는 기능을 수행한다.
입력받은 사용자 음성 "Hi TV"가 트리거 음성으로 판단되어 전자 장치(100)의 모드를 음성 인식 모드로 변환하고, "Hi TV"의 에너지 및 "Hi TV" 발화 당시의 울림값을 사용자 음성 특성으로 저장한 후, 전자 장치(100)가 제어 음성 "채널 십삼"이 입력받은 경우를 예로 든다.
전자 장치(100)는 입력된 제어 음성 "채널 십삼"의 에너지 및 제어 음성 발화 당시의 울림값을 분석한다. 그리고 분석한 데이터가 저장된 트리거 음성의 사용자 음성 특성의 데이터 값의 오차 범위 10% 내에 해당하는 경우, 전자 장치(100)는 트리거 음성을 발화한 사용자와 제어 음성을 발화한 사용자가 동일하다고 판단할 수 있다. 또한, 전자 장치(100)는 입력된 제어 음성이 사용자가 전자 장치(100)를 제어하기 위해 의도적으로 발화한 것으로 판단할 수 있다. 따라서 전자 장치(100)는 디스플레이되는 영상을 채널 십삼 번으로 변경하도록 제어할 수 있다.
한편, 비교 데이터의 오차 범위가 10%인 것은 일 실시 예에 불과할 뿐, 전자 장치(100)의 초기 설정 및 환경 등에 따라 상이할 수 있다.
또한, 발화 에너지 및 울림값은 사용자 음성의 특성의 일 실시예에 불과할 뿐, 음성의 주파수 대역 분포, 음성의 발화 시의 울림값(RT), 음성 신호 대 잡음비(SNR) 등 음성을 발화하는 사용자 및 발화 환경에 따라 달라지는 모든 값을 분석하여 사용자 음성 인식 조건으로 저장할 수 있음을 물론이다.
한편, 도 6은 본 발명의 일 실시예에 따른, 사용자 음성을 분석하여 음성 인식을 수행하고 음성 인식 모드를 종료하는 방법을 도시한 흐름도이다.
먼저, 전자 장치(100)는 사용자 음성을 입력받는다(S600). 전자 장치(100)는 전자 장치(100)에 포함된 마이크를 통해 사용자 음성을 입력받을 수 있다. 그리고 리모컨과 같은 외부 장치에 포함된 마이크를 통해 사용자 음성을 입력받을 수도 있다.
전자 장치(100)는 입력된 사용자 음성이 트리거 음성에 해당하는지 여부를 판단한다(S610). 트리거 음성은 전자 장치의 모드를 음성 인식을 수행하기 위한 음성 인식 모드로 전환하기 위한 음성일 수 있다. 그리고 트리거 음성은 전자 장치(100)에 기 설정되거나, 사용자의 설정에 의해 일정한 길이를 가지는 특정 문구로 설정될 수 있다. 예를 들면, 트리거 음성이 "Hi, TV"로 기 설정된 경우, 전자 장치(100)는 수신한 사용자 음성이 "Hi, TV"인지 여부를 판단한다. 그리고 수신한 사용자 음성이 "Hi, TV"로 판단된 경우(S610-Y), 전자 장치(100)는 전자 장치의 모드를 음성 인식 모드로 변환한다(S620).
한편, 사용자 음성이 리모컨과 같은 외부 장치를 통해 수신되는 경우, 전자 장치(100)는 리모컨과 같은 외부 장치에 포함된 입력 버튼이 눌러진 뒤, 첫 번째로 수신된 사용자 음성을 트리거 음성으로 인식할 수 있다. 즉, 트리거 음성이 "Hi TV"로 기설정된 경우에도 전자 장치(100)는 리모컨과 같은 외부 장치에 포함된 입력 버튼이 눌러진 뒤, 첫 번째로 "채널 십삼"이 입력되면, 입력된 "채널 십삼" 자체를 트리거 음성으로 인식할 수 있다.
그리고 전자 장치(100)는 트리거 음성으로 판단된 사용자 음성을 분석하여 사용자 음성의 특성을 저장한다(S630). 구체적으로 사용자 음성의 특성은 사용자 발화 컨디션 및 발화 환경을 포함할 수 있다. 사용자 발화 컨디션은 사용자 음성의 에너지, 사용자 음성의 주파수 대역 분포를 포함할 수 있다. 그리고 발화 환경은 사용자 음성 발화 당시의 울림값(RT) 또는 음성 신호 대 잡음비(SNR)를 포함할 수 있다. 즉, 사용자 음성의 특성은 사용자 음성의 에너지, 사용자 음성의 주파수 대역 분포, 음성 발화 당시의 울림값(RT) 또는 음성 신호 대 잡음비(SNR)를 포함할 수 있다.
전자 장치(100)를 제어하기 위한 제어 음성이 입력된 경우(S640-Y), 전자 장치(100)는 제어 음성을 분석하여 제어 음성의 특성을 사용자 음성의 특성과 비교한다(S650). 제어 음성은 전자 장치(100)의 기능을 제어할 수 있는 모든 사용자 음성을 포함할 수 있다. 또한, 전자 장치(100)는 기 설정된 에너지 이상을 갖는 사용자 음성을 제어 음성으로 인식하여 분석할 수 있다.
분석된 제어 음성의 특성이 저장된 사용자 음성의 특성의 기 설정된 범위 내 포함되는 경우(S660-Y), 전자 장치(100)는 제어 음성에 대응되는 기능을 수행한다(S670).
한편, 분석된 제어 음성의 특성이 저장된 사용자 음성의 특성의 기 설정된 범위 내 포함되지 않는 경우(S660-N), 전자 장치(100)는 제어 음성을 바이 패스한다(S680).
입력받은 사용자 음성 "Hi TV"가 트리거 음성으로 판단되어 전자 장치(100)의 모드를 음성 인식 모드로 변환하고, "Hi TV"의 에너지 및 "Hi TV" 발화 당시의 울림값을 사용자 음성 특성으로 저장한 후, 전자 장치(100)가 제어 음성 "채널 십삼"이 입력받은 경우를 예로 든다.
전자 장치(100)는 입력된 제어 음성 "채널 십삼"의 에너지 및 제어 음성 발화 당시의 울림값을 분석한다. 그리고 분석한 데이터가 저장된 트리거 음성의 사용자 음성 특성의 데이터 값의 오차 범위 10% 내에 해당하는 경우, 전자 장치(100)는 트리거 음성을 발화한 사용자와 제어 음성을 발화한 사용자가 동일하다고 판단할 수 있다. 또한, 전자 장치(100)는 입력된 제어 음성이 사용자가 전자 장치(100)를 제어하기 위해 의도적으로 발화한 것으로 판단할 수 있다. 따라서 전자 장치(100)는 디스플레이되는 영상을 채널 십삼 번으로 변경하도록 제어할 수 있다.
반면, 입력된 제어 음성 "채널 십삼"의 에너지 및 제어 음성 발화 당시의 울림값을 분석한 데이터가 트리거 음성 "Hi TV"의 에너지 및 발화 당시의 울림값을 분석한 데이터의 오차 범위 10% 내에 해당하지 않는 경우, 전자 장치(100)는 입력된 제어 음성 "채널 십삼"을 바이 패스할 수 있다. 따라서, 전자 장치(100)는 디스플레이하는 영상의 채널을 변경하지 않을 수 있다.
한편, 비교 데이터의 오차 범위가 10%인 것은 일 실시 예에 불과할 뿐, 전자 장치(100)의 초기 설정 및 환경 등에 따라 상이할 수 있다.
또한, 발화 에너지 및 울림값은 사용자 음성의 특성의 일 실시예에 불과할 뿐, 음성의 주파수 대역 분포, 음성의 발화 시의 울림값(RT), 음성 신호 대 잡음비(SNR) 등 음성을 발화하는 사용자 및 발화 환경에 따라 달라지는 모든 값을 분석하여 사용자 음성 인식 조건으로 저장할 수 있음을 물론이다.
한편, 기 설정된 시간이 소요되는 경우(S690-Y), 전자 장치(100)는 음성 인식 모드를 종료한다(S700). 즉, 제어 음성에 대응되는 기능을 수행한 뒤, 음성 인식 모드를 종료하기 위한 사용자 명령의 입력이 없어도, 기 설정된 시간 동안 제어 음성이 입력되지 않는 경우, 정자 장치(100)는 자동으로 음성 인식 모드를 종료한다. 따라서, 전자 장치(100)는 음성 인식 모드가 종료된 뒤 입력된 사용자 음성이 트리거 음성으로 다시 판단될 때까지 입력된 사용자 음성에 대응하여 전자 장치(100)의 기능을 수행하지 않을 수 있다.
상술한 바와 같은 음성 인식 방법에 따라, 사용자는 별도의 조작 없이도 음성을 발화하는 방법으로 용이하게 오차 없이 전자 장치의 기능을 제어할 수 있게 된다.
상술한 다양한 실시 예들에 따른 전자 장치의 음성 인식 방법은 소프트웨어로 코딩되어 비일시적 판독 가능 매체(non-transitory readable medium)에 저장될 수 있다. 이러한 비일시적 판독 가능 매체는 다양한 장치에 탑재되어 사용될 수 있다.
일 예로, 사용자 음성이 입력된 경우, 상기 입력된 사용자 음성이 트리거 음성에 해당하는지 판단하는 단계, 상기 사용자 음성이 트리거 음성으로 판단된 경우, 상기 전자 장치의 모드를 음성 인식 모드로 변환하고, 상기 사용자 음성을 분석하여 상기 사용자 음성의 특성을 저장하는 단계, 상기 전자 장치를 제어하기 위한 제어 음성이 입력된 경우, 상기 제어 음성을 분석하여 분석된 제어 음성의 특성을 상기 사용자 음성의 특성과 비교하는 단계 및 상기 비교 결과를 바탕으로 상기 제어 음성에 대응되는 기능을 수행하는 단계를 수행하기 위한 프로그램 코드가 비일시적 판독 가능 매체에 저장되어 제공될 수 있다. 그 밖에도, 상술한 다양한 실시 예들에서 설명한 절전 처리 방법이 프로그램으로 코딩되어 비일시적 판독 가능 매체에 저장될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안 될 것이다.
100 : 전자 장치 110 : 음성 수신부
120 : 음성 신호 분석부 130 : 저장부
140 : 제어부 150 : 영상 수신부
160 : 영상 처리부 170 : 디스플레이부
180 : 오디오 처리부 190 : 오디오 출력부
200 : 통신부 210 : 입력부

Claims (20)

  1. 전자 장치에 있어서,
    컨텐츠를 포함하는 데이터를 수신하는 수신부;
    마이크;
    통신부; 및
    화면에 컨텐츠를 표시하기 위해 상기 수신된 데이터를 처리하고,
    상기 컨텐츠가 상기 화면에 표시되는 동안 상기 마이크를 통해 사용자 음성 입력이 수신되면, 상기 사용자 음성 입력이 트리거 음성 입력에 대응되는지 식별하고,
    상기 사용자 음성 입력이 상기 트리거 음성 입력에 대응되면, 후속 사용자 음성 입력을 수신하기 위한 제1 음성 인식에 대응되는 기능을 수행하고,
    외부 장치의 버튼 선택에 의해 상기 외부 장치로부터 제공되는 신호가 상기 통신부를 통해 수신되면, 상기 제1 음성 인식에 대응되는 기능을 수행하고,
    상기 컨텐츠가 상기 화면에 표시되고 상기 제1 음성 인식에 대응되는 기능이 수행되는 동안 상기 후속 사용자 음성 입력이 상기 외부 장치로부터 상기 통신부를 통해 수신되면, 상기 후속 사용자 음성 입력이 상기 트리거 음성 입력에 대응되는지 식별없이 상기 후속 사용자 음성 입력을 처리하기 위한 제2 음성 인식에 대응되는 기능을 수행하고, 상기 후속 사용자 음성 입력의 처리를 나타내는 유저 인터페이스(user interface, UI)를 상기 컨텐츠와 함께 상기 화면에 제공하는 프로세서;를 포함하는 전자 장치.
  2. 제1항에 있어서,
    상기 화면은,
    상기 후속 사용자 음성 입력의 처리를 나타내는 UI 및 상기 컨텐츠를 포함하고,
    상기 UI는, 상기 화면의 제1 영역에 표시되고,
    상기 컨텐츠는, 상기 화면의 제2 영역에 표시되는 전자 장치.
  3. 제1항에 있어서,
    상기 UI는, 음성 인식 상태에서 상기 제2 사용자 음성 입력이 처리 중임을 나타내는 전자 장치.
  4. 제1항에 있어서,
    상기 후속 사용자 음성 입력은,
    상기 외부 장치로부터 제공되는 상기 신호가 상기 통신부를 통해 수신된 후 기설정된 시간 이내에 상기 외부 장치로부터 수신되는 전자 장치.
  5. 제1항에 있어서,
    상기 프로세서는,
    상기 전자 장치가 상기 외부 장치로부터 수신된 신호에 따라 상기 제1 음성 인식에 대응되는 기능을 수행한 후 기설정된 시간 이내에 상기 외부 장치로부터 상기 후속 사용자 음성 입력이 수신되지 않으면, 상기 제1 음성 인식에 대응되는 기능을 종료하는 전자 장치.
  6. 제1항에 있어서,
    상기 후속 사용자 음성 입력은, 상기 전자 장치의 기능을 제어하기 위한 음성 입력이고,
    상기 프로세서는,
    상기 후속 사용자 음성 입력에 대응되는 기능을 수행하는 전자 장치.
  7. 제1항에 있어서,
    상기 프로세서는,
    상기 트리거 음성 입력에 대응되는 상기 사용자 음성 입력이 상기 마이크를 통해 수신되면, 상기 전자 장치가 음성 인식 상태에 있음을 나타내는 UI를 제공하고,
    상기 후속 사용자 음성 입력이 상기 외부 장치로부터 상기 통신부를 통해 수신되면, 상기 후속 사용자 음성 입력이 상기 음성 인식 상태에서 처리되고 있음을 나타내는 UI를 제공하는 전자 장치.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 외부 장치의 버튼이 선택되고 상기 외부 장치의 마이크에 사용자 음성 입력이 입력되면, 상기 외부 장치의 마이크에 입력된 사용자 음성 입력에 대응되는 데이터를 상기 외부 장치로부터 상기 통신부를 통해 수신하고, 상기 사용자 음성 입력이 상기 트리거 음성 입력에 대응되는지 식별없이 상기 외부 장치의 마이크에 입력된 상기 사용자 음성 입력을 처리하기 위한 제3 음성 인식에 대응되는 기능을 수행하는 전자 장치.
  9. 제8항에 있어서,
    상기 전자 장치의 마이크를 통해 수신된 상기 사용자 음성 입력이 상기 트리거 음성 입력에 대응되면, 상기 후속 사용자 음성 입력을 수신하기 위한 대기 상태를 나타내는 UI를 상기 화면에 제공하는 전자 장치.
  10. 제9항에 있어서,
    상기 프로세서는,
    상기 외부 장치의 버튼이 선택되고 상기 외부 장치의 마이크에 상기 사용자 음성 입력이 입력되면, 상기 후속 사용자 음성 입력을 수신하기 위한 대기 상태를 나타내는 UI 제공없이 상기 사용자 음성 입력이 처리되고 있음을 나타내는 UI를 제공하는 전자 장치.
  11. 전자 장치의 음성 인식 방법에 있어서,
    컨텐츠를 포함하는 데이터를 수신하는 단계;
    화면에 컨텐츠를 표시하기 위해 상기 수신된 데이터를 처리하는 단계;
    상기 컨텐츠가 상기 화면에 표시되는 동안 상기 전자 장치의 마이크를 통해 사용자 음성 입력이 수신되면, 상기 사용자 음성 입력이 트리거 음성 입력에 대응되는지 식별하는 단계;
    상기 사용자 음성 입력이 상기 트리거 음성 입력에 대응되면, 후속 사용자 음성 입력을 수신하기 위한 제1 음성 인식에 대응되는 기능을 수행하는 단계;
    외부 장치의 버튼 선택에 의해 상기 외부 장치로부터 제공되는 신호가 수신되면, 상기 제1 음성 인식에 대응되는 기능을 수행하는 단계;
    상기 컨텐츠가 상기 화면에 표시되고 상기 제1 음성 인식에 대응되는 기능이 수행되는 동안 상기 외부 장치로부터 상기 후속 사용자 음성 입력이 수신되면, 상기 후속 사용자 음성 입력이 상기 트리거 음성 입력에 대응되는지 식별없이 상기 후속 사용자 음성 입력을 처리하기 위한 제2 음성 인식에 대응되는 기능을 수행하고, 상기 후속 사용자 음성 입력의 처리를 나타내는 유저 인터페이스(user interface, UI)를 상기 컨텐츠와 함께 상기 화면에 제공하는 단계;를 포함하는 음성 인식 방법.
  12. 제11항에 있어서,
    상기 화면은,
    상기 후속 사용자 음성 입력의 처리를 나타내는 UI 및 상기 컨텐츠를 포함하고,
    상기 UI는, 상기 화면의 제1 영역에 표시되고,
    상기 컨텐츠는, 상기 화면의 제2 영역에 표시되는 음성 인식 방법.
  13. 제11항에 있어서,
    상기 UI는, 음성 인식 상태에서 상기 제2 사용자 음성 입력이 처리 중임을 나타내는 음성 인식 방법.
  14. 제11항에 있어서,
    상기 후속 사용자 음성 입력은,
    상기 외부 장치로부터 제공되는 상기 신호가 수신된 후 기설정된 시간 이내에 상기 외부 장치로부터 수신되는 음성 인식 방법.
  15. 제11항에 있어서,
    상기 전자 장치가 상기 외부 장치로부터 수신된 신호에 따라 상기 제1 음성 인식에 대응되는 기능을 수행한 후 기설정된 시간 이내에 상기 외부 장치로부터 상기 후속 사용자 음성 입력이 수신되지 않으면, 상기 제1 음성 인식에 대응되는 기능은 종료되는 음성 인식 방법.
  16. 제11항에 있어서,
    상기 후속 사용자 음성 입력은, 상기 전자 장치의 기능을 제어하기 위한 음성 입력이고,
    상기 후속 사용자 음성 입력에 대응되는 기능을 수행하는 단계;를 더 포함하는 음성 인식 방법.
  17. 제11항에 있어서,
    상기 트리거 음성 입력에 대응되는 상기 사용자 음성 입력이 상기 마이크를 통해 수신되면, 상기 전자 장치가 음성 인식 상태에 있음을 나타내는 UI를 제공하는 단계; 및
    상기 후속 사용자 음성 입력이 상기 외부 장치로부터 수신되면, 상기 후속 사용자 음성 입력이 상기 음성 인식 상태에서 처리되고 있음을 나타내는 UI를 제공하는 음성 인식 방법.
  18. 제11항에 있어서,
    상기 외부 장치의 버튼이 선택되고 상기 외부 장치의 마이크에 사용자 음성 입력이 입력되면, 상기 외부 장치의 마이크에 입력된 사용자 음성 입력에 대응되는 데이터를 상기 외부 장치로부터 수신하는 단계; 및
    상기 사용자 음성 입력이 상기 트리거 음성 입력에 대응되는지 식별없이 상기 외부 장치의 마이크에 입력된 상기 사용자 음성 입력을 처리하기 위한 제3 음성 인식에 대응되는 기능을 수행하는 단계;를 더 포함하는 음성 인식 방법.
  19. 제18항에 있어서,
    상기 전자 장치의 마이크를 통해 수신된 상기 사용자 음성 입력이 상기 트리거 음성 입력에 대응되면, 상기 후속 사용자 음성 입력을 수신하기 위한 대기 상태를 나타내는 UI를 상기 화면에 제공하는 단계;를 더 포함하는 음성 인식 방법.
  20. 제19항에 있어서,
    상기 외부 장치의 버튼이 선택되고 상기 외부 장치의 마이크에 상기 사용자 음성 입력이 입력되면, 상기 후속 사용자 음성 입력을 수신하기 위한 대기 상태를 나타내는 UI 제공없이 상기 사용자 음성 입력이 처리되고 있음을 나타내는 UI를 제공하는 단계;를 더 포함하는 음성 인식 방법.
KR1020220013295A 2021-01-26 2022-01-28 전자 장치 및 이의 음성 인식 방법 KR102494051B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220013295A KR102494051B1 (ko) 2021-01-26 2022-01-28 전자 장치 및 이의 음성 인식 방법
KR1020230010284A KR102594683B1 (ko) 2021-01-26 2023-01-26 전자 장치 및 이의 음성 인식 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210010879A KR102359163B1 (ko) 2014-01-21 2021-01-26 전자 장치 및 이의 음성 인식 방법
KR1020220013295A KR102494051B1 (ko) 2021-01-26 2022-01-28 전자 장치 및 이의 음성 인식 방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210010879A Division KR102359163B1 (ko) 2014-01-21 2021-01-26 전자 장치 및 이의 음성 인식 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230010284A Division KR102594683B1 (ko) 2021-01-26 2023-01-26 전자 장치 및 이의 음성 인식 방법

Publications (2)

Publication Number Publication Date
KR20220020859A true KR20220020859A (ko) 2022-02-21
KR102494051B1 KR102494051B1 (ko) 2023-01-31

Family

ID=80475196

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020220013295A KR102494051B1 (ko) 2021-01-26 2022-01-28 전자 장치 및 이의 음성 인식 방법
KR1020230010284A KR102594683B1 (ko) 2021-01-26 2023-01-26 전자 장치 및 이의 음성 인식 방법
KR1020230142392A KR102653239B1 (ko) 2021-01-26 2023-10-23 전자 장치 및 이의 음성 인식 방법
KR1020240041622A KR20240046455A (ko) 2021-01-26 2024-03-27 전자 장치 및 이의 음성 인식 방법

Family Applications After (3)

Application Number Title Priority Date Filing Date
KR1020230010284A KR102594683B1 (ko) 2021-01-26 2023-01-26 전자 장치 및 이의 음성 인식 방법
KR1020230142392A KR102653239B1 (ko) 2021-01-26 2023-10-23 전자 장치 및 이의 음성 인식 방법
KR1020240041622A KR20240046455A (ko) 2021-01-26 2024-03-27 전자 장치 및 이의 음성 인식 방법

Country Status (1)

Country Link
KR (4) KR102494051B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5983186A (en) * 1995-08-21 1999-11-09 Seiko Epson Corporation Voice-activated interactive speech recognition device and method
US6839670B1 (en) * 1995-09-11 2005-01-04 Harman Becker Automotive Systems Gmbh Process for automatic control of one or more devices by voice commands or by real-time voice dialog and apparatus for carrying out this process
US20060074658A1 (en) * 2004-10-01 2006-04-06 Siemens Information And Communication Mobile, Llc Systems and methods for hands-free voice-activated devices
KR20130078483A (ko) * 2011-12-30 2013-07-10 삼성전자주식회사 전자 장치 및 그의 제어 방법
JP2013529794A (ja) * 2010-06-24 2013-07-22 本田技研工業株式会社 車載音声認識システム及び車両外音声認識システム間の通信システム及び方法
CN103456306A (zh) * 2012-05-29 2013-12-18 三星电子株式会社 用于在电子装置中执行语音命令的方法和设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5983186A (en) * 1995-08-21 1999-11-09 Seiko Epson Corporation Voice-activated interactive speech recognition device and method
US6839670B1 (en) * 1995-09-11 2005-01-04 Harman Becker Automotive Systems Gmbh Process for automatic control of one or more devices by voice commands or by real-time voice dialog and apparatus for carrying out this process
US20060074658A1 (en) * 2004-10-01 2006-04-06 Siemens Information And Communication Mobile, Llc Systems and methods for hands-free voice-activated devices
JP2013529794A (ja) * 2010-06-24 2013-07-22 本田技研工業株式会社 車載音声認識システム及び車両外音声認識システム間の通信システム及び方法
KR20130078483A (ko) * 2011-12-30 2013-07-10 삼성전자주식회사 전자 장치 및 그의 제어 방법
CN103456306A (zh) * 2012-05-29 2013-12-18 三星电子株式会社 用于在电子装置中执行语音命令的方法和设备

Also Published As

Publication number Publication date
KR102494051B1 (ko) 2023-01-31
KR20240046455A (ko) 2024-04-09
KR20230020472A (ko) 2023-02-10
KR102653239B1 (ko) 2024-04-01
KR20230153969A (ko) 2023-11-07
KR102594683B1 (ko) 2023-10-26

Similar Documents

Publication Publication Date Title
KR102210433B1 (ko) 전자 장치 및 이의 음성 인식 방법
KR102339657B1 (ko) 전자 장치 및 이의 제어 방법
US9484029B2 (en) Electronic apparatus and method of speech recognition thereof
KR102245747B1 (ko) 사용자 명령어 등록을 위한 디스플레이 장치 및 방법
US20240046934A1 (en) Display apparatus capable of releasing a voice input mode by sensing a speech finish and voice control method thereof
US20130080178A1 (en) User interface method and device
US10678563B2 (en) Display apparatus and method for controlling display apparatus
KR20190083476A (ko) 디스플레이장치 및 그 제어방법
US20190026265A1 (en) Information processing apparatus and information processing method
US20220122600A1 (en) Information processing device and information processing method
KR20140111574A (ko) 오디오 명령에 따른 동작을 수행하는 장치 및 방법
KR102359163B1 (ko) 전자 장치 및 이의 음성 인식 방법
KR102594683B1 (ko) 전자 장치 및 이의 음성 인식 방법
US11756545B2 (en) Method and device for controlling operation mode of terminal device, and medium
CN110839169B (zh) 一种智能设备遥控装置及基于其的控制方法
KR102656611B1 (ko) 보이스 어시스턴트 서비스를 이용한 컨텐츠 재생 장치 및 그 동작 방법
US11984119B2 (en) Electronic device and voice recognition method thereof
KR20200081274A (ko) 음성을 인식하는 장치 및 방법
CN112203125A (zh) 语音播报方法、装置、视频播放设备及存储介质
CN117809661A (zh) 一种显示设备及唤醒词的领读方法

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant