KR20170132622A - 음성 인식 기능을 갖는 전자 장치 및 전자 장치의 동작 방법 - Google Patents

음성 인식 기능을 갖는 전자 장치 및 전자 장치의 동작 방법 Download PDF

Info

Publication number
KR20170132622A
KR20170132622A KR1020160063728A KR20160063728A KR20170132622A KR 20170132622 A KR20170132622 A KR 20170132622A KR 1020160063728 A KR1020160063728 A KR 1020160063728A KR 20160063728 A KR20160063728 A KR 20160063728A KR 20170132622 A KR20170132622 A KR 20170132622A
Authority
KR
South Korea
Prior art keywords
electronic device
priority
speech recognition
voice
information
Prior art date
Application number
KR1020160063728A
Other languages
English (en)
Inventor
양승수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160063728A priority Critical patent/KR20170132622A/ko
Priority to US15/491,600 priority patent/US10147425B2/en
Publication of KR20170132622A publication Critical patent/KR20170132622A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • G10L15/265
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Abstract

음성 인식 기능을 가지는 전자 장치의 동작 방법 및 전자 장치가 개시된다, 본 개시의 실시 예에 따른 전자 장치의 동작 방법은, 음성 인식 기능을 갖는 적어도 하나의 다른 전자 장치의 상태 정보를 수신하는 단계; 상기 상태 정보를 기초로 상기 전자 장치의 우선 순위와 상기 다른 전자 장치의 우선 순위를 비교하는 단계; 및 상기 전자 장치의 우선 순위가 상기 다른 전자 장치의 우선 순위보다 낮으면, 상기 전자 장치의 음성 인식 기능을 비활성화시키는 단계를 포함할 수 있다.

Description

음성 인식 기능을 갖는 전자 장치 및 전자 장치의 동작 방법{Electronic device having speech recognition function and operating method of Electronic device}
본 개시의 기술적 사상은 음성 인식 기능을 갖는 전자 장치 및 전자 장치의 음성 인식 기능 제어 방법에 관한 것이다.
음성 인기 기능을 가지는 전자 장치는 사용자의 음성을 인식하여 음성 명령을 획득하고, 음성 명령에 따른 동작을 수행한다. 이에 따라 사용자는 전자 장치에 대한 물리적인 조작없이 간편하게 전자 장치를 이용할 수 있다. 최근, 모바일 단말기부터 네비게이션, 스마트 카, 가전 기기까지 음성 인식 기능을 가진 다양한 종류의 전자 장치가 늘어나고 있다.
본 개시의 기술적 사상이 이루고자 하는 기술적 과제는, 음성 인식 기능을 가지는 다른 전자 장치가 존재할 때, 음성 인식 수행 여부를 결정하는 전자 장치 및 전자 장치의 동작 방법을 제공하는 데 있다.
또한, 본 개시의 기술적 사상이 이루고자 하는 다른 기술적 과제는, 음성 인식 기능을 갖는 복수의 전자 장치들 중 사용자가 목적한 하나 또는 일부의 전자 장치가 음성 인식을 수행하는 방법을 제공하는 데 있다.
상기 기술적 과제를 달성하기 위한 본 개시의 실시예에 따른 전자 장치의 동작 방법에 있어서, 음성 인식 기능을 갖는 적어도 하나의 다른 전자 장치의 상태 정보를 수신하는 단계; 상기 상태 정보를 기초로 상기 전자 장치의 우선 순위와 상기 다른 전자 장치의 우선 순위를 비교하는 단계; 및 상기 전자 장치의 우선 순위가 상기 다른 전자 장치의 우선 순위보다 낮으면, 상기 전자 장치의 음성 인식 기능을 비활성화시키는 단계를 포함할 수 있다.
상기 기술적 과제를 달성하기 위한 본 개시의 실시예에 따른 전자 장치에 있어서, 수신되는 음성 입력(voice input) 대한 음성 인식(speech recognition)을 수행하는 음성 인식 모듈; 음성 인식 기능을 갖는 다른 전자 장치의 상태 정보를 수신하는 통신 인터페이스; 및 상기 상태 정보를 기초로 다른 전자 장치의 우선 순위를 판단하고, 상기 전자 장치의 우선 순위가 상기 다른 전자 장치의 우선 순위보다 낮으면, 상기 음성 인식 모듈을 비활성화시키는 컨트롤러를 포함할 수 있다.
본 개시의 기술적 사상에 따른 전자 장치 및 전자 장치의 동작 방법에 따르면, 사용자의 음성을 인식하는 복수의 전자 장치 중 사용자가 목표하지 않은 전자 장치의 음성 인식 기능이 비활성화됨으로써, 음성 인식 기능을 갖는 전자 장치의 오동작을 방지하고 의도치 않은 전력이 소비되는 것을 방지할 수 있다.
본 개시의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 개시의 실시예에 따른 음성 인식 시스템을 나타내는 블록도이다.
도 2는 본 개시의 실시예에 따른 전자 장치를 개략적으로 나타내는 블록도이다
도 3은 본 개시의 실시예에 따른 음성 인식 기능을 갖는 전자 장치의 동작 방법을 나타내는 흐름도이다.
도 4는 본 개시의 실시예에 따른 전자 장치의 동작 방법을 나타내는 흐름도이다.
도 5는 본 개시의 실시예에 따른 전자 장치의 동작 방법을 나타내는 흐름도이다.
도 6은 본 개시의 실시예에 따른 전자 장치의 동작 방법을 나타내는 흐름도이다.
도 7 본 개시의 실시예에 따른 전자 장치의 동작 방법을 나타내는 흐름도이다.
도 8a는 및 도 8b는 도 7의 동작 방법에 따른 전자 장치의 동작을 예시적으로 설명하는 도면이다.
도 9는 본 개시의 실시예에 따른 동작 방법을 나타내는 블록도이다.
도 10은 도 9의 동작 방법에 따른 전자 장치의 동작을 예시적으로 설명하는 도면이다.
도 11은 본 개시의 실시예에 따른 동작 방법을 나타내는 블록도이다.
도 12는 도 11의 동작 방법에 다른 전자 장치의 동작을 예시적으로 설명하는 도면이다.
도 13은 본 개시의 일 실시예에 따른 음성 인식 시스템을 나타내는 블록도이다.
도 14는 본 개시의 실시예에 따른 음성 인식 기능을 갖는 전자 장치의 동작 방법을 나타내는 흐름도이다.
도 15는 본 개시의 일 실시예에 따른 음성 인식 시스템을 나타내는 블록도이다.
도 16은 본 개시의 실시예에 따른 음성 인식 기능을 갖는 전자 장치의 동작 방법을 나타내는 흐름도이다.
도 17은 본 개시의 실시예에 따른 모바일 장치의 일 구현예를 나타내는 블록도이다.
도 18 및 도 19는 본 개시의 실시예에 따른 전자 장치의 구현예를 나타내는 도면이다.
도 20은 본 개시의 실시예에 따른 IoT 네트워크 시스템을 보여준다.
이하, 본 개시의 다양한 실시예가 첨부된 도면과 연관되어 기재된다. 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 개시의 다양한 실시예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 다양한 실시예는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 본 개시의 기술적 사상은 본 개시의 다양한 실시예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 개시의 다양한 실시예에서 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 개시의 다양한 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시의 다양한 실시예에서 “또는” 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, “A 또는 B”는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 개시의 다양한 실시예에서 사용된 “제 1,”“제 2,”“첫째,”또는“둘째,”등의 표현들은 다양한 실시예들의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제 1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 개시의 다양한 실시예의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 개시의 다양한 실시예에서 사용한 용어는 단지 특정일 실시예를 설명하기 위해 사용된 것으로, 본 개시의 다양한 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시의 다양한 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 개시의 다양한 실시예에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 개시의 다양한 실시예에 따른 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smart watch))중 적어도 하나를 포함할 수 있다.
실시예들에 있어서, 전자 장치는 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
실시예들에 있어서, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller' s machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.
실시예들에 있어서, 전자 장치는 스마트 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 개시의 다양한 실시예들에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 본 개시의 다양한 실시예에 따른 전자 장치가 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시예에 따른 전자 장치 및 전자 장치의 동작 방법을 설명하기로 한다. 다양한 실시예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 음성 신호를 출력하는 다른 전자 장치를 지칭할 수 있다.
도 1은 본 개시의 실시예에 따른 음성 인식 시스템을 나타내는 블록도이다.
도 1을 참조하면, 음성 인식 시스템(10)은 사용자의 음성을 인식할 수 있는 음성 인식 모듈(SRM)을 구비하는 복수의 전자 장치(11, 12, 13)를 포함할 수 있다. 음성 인식은 수신되는 음성 입력을 분석하고 음성 입력으로부터 음성 명령을 획득하는 기능을 의미할 수 있다. 음성 인식 모듈은 음성 인식을 수행하는 하드웨어(또는 하드웨어 컴포넌트)를 의미하거나, 음성 인식을 수행할 수 있는 소프트웨어(또는 소프트웨어 컴포넌트)를 의미하거나, 음성 인식을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체를 의미할 수 있다. 그러나 이에 한정되는 것은 아니며, 하드웨어 또는 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다. 음성 인식 모듈은 또한 음성을 수신하는 장치를 포함할 수 있다.
복수의 전자 장치(11, 12, 13)는 사용자의 음성을 수신할 수 있는 소정의 거리 이내에 위치할 수 있다. 복수의 전자 장치(11, 12, 13)는 수신되는 음성 입력이 미리 설정된 트리거 단어로 판단되면, 상기 트리거 단어에 응답하여 음성 인식 및 처리 기능을 활성화할 수 있다. 복수의 전자 장치(11, 12, 13)는 음성 인식 기능이 활성화된 경우, 트리거 단어에 응답하여, 처리 기능을 활성화시키고, 음성 인식 기능이 비활성화 상태인 경우, 트리거 단어에 응답하여 음성 인식 기능 및 처리 기능을 활성화할 수 있다. 음성 인식 모듈(SRM)은 음성 인식을 수행하여 수신되는 음성으로부터 음성 명령을 획득하고, 복수의 전자 장치(11, 12, 13)는 상기 음성 명령에 따른 동작을 수행할 수 있다.
본 개시의 실시예에 따른 음성 인식 시스템(10)에 따르면, 복수의 전자 장치(11, 12, 13) 중 하나 또는 일부의 전자 장치가 음성 인식을 수행할 수 있다.
일 실시예에 있어서, 복수의 전자 장치(11, 12, 13) 중 복수의 전자 장치(11, 12, 13)의 상태 정보에 기초하여 선택되는 하나 또는 일부의 전자 장치가 음성 인식을 수행할 수 있다. 예컨대, 복수의 전자 장치(11, 12, 13) 각각의 상태 정보에 기초하여 음성 인식 모듈들(SRM1, SRM2, SRM3)이 활성화 또는 비활성화될 수 있다. 상태 정보는 전자 장치의 유선 및 무선 네트워크 연결 정보, 사용자와의 연결 정보, 장치 종류 정보, 동작 상태 정보, 우선 순위 정보 및 위치 정보 중 적어도 하나를 포함할 수 있다.
일 실시예에 있어서, 복수의 전자 장치(11, 12, 13) 중 음성 인식에 대한 우선 순위(이하 우선 순위라고 함)가 높은 하나 또는 일부의 전자 장치가 음성 인식을 수행할 수 있다. 예컨대, 전자 장치의 우선 순위는 전자 장치의 유선 및 무선 네트워크 종류, 장치 종류, 동작 상태, 위치 중 적어도 하나에 기초하여 설정될 수 있다. 전자 장치의 우선 순위는 미리 설정되거나(pre-define) 전자 장치의 동작 상태 또는 위치 변화에 따라 가변될 수 있다.
예를 들어, 제1 전자 장치(11)의 우선 순위가 제2 전자 장치(12) 및 제3 전자 장치(13)보다 높을 경우, 제1 전자 장치(11)에 구비되는 제1 음성 인식 모듈(SRM1)이 활성화되고, 제2 전자 장치(12) 및 제3 전자 장치(13)에 각각 구비되는 제2 음성 인식 모듈(SRM2) 및 제3 음성 인식 모듈(SRM3)은 비활성화될 수 있다. 비활성화되는 음성 인식 모듈(SRM)은 턴-오프되거나, 저전력 모드로 동작하거나 또는 음성 인식 알고리즘을 수행하지 않을 수 있다.
일 실시예에 있어서, 우선 순위가 높은 하나 또는 일부의 전자 장치가 음성 입력을 수신하고, 음성 인식을 수행할 수 있다. 예컨대, 우선 순위가 가장 높은 전자 장치에 구비되는 음성 수신 장치 및 음성 인식 모듈(SRM)이 활성화되고, 다른 전자 장치에 구비되는 음성 수신 장치 및 음성 인식 모듈(SRM)은 비활성화될 수 있다.
일 실시예에 있어서, 복수의 전자 장치(11, 12, 13)는 각각의 상태 정보를 서로 송수신하고, 상태 정보를 기초로 우선 순위를 판단하여 음성 인식 모듈들(SRM)의 활성화 또는 비활성화를 결정할 수 있다.
일 실시예에 있어서, 복수의 전자 장치(11, 12, 13)는 소정의 거리 이내에 음성 인식 기능을 갖는 다른 전자 장치가 있다는 것을 감지하면, 상태 정보를 서로 송수신할 수 있다. 상태 정보에 기초하여 복수의 전자 장치(11, 12, 13)의 음성 인식 모듈(SRM)이 활성화 또는 비활성화된 후, 사용자가 음성 입력을 제공하면, 활성화된 음성 인식 모듈(SRM)이 음성 인식을 수행할 수 있다. 사용자가 음성 입력을 제공하면, 활성화된 음성 인식 모듈(SRM)을 구비하는 전자 장치가 사용자의 음성 입력으로부터 트리거 단어를 획득하고, 음성 입력 기능 및 처리 기능을 수행할 수 있다.
다른 실시예에 있어서, 복수의 전자 장치(11, 12, 13)는 주기적으로 상태 정보를 서로 송수신할 수 있다. 다른 실시예에 있어서, 사용자가 음성 입력을 제공하고, 복수의 전자 장치(11, 12, 13)의 음성 인식 모듈(SRM)이 사용자의 음성 입력으로부터 트리거 단어를 획득하면, 이후, 복수의 전자 장치(11, 12, 13)는 상태 정보를 서로 송수신할 수 있다. 이에 따라 상태 정보에 기초하여 복수의 전자 장치(11, 12, 13)의 음성 인식 모듈(SRM)이 활성화 또는 비활성화 될 수 있다. 사용자의 다음 음성 입력으로부터, 활성화된 음성 인식 모듈(SRM)이 음성 명령을 획득하고, 활성화된 음성 인식 모듈(SRM)을 구비하는 전자 장치가 음성 명령에 따른 동작을 수행할 수 있다.
일 실시예에 있어서, 복수의 전자 장치(11, 12, 13) 각각은 소정의 거리 내에 음성 인식 기능을 가지는 다른 전자 장치가 존재하는 경우, 트리거 단어 및 미리 설정된 단어에 응답하여 음성 인식 기능을 활성화시킬 수 있다. 예컨대, 미리 설정된 단어는 복수의 전자 장치(11, 12, 13)의 제품명, 미리 설정된 닉네임 또는 복수의 전자 장치(11, 12, 13)의 일부 또는 전부를 특정하는 단어 등일 수 있다.
일 실시예에 있어서, 복수의 전자 장치(11, 12, 13) 중 미리 설정된 마스터 장치의 음성 인식 기능이 활성화되고, 슬레이브 장치들의 음성 인식 기능이 비활성화될 수 있다. 마스터 장치는, 수신되는 음성 입력으로부터 획득되는 음성 명령을 슬레이브 장치에 제공하고, 슬레이브 장치는 음성 명령에 따른 동작을 수행할 수 있다. 일 실시예에 있어서, 마스터 장치는 사용자의 음성 입력이 수신될 때 슬레이브 장치에 대한 사용자의 액션을 감지할 수 있고, 사용자 액션의 대상 슬레이브 장치를 판단할 수 있다. 마스터 장치는 대상 슬레이브 장치로 음성 인식 기능을 활성화하도록 제어하는 제어 명령을 제공할 수 있다. 대상 슬레이브 장치는 사용자의 음성 입력을 수신하고, 음성 인식 및 처리를 수행할 수 있다.
일 실시예에 있어서, 복수의 전자 장치(11, 12, 13)는 공통의 트리거 단어를 가질 수 있다. 예컨대,"오케이(OK)"가 복수의 전자 장치(11, 12, 13)에 공통으로 적용되는 트리거 단어일 때, 사용자가 "오케이, 전원을 꺼(OK, Turn-off)"라고 말하면, "오케이(OK)"라는 트리거 단어에 의해서 복수의 전자 장치(11, 12, 13)가 음성 인식 및 처리를 수행할 수 있다. 복수의 전자 장치(11,12, 13)의 음성 인식 모듈(SRM)은 각각 "전원을 꺼(Turn-off)"라는 음성 입력에 대해 음성 인식을 수행하고, 이에 따라 획득된 음성 명령에 기초하여 복수의 전자 장치(11, 12, 13)는 전원을 끌 수 있다.
이때, 사용자가 하나의 전자 장치를 목적으로 한 경우, 사용자가 목적하지 않은 전자 장치는 불필요하게 음성 인식을 수행하며, 음성 명령에 따른 전원을 끄는 동작을 수행할 수 있다. 불필요하게 전자 장치의 전력이 소비되며, 전자 장치의 오동작이 유발될 수 있다.
그러나, 본 개시의 실시예에 따른 음성 인식 시스템(10)에 따르면, 전술한 바와 같이 복수의 전자 장치(11, 12, 13)가 공통된 트리거 단어를 가진다 하여도 복수의 전자 장치(11, 12, 13) 중 하나 또는 일부의 전자 장치가 음성 인식을 수행하고, 다른 전자 장치는 음성 인식을 수행하지 않으므로, 전력의 낭비 및 전자 장치의 오동작을 방지할 수 있다.
이하, 본 개시의 실시예에 따른 음성 인식 시스템(10)에 적용되는 전자 장치 및 전자 장치의 동작 방법에 대하여 상세하게 설명하기로 한다.
도 2는 본 개시의 실시예에 따른 전자 장치를 개략적으로 나타내는 블록도이다. 도 2의 전자 장치는 음성 인식 기능을 갖는 전자 장치이며, 도 1의 음성 인식 시스템(10)의 복수의 전자 장치 중 적어도 하나에 적용될 수 있다.
도 2를 참조하면, 전자 장치(100)는 컨트롤러(110), 음성 입력 장치(120), 음성 인식 모듈(130), 통신 인터페이스(140) 및 메모리(150) 포함할 수 있다. 전자 장치(100)는 센서(160)를 더 포함할 수 있다.
컨트롤러(110)는 전자 장치(100)의 전반적인 동작을 제어할 수 있으며, 전자 장치(100)의 다른 구성들의 동작을 제어할 수 있다. 컨트롤러(110)는 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU), 디지털 신호 처리기(DSP) 및 커스텀 하드웨어(Custom Hardware) 중 하나일 수 있으며, 이외에도 다양한 종류의 소프트웨어, 하드웨어 또는 펌웨어로 구현될 수 있다.
컨트롤러(110)는 음성 인식 모듈(130)이 활성화 또는 비활성화되도록 제어할 수 있다. 컨트롤러(110)는 전자 장치(100)의 상태 정보 및 수신되는 다른 전자 장치의 상태 정보를 기초로 전자 장치(100)의 우선 순위 및 다른 전자 장치의 우선 순위를 판단하고, 전자 장치(100)의 우선 순위 및 다른 전자 장치의 우선 순위를 기초로 전자 장치(100)의 음성 인식 모듈(130)을 제어할 수 있다. 실시예에 있어서, 컨트롤러(110)는 전자 장치(100)의 우선 순위가 다른 전자 장치의 우선 순위보다 낮으면, 음성 인식 모듈(130)이 비활성화되도록 제어할 수 있다. 실시예에 있어서, 컨트롤러(110)는 전자 장치(100)의 우선 순위가 다른 전자 장치의 우선 순위보다 높으면, 음성 인식 모듈(130)이 활성화되도록 제어할 수 있다. 실시예에 있어서, 컨트롤러(110)는 또한 음성 명령에 따른 동작을 수행하도록 전자 장치(100)를 제어할 수 있다. 실시예에 있어서, 컨트롤러(110)는 음성 명령이 다른 전자 장치에 대한 것이라고 판단되면, 인식된 음성 명령 또는 다른 전자 장치의 음성 인식 기능을 활성화시키는 제어 신호를 사용자가 목표로 하는 다른 전자 장치로 송신할 수 있다.
음성 입력 장치(120)는 사용자의 음성 입력을 수신할 수 있다. 음성 입력 장치(120)는 외부로부터 수신되는 음성 신호를 처리하여 전기적인 음성 데이터를 획득할 수 있다. 음성 입력 장치(120)는 수신되는 음성 신호로부터 잡음(noise)을 제거하고 신호를 처리하는 신호 처리 모듈을 포함할 수 있다. 음성 입력 장치(120)는 예컨대 마이크일 수 있다.
음성 인식 모듈(130)은 음성 입력에 대한 음성 인식을 수행할 수 있다. 음성 인식 모듈(130)은 음성 인식 알고리즘을 수행할 수 있다. 음성 인식 모듈(130)은 도 1을 참조하여 전술한 바와 같이, 하드웨어(또는 하드웨어 컴포넌트), 소프트웨어(또는 소프트웨어 컴포넌트), 펌웨어, 또는 스프트웨어와 하드웨어의 결합으로 구현되거나, 음성 인식을 수행시킬 수 있는 알고리즘, 다시 말해 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체를 의미할 수 있다. 예컨대, 음성 인식 모듈(130)은 전용 음성 인식기(Dedicated speech recognizer)를 포함할 수 있으며, 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU), 디지털 신호 처리기(DSP) 및 커스텀 하드웨어(Custom Hardware) 중 하나를 포함할 수 있다. 이외에도, 음성 인식 모듈(130)은 음성 인식 알고리즘을 처리하는 연산 회로를 포함할 수 있다. 이외에도, 음성 인식 모듈(130)은 음성 입력을 수신하고, 음성 인식 알고리즘을 수행하기까지 동작하는 다양한 구성 요소들, 예컨대, 마이크, 코덱, 아날로그-디지털 변환기 또는 통신 인터페이스 등을 더 포함할 수 있다.
본 실시예에서, 음성 인식 장치(120)와 음성 인식 모듈(130)은 별개의 구성요소로 도시되었으나, 이에 제한되는 것은 아니며, 음성 인식 장치(120)는 음성 인식 모듈(130)의 일부로서 구현될 수 있다. 또한, 음성 인식 모듈(130)과 컨트롤러(110)는 일체로서 구현될 수 있다.
통신 인터페이스(140)는 음성 인식 기능을 갖는 적어도 하나의 다른 전자 장치로부터 상기 다른 전자 장치의 상태 정보를 수신할 수 있다. 통신 인터페이스(140)는 수신된 상태 정보를 컨트롤러(110)에 제공할 수 있다. 통신 인터페이스(140)는 또한 전자 장치(100)의 상태 정보를 송신할 수 있다. 통신 인터페이스(140)는 소정 거리 이내에 음성 인식 기능을 갖는 적어도 하나의 다른 전자 장치가 있는지 여부를 판단할 수 있다. 통신 인터페이스(140)는 와이파이(WiFi), LTE(Long Term Evolution), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, WFD(Wi-Fi Direct) 및 NFC(Near Field Communication) 등 다양한 통신 프로토콜(protocol) 중 적어도 하나 이상을 이용하여 소정 거리 이내의 다른 전자 장치와 데이터(예컨대 상태 정보)를 송수신할 수 있다. 일 실시예에 따라, 통신 인터페이스(140)는 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network) 등의 다양한 종류의 유/무선 네트워크 또는 직렬 통신 등을 통하여 다른 전자 장치와 데이터를 송수신할 수 있다.
메모리(150)는 전자 장치(100)를 제어하는 제어 명령어 코드, 제어 데이터 또는 사용자 데이터를 저장할 수 있다. 일 실시예에 있어서, 메모리(150)는 음성 인식 알고리즘을 저장할 수 있다. 메모리(150)는 또한, 컨트롤러(110)의 동작 메모리로 사용될 수 있다. 메모리(150)는 휘발성 메모리(volatile memory) 또는 불휘발성 메모리(nonvolatile memory) 중 적어도 하나를 포함할 수 있다. 불휘발성 메모리는 ROM (Read Only Memory), PROM (Programmable ROM), EPROM (Electrically Programmable ROM), EEPROM (Electrically Erasable and Programmable ROM), 플래시 메모리, PRAM (Phase-change RAM), MRAM (Magnetic RAM), RRAM (Resistive RAM), FRAM (Ferroelectric RAM) 등을 포함한다. 휘발성 메모리는 DRAM (Dynamic RAM), SRAM (Static RAM), SDRAM (Synchronous DRAM), PRAM (Phase-change RAM), MRAM (Magnetic RAM), RRAM (Resistive RAM), FeRAM (Ferroelectric RAM) 등과 같은 다양한 메모리들 중 적어도 하나를 포함할 수 있다.
센서(160)는 전자 장치(100)의 내부 또는 외부에서 발생하는 다양한 신호 또는 정보(화학적 신호, 전기적 신호 등)를 감지하여 상태 정보를 생성할 수 있다. 예를 들어, 센서(160)는 전자 장치(100)를 구비하는 건물 또는 차량의 내/외부의 환경 정보를 감지할 수 있다. 전자 장치(100)가 웨어러블 장치일 때, 센서(160)는 사용자의 주변 환경 또는 생체 정보를 감지할 수 있다. 센서(160)는 또한 전자 장치(100)의 위치, 동작 상태, 전자 장치(100)의 구성 요소들의 상태와 관련한 정보를 감지할 수 있다. 센서(160)는 전자 장치(100)의 위치, 예컨대, 전자 장치(100)가 실내 또는 야외에 위치하는지, 또는 자동차, 집 등 특정 장소에 위치하는지 여부 등을 감지할 수 있다. 실시예에 있어서, 센서(160)는 소정 거리 내에 다른 전자 장치가 존재하는지를 감지할 수 있다.
이외에도, 전자 장치(100)는 디스플레이, 카메라 등과 같은 입출력 장치, 저장 장치, 전력 관리 장치 등을 더 포함할 수 있다.
도 3은 본 개시의 실시예에 따른 음성 인식 기능을 갖는 전자 장치의 동작 방법을 나타내는 흐름도이다. 도 3은 구체적으로 전자 장치의 음성 인식 수행 여부를 결정하는 방법을 나타내며, 도 2의 전자 장치에 적용될 수 있다. 도 2를 참조하여 설명한 내용은 도 3의 동작 방법에도 적용될 수 있다.
도 3을 참조하면, 전자 장치(예컨대 도 2의 전자 장치(100))는 다른 전자 장치의 상태 정보를 수신할 수 있다(S110). 상태 정보는 전자 장치의 유선 및 무선 네트워크 연결 정보, 사용자와의 연결 정보, 장치 종류 정보, 동작 상태 정보, 우선 순위 정보 또는 위치 정보를 포함할 수 있다. 예컨대, 유선 및 무선 네트워크 연결 정보는 전자 장치가 연결된 네트워크가, 유선 네트워크인지 또는 무선 네트워크인지 또는 네트워크의 종류를 포함할 수 있다. 사용자와의 연결 정보는 예컨대, 전자 장치(100)와 사용자와의 거리, 전자 장치(100)가 웨어러블 장치인지 여부 등을 포함할 수 있다. 장치 종류 정보는, 스마트 홈 허브, 네비게이션, 전용 음성 인식기, 또는 마스터로 설정된 장치 등과 같이, 특정 장소에서 상요되거나 또는 특정 기능을 수행하도록 미리 설정된 장치임을 나타내는 정보를 포함할 수 있다. 동작 상태 정보는, 전자 장치(100)가 사용자의 조작에 따른 동작 중인지, 또는 스탠바이 (또는 아이들 상태)상태인지, 전자 장치(100)의 전력 상태, 온도, 메모리와 같은 리소스 사용 상태 등을 포함할 수 있다. 우선 순위 정보는 전자 장치(100)에 대하여 미리 설정되거나, 또는 전자 장치(100)의 위치, 상태 등에 따라 가변적으로 설정되는 우선 순위 레벨을 포함할 수 있다. 이외에도 상태 정보는 전자 장치(100)와 관련된 다양한 정보를 포함할 수 있다.
전자 장치(100)는 상태 정보에 기초하여 우선 순위를 판단할 수 있다(S120). 전자 장치(100)는 수신된 상태 정보에 기초하여 다른 전자 장치의 우선 순위를 판단하고, 전자 장치(100)의 상태 정보를 기초로 전자 장치(100)의 우선 순위를 판단할 수 있다.
전자 장치(100)는 우선 순위를 다른 전자 장치의 우선 순위와 비교할 수 있다(S130).
우선 순위가 다른 전자 장치의 우선 순위보다 낮으면, 전자 장치(100)는 음성 인식 기능을 비활성화 할 수 있다(S140). 예컨대, 컨트롤러(도 2의 120)는 음성 인식 모듈(도 2의 130)을 비활성화시킬 수 있다. 음성 인식 모듈(도 2의 130)은 전원이 턴-오프 되거나, 저전력 모드로 동작할 수 있다. 또는 음성 인식 모듈(130)은 음성 인식 알고리즘을 수행하지 않을 수 있다. 실시예에 있어서, 컨트롤러(110)는 음성 수신 장치(120) 또한 비활성화시킬 수 있다.
우선 순위가 다른 전자 장치의 우선 순위와 같거나, 높으면, 전자 장치(100)는 음성 인식 기능을 활성화할 수 있다(S150). 예컨대, 컨트롤러(110)는 음성 인식 모듈(130) 및 음성 수신 장치(120)를 활성화시킬 수 있다. 일 실시예에 있어서, 전자 장치(100)는 우선 순위가 가장 높을 때, 음성 인식 기능을 활성화시킬 수 있다.
도 3의 전자 장치의 동작 방법에 따라, 전자 장치의 음성 인식 기능이 활성화 또는 비활성화 되므로, 소정의 거리 내에 음성 인식 기능을 갖는 복수의 전자 장치가 존재하더라도, 복수의 전자 장치가 사용자의 음성 입력을 기초로 음성 인식을 수행하는 것이 아니라, 전자 장치들간의 관계에 따라 선택된 하나 또는 일부의 전자 장치가 음성 인식을 수행하고, 다른 전자 장치는 음성 인식을 수행하지 않을 수 있다.
한편, 도 3의 전자 장치의 동작 방법은, 전자 장치(100)가 음성 입력을 수신하기 전에 수행되거나, 또는 전자 장치(100)가 사용자로부터 음성 입력을 수신하고 트리거된 후 수행될 수 있다. 도 4 및 도 5를 참조하여 이에 대하여 설명하기로 한다.
도 4는 본 개시의 실시예에 따른 전자 장치의 동작 방법을 나타내는 흐름도이다. 도 4의 전자 장치의 동작 방법은 도 3의 전자 장치의 동작 방법이 전자 장치(100)가 음성 입력을 수신하기 전에 수행되는 것을 설명한다.
도 4를 참조하면, 전자 장치(100)는 다른 전자 장치의 상태 정보를 수신하고(S210), 수신된 상태 정보 및 내부 상태 정보 각각에 기초하여 다른 전자 장치의 우선 순위 및 전자 장치(100)의 우선 순위를 판단할 수 있다(S220). 전자 장치(100)는 우선 순위가 다른 전자 장치의 우선 순위보다 낮은지 판단하고(S230), 우선 순위가 낮으면, 음성 인식 기능을 비활성화시키고(S240), 우선 순위가 다른 전자 장치의 우선 순위보다 높거나 같으면 음성 인식 기능을 활성화시킬 수 있다(S250). S210 내지 S250 단계는 도 3의 S110 내지 S150 단계와 실질적으로 동일한 바, 중복되는 설명은 생략하기로 한다.
음성 인식 기능이 활성화된 후, 전자 장치(100)는 사용자의 음성 입력을 수신하고, 음성 입력으로부터 획득된 트리거 단어를 기초로 음성 인식 기능이 트리거될 수 있다(S260). 전자 장치(100)는 계속하여 사용자의 음성 입력을 수신하고, 음성 인식에 따라 획득된 음성 명령에 따른 동작을 수행할 수 있다(S270). 음성 인식 기능이 비활성화된 경우(S240), 사용자가 음성 입력을 제공하더라도, 전자 장치(100)는 음성 입력을 수신하지 않을 수 있다.
도 5는 본 개시의 실시예에 따른 전자 장치의 동작 방법을 나타내는 흐름도이다. 도 5의 전자 장치의 동작 방법은 도 3의 전자 장치의 동작 방법이, 전자 장치(100)가 사용자로부터 음성 입력을 수신하고 트리거된 후 수행하는 것을 설명한다.
도 5를 참조하면, 전자 장치(100)는 음성 입력을 수신하고, 음성 입력으로부터 획득된 트리거 단어를 트리거될 수 있다(S310). 이때, 트리거 상태는, 추후 수신되는 음성 입력이 전자 장치에 대한 사용자의 음성 명령을 포함할 것임을 인지하는 상태일 수 있다.
전자 장치(100)는 트리거된 다른 전자 장치의 상태 정보를 수신할 수 있다(S320). 전자 장치(100)는 음성 입력 기능을 갖는 전자 장치들 중 트리거된 전자 장치의 상태 정보를 수신할 수 있다. 전자 장치(100)는 트리거된 다른 전자 장치에 전자 장치(100)의 상태 정보를 송신할 수도 있다.
이후, 전자 장치(100)는 상태 정보에 기초하여 우선 순위를 판단하고(S330), 우선 순위가, 다른 전자 장치의 우선 순위보다 낮은지 여부를 비교하고(S340), 우선 순위가 낮으면 음성 인식 기능을 비활성화시키고(S350), 우선 순위가 높거나 같으면 음성 인식 기능을 활성화시킬 수 있다(S360). S330 내지 S360 단계는 도 3의 S120 내지 S150 단계와 실질적으로 동일한 바, 중복되는 설명은 생략하기로 한다.
음성 인식 기능이 활성화된 경우, 전자 장치(100)는 수신된 사용자의 음성을 인식하고 처리할 수 있다(S370). 이미, 전자 장치(100)가 트리거된 이후인 바, 추가적인 트리거 단어의 획득이 없어도, 전자 장치(100)는 음성 인식을 수행하고 음성 명령을 처리할 수 있다.
도 6은 본 개시의 실시예에 따른 전자 장치의 동작 방법을 나타내는 흐름도이다. 도 6의 전자 장치의 동작 방법은 도 3의 전자 장치의 동작 방법에서 전자 장치의 음성 인식 기능이 비활성화 된 이후의 동작 방법을 설명한다.
도 6을 참조하면, 음성 인식 기능이 비활성화되고(S410), 그 이후에 전자 장치(100)는 다른 전자 장치로부터 제어 명령을 수신할 수 있다(S420). 다른 전자 장치는 음성 인식을 수행하는 전자 장치 또는 전자 장치(100)에 대한 마스터 장치일 수 있다. 제어 명령은 음성 인식 인에이블 신호일 수 있다.
전자 장치(100)는 제어 명령에 응답하여 음성 인식 기능을 활성화할 수 있다(S430). 전자 장치(100)는 사용자의 음성 입력을 수신하고(S440), 음성 인식 및 처리를 수행할 수 있다(S450). 일 실시예에 있어서, 전자 장치(100)는 수신된 음성 입력으로부터 트리거 단어를 획득하여 트리거된 후, 음성 인식 및 처리를 수행할 수 있다.
도 6을 참조하여 설명한 바와 같이, 전자 장치(100)의 음성 인식 기능이 비활성화 되더라도, 이후 다른 전자 장치의 제어에 의하여 음성 인식 기능이 다시 활성화될 수 있다. 또한 다른 실시예에 있어서, 전자 장치(100)는 주기적으로 다른 전자 장치의 상태 정보를 수신하거나, 또는 새로운 다른 전자 장치가 소정 거리에 위치하는 것을 인지하거나, 또는 소정 거리 내에 위치하던 다른 전자 장치의 이탈을 인지하는 경우, 다른 전자 장치로부터 상태 정보를 수신하여, 음성 인식 기능의 활성화 또는 비활성화를 결정할 수 있다.
도 7 본 개시의 실시예에 따른 전자 장치의 동작 방법을 나타내는 흐름도이다. 도 7은 전자 장치가 연결 상태를 인식하고 음성 인식 기능의 활성화 또는 비활성화를 결정하는 방법을 설명한다.
도 7을 참조하면, 전자 장치(100)는 다른 전자 장치를 감지할 수 있다(S510). 전자 장치(100)는 음성 인식 기능을 갖는 다른 전자 장치와 페어링됨으로써, 다른 전자 장치를 감지할 수 있다.
전자 장치(100)는 다른 전자 장치와 연결 정보를 송수신할 수 있다(S520). 연결 정보는 유선 또는 무선 네트워크 연결 정보, 사용자와 장치간의 연결 정보(전자 장치(100)와 사용자와의 거리, 전자 장치(100)가 웨어러블 장치인지 여부 등)을 포함할 수 있다. 전자 장치(100)는 전자 장치(100)의 연결 정보를 다른 전자 장치에 송신하고, 다른 전자 장치의 연결 정보를 수신할 수 있다. 연결 정보의 송수신은 전자 장치(100)가 다른 전자 장치와 페어링되는 과정에서 수행될 수 있다.
전자 장치(100)는 연결 정보를 기초로 전자 장치(100) 및 다른 전자 장치의 연결 상태를 판단하고, 연결 상태에 기초하여 음성 인식 기능의 활성화 또는 비활성화를 결정할 수 있다.
전자 장치(100)는 연결 정보를 기초로 우선 순위를 판단하고(S530), 우선 순위를 비교할 수 있다(S540). 연결 정보에 기초한 우선 순위는 미리 설정될 수 있다. 전자 장치가 위치한 장소에 따라 연결 정보에 기초한 우선 순위는 다르게 설정될 수 있다. 예컨대, 사용자와의 거리가 가까운 전자 장치, 예컨대, 웨어러블 장치의 우선 순위가 다른 장치들보다 우선 순위가 높게 설정될 수 있다. 또한, 유선 네트워크에 연결된 전자 장치의 우선 순위가 무선 네트워크에 연결된 전자 장치의 우선 순위보다 높게 설정될 수 있다. 그러나, 실외에서는, 유선 네트워크에 연결된 전자 장치의 우선 순위가 무선 네트워크에 연결된 전자 장치의 우선 순위보다 낮을 수 있다. 그러나 이는 실시 예일 뿐이며, 우선 순위는 전자 장치들의 동작 특성, 사용자의 전자 장치 이용 패턴 등을 고려하여 다양하게 설정될 수 있다.
전자 장치(100)는 우선 순위가 다른 전자 장치의 우선 순위보다 낮으면, 음성 인기 기능을 비활성화(S550)하고, 우선 순위가 다른 전자 장치의 우선 순위보다 높거나 같으면, 음성 인식 기능을 활성화할 수 있다(S560). 예컨대, 전자 장치(100)는 웨어러블 장치이고, 다른 전자 장치는 비웨어러블 장치인 경우, 전자 장치(100)는 우선 순위가 다른 전자 장치의 우선 순위보다 높다고 판단하고, 음성 인식 기능을 활성화할 수 있다.
음성 인식 기능이 활성화된 후, 전자 장치(100)는 사용자의 음성 입력을 수신하고, 음성 입력으로부터 획득된 트리거 단어를 기초로 트리거될 수 있다(S570). 전자 장치(100)는 계속하여 사용자의 음성 입력을 수신하고, 음성 인식 및 처리를 수행할 수 있다(S580).
도 8a는 및 도 8b는 도 7의 동작 방법에 따른 전자 장치의 동작을 예시적으로 설명하는 도면이다. 도 8a는 전자 장치와 사용자의 연결 상태를 기초로 동작하는 전자 장치를 나타내고, 도 8b는 전자 장치와 네트워크와의 연결 상태를 기초로 동작하는 전자 장치를 나타낸다.
도 8a를 참조하면, 제1 전자 장치(101a)는 스마트 와치, 스마트 글래스 등과 같은 웨어러블 장치이고, 제2 전자 장치(102a)는 스마트폰, 타블랫 PC 등과 같은 비웨어러블 장치일 수 있다.
제1 전자 장치(101a)와 제2 전자 장치(102a)가 소정의 거리 이내에 위치할 경우 두 전자 장치는 서로를 감지하고 페어링될 수 있다. 제1 전자 장치(101a)와 제2 전자 장치(102a)는 서로의 사용자 연결 정보(UCIF)를 송수신할 수 있다. 예컨대, 사용자 연결 정보(UCIF)는 사용자와의 거리, 웨어러블 장치인지 여부 등을 포함할 수 있다.
제1 전자 장치(101a) 및 제2 전자 장치(102a)는 각각 수신된 사용자 연결 정보(UCIF)를 기초로 서로의 우선 순위를 비교할 수 있다. 제1 전자 장치(101a)는 제2 전자 장치(102a)보다 우선 순위가 높다고 판단하고, 음성 인식 모듈(SRM1)을 활성화할 수 있다. 제2 전자 장치(102a)는 제1 전자 장치(101a)보다 우선 순위가 낮다고 판단하고, 음성 인식 모듈(SRM2)을비활성화할 수 있다.
도 8b를 참조하면, 제1 전자 장치(101b) 및 제2 전자 장치(102b)는 서로 다른 네트워크(NT1, NT2)에 연결될 수 있다. 제1 전자 장치(101b)와 제2 전자 장치(102b)가 소정 거리내에 위치하게 되면 두 전자 장치는 서로를 감지하고 페어링될 수 있다.
제1 전자 장치(101b)와 제2 전자 장치(102b)는 서로의 네트워트 연결 정보(NCIF)를 송수신할 수 있다. 예컨대 네트워트 연결 정보(NCIF)는 전자 장치가 유선 네트워크에 연결되었는지, 무선 네트워크에 연결되었는지 또는 네트워크의 종류에 대한 정보를 포함할 수 있다.
제1 전자 장치(101b) 및 제2 전자 장치(102b)는 각각 수신된 네트워크 연결 정보(NCIF)를 기초로 서로의 우선 순위를 비교할 수 있다. 유선 네트워크에 연결된 전자 장치의 우선 순위가 무선 네트워크에 연결된 전자 장치의 우선 순위보다 높게 설정되는 것으로 가정하기로 한다. 제1 전자 장치(101b)가 연결된 제1 네트워크(NT1)가 무선 네트워크이고, 제2 전자 장치(102b)가 연결된 제2 네트워크(NT2)가 유선 네트워크인 경우, 제1 전자 장치(101b)는 제2 전자 장치(102b)보다 우선 순위가 높다고 판단하고, 음성 인식 모듈(SRM1)을 활성화할 수 있다. 제2 전자 장치(102b)는 제1 전자 장치(101b)보다 우선 순위가 낮다고 판단하고, 음성 인식 모듈(SRM2)을 비활성화할 수 있다.
한편, 도 8a 및 도 8b에서는 두 개의 전자 장치가 페어링 되는 경우를 가정하여 설명하였으나 본 개시의 기술적 사상은 이에 제한되는 것은 아니다. 세 개 이상의 전자 장치가 서로 페어링 될 수 있으며, 이러한 경우에도 전술한 동작 방법에 따라 각각의 전자 장치는 음성 인식 기능의 활성화 또는 비활성화를 결정할 수 있다.
도 9는 본 개시의 실시예에 따른 동작 방법을 나타내는 블록도이다. 도 9는 전자 장치가 위치를 인식하고 음성 인식 기능의 활성화 또는 비활성화를 결정하는 방법을 설명한다.
도 9를 참조하면, 전자 장치(100)는 위치 정보를 획득할 수 있다(S610). 전자 장치(100)는 실내 또는 실외에 위치하는지, 특정한 장소에 위치하는지 등에 대한 정보를 획득할 수 있다. 예컨대, 전자 장치(100)는 센서(도 2의 160)의 센싱 신호를 기초로 위치 정보를 획득할 수 있다. 또는 전자 장치(100)는 주변 장치가 제공하는 신호로부터 위치 정보를 획득할 수 있다.
전자 장치(100)는 다른 전자 장치의 장치 종류 정보를 수신할 수 있다(S620). 예컨대 장치 종류 정보는, 스마트 홈 허브, 네비게이션, 전용 음성 인식기, 또는 마스터로 설정된 장치 등과 같이, 특정 장소에서 전용 장치로서 이용되거나 또는 특정 기능을 수행하도록 미리 설정된 장치임을 나타내는 정보를 포함할 수 있다.
전자 장치(100)는 위치 정보 및 전자 장치(100) 및 다른 전자 장치의 장치 정류 정보에 기초하여 전자 장치(100) 및 다른 전자 장치의 우선 순위를 판단할 수 있다(S630).
예를 들어, 위치 및 장치 종류 정보에 기초한 우선 순위는 미리 설정될 수 있다. 예컨대, 전자 장치(100)가 차량 내부에 위치하는 경우, 차량 전용 장치, 예컨대, 네비게이션, 스마트카 내장 장치, 전용 음성 인식기 등의 우선 순위는 다른 전자 장치들, 예컨대 모바일 장치들의 우선 순위 보다 높게 설정될 수 있다.
전자 장치(100)는 우선 순위가 다른 전자 장치의 우선 순위보다 낮으면, 음성 인기 기능을 비활성화(S650)하고, 우선 순위가 다른 전자 장치의 우선 순위보다 높거나 같으면, 음성 인식 기능을 활성화할 수 있다(S660). 예컨대, 전자 장치(100)는 스마트 폰이고, 다른 전자 장치는 네비게이션인 경우, 전자 장치(100)는 우선 순위가 다른 전자 장치의 우선 순위보다 낮다고 판단하고, 음성 인식 기능을 비성화할 수 있다.
음성 인식 기능이 활성화된 후, 전자 장치(100)는 사용자의 음성 입력을 수신하고, 음성 입력으로부터 획득된 트리거 단어를 기초로 트리거될 수 있다(S670). 전자 장치(100)는 계속하여 사용자의 음성 입력을 수신하고, 음성 인식 및 처리를 수행할 수 있다(S680).
도 10은 도 9의 동작 방법에 따른 전자 장치의 동작을 예시적으로 설명하는 도면이다.
도 10을 참조하면, 제1 전자 장치(101c)는 네비게이션, 스마트카 내장 장치 등과 같은 차량용 전용 장치이고, 제2 전자 장치(102c)는 스마트 폰과 같은 모바일 장치일 수 있다.
상용자가 스마트 폰을 가지고 차량에 탑승할 경우, 제1 전자 장치(101c) 및 제2 전자 장치(102c)는 소정 거리 내에 위치할 수 있다. 제2 전자 장치(102c)는 위치 정보(LIF)를 획득할 수 있다. 예컨대, 제2 전자 장치(102c)는 내부에 구비되는 센서를 통해 차량 내에 위치함을 감지할 수 있다. 또는 제2 전자 장치(102c)는 차량 내부에 구비되는 전자 장치로부터 제공되는 신호를 기초로 차량 내에 위침함을 감지할 수 있다.
제1 전자 장치(101c)는 제2 전자 장치(102c)에 장치 종류 정보(DTIF)를 제공할 수 있다. 실시예에 있어서, 제1 전자 장치(101c)는 새로운 전자 장치가 감지되면, 감지된 전자 장치에 장치 종류 정보(DTIF)를 제공할 수 있다. 예컨대 장치 종류 정보(DTIF)는 제1 전자 장치(101c)가 차량 전용 장치, 또는 음성 인식 전용 장치임을 나타내는 정보일 수 있다. 제2 전자 장치(102c)는 위치 정보(LIF) 및 장치 종류 정보(DTIF)를 기초로 제2 전자 장치(102c)의 우선 순위가 제1 전자 장치(101c)의 우선 순위가 보다 낮다고 판단하고, 음성 인식 모듈(SRM2)을 비활성화할 수 있다.
일 실시예에 있어서, 제1 전자 장치(101c)는 차량 전용 장치이므로 항상 음성 인식 모듈(SRM1)을 활성화할 수 있다. 다른 실시예에 있어서, 제1 전자 장치(101c)는 제2 전자 장치(102c)로부터 장치 종류 정보(DTIF)를 수신하고, 장치 종류 정보(DTIF)에 기초하여 우선 순위를 판단할 수 있다. 제1 전자 장치(101c)는 제1 전자 장치(101c)의 우선 순위가 제2 전자 장치(102c)의 우선 순위가 보다 높다고 판단하고, 음성 인식 모듈(SRM1)을 활성화할 수 있다.
도 11은 본 개시의 실시예에 따른 동작 방법을 나타내는 블록도이다. 도 11은 전자 장치가 미리 설정된 우선 순위 레벨을 기초로 음성 인식 기능의 활성화 또는 비활성화를 결정하는 방법을 설명한다.
도 11을 참조하면, 전자 장치(100)는 다른 전자 장치와 우선 순위 레벨을 송수신할 수 있다(S710). 우선 순위 레벨을 송수신하는 단계(S710)는 전자 장치(100)와 다른 전자 장치가 사용자의 음성 입력에 기초하여 트리거된 후 수행될 수 있다. 또는 우선 순위 레벨을 송수신하는 단계(S710)는 주기적으로 수행될 수 있다. 우선 순위 레벨은 전자 장치의 종류, 전자 장치가 위치하는 장소, 전용 장치인지 여부, 웨어러블 장치인지 등에 기초하여 미리 설정될 수 있다. 예컨대, 마스터 장치, 장소 전용 장치, 웨어러블 장치 또는 유선 네트워크 연결 장치, 일반적인 모바일 장치 순으로 우선 순위가 높을 수 있다. 그러나 이는 일 예일 뿐이며, 우선 순위는 다양하게 설정될 수 있다.
전자 장치(100)는 전자 장치(100)의 우선 순위 레벨과 수신된 우선 순위 레벨을 비교하고(S720), 우선 순위가 낮으면 음성 인식 기능을 비활성화하고(S730), 우선 순위가 높으면 음성 인식 기능을 활성화할 수 있다(S740).
음성 인식 기능이 활성화 되면(S740), 전자 장치(100)는 음성 인식 및 처리를 수행할 수 있다(S750). 우선 순위 레벨을 송수신하는 단계(S710)가 전자 장치(100)와 다른 전자 장치가 사용자의 음성 입력에 기초하여 트리거된 후 수행된 경우, 전자 장치(100)는 추가적인 트리거 단어의 획득이 없어도 음성 인식 및 처리를 수행(S750)할 수 있다. 우선 순위 레벨을 송수신하는 단계(S710)가 주기적으로 수행된 경우, 전자 장치(100)는 음성 입력을 수신하고, 수신된 음성 입력으로부터 트리거 단어를 획득하여 트리거된 후, 음성 인식 및 처리(S750)를 수행할 수 있다.
도 12는 도 11의 동작 방법에 다른 전자 장치의 동작을 예시적으로 설명하는 도면이다.
도 12를 참조하면, 건물 내에서, 각각 음성 인식 모듈(SRM)을 구비한 제1 전자 장치(101d), 제2 전자 장치(102d) 및 제3 전자 장치(103d)가 소정의 거리 내, (예컨대 제1 내지 제3 전자 장치가 사용자의 음성을 인식할 수 있고, 서로 간에 통신할 수 있는 거리 내)에 위치할 수 있다. 예컨대 제1 전자 장치(101d)는 스마트 홈 허브이고, 제2 전자 장치(102d)는 모바일 장치이고, 제3 전자 장치(103d)는 스마트 라이트일 수 있다. 스마트 홈 허브는 장소 전용 장치 또는 가정 내에서 마스터 장치로 설정된 장치일 수 있다. 스마트 라이트는 유선 네트워크 연결 장치일 수 있다.
제1 내지 제3 전자 장치(101d, 102d, 103d)는 서로 다른 우선 순위 레벨을 가질 수 있다. 예컨대, 제1 전자 장치(101d)의 우선 순위 레벨은 '0'이고, 제2 전자 장치(102d)의 우선 순위 레벨은 '2'이고, 제3 전자 장치(103d)의 우선 순위 레벨은 '3'일 수 있다. 도 11을 참조하여 전술한 바와 같이, 마스터 장치, 장소 전용 장치의 우선 순위 레벨이 상대적으로 높고, 일반적인 모바일 장치의 우선 순위 레벨은 상대적으로 낮을 수 있다. 우선 순위 레벨이 작을수록 우선 순위가 높다고 판단될 수 있다.
제1 내지 제3 전자 장치(101d, 102d, 103d)는 서로 우선 순위 레벨을 송수신할 수 있다. 제1 내지 제3 전자 장치(101d, 102d, 103d)는 각각 자신의 우선 순위 레벨 및 수신된 우선 순위 레벨을 기초로 우선 순위를 비교할 수 있다. 제1 전자 장치(101d)는 우선 순위가 가장 높다고 판단하고, 음성 인식 모듈(SRM1)을 활성화할 수 있다. 제2 전자 장치(102d) 및 제3 전자 장치(103d)는 제1 전자 장치(101d)보다 우선 순위가 낮다고 판단하고, 각각 제2 음성 기능 모듈(SRM2) 및 제3 음성 기능 모듈(SRM3)을 비활성화할 수 있다. 제2 전자 장치(102d) 및 제3 전자 장치(103d)는 추후, 제1 전자 장치(101d)으로부터 수신되는 제어 명령에 기초하여 음성 기증 모듈(SRM)을 다시 활성화할 수도 있다.
도 13은 본 개시의 일 실시예에 따른 음성 인식 시스템을 나타내는 블록도이다. 도 13은 도 1의 음성 인식 시스템의 변형례이다. 도 1을 참조하여 설명한 음성 인식 시스템의 전자 장치들의 동작 방법은 도 13의 음성 인식 시스템의 전자 장치들의 동작 방법에 적용될 수 있다.
도 13을 참조하면, 음성 인식 시스템(20)은 사용자의 음성을 인식할 수 있는 음성 인식 모듈(SRM)을 구비하는 복수의 전자 장치(21, 22, 23)을 포함할 수 있으며, 복수의 전자 장치(21, 22, 23)은 공통의 트리거 단어를 가질 수 있다. 복수의 전자 장치(21, 22, 23)는 또한 미리 설정된 단어, 다시 말해 미리 설정된 구별 네임(IDW1, IDW2, IDW3)을 가질 수 있다.
복수의 전자 장치(21, 22, 23) 각각은, 소정의 거리 내에 음성 인식 기능을 가지는 다른 전자 장치가 존재하지 않는 경우, 트리거 단어에 응답하여 음성 인식 기능을 활성화시킬 수 있다. 그러나, 복수의 전자 장치(21, 22, 23)는 소정의 거리 내에 음성 인식 기능을 가지는 다른 전자 장치가 존재는 경우, 트리거 단어 및 구별되는 네임에 응답하여 음성 인식 기능을 활성화할 수 있다.
예컨대, 사용자가 "오케이, IDW1(Ok, IDW1)"라고 말하는 경우, IDW1을 구별 네임으로 가지는 제1 전자 장치(21)의 음성 인식 모듈(SRM1)이 활성화되고, 다른 전자 장치(22, 23)의 음성 인식 모듈(SRM2, SRM3)은 비활성화될 수 있다.
실시 예에 있어서, 미리 설정된 단어는 복수의 전자 장치(21, 22, 23)의 제품명일 수 있다. 실시 예에 있어서, 미리 설정된 단어는 미리 설정된 닉네임일 수 있다. 사용자는 복수의 전자 장치(21, 22, 23)의 닉네임을 설정할 수 있다. 실시 예에 있어서, 미리 설정된 단어는 복수의 전자 장치(21, 22, 23)의 일부 또는 전부를 특정하는 단어 등일 수 있다. 예컨대, 사용자가 "오케이, 모두(OK, all)"라고 말하는 경우, "모두(all)"는 복수의 전자 장치(21, 22, 23) 전부를 특정하는 단어로서, 복수의 전자 장치(21, 22, 23)가 음성 인식 모듈(SRM)을 활성화할 수 있다.
도 14는 본 개시의 실시예에 따른 음성 인식 기능을 갖는 전자 장치의 동작 방법을 나타내는 흐름도이다. 도 14는 도 13의 전자 장치(21, 22, 23)에 적용될 수 있다. 도 13을 참조하여 설명한 내용은 도 14의 동작 방법에 적용될 수 있다.
도 14를 참조하면, 전자 장치(예컨대 도 13의 21)는 음성 입력을 수신하고 수신된 음성 입력으로부터 트리거 워드를 획득할 수 있다(S810). 트리거 워드가 획득되면, 전자 장치(21)는 수신된 음성 입력으로부터 전자 장치(21)의 구별 네임이 획득되었는지 판단할 수 있다(S820). 구별 네임이 획득 되었다면, 전자 장치(21)는 음성 인식 기능을 활성화하고(S830), 음성 인식 및 처리를 수행할 수 있다(S840). 구별 네임이 획득 되지 않았다면, 사용자의 음성 입력은 전자 장치(21)를 목적으로 하지 않은 바, 전자 장치(21)는 음성 인식 기능을 비활성화(S850)할 수 있다. 전자 장치(21)는 음성 인식 모듈을 비활성화할 수 있다. 더 나아가 전자 장치(21)는 음성 입력 장치, 예컨대 마이크 등을 비활성화할 수 있다.
도 15는 본 개시의 일 실시예에 따른 음성 인식 시스템을 나타내는 블록도이다. 도 15는 도 1의 음성 인식 시스템의 변형례이다.
도 15를 참조하면, 음성 인식 시스템(30)은 사용자의 음성을 인식할 수 있는 음성 인식 모듈(SRM)을 구비하는 복수의 전자 장치(31, 32, 33)를 포함할 수 있다. 복수의 전자 장치(31, 32, 33) 중 하나의 전자 장치, 예컨대 제1 전자 장치(31)는 마스터 장치이고, 다른 전자 장치, 예컨대 제2 및 제3 전자 장치(32, 33)는 슬레이브 장치일 수 있다. 마스터 장치는 미리 설정될 수 있다. 이하, 제1 전자 장치(31)는 마스터 장치(31)로, 제2 전자 장치(32)는 제1 슬레이브 장치(32)로, 제3 전자 장치(33)는 제2 슬레이브 장치(33)로 지칭하기로 한다.
마스터 장치(31)는 제1 및 제2 슬레이브 장치(32, 33)에 장치 종류 정보(DTIF)를 제공할 수 있다. 장치 종류 정보(DTIF)는 마스터 장치임을 나타내는 정보일 수 있다. 제1 및 제2 슬레이브 장치(32, 33)는 마스터 장치(31)로부터 장치 종류 정보(DTIF)를 수신하고, 각각 우선 순위가 마스터 장치(31)의 우선 순위보다 낮다고 판단할 수 있다. 제1 및 제2 슬레이브 장치(32, 33)는 각각 음성 인식 기능을 비활성화 할 수 있다. 제1 슬레이브 장치(32)는 제2음성 인식 모듈(SRM2)을 활성화하고, 제2 슬레이브 장치(33)는 제3 음성 인식 모듈(SRM3)을 비활성화할 수 있다. 실시예에 있어서, 마스터 장치(31)가 제1 및 제2 슬레이브 장치(32, 33)에 음성 인식 기능을 비활성화시키는 제어 명령을 제공하고, 제1 및 제2 슬레이브 장치(32, 33)는 수신되는 제어 명령에 응답하여 음성 인식 기능을 비활성화할 수 있다.
마스터 장치(31)는 음성 인식 모듈(SRM)을 활성화할 수 있다. 마스터 장치(31)는 음성 인식을 수행하고, 음성 명령에 기초하여 동작하거나, 또는 슬레이브 장치들(32, 33)을 제어할 수 있다.
일 실시예에 있어서, 마스터 장치(31)는 사용자의 음성 입력이 수신될 때 슬레이브 장치(32, 33) 중 적어도 하나에 대한 사용자의 액션을 감지할 수 있고, 사용자 액션의 대상 슬레이브 장치를 판단할 수 있다. 마스터 장치(31)는 대상 슬레이브 장치로 음성 인식 기능을 활성화하도록 제어하는 제어 명령을 제공할 수 있다. 대상 슬레이브 장치는 사용자의 음성 입력을 수신하고, 음성 인식 및 처리를 수행할 수 있다.
예컨대, 제2 슬레이브 장치(32)가 스마트 냉장고이고, 사용자가 "오케이, 사과가 어디있지(OK, Where is a apple?)" 라고 말하면서, 스마트 냉장고의 문을 여는 동작을 하면, 마스터 장치(31)는 사용자의 음성 입력을 수신하고, 사용자의 액션을 감지할 수 있다. 마스터 장치(31)는 또한 사용자의 액션이 제2 슬레이브 장치(33)에 대한 것임을 판단할 수 있다. 마스터 장치(31)는 제2 슬레이브 장치(32)에 음성 인식 기능을 활성화하도록 제어하는 제어 명령, 예컨대 음성 인식 인에이블(SRM_EN)을 제공할 수 있다. 제1 슬레이브 장치(32)는 음성 인식 기능을 활성화하고, 사용자의 음성 입력 "사과가 어디 있지?"로부터 사과의 위치 요청을 포함하는 음성 명령을 획득할 수 있다. 예컨대, 제1 슬레이브 장치(32)는 사과가 담긴 칸의 LED 등을 턴-온 시킴으로써, 사용자의 음성 명령을 처리할 수 있다.
다른 실시예에 있어서, 마스터 장치(31)는 음성 인식을 수행하여, 음성 명령을 획득할 수 있다. 마스터 장치(31)는 또한, 슬레이브 장치(32, 33) 중 적어도 하나에 대한 사용자의 액션을 감지할 수 있고, 사용자 액션의 대상 슬레이브 장치를 판단할 수 있다. 마스터 장치(31)는 대상 슬레이브 장치로 음성 명령을 제공할 수 있다. 대상 슬레이브 장치는 음성 명령에 따른 동작을 수행할 수 있다. 예컨대 전술한 실시예에서, 마스터 장치(31)는 "오케이, 사과가 어디있지?(OK, Where is a apple?)"라는 사용자 음성 입력에 대하여 음성 인식을 수행하여, 음성 명령을 획득할 수 있다. 마스터 장치(31)는 제1 슬레이브 장치(32)에 사과의 위치 요청을 포함하는 음성 명령을 제공할 수 있다. 제1 슬레이브 장치(32)는 음성 명령에 따라 사과가 담긴 칸의 LED 등을 턴-온시킬 수 있다.
도 16은 본 개시의 실시예에 따른 음성 인식 기능을 갖는 전자 장치의 동작 방법을 나타내는 흐름도이다. 도 16은 도 15의 슬레이브 장치(32, 33)에 적용될 수 있다. 도 15를 참조하여 설명한 내용은 도 16의 동작 방법에 적용될 수 있다.
도 16을 참조하면, 전자 장치(예컨대 도 15의 32)는 다른 전자 장치로부터 상태 정보를 수신할 수 있다(S910). 예컨대, 전자 장치(32)는 마스터 장치 및 다른 슬레이브 장치로부터 상태 정보를 수신할 수 있다.
전자 장치(32)는 상태 정보를 기초로 다른 전자 장치가 마스터 장치인지를 판단할 수 있다(S920). 다른 전자 장치가 마스터 장치이면, 전자 장치(32)는 음성 인식 기능을 비활성화할 수 있다(S950). 다른 전자 장치가 마스터 장치가 아니라면, 다시 말해 다른 전자 장치들 중 마스터 장치가 존재하지 않는다면, 상태 정보에 기초하여 우선 순위를 판단하고(S940), 우선 순위를 다른 전자 장치의 우선 순위와 비교할 수 있다(S950). 우선 순위가 다른 전자 장치보다 낮다면, 음성 인식 기능을 비활성화하고(S960), 우선 순위가 다른 전자 장치보다 높거나 같다면 음성 인식 기능을 활성화할 수 있다(S980). 우선 순위를 판단하는 방법에는 도 3 내지 도 12를 참조하여 설명한 다양한 실시예가 적용될 수 있다.
한편, 음성 인식 기능이 비활성화 된 후(S930), 전자 장치(32)는 마스터 장치의 제어에 따라 음성 인식 기능이 활성화될 수 있다. 전자 장치(32)는 마스터 장치로부터 제어 명령을 수신할 수 있다(S970). 제어 명령은 음성 인식 기능 인에이블 신호일 수 있다. 전자 장치(32)는 제어 명령에 따라 음성 인식 기능을 활성화할 수 있다(S980).
다른 실시예에 있어서, 마스터 장치로부터 수신되는 제어 명령은 음성 명령을 포함할 수 있다. 전자 장치(32)는 음성 명령에 따른 동작을 수행할 수 있다.
이상, 도 1 내지 도 16을 참조하여 설명한 본 개시의 실시예들에 따른 전자 장치의 동작 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
도 17은 본 개시의 실시예에 따른 모바일 장치의 일 구현예를 나타내는 블록도이다.
도 17을 참조하면 모바일 장치(200)는 애플리케이션 프로세서(210), 음성 입력 장치(220), 메모리(230), 모뎀(240)을 포함할 수 있다.
애플리케이션 프로세서(210)는 모바일 장치(200)에서 실행이 요구되는 동작을 제어할 수 있다. 애플리케이션 프로세서(210)는 중앙 처리 장치(CPU)(211), 디지털 신호 처리기(DSP)(212), 시스템 메모리(213), 메모리 인터페이스(214), 음성 인식 모듈(215), 통신 인터페이스(216) 및 이들을 각각 전기적으로 연결하는 버스(BUS, 217)를 포함할 수 있다. 일 실시예에 있어서, 애플리케이션 프로세서(210)는 시스템 온 칩(system on chip)으로 구현될 수 있다.
CPU(211)는 애플리케이션 프로세서(210)의 연산, 데이터 처리 및 제어를 수행할 수 있다. DSP(212)는 고속으로 디지털 신호 처리를 수행할 수 있으며, 애플리케이션 프로세서(210)의 연산, 데이터 처리 중 일부를 수행할 수 있다. 실시예에 있어서, CPU(211) 또는 DSP(212)는 음성 인식 모듈(215)의 활성화 또는 비활성화를 제어할 수 있다. CPU(211) 또는 DSP(212)는 다른 전자 장치의 상태 정보 및 모바일 장치(200)의 상태 정보를 기초로 음성 인식 모듈(215)의 활성화 또는 비활성화를 결정할 수 있다.
시스템 메모리(213)는 CPU(211)가 동작을 수행하는데 요구되는 데이터를 로드(load)할 수 있다. 예를 들어, 시스템 메모리(213)에는 OS(operating System) 또는 소프트웨어적으로 구현되는 음성 인식 모듈(215)이 로드될 수 있다. 시스템 메모리(213)는 SRAM(Static Random Access Memory), DRAM(Dynamic Random Access Memory), MRAM(Magnetic Random Access Memory), FRAM(Ferroelectrics Random Access Memory) 및 RRAM(Resistive Random Access Memory) 등으로 구현될 수 있다.
메모리 인터페이스(214)는 애플리케이션 프로세서(210)와 메모리(230) 사이의 인터페이스를 제공할 수 있다. 메모리(230)는 애플리케이션 프로세서(210)의 동작 메모리로 사용될 수 있다. 예를 들어, 애플리케이션 프로세서(210)에서 애플리케이션(application)의 실행에 따른 데이터가 로드될 수 있다. 실시 예에 있어서, 본 개시의 실시예들에 따른 전자 장치의 동작 방법은 프로그램 명령 형태로 구현되어 메모리(230)에 저장될 수 있다. 메모리(230)는 SRAM, DRAM, MRAM, FRAM 및 RRAM 등으로 구현될 수 있다.
음성 인식 모듈(215)은, 음성 입력 장치(220)로부터 수신되는 음성 입력에 대한 음성 인식을 수행할 수 있다. 음성 인식 모듈(215)은 CPU(211) 또는 DSP(212)의 제어하에 활성화 또는 비활성화될 수 있다.
도 17에서, 음성 인식 모듈(215)은 별개의 구성으로 도시되었으나, 이에 제한되는 것은 아니며, 음성 인식 모듈(215)은 음성 인식 기능을 수행하는데 필요한 하드웨어, 소프트웨어, 펌웨어, 또는 스프트웨어와 하드웨어의 결합등을 포함할 수 있다. 예컨대, 음성 인식 모듈(215)은 컴퓨터 프로그램 코드로 구현되거나, 음성 인식 알고리즘을 수행하는 연산 처리 장치, 예컨대, 전용 연산 처리기 또는 CPU(211), DSP(212) 등의 기능으로서 구현될 수 있다.
통신 인터페이스(216)는 애플리케이션 프로세서(210)와 모뎀(240) 사이의 인터페이스를 제공하 수 있다. 모뎀(240)은 와이파이(WiFi), LTE(Long Term Evolution), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, WFD(Wi-Fi Direct) 및 NFC(Near Field Communication) 등 다양한 통신 프로토콜(protocol) 중 적어도 하나 이상을 이용한 통신을 지원할 수 있다. 애플리케이션 프로세서(210)는 통신 인터페이스(216) 및 모뎀(240)을 통해, 다른 전자 장치 또는 다른 시스템과 통신할 수 있다. 애플리케이션 프로세서(210)는 통신 인터페이스(216) 및 모뎀(240)을 통해, 다른 전자 장치의 상태 정보를 수신하고, 모바일 장치(200)의 상태 정보를 송신할 수 있다.
도 18 및 도 19는 본 개시의 실시예에 따른 전자 장치의 구현예를 나타내는 도면이다. 도 18의 전자 장치는 도17의 전자 장치의 구성을 포함할 수 있다.
도 18을 참조하면, 전자 장치(300)는 스마트폰일 수 있다. 도 19를 참조하면 전자 장치(400)는 스마트 와치일 수 있다. 스마트 와치는 웨어러블 장치이다. 전자 장치(300, 400)는 음성 인식 기능을 수행할 수 있다. 전자 장치(300, 400)는 소정의 거리 내에 음성 인식 기능을 갖는 다른 전자 장치가 감지되면, 다른 전자 장치의 상태 정보를 수신하고, 상태 정보에 기초하여 음성 인식 기능에 대한 우선 순위를 비교할 수 있다. 전자 장치(300, 400)는 우선 순위 비교 결과에 기초하여 내부에 구비되는 음성 인식 모듈을 활성화 또는 비활성화 할 수 있다. 전자 장치(300, 400)는 모바일 장치이며, 사용자의 위치에 따라 전자 장치(300, 400)가 위치하는 장소가 달라질 수 있다. 전자 장치(300, 400)가 위치한 장소에 따라 우선 순위가 가변될 수 있다. 도 18 및 도 19의 전자 장치(300, 400)는 모바일 장치이며, 도 17의 구성을 포함할 수 있다.
도 20은 본 개시의 실시예에 따른 IoT 네트워크 시스템을 보여준다. 도 20의 IoT 네트워크 시스템은 도 1, 도 13 및 도 15의 음성 인식 시스템에 적용될 수 있다. 도 20을 참조하면, IoT 네트워크 시스템(1000)은 복수의 IoT 기기들(1100, 1120, 1140 및 1160)을 포함할 수 있다.
사물 인터넷(IoT, Internet of Things)은 유/무선 통신을 이용하는 사물 상호 간의 네트워크를 의미할 수 있다. 따라서 사물 인터넷(IoT)은 IoT 네트워크 시스템, USN(Ubiquitous Sensor Network) 통신 시스템, MTC(Machine Type Communications) 통신 시스템, MOC(Machine Oriented Communication) 통신 시스템, M2M(Machine to Machine) 통신 시스템 또는 D2D(Device to Device) 통신 시스템 등의 다양한 용어로 사용될 수 있다. IoT 네트워크 시스템은 IoT 기기, 액세스 포인트(AP), 게이트웨이, 통신망, 서버 등으로 구성될 수 있다. 이러한 구성요소들은 IoT 네트워크 시스템을 설명하기 위하여 분류된 것이며, IoT 네트워크 시스템의 범위를 제한하기 위한 것은 아니다. 또한 IoT 네트워크 시스템은 IoT 네트워크 시스템 내의 2개 이상의 구성 요소 간의 정보 교환(통신)을 위해 UDP(User Datagram Protocol), TCP(Transmission Control Protocol) 등의 전송 프로토콜, 6LoWPAN (IPv6 Low-power Wireless Personal Area Networks) 프로토콜, IPv6 인터넷 라우팅 프로토콜, 그리고 CoAP(constrained application protocol), HTTP(hypertext transfer protocol), MQTT(message queue telemetry transport), MQTT-S(MQTT for sensors networks) 등의 애플리케이션 프로토콜을 이용할 수 있다.
무선 센서 네트워크(wireless sensor network(WSN))에서 복수의 IoT 기기들(1100, 1120, 1140 및 1160) 각각은 싱크 노드 또는 센서 노드로 사용될 수 있다. 상기 싱크 노드는 기지국(base station)이라고도 불리며, 상기 WSN과 외부 네트워크(예컨대, 인터넷)를 연결하는 게이트웨이의 역할을 하고, 각 센서 노드로 태스크(task)를 부여하고 상기 각 센서 노드에 의해 감지된 이벤트(event)를 수집할 수 있다. 센서 노드는 감각 정보 (sensory information)의 처리와 수집(gathering)을 수행할 수 있는 WSN 내의 노드이고, 상기 센서 노드는 상기 WSN 내에서 서로 접속된 노드들 사이에서 통신을 수행할 수 있는 노드일 수 있다.
복수의 IoT 기기들(1100, 1120, 1140 및 1160)은 자체 전력을 사용하여 동작하는 능동 IoT 기기와 외부에서 무선으로 가해진 전력에 의하여 동작하는 수동 IoT 기기를 포함할 수 있다. 상기 능동 IoT 기기는 냉장고, 에이컨, 전화기, 자동차 등을 포함할 수 있다. 상기 수동 IoT 기기는 RFID(Radio Frequency Identification) tag나 NFC tag를 포함할 수 있다.
다른 측면에서, IoT 기기들(1100, 1120, 1140 및 1160)은 QR 코드, RFID 태그, NFC 태그 등과 같은 수동 통신 인터페이스를 포함할 수 있고, 또는 모뎀(modem), 송수신기(transceiver) 등과 같은 능동 통신 인터페이스를 포함할 수 있다.
IoT 기기들(1100, 1120, 1140, 및 1160)은 센서를 이용하여 데이터를 수집하거나 상기 수집된 데이터, 예컨대 상태 정보를 유/무선 통신 인터페이스을 통하여 외부로 전송할 수 있다. 또한, 상기 유/무선 통신인터페이스를 통하여 제어정보 및/또는 데이터를 송신 및/또는 수신할 수 있다. 상기 유선 또는 무선 통신인터페이스는 상기 접근 가능한 인터페이스 중 하나일 수 있다.
IoT 기기들(1100, 1120, 1140, 및 1160) 중 적어도 하나는 도 1 내지 도 19를 참조하여 전술한 본 개시의 실시예들에 따른 전자 장치를 포함할 수 있으며, 본 개시의 실시예들에 따른 동작 방법을 수행할 수 있다. 본 개시의 실시예들에 따른 전자 장치 또는 전자 시스템이 적용되는 IoT 기기는 음성 인식 모듈을 구비할 수 있으며, 전자 장치 또는 IoT 기기는 음성 인식 기능을 수행하는 다른 전자 장치 또는 IoT 기기의 상태 정보를 수신하고, 상태 정보에 기초하여 음성 인식 모듈의 활성화 여부를 결정할 수 있다.
한편, 각 IoT 기기들(1100, 1120, 1140 및 1160)은 각 IoT 기기의 특성에 따라 그룹을 형성할 수 있다. 예를 들면, IoT 기기들은 홈가젯 그룹(1100), 가전제품/가구 그룹(1120), 엔터테인먼트 그룹(1140), 또는 이동수단 그룹(Vehicle; 1160) 등으로 그룹핑 될 수 있다. 또한, 실내 온도를 제어하는 온도제어 그룹, 전력을 많이 소모하는 정도에 따라 나누어진 대형가전 그룹 또는 소형가전 그룹, 실내 청결 (예를 들면, 공기청정 및 바닥청소)을 제어하는 청결그룹, 실내 조명을 제어하는 조명그룹, 엔터테인먼트 향 기기(예를 들면, TV 및 오디오기기 등)를 제어하는 엔터테인먼트 그룹(1140) 등을 형성할 수 있다. 상기 온도제어 그룹은 에어컨, 전동창문, 전동커튼(curtain) 등을 포함할 수 있다. 예를 들면, 홈가젯 그룹(1100)은 심박수 센서 패치(patch), 혈당측정용 의료기기, 조명기구, 습도계, 감시카메라, 스마트워치(Smart Watch), 보안키패드, 온도조절장치, 방향장치, 창문 블라인드(window blind) 등을 포함할 수 있다. 가전제품/가구 그룹(1120)은 로봇청소기, 세탁기, 냉장고, 에어컨(air conditioner), 텔레비전과 같은 가전제품 및 센서를 포함한 침대와 같은 가구를 포함할 수 있다. 엔터테인먼트 그룹(1140)은 텔레비전, 스마트폰 등 멀티미디어 영상장치 및 통신장치를 포함할 수 있다.
각 IoT 기기들은 복수의 그룹에 속할 수 있다. 예를 들면, 에어컨은 대형가전제품/가구 그룹(1120) 및 온도제어 그룹에 속할 수 있고, 텔레비전은 가전제품/가구 그룹(1120) 및 엔터테인먼트 그룹(1140)에 속할 수 있다. 또한, 스마트폰은 홈가젯 그룹(1100) 및 엔터테인먼트 그룹(1140)에 속할 수 있다.
IoT 네트워크 시스템(1000)은 엑세스 포인트(Access Point, 1200)를 더 포함할 수 있다. 복수의 IoT 기기들(1100, 1120 및 1140)은 엑세스 포인트(1200)를 통하여 통신망에 연결되거나 다른 IoT 기기에 연결될 수 있다. 엑세스 포인트(1200)는 하나의 IoT 기기에 내장될 수 있다. 예를 들면, 엑세스 포인트(1200)는 텔레비전에 내장될 수 있다. 이때, 사용자는 텔레비전을 디스플레이를 통하여 엑세스 포인트(1200)에 연결된 적어도 하나의 IoT 기기를 모니터링(monitoring)하거나 제어할 수 있다. 또한, 상기 엑세스 포인트(1200)는 IoT 기기 중 하나에 포함될 수 있다. 예를 들면, 휴대폰은 IoT 기기이면서 동시에 다른 IoT 기기에 연결되는 엑세스 포인트(1200)일 수 있다. 이때, 상기 휴대폰은 이동 통신망 또는 근거리 무선 네트워크를 통하여 통신망에 연결될 수 있다.
IoT 네트워크 시스템(1000)은 게이트웨이(1250)를 더 포함할 수 있다. 게이트웨이(1250)는 엑세스 포인트(1200)를 외부 통신망(예를 들면, 인터넷망이나 공중 통신망)에 접속하도록 프로토콜을 변경할 수 있다. IoT 기기들(1100, 1120 및 1140)은 게이트웨이(1250)를 통하여 외부 통신망에 연결될 수 있다. 경우에 따라서는 게이트웨이(1250)는 엑세스 포인트(1200)에 통합되어 구성될 수 있다. 다른 경우에는, 엑세스 포인트(1200)가 제1게이트웨이의 기능을 수행하고 게이트웨이(1250)는 제2 게이트웨이의 기능을 수행할 수도 있다.
상기 게이트웨이(1250)는 IoT 기기들 중 하나에 포함될 수 있다. 예를 들면, 휴대폰은 IoT 기기이면서 동시에 다른 IoT 기기에 연결되는 게이트웨이(1250)일 수 있다. 이때, 상기 휴대폰은 이동 통신망에 연결될 수 있다.
IoT 네트워크 시스템(1000)은 상기 적어도 하나의 통신망(1300)을 더 포함할 수 있다. 통신망(1300)은 인터넷 및/또는 공중 통신망(Public communication network)을 포함할 수 있다. 상기 공중 통신망은 이동통신망(mobile cellular network)을 포함할 수 있다. 통신망(1300)은 IoT 기기들(1000, 1120, 1140 및 1160)에서 수집된 정보가 전송되는 채널일 수 있다.
IoT 네트워크 시스템(1000)은 통신망(1300)에 연결된 서버(1400)를 더 포함할 수 있다. 통신망(1300)은 IoT 기기들(1100, 1120, 1140 및 1160)에서 센싱된 데이터들을 서버(1400)에 전송할 수 있다. 서버(1400)는 전송된 데이터를 저장하거나 분석할 수 있다. 또한, 서버(1400)는 분석된 결과를 통신망(1300)을 통하여 전송할 수 있다. 서버(1400)는 IoT 기기들(1100, 1120, 1140 및 1160) 중 적어도 하나와 연관된 정보를 저장할 수 있고, 서버(1400)는 상기 저장된 정보를 기준으로 관련 IoT 기기에서 전송된 데이터를 분석할 수 있다. 또한, 서버(1400)는 분석결과를 상기 관련 IoT 기기나 사용자 기기에게 통신망을 통하여 송신할 수 있다. 예를 들면, 사용자의 혈당을 실시간으로 측정하는 IoT 기기의 경우, 서버(1400)는 사용자가 미리 설정한 혈당 한계치를 미리 저장하고 상기 측정된 혈당을 통신망을 통하여 전송 받을 수 있다. 이때, 서버(1400)는 상기 혈당 한계치와 상기 전송된 혈당치를 비교하여 위험여부를 알리는 정보를 사용자 기기 및/또는 관련 IoT 기기에 전송할 수 있다.
이상, 도면들을 참조하여, 본 개시의 다양한 실시예를 설명하였다. 한편, 본 개시의 상세한 설명에서는 구체적인 실시 예에 관하여 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지로 변형할 수 있다. 그러므로 본 개시의 범위는 상술한 실시 예에 국한되어 정해져서는 안되며 후술하는 특허 청구범위뿐만 아니라 이 개시의 특허청구범위와 균등한 것들에 의해 정해질 수 있다.

Claims (10)

  1. 전자 장치의 동작 방법에 있어서,
    음성 인식 기능을 갖는 적어도 하나의 다른 전자 장치의 상태 정보를 수신하는 단계;
    상기 상태 정보를 기초로 상기 전자 장치의 우선 순위와 상기 다른 전자 장치의 우선 순위를 비교하는 단계; 및
    상기 전자 장치의 우선 순위가 상기 다른 전자 장치의 우선 순위보다 낮으면, 상기 전자 장치의 음성 인식 기능을 비활성화시키는 단계를 포함하는 전자 장치의 동작 방법.
  2. 제1 항에 있어서,
    상기 전자 장치의 우선 순위가 다른 전자 장치의 우선 순위보다 높으면, 상기 전자 장치의 음성 인식 기능을 활성화시키는 단계를 더 포함하는 전자 장치의 동작 방법.
  3. 제2 항에 있어서,
    음성 입력을 수신하는 단계; 및
    상기 음성 입력을 인식하여 처리하는 단계를 더 포함하는 것을 특징으로 하는 전자 장치의 동작 방법.
  4. 제1 항에 있어서,
    상기 음성 인식 기능을 비활성화시키는 단계는 상기 음성 인식을 수행하는 음성 인식 모듈을 턴-오프 시키는 단계를 포함하는 것을 특징으로 하는 전자 장치의 동작 방법.
  5. 제1 항에 있어서, 상기 상태 정보는,
    상기 다른 전자 장치의 유선 및 무선 네트워크 연결 정보, 사용자와의 연결 정보, 장치 종류 정보, 동작 상태 정보, 우선 순위 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 장치의 동작 방법.
  6. 제1 항에 있어서, 상기 전자 장치의 우선 순위는,
    상기 전자 장치의 유선 및 무선 네트워크 종류, 장치 종류, 동작 상태, 위치 중 적어도 하나에 기초하여 설정되는 것을 특징으로 하는 전자 장치의 동작 방법.
  7. 제6 항에 있어서, 상기 전자 장치의 우선 순위는,
    상기 전자 장치의 동작 상태 또는 위치 변화에 따라 가변되는 것을 특징으로 하는 전자 장치의 동작 방법.
  8. 제1 항의 방법을 수행하는 프로그램이 기록된 컴퓨터 판독이 가능한 기록 매체.
  9. 전자 장치에 있어서,
    수신되는 음성 입력(voice input) 대한 음성 인식(speech recognition)을 수행하는 음성 인식 모듈;
    음성 인식 기능을 갖는 다른 전자 장치의 상태 정보를 수신하는 통신 인터페이스; 및
    상기 상태 정보를 기초로 다른 전자 장치의 우선 순위를 판단하고, 상기 전자 장치의 우선 순위가 상기 다른 전자 장치의 우선 순위보다 낮으면, 상기 음성 인식 모듈을 비활성화시키는 컨트롤러를 포함하는 전자 장치.
  10. 제9 항에 있어서, 상기 컨트롤러는,
    상기 전자 장치의 상태 정보를 기초로 상기 전자 장치의 우선 순위를 판단하고,
    상기 상태 정보는, 상기 전자 장치의 유선 및 무선 네트워크 연결 정보, 사용자와의 연결 정보, 장치 종류 정보, 동작 상태 정보, 미리 설정된 우선 순위 정보 및 위치 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 장치.
KR1020160063728A 2016-05-24 2016-05-24 음성 인식 기능을 갖는 전자 장치 및 전자 장치의 동작 방법 KR20170132622A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160063728A KR20170132622A (ko) 2016-05-24 2016-05-24 음성 인식 기능을 갖는 전자 장치 및 전자 장치의 동작 방법
US15/491,600 US10147425B2 (en) 2016-05-24 2017-04-19 Electronic devices having speech recognition functionality and operating methods of electronic devices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160063728A KR20170132622A (ko) 2016-05-24 2016-05-24 음성 인식 기능을 갖는 전자 장치 및 전자 장치의 동작 방법

Publications (1)

Publication Number Publication Date
KR20170132622A true KR20170132622A (ko) 2017-12-04

Family

ID=60418231

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160063728A KR20170132622A (ko) 2016-05-24 2016-05-24 음성 인식 기능을 갖는 전자 장치 및 전자 장치의 동작 방법

Country Status (2)

Country Link
US (1) US10147425B2 (ko)
KR (1) KR20170132622A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190075870A (ko) * 2019-06-11 2019-07-01 엘지전자 주식회사 음성 인에이블 디바이스 선택 방법, 음성 인에이블 디바이스 선택 장치 및 이를 제어하는 지능형 컴퓨팅 디바이스
KR20210043902A (ko) * 2019-10-14 2021-04-22 주식회사 아이포바인 블루투스 메쉬 네트워크를 이용한 음성명령 처리 방법

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107331130A (zh) * 2017-06-27 2017-11-07 北京小米移动软件有限公司 求救方法、求救装置及智能鞋类物品
US10504511B2 (en) * 2017-07-24 2019-12-10 Midea Group Co., Ltd. Customizable wake-up voice commands
US11205421B2 (en) * 2017-07-28 2021-12-21 Cerence Operating Company Selection system and method
JP6513749B2 (ja) * 2017-08-09 2019-05-15 レノボ・シンガポール・プライベート・リミテッド 音声アシストシステム、サーバ装置、その音声アシスト方法、及びコンピュータが実行するためのプログラム
KR102389041B1 (ko) * 2017-08-11 2022-04-21 엘지전자 주식회사 이동단말기 및 머신 러닝을 이용한 이동 단말기의 제어방법
KR102455199B1 (ko) * 2017-10-27 2022-10-18 엘지전자 주식회사 인공지능 디바이스
US11360736B1 (en) * 2017-11-03 2022-06-14 Amazon Technologies, Inc. System command processing
JP7159355B2 (ja) * 2018-08-23 2022-10-24 グーグル エルエルシー マルチアシスタント環境の特性によるアシスタント応答性の規制
US10762893B2 (en) 2018-09-28 2020-09-01 Comcast Cable Communications, Llc Monitoring of one or more audio/video collection devices
CN109243449A (zh) * 2018-10-18 2019-01-18 深圳供电局有限公司 一种语音识别方法和系统
JP7202853B2 (ja) * 2018-11-08 2023-01-12 シャープ株式会社 冷蔵庫
CN109587155B (zh) * 2018-12-14 2020-06-16 浙江大学 一种保障信息安全的无线车辆制动器测试系统
US11417323B2 (en) * 2019-02-27 2022-08-16 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
KR20200104773A (ko) * 2019-02-27 2020-09-04 삼성전자주식회사 전자 장치 및 그 제어 방법
US11170783B2 (en) 2019-04-16 2021-11-09 At&T Intellectual Property I, L.P. Multi-agent input coordination
US11145315B2 (en) * 2019-10-16 2021-10-12 Motorola Mobility Llc Electronic device with trigger phrase bypass and corresponding systems and methods
WO2021173127A1 (en) * 2020-02-26 2021-09-02 Google Llc Pre-emptively limiting responsiveness of various assistant devices in an environment using an inaudible tone or other rendered output
US11983461B2 (en) 2020-03-26 2024-05-14 Snap Inc. Speech-based selection of augmented reality content for detected objects
US11798550B2 (en) * 2020-03-26 2023-10-24 Snap Inc. Speech-based selection of augmented reality content
US11670293B2 (en) * 2020-09-02 2023-06-06 Google Llc Arbitrating between multiple potentially-responsive electronic devices
CN112201236B (zh) * 2020-09-22 2024-03-19 北京小米松果电子有限公司 终端唤醒方法、装置及计算机可读存储介质
WO2022072154A1 (en) * 2020-10-01 2022-04-07 Arris Enterprises Llc Controlling a media device to provide an improved sonic environment for the reception of a voice command
CN112489650B (zh) * 2020-11-26 2024-06-18 北京小米松果电子有限公司 唤醒控制方法、装置、存储介质及终端
US11862155B2 (en) * 2020-12-11 2024-01-02 Google Llc Group hotwords
CN113593536B (zh) * 2021-06-09 2024-06-18 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) 一种检测语音识别准确率的装置和系统

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02119326A (ja) 1988-10-28 1990-05-07 Nippon Telegr & Teleph Corp <Ntt> マルチゾーン移動通信方式
JP2662825B2 (ja) 1990-06-18 1997-10-15 日本電信電話株式会社 会議通話端末装置
US20050149331A1 (en) 2002-06-14 2005-07-07 Ehrilich Steven C. Method and system for developing speech applications
US7085554B2 (en) 2003-01-24 2006-08-01 Common Voices Llc Subscriber migration system
CN1603734A (zh) 2003-10-01 2005-04-06 刘晓辉 一种语音靶的设计方法
US7496509B2 (en) 2004-05-28 2009-02-24 International Business Machines Corporation Methods and apparatus for statistical biometric model migration
WO2011151502A1 (en) 2010-06-02 2011-12-08 Nokia Corporation Enhanced context awareness for speech recognition
US8954330B2 (en) 2011-11-28 2015-02-10 Microsoft Corporation Context-aware interaction system using a semantic model
US20130238326A1 (en) * 2012-03-08 2013-09-12 Lg Electronics Inc. Apparatus and method for multiple device voice control
WO2014066879A2 (en) * 2012-10-28 2014-05-01 Hillcrest Laboratories, Inc. Context awareness for smart televisions
KR102091003B1 (ko) * 2012-12-10 2020-03-19 삼성전자 주식회사 음성인식 기술을 이용한 상황 인식 서비스 제공 방법 및 장치
US9412373B2 (en) * 2013-08-28 2016-08-09 Texas Instruments Incorporated Adaptive environmental context sample and update for comparing speech recognition
US9336781B2 (en) 2013-10-17 2016-05-10 Sri International Content-aware speaker recognition
US9632748B2 (en) * 2014-06-24 2017-04-25 Google Inc. Device designation for audio input monitoring
JP6482911B2 (ja) * 2014-07-01 2019-03-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 機器制御方法および電気機器
US9812128B2 (en) * 2014-10-09 2017-11-07 Google Inc. Device leadership negotiation among voice interface devices
US10026399B2 (en) * 2015-09-11 2018-07-17 Amazon Technologies, Inc. Arbitration between voice-enabled devices
DK179415B1 (en) * 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190075870A (ko) * 2019-06-11 2019-07-01 엘지전자 주식회사 음성 인에이블 디바이스 선택 방법, 음성 인에이블 디바이스 선택 장치 및 이를 제어하는 지능형 컴퓨팅 디바이스
KR20210043902A (ko) * 2019-10-14 2021-04-22 주식회사 아이포바인 블루투스 메쉬 네트워크를 이용한 음성명령 처리 방법

Also Published As

Publication number Publication date
US10147425B2 (en) 2018-12-04
US20170345422A1 (en) 2017-11-30

Similar Documents

Publication Publication Date Title
KR20170132622A (ko) 음성 인식 기능을 갖는 전자 장치 및 전자 장치의 동작 방법
US11662797B2 (en) Techniques for adjusting computing device sleep states
KR102018152B1 (ko) 항상-온-항상-청취 음성 인식 시스템을 위한 위치 인식 전력 관리 스킴
US10031491B2 (en) Adaptive sensor data selection and sampling based on current and future context
US11223497B2 (en) Method and apparatus for providing notification by interworking plurality of electronic devices
CN108023934B (zh) 电子装置及其控制方法
US10838505B2 (en) System and method for gesture recognition
US20190355365A1 (en) Electronic device and method of operation thereof
TWI584615B (zh) 使用聲音啾聲之物聯網(IoT)器件之鄰近性偵測
US11393470B2 (en) Method and apparatus for providing speech recognition service
US11031008B2 (en) Terminal device and method for controlling thereof
KR102314673B1 (ko) 서버, 전자 장치 및 전자 장치의 정보 제공 방법
KR20180085931A (ko) 음성 입력 처리 방법 및 이를 지원하는 전자 장치
US10551839B2 (en) Mobile electronic device and navigation method thereof
US10911899B2 (en) Providing indication to location of physical object using wireless tag
US20210165377A1 (en) Method for controlling commercial washing machine by using artificial intelligence and system for the same
Mighali et al. A smart remote elderly monitoring system based on IoT technologies
BR102013014516A2 (pt) Sistema e método para determinar a localização de dispositivos de comunicação sem fio/pessoas para controlar/ajustar a operação de dispositivos com base na localização
US20200059552A1 (en) Electronic apparatus and control method thereof
KR102395013B1 (ko) 인공지능 홈 어플라이언스 및 음성 인식 서버 시스템의 동작 방법
US11483172B2 (en) Integrated control method and system for home appliance using artificial intelligence
KR20150103586A (ko) 음성 입력을 처리하는 방법 및 이를 수행하는 전자 장치
KR102394947B1 (ko) 무선 통신 시스템에서 모바일 디바이스의 신호 검출을 위한 스캔 주기를 제어하는 방법 및 모바일 디바이스
US20190130898A1 (en) Wake-up-word detection
CN111433737A (zh) 电子装置及其控制方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal