KR102575634B1 - 전자 장치 및 전자 장치의 동작 방법 - Google Patents

전자 장치 및 전자 장치의 동작 방법 Download PDF

Info

Publication number
KR102575634B1
KR102575634B1 KR1020160094821A KR20160094821A KR102575634B1 KR 102575634 B1 KR102575634 B1 KR 102575634B1 KR 1020160094821 A KR1020160094821 A KR 1020160094821A KR 20160094821 A KR20160094821 A KR 20160094821A KR 102575634 B1 KR102575634 B1 KR 102575634B1
Authority
KR
South Korea
Prior art keywords
electronic device
user
voice signal
voice
parameter
Prior art date
Application number
KR1020160094821A
Other languages
English (en)
Other versions
KR20180012055A (ko
Inventor
아마드 아부샤리아
아나스 토마
하디 자달라
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160094821A priority Critical patent/KR102575634B1/ko
Priority to US15/441,977 priority patent/US10762904B2/en
Publication of KR20180012055A publication Critical patent/KR20180012055A/ko
Priority to US16/901,651 priority patent/US11404067B2/en
Application granted granted Critical
Publication of KR102575634B1 publication Critical patent/KR102575634B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • H04N21/4415Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Abstract

전자 장치의 동작 방법에 있어서, 제1 사용자의 제1 음성 신호를 수신하는 단계; 상기 제1 음성 신호에 기초하여, 상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 있는지를 인증하는 단계; 및 상기 인증 결과에 기초하여, 상기 제1 음성 신호에 대응하는 명령을 결정하고, 상기 명령에 따라 상기 전자 장치를 제어하는 단계를 포함할 수 있다.

Description

전자 장치 및 전자 장치의 동작 방법{ELECTRONIC DEVICE AND METHOD FOR OPERATING THE SAME}
전자 장치 및 전자 장치의 동작 방법에 관한 것이다.
사용자는 전자 장치를 더욱 편리하게 사용하고자 한다. 이에 따라, 전자 장치를 용이하게 제어하는 기술은 점차 발달하는 추세이다. 즉, 전자 장치를 용이하게 제어하는 기술은 전자 장치에 부착된 입력부를 통해 전자 장치를 제어하던 방법에서 시작하여, 근거리에서도 제어 가능한 외부 리모트 컨트롤러(Remote Controller)를 이용하는 방법으로 발전하였다.
전자 장치에서 터치 패널을 구비하는 디스플레이부의 사용이 일반화됨에 따라, 터치 입력을 이용하여 전자 장치를 제어하는 기술이 보편적으로 사용된다. 또한, 전자 장치에서 음성 인식 기술을 이용하여 사용자의 음성을 인식하고, 전자 장치를 제어하는 기술도 사용된다. 이에 따라, 사용자가 음성을 통해 용이하게 전자 장치를 제어할 수 있는 기술에 대한 필요성이 인정된다.
외부 잡음 또는 복수의 사용자가 존재하는 경우에도 사용자가 음성을 통해 용이하게 전자 장치를 제어할 수 있는 방법 및 전자 장치를 제공한다.
일측에 따르면, 전자 장치의 동작 방법에 있어서, 제1 사용자의 제1 음성 신호를 수신하는 단계; 상기 제1 음성 신호에 기초하여, 상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 있는지를 인증하는 단계; 및 상기 인증 결과에 기초하여, 상기 제1 음성 신호에 대응하는 명령을 결정하고, 상기 명령에 따라 상기 전자 장치를 제어하는 단계를 포함할 수 있다.
다른 일측에 따르면, 전자 장치는 제1 사용자의 제1 음성 신호를 수신하는 수신부; 및 상기 제1 음성 신호에 기초하여, 상기 제1 사용자가 전자 장치를 제어할 수 있는 권한이 있는지를 인증하고, 상기 인증 결과에 기초하여, 상기 제1 음성 신호에 대응하는 명령을 결정하고, 상기 명령에 따라 전자 장치를 제어하는 프로세서를 포함할 수 있다.
또 다른 일측에 따르면, 상기 전자 장치의 동작 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 데 있다. 본 발명의 일실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.
도 1은 일실시예에 따라, 사용자의 음성 신호를 통해 전자 장치의 동작 방법을 설명하기 위한 개념도이다.
도 2는 일실시예에 따른 전자 장치의 구성을 나타낸 블록도이다.
도 3은 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 4는 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 5a 내지 도 5d는 일실시예에 따라, 사용자의 음성 신호를 통해 전자 장치의 동작 방법을 설명하기 위한 도면이다.
도 6은 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 7은 또 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 8은 일실시예에 따라, 복수의 사용자로부터 복수의 음성 신호를 수신한 경우, 전자 장치의 동작 방법을 설명하기 위한 도면이다.
도 9는 일실시예에 따라, 본 발명과 관련된 전자 장치의 구성을 나타낸 블록도이다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
명세서 전체에서 "전자 장치"는 전기 에너지를 공급 받아 동작하는 장치를 의미한다. 명세서에서 "전자 장치"를 "TV"로 예시하여도 권리범위 해석에 있어서 " TV "에 한정되지 않고, 전기 에너지를 공급 받아 동작하는 장치에 적용될 수 있음은 통상의 지식을 가진 자라면 이해할 수 있다.
도 1은 일실시예에 따라, 사용자의 음성 신호를 통해 전자 장치의 동작 방법을 설명하기 위한 개념도이다.
도 1에 도시된 바와 같이, 사용자(102)는 음성 신호를 이용하여, TV(100)와 같은 전자 장치를 제어할 수 있다. 사용자(102)는 음성 신호로 TV(100)를 제어하기 위해, 사용자 등록을 할 수 있다. 구체적으로, 사용자(102)가 "하이, TV(103)"와 같은 트리거 신호를 발성하면, TV(100)는 "하이, TV(103)"의 음성 신호를 수신하고, 사용자 등록 과정을 진행할 수 있다.
TV(100)는 사용자(102)의 음성 신호로부터 다른 사용자와 구분할 수 있는 음성 특징을 추출하고, 추출된 음성 특징을 기초로 사용자를 TV(100)를 제어할 수 있는 사용자로 설정할 수 있다. TV(100)를 제어할 수 있는 사용자로 등록되지 않은 사용자(102)는 음성을 통해 TV(100)를 제어할 수 없다. 사용자(102)의 음성 신호를 통해 전자 장치를 제어하는 내용은 도 2 내지 도 8에서 상세하게 설명한다.
또한, 전자 장치는 TV이나, 이는 일 실시예에 불과할 뿐, 음성 인식 기능을 포함하는 태블릿 PC, 디지털 카메라, 캠코더, 노트북 PC, PDA, 휴대폰 등과 같은 다양한 전자 장치로 구현될 수 있다.
도 2는 일실시예에 따른 전자 장치의 구성을 나타낸 블록도이다.
일실시예에 따르면, 전자 장치(200)는 수신부(210), 프로세서(220)를 포함할 수 있다. 도 2에 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(200)가 구현될 수 있고, 그 보다 적은 구성 요소에 의해서도 전자 장치(200)가 구현될 수 있다. 이하 상기 구성 요소들에 대해 차례로 살펴본다.
수신부(210)는 외부로부터 사용자의 음성 신호를 수신할 수 있다. 수신부(210)는 사용자로부터 직접 음성 신호를 수신하거나, 외부 장치로부터 사용자의 음성 신호를 수신할 수 있다. 예를 들면, 사용자로부터 직접 음성 신호를 수신하는 경우, 프로세서(220)는 수신부(210)(예를 들면, 전자 장치(200)에 포함된 마이크로폰)가 사용자의 음성 신호를 수신하도록 제어할 수 있다. 또한, 외부 장치로부터 사용자의 음성 신호를 수신하는 경우, 프로세서(220)는 무선 네트워크를 통해 수신부(210)가 외부 장치로부터 사용자의 음성 신호를 수신하도록 제어할 수 있다. 무선 네트워크에는 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스, 지그비(zigbee), WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
수신부(210)는 사용자의 음성 신호를 수신하여 음성 데이터로 처리하고, 음성 데이터를 프로세서(220)로 전달할 수 있다. 구체적으로, 수신부(210)는 스피커 및 마이크로폰과 같은 하드웨어로 구성될 수 있다. 스피커 및 마이크로폰은 음성 인식, 음성 복제, 디지털 레코딩(recording) 및 전화 기능과 같은 오디오 스트림의 입력과 출력을 담당할 수 있다. 즉, 스피커 및 마이크로폰은 음성신호를 전기신호로 변환하거나 전기신호를 음성신호로 변환할 수 있다. 또한, 탈부착 가능한(attachable and detachable) 이어폰(earphone), 헤드폰(head phone) 또는 헤드셋(head set)이 외부포트를 통해 전자 장치(200)에 연결될 수 있다.
프로세서(220)는 적어도 하나의 소프트웨어 프로그램을 실행하여 전자 장치(200)를 위한 여러 가지 기능을 수행할 수 있다. 프로세서(220)는 음성 통신 및 데이터 통신을 위한 처리 및 제어를 수행할 수 있다. 또한, 프로세서(220)는 외부 메모리 또는 내부 메모리에 저장되어 있는 특정 소프트웨어 모듈을 실행하여 모듈에 대응하는 특정 기능을 수행할 수 있다. 프로세서(220)는 외부 메모리 또는 내부 메모리에 저장된 소프트웨어 모듈들과 연동하여 본 개시에 따른 전자 장치(200)의 동작을 수행할 수 있다.
프로세서(220)는 제1 사용자의 제1 음성 신호에 기초하여, 제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는지를 인증할 수 있다. 프로세서(220)는 인증 결과에 기초하여, 제1 음성 신호에 대응하는 명령을 결정하고, 명령에 따라 전자 장치(200)를 제어할 수 있다.
또한, 프로세서(220)는 제2 음성 신호에 트리거 신호가 포함되었는지를 결정할 수 있다. 트리거 신호는 전자 장치(200)를 제어할 수 있는 사용자를 설정하기 위한 동작을 수행하기 위해 미리 설정된 신호일 수 있다. 제2 음성 신호에 트리거 신호가 포함된 경우, 프로세서(220)는 제1 사용자의 음성 신호에 의하여 전자 장치(200)가 제어되도록 제2 음성 신호에 기초하여, 제1 사용자를 전자 장치(200)를 제어할 수 있는 사용자로 설정할 수 있다. 구체적으로, 프로세서(220)는 제2 음성 신호로부터 제1 사용자에 대한 적어도 하나의 음성 파라미터의 값을 추출하고, 제2 음성 신호로부터 추출된 적어도 하나의 음성 파라미터의 값을 적어도 하나의 음성 파라미터의 기준값으로 저장할 수 있다. 프로세서(220)는 제1 사용자를 전자 장치(200)를 제어하는 사용자로 등록할 수 있다. 추후, 수신부(210)를 통해 음성 신호를 수신할 수 있다. 프로세서(220)는 음성 신호로부터 제1 음성 파라미터의 값을 추출하고, 음성 신호에 대한 제1 음성 파라미터의 값과 저장된 제1 음성 파라미터의 기준값을 비교하여, 사용자 인증을 수행할 수 있다.
여기서, 적어도 하나의 음성 파라미터는 사용자의 음성 에너지, 주파수 대역폭, 사용자 음성의 발화 시의 울림값 및 음성 신호 대 잡음비 중 적어도 하나일 수 있다. 상기 언급된 음성 파라미터의 예시 이외에 다른 음성 파라미터가 사용자를 인증하는 데에 이용되는 음성 파라미터에 속할 수 있음은 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
제1 사용자의 제2 음성 신호에 트리거 신호가 포함되지 않은 경우, 프로세서(220)는 제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는지를 인증할 수 있다. 구체적으로, 프로세서(220)는 제2 음성 신호로부터 제1 음성 파라미터의 값을 추출하고, 추출된 제1 음성 파라미터의 값을 기저장된 제1 음성 파라미터의 기준값과 비교할 수 있다. 비교 결과, 제2 음성 신호로부터 추출된 제1 음성 파라미터의 값이 제1 음성 파라미터의 기준값과 일치하면, 프로세서(220)는 제1 사용자를 전자 장치(200)를 제어할 수 있는 사용자로 결정할 수 있다. 또한, 제2 음성 신호로부터 추출된 제1 음성 파라미터의 값이 제1 음성 파라미터의 기준값을 기준으로 일정 범위 이내이면, 프로세서(220)는 제1 사용자를 전자 장치(200)를 제어할 수 있는 사용자로 결정할 수 있다.
제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는 것으로 결정된 경우, 프로세서(220)는 제1 음성 신호에 대응하여, 전자 장치(200)의 제1 기능을 수행할 수 있는 제1 명령을 결정하고, 제1 명령에 따라 전자 장치(200)의 제1 기능을 수행할 수 있다.
제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 없는 것으로 결정된 경우, 프로세서(220)는 제1 음성 신호에 대응하여, 제1 음성 신호를 바이패스 하는 명령을 결정하고, 제1 음성 신호를 바이패스 할 수 있다.
또한, 수신부(210)는 복수의 사용자로부터 복수의 음성 신호를 수신할 수 있다. 프로세서(220)는 복수의 음성 신호 각각에서 음성 특징을 추출하고, 복수의 음성 신호에서 추출된 각각의 음성 특징 중 기준 음성 특징과 일치되는 음성 특징을 포함하는 제3 음성 특징을 검출할 수 있다. 여기서, 기준 음성 특징은 전자 장치(200)를 제어할 수 있는 권한이 있는 사용자의 음성 특징일 수 있다. 사용자의 음성의 크기, 사용자의 성별, 나이 등에 따른 주파수 대역 분포, 전자 장치(200)의 위치에 따라 달라지는 사용자 음성의 울림값, 음성 신호 대 잡음비가 사용자의 음성 특징에 해당될 수 있다. 프로세서(220)는, 제3 음성 신호에 대응하는 제3 명령을 결정하고, 제3 명령에 따라 전자 장치(200)를 제어할 수 있다.
전자 장치(200)를 제어할 수 있는 권한이 있는 사용자가 복수이고, 권한이 있는 복수의 사용자로부터 음성 신호를 수신한 경우, 프로세서(220)는 미리 설정된 기준에 따라 복수의 사용자 중 제2 사용자의 음성 신호에 대응하는 제2 명령을 우선적으로 결정하고, 제2 명령에 따라 전자 장치(200)를 제어할 수 있다.
여기서, 미리 설정된 기준은 복수의 사용자 각각에 대한 전자 장치(200)의 사용 패턴 또는 기설정된 순서에 따라 복수의 사용자 각각에 대하여 우선 순위가 부여된 것일 수 있다. 전자 장치(200)의 사용 패턴은 복수의 사용자 각각에 대한 전자 장치(200)의 사용 횟수 및 전자 장치(200)의 사용 시간 중 적어도 하나를 이용하여 획득되는 것일 수 있다. 상기 언급된 예시 이외에 다른 예시에 의해 전자 장치(200)의 사용 패턴이 결정될 수 있음은 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 또한, 기설정된 순서는 전자 장치(200)에 미리 설정될 수 있다.
전자 장치(200)는 메모리(미도시), 디스플레이(미도시) 및 사용자 인터페이스(미도시)를 더 포함할 수 있다. 메모리(미도시)는 트리거 신호, 외부로부터 수신된 음성 신호, 음성 신호로부터 추출된 음성 파라미터의 값, 전자 장치(200)를 제어할 수 있는 사용자에 대한 정보를 저장할 수 있다. 전자 장치(200)를 제어할 수 있는 사용자에 대한 정보는, 권한 있는 사용자의 음성 신호로부터 추출된 음성 파라미터의 기준값을 포함할 수 있다.
또한, 메모리(미도시)는 전자 장치(200)를 제어할 수 있는 권한이 있는 복수의 사용자에 대한 정보를 저장할 수 있다. 복수의 사용자들에 대한 정보는, 복수의 사용자 각각의 음성 신호로부터 추출된 음성 파라미터의 값, 복수의 사용자 각각에 대한 전자 장치(200)의 사용 패턴 정보를 포함할 수 있다. 사용 패턴 정보는 전자 장치(200)의 사용 횟수 및 전자 장치(200)의 사용 시간 중 적어도 하나를 포함할 수 있다.
메모리(미도시)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(SD, XD 메모리 등), 램(RAM; Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM; Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
디스플레이(미도시)는 제1 사용자의 음성 신호에 기초하여 제1 사용자를 전자 장치(200)를 제어할 수 있는 사용자로 설정하는 결과 화면을 표시할 수 있다. 또한, 디스플레이(미도시)는 제1 음성 신호를 수신하고, 제1 음성 신호에 대한 사용자 인증 결과 화면(예를 들면, 사용자 인증 성공 또는 사용자 인증 실패에 대한 정보)을 표시 할 수 있다. 또한, 디스플레이(미도시)는 제1 음성 신호에 대응하여 전자 장치(200)를 제어하는 명령(예를 들면, 지도 검색)을 실행하고, 실행된 결과(예를 들면, 지도 검색에 대한 결과)를 표시할 수 있다.
사용자 인터페이스(미도시)는 전자 장치(200)를 제어하기 위한 데이터를 입력 받는 장치를 의미한다. 사용자 인터페이스(미도시)는 키패드, 마우스, 터치 패널, 터치 스크린, 트랙볼, 조그 스위치 등 하드웨어 구성을 포함할 수 있으나, 이에 한정되는 것은 아니다. 구체적으로, 사용자 인터페이스(미도시)는 전자 장치(200)를 제어할 수 있는 사용자를 설정에 필요한 데이터를 터치 스크린을 통해 입력 받을 수 있다. 또한, 메모리(200)는 복수의 사용자 각각에 대한 우선 순위가 설정된 정보를 저장할 수 있다.
전자 장치(200)는 중앙 연산 프로세서를 구비하여, 수신부(210), 프로세서(220), 메모리(미도시), 디스플레이(미도시) 및 사용자 인터페이스(미도시)의 동작을 총괄적으로 제어할 수 있다. 중앙 연산 프로세서는 다수의 논리 게이트들의 어레이로 구현될 수도 있고, 범용적인 마이크로 프로세서와 이 마이크로 프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다. 또한, 다른 형태의 하드웨어로 구현될 수 있음을 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
이하에서는, 전자 장치(200)가 수행하는 다양한 동작이나 응용들이 설명되는데, 수신부(210), 프로세서(220), 메모리(미도시), 디스플레이(미도시) 및 사용자 인터페이스(미도시) 중 어느 구성을 특정하지 않더라도 본 발명의 기술분야에 대한 통상의 기술자가 명확하게 이해하고 예상할 수 있는 정도의 내용은 통상의 구현으로 이해될 수 있으며, 본 발명의 권리범위가 특정한 구성의 명칭이나 물리적/논리적 구조에 의해 제한되는 것은 아니다.
도 3은 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 3의 단계 S310에서, 전자 장치(200)는 제1 사용자의 제1 음성 신호를 수신할 수 있다. 제1 음성 신호는 전자 장치(200)를 제어하기 위한 명령을 포함할 수 있다. 전자 장치(200)는 제1 사용자의 제1 음성 신호를 마이크로폰을 통해 수신할 수 있다. 제1 음성 신호는 전자 장치(200)에서 제공하는 다양한 기능을 실행하기 위한 명령을 포함할 수 있고 명령은, 전자 장치(200)의 온/오프, 동영상 재생, 음악 재생, 파일 관리, 인터넷 검색 등과 같은 명령을 포함할 수 있다.
단계 S320에서, 전자 장치(200)는 제1 음성 신호에 기초하여 제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는지를 인증할 수 있다.
구체적으로, 전자 장치(200)는 제1 음성 신호로부터 제1 음성 파라미터의 값을 추출하고, 제1 음성 신호에 대한 제1 음성 파라미터의 값과 제1 음성 파라미터의 기준값을 비교하여, 제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는지를 인증할 수 있다. 여기서, 기준값은 전자 장치(200)를 제어할 수 있는 권한이 있는 사용자의 음성 신호로부터 획득된 음성 파라미터의 값이다. 제1 음성 신호로부터 추출된 제1 음성 파라미터의 값이 제1 음성 파라미터의 기준값을 기준으로 일정 범위 이내이면, 전자 장치(200)는 제1 사용자를 전자 장치(200)를 제어할 수 있는 사용자로 결정할 수 있다.
음성 파라미터는 사용자의 음성 에너지, 주파수 대역폭, 사용자 음성의 발화 시의 울림값 및 음성 신호 대 잡음비 중 적어도 하나일 수 있고, 이에 한정되지 않는다.
단계 S330에서, 전자 장치(200)는 인증 결과에 기초하여 제1 음성 신호에 대응하는 명령을 결정하고, 명령에 따라 전자 장치(200)를 제어할 수 있다.
제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는 것으로 결정된 경우, 전자 장치(200)는 제1 음성 신호에 기초하여 전자 장치(200)의 제1 기능을 수행할 수 있는 제1 명령을 결정할 수 있다. 전자 장치(200)는 제1 명령에 따라 전자 장치(200)의 제1 기능을 수행할 수 있다. 예를 들면, 전자 장치(200)는 전자 장치(200)의 동작 시간을 예약하는 명령을 포함하는 제1 사용자의 제1 음성 신호를 수신하고, 제1 음성 신호로부터 전자 장치(200)의 동작 시간을 예약하는 명령을 검출하고, 명령에 따라 전자 장치(200)의 동작 시간을 제어할 수 있다.
제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 없는 것으로 결정된 경우, 전자 장치(200)는 제1 음성 신호에 대응하여, 제1 음성 신호를 바이패스 하는 명령을 결정하고, 제1 음성 신호를 바이패스 할 수 있다.
도 4는 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 4의 단계 S410에서, 전자 장치는 제1 사용자의 제2 음성 신호를 수신할 수 있다.
단계 S420에서, 전자 장치(200)는 제2 음성 신호에 트리거 신호가 포함되었는지를 결정할 수 있다. 트리거 신호는 전자 장치(200)를 제어할 수 있는 사용자를 설정하기 위한 동작을 수행하기 위해 미리 설정된 신호일 수 있다. 제2 음성 신호에 트리거 신호가 포함된 경우, 전자 장치(200)는 단계 S430에 따른 동작을 수행할 수 있다. 제2 음성 신호에 트리거 신호가 포함되지 않은 경우, 전자 장치(200)는 단계 S440에 따른 동작을 수행할 수 있다.
단계 S430에서, 전자 장치(200)는 제2 음성 신호에 기초하여, 제1 사용자의 음성 신호에 의하여 전자 장치(200)가 제어되도록 설정할 수 있다. 구체적으로, 전자 장치(200)는 제2 음성 신호로부터 제1 사용자에 대한 적어도 하나의 음성 파라미터의 값을 추출할 수 있다. 전자 장치(200)는 제2 음성 신호로부터 추출된 적어도 하나의 음성 파라미터의 값을 적어도 하나의 음성 파라미터의 기준값으로 저장할 수 있다. 전자 장치(200)는 저장된 기준값을 기준으로, 제1 사용자를 전자 장치(200)를 제어하는 사용자로 등록할 수 있다.
단계 S440에서, 전자 장치(200)는 제2 음성 신호에 기초하여, 제1 사용자를 전자 장치의 제어 권한이 있는지를 인증하고, 인증 결과에 따라 전자 장치를 제어할 수 있다. 단계 S440은 도 3에 도시된 단계 S320과 단계 S330과 대응될 수 있다.
도 5a 내지 도 5d는 일실시예에 따라, 사용자의 음성 신호를 통해 전자 장치의 동작 방법을 설명하기 위한 도면이다.
도 5a를 참고하면, 제1 사용자(501)는 TV(200)를 음성으로 제어하기 위해 사용자 등록 과정을 수행할 수 있다. 제1 사용자(501)가 "헬로우"라고 발언하면, TV(200)는 "헬로우" 음성 신호를 수신할 수 있다. 여기서, "헬로우" 음성 신호는 TV(200)를 제어하는 사용자를 설정하는 프로세스를 수행하기 위한 트리거 신호로 미리 설정될 수 있다. TV(200)는 제1 사용자(501)의 "헬로우" 음성 신호를 수신하고, 수신한 결과를 화면 상에 표시할 수 있다. 도 5a에 도시된 바와 같이, TV(200)는 외부로부터 음성 신호를 수신한 경우, "음성 인식 중입니다"와 같은 문구를 화면 상에 디스플레이 할 수 있다. 외부로부터 수신한 음성 신호가 트리거 신호가 아니면, TV(200)는 음성 신호에 의해 전자 장치가 제어될 수 있는지에 대한 인증 과정을 수행할 수 있다.
도 5b를 참고하면, 외부로부터 수신한 음성 신호가 트리거 신호이면, TV(200)는 음성 신호를 이용하여 전자 장치를 제어할 수 있는 사용자 등록 과정을 수행할 수 있다.
TV(200)는 제1 음성 신호로부터 제1 사용자(501)에 대한 제1 음성 파라미터의 값을 추출할 수 있다. TV(200)는 제1 음성 신호로부터 추출된 제1 음성 파라미터의 값을 제1 음성 파라미터의 기준값으로 결정하고, 제1 사용자(501)를 전자 장치를 제어할 수 있는 사용자로 등록할 수 있다. 도 5b에 도시된 바와 같이, TV(200)는 사용자 등록 과정 중에, "사용자 등록 중입니다"와 같은 문구를 화면 상에 디스플레이 할 수 있다.
도 5c를 참고하면, 제1 사용자(501)는 음성으로 TV(200)를 제어할 수 있는 사용자로 등록한 후, 음성을 통해 TV(200)를 제어할 수 있다. 제1 사용자(501)가 TV(200)의 채널 변경을 위해 "채널 42"라고 발언하면, TV(200)는 제1 사용자(501)의 "채널 42"의 음성 신호로부터 제1 음성 파라미터의 값을 추출하고, 제1 음성 파라미터의 기준값과 비교할 수 있다. 비교 결과, 제1 음성 파라미터의 값과 제1 음성 파라미터의 기준값이 일치되면, TV(200)는 기존의 채널을 채널 42로 변경할 수 있다.
도 5d를 참고하면, 음성으로 TV(200)를 제어할 수 있는 사용자로 등록되지 않은 제2 사용자(502)는 음성으로 TV(200)를 제어할 수 없다. 제2 사용자(502)가 TV(200)의 채널 변경을 위해 "채널 10"라고 발언하면, TV(200)는 제2 사용자(502)의 "채널 10"의 음성 신호로부터 제1 음성 파라미터의 값을 추출하고, 제1 음성 파라미터의 기준값과 비교할 수 있다. 비교 결과, 제2 사용자(502)에 대한 제1 음성 파라미터의 값과 제1 음성 파라미터의 기준값이 일치되지 않으므로, TV(200)는 기존의 채널을 채널 10으로 변경하지 않고, 기존 채널을 유지하게 된다. 이 경우, TV(200)는 "사용자 인증이 되지 않았습니다"와 같은 문구를 화면 상에 표시할 수 있다.
도 6은 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 6의 단계 S610에서, 전자 장치(200)는 복수의 사용자로부터 복수의 음성 신호를 수신할 수 있다.
단계 S620에서, 전자 장치(200)는 복수의 음성 신호 각각에서 음성 특징을 추출할 수 있다. 음성 특징은 사용자의 음성의 크기, 사용자의 성별, 나이 등에 따른 주파수 대역 분포, 전자 장치(200)의 위치에 따라 달라지는 사용자 음성의 울림값, 음성 신호 대 잡음비 중 어느 하나에 해당될 수 있고, 이에 한정되지 않는다.
단계 S630에서, 전자 장치(200)는 복수의 음성 신호 각각에서 추출된 음성 특징 중 전자 장치(200)를 제어할 수 있는 권한이 있는 사용자의 음성 특징과 일치되는 음성 특징을 포함하는 제3 음성 신호를 검출할 수 있다.
구체적으로, 전자 장치(200)는 복수의 음성 신호 각각에서 제1 음성 파라미터의 값을 추출할 수 있다. 전자 장치(200)는 추출된 제1 음성 파라미터의 값 각각을 미리 설정된 제1 음성 파라미터의 기준값과 비교할 수 있다. 비교 결과 전자 장치(200)는 제1 음성 파라미터의 기준값과 대응되는 제1 음성 파라미터의 값을 포함하는 제3 음성 신호를 검출할 수 있다.
단계 S640에서, 전자 장치(200)는 제3 음성 신호에 대응하는 제3 명령을 결정하고, 제3 명령에 기초하여 전자 장치(200)를 제어할 수 있다.
도 7은 또 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 7의 단계 S710에서, 전자 장치(200)는 전자 장치(200)를 제어할 수 있는 권한이 있는 복수의 사용자로부터 음성 신호를 수신할 수 있다.
단계 S720에서, 전자 장치(200)는 미리 설정된 기준에 따라 복수의 사용자 중 제1 사용자를 선택할 수 있다. 여기서 미리 설정된 기준은 복수의 사용자 각각에 대한 전자 장치(200)의 사용 패턴 또는 기설정된 순서에 따라 복수의 사용자 각각에 대하여 우선 순위가 부여된 것일 수 있다. 전자 장치(200)의 사용 패턴은 복수의 사용자 각각에 대한 전자 장치(200)의 사용 횟수 및 전자 장치(200)의 사용 시간 중 적어도 하나를 이용하여 획득된 것일 수 있다. 전자 장치는 복수의 사용자 각각에 대한 우선 순위가 설정된 정보를 입력 받고, 복수의 사용자 중 제1 사용자를 선택할 수 있다.
구체적으로, 특정 시간 대에 제1 사용자가 다른 사용자들보다 전자 장치(200)를 사용한 횟수가 많다고 가정한다. 전자 장치(200)가 특정 시간 대에 제1 사용자를 포함한 복수의 사용자로부터 음성 신호를 수신한 경우, 전자 장치(200)는 우선적으로 제1 사용자에 대한 음성 신호를 제어 신호로 결정할 수 있다.
단계 S730에서, 전자 장치(200)는 제1 사용자의 음성 신호에 대응하는 명령을 결정하고, 결정된 명령에 따라 전자 장치(200)를 제어할 수 있다.
도 8은 일실시예에 따라, 복수의 사용자로부터 복수의 음성 신호를 수신한 경우, 전자 장치의 동작 방법을 설명하기 위한 도면이다.
일개시에 따르면, 제1 사용자(501)는 음성 신호로 TV(200)를 제어할 수 있는 권한이 있고, 제2 사용자(502)는 음성 신호로 TV(200)를 제어할 수 있는 권한이 없다고 가정한다. TV(200)는 외부로부터 제1 음성 신호(801), 잡음 신호(802) 및 제2 음성 신호(803)를 수신할 수 있다. 구체적으로, TV(200)는 제1 사용자(501)로부터 "채널 42"라는 제1 음성 신호(801)를 수신하고, 제2 사용자(502)로부터 "채널 10"이라는 제2 음성 신호(803)를 수신할 수 있다. TV(200)는 제1 음성 신호(801) 및 제2 음성 신호(803) 각각에 대하여 제1 음성 파라미터의 값을 추출하고, 제1 음성 파라미터의 기준값과 비교할 수 있다. 비교 결과, TV(200)는 제1 음성 파라미터의 값과 제1 음성 파라미터의 기준값이 서로 일치하는 제1 음성 신호(801)에 대응하는 명령을 수행할 수 있다. 즉, TV(200)는 제1 사용자(501)의 제1 음성 신호(801)로부터 기존 채널을 "채널 42"로 변경하라는 명령을 결정하고, 결정된 명령에 따라 기존 채널을 "채널 42"로 변경할 수 있다. 또한, 제2 사용자(502)는 음성 신호로 TV(200)를 제어할 수 있는 권한을 설정하고, 음성 신호를 이용하여 TV(200)를 제어할 수 있다.
다른 일개시에 따르면, 제1 사용자(501) 및 제2 사용자(502)는 음성 신호로 TV(200)를 제어할 수 있는 권한이 있다고 가정한다. TV(200)는 외부로부터 제1 음성 신호(801), 잡음 신호(802) 및 제2 음성 신호(803)를 수신할 수 있다. 구체적으로, TV(200)는 제1 사용자(501)로부터 "채널 42"라는 제1 음성 신호(801)를 수신하고, 제2 사용자(502)로부터 "채널 10"이라는 제2 음성 신호(803)를 수신할 수 있다. 이 경우, TV(200)는 제1 사용자(501) 및 제2 사용자(502) 중 한 명의 사용자의 음성 신호에만 대응하는 명령에 따라 동작을 수행할 수 있다. TV(200)는 미리 설정된 기준에 따라 복수의 사용자 중 어느 한 명의 사용자의 음성 신호에 대응하는 명령을 우선적으로 결정하고, 결정된 명령에 따라 TV(200) 동작을 수행할 수 있다. 미리 설정된 기준은 복수의 사용자 각각에 대한 TV(200)의 사용 패턴 또는 미리 설정된 순서에 따라 복수의 사용자 각각에 대하여 우선 순위가 부여되어 설정될 수 있다. 여기서, TV(200)의 사용 패턴 뿐만 아니라, 다른 요소에 의하여 복수의 사용자 각각에 대하여 우선 순위가 부여될 수 있음은 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
도 9는 일실시예에 따라, 본 발명과 관련된 전자 장치의 구성을 나타낸 블록도이다.
도 9에 도시된 전자 장치(1000)는 도 2의 전자 장치(200)과 동일 대응될 수 있다. 구체적으로, 도 9의 제어부(3300)는 도 2의 프로세서(220)과 동일 대응될 수 있고, 도 9의 통신부(3500)는 도 2의 전자 장치(200)의 통신부(210)와 동일 대응될 수 있고, 도 9의 저장부(3700)는 도 2의 전자 장치(200)의 메모리(미도시)와 동일 대응될 수 있고, 도 9의 입력부(3100)는 도 2의 전자 장치(200)의 사용자 인터페이스(미도시)와 동일 대응될 수 있다.
입력부(3100)는 사용자가 전자 장치(1000)을 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 입력부(3100)는 키 패드(key pad), 돔 스위치(dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
출력부(3200)는 오디오 신호, 비디오 신호 또는 진동 신호를 출력할 수 있다. 출력부(3200)는 음향 출력부(3220), 및 진동 모터(3230)를 포함할 수 있다.
터치스크린(3210)은 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 전자 장치(1000)의 구현 형태에 따라 전자 장치(1000)는 터치스크린(3210)을 2개 이상 포함할 수도 있다. 이때, 2개 이상의 터치스크린(3210)은 힌지(hinge)를 이용하여 마주보게 배치될 수 있다.
음향 출력부(3220)는 통신부(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(3220)는 전자 장치(1000)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(3220)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
진동 모터(3230)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(3230)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(3230)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.
제어부(3300)는 전자 장치(1000)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(3300)는 메모리(1700)에 저장된 프로그램을 실행함으로써, 전자 장치(1000)에 포함된 구성요소들이 동작하도록 제어할 수 있다.
센싱부(3400)는 사용자의 신체 접촉을 감지하고, 감지된 신체 접촉에 기초하여 생체 정보를 획득할 수 있다. 센싱부(3400)는, 지자기 센서(3410), 무게 센서(3411), 모션 센서(3412), 가속도 센서(3420), 온/습도 센서(3430), 적외선 센서(3440), 자이로스코프 센서(3450), 위치 센서(3460), 기압 센서(3470), 근접 센서(3480) 및 RGB 센서(3490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
통신부(3500)는 전자 장치(1000)와 외부 기기(미도시) 간의 통신을 수행하기 위한 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(3500)는, 근거리 통신부(3510), 이동 통신부(3520), 방송 수신부(3530)를 포함할 수 있다.
근거리 통신부(short-range wireless communication unit)(3510)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부(3520)는, 이동 통신망 상에서 기지국, 외부의 전자 장치(1000), 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부(3530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 전자 장치(1000)가 방송 수신부(3530)를 포함하지 않을 수도 있다.
A/V(Audio/Video) 입력부(3600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)은 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(3300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
카메라(3610)에서 처리된 화상 프레임은 메모리(3700)에 저장되거나 통신부(1500)를 통하여 외부로 전송될 수 있다. 카메라(3610)는 전자 장치(1000)기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
마이크로폰(3620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(3620)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(3620)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
메모리(3700)는, 제어부(3300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다.
메모리(3700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
메모리(3700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, 터치 스크린 모듈(3710), UI(User Interface) 모듈(3720), 알림 모듈(3730) 등으로 분류될 수 있다.
터치 스크린 모듈(3710)과 관련하여, 터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.
UI 모듈(3720)은, 애플리케이션 별로 전자 장치(1000)와 연동되는 특화된 UI, GUI(Graphic User Interface) 등을 제공할 수 있다. 터치 스크린 모듈은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(3300)로 전달할 수 있다. 일부 실시예에 따른 터치 스크린 모듈은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
알림 모듈(3730)은 전자 장치(1000)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 전자 장치(1000)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 메시지 발생, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(3720)은 디스플레이부(3210)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(3200)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(3230)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다.
처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.
이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.
소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.
프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (20)

  1. 전자 장치의 동작 방법에 있어서,
    사용자로부터 음성 신호를 수신하는 단계;
    상기 수신된 음성 신호의 음성 파라미터가 상기 전자 장치를 제어할 수 있는 권한을 가진 적어도 하나의 사용자의 적어도 하나의 음성 파라미터와 일치하는 지를 식별하는 단계;
    상기 수신된 음성 신호의 음성 파라미터가 상기 적어도 하나의 사용자의 상기 적어도 하나의 음성 파라미터에 일치하는 경우에, 상기 수신된 음성 신호에 따라, 상기 전자 장치의 동작을 제어하는 단계; 및
    상기 수신된 음성 신호의 음성 파라미터가 상기 적어도 하나의 사용자의 상기 적어도 하나의 파라미터에 일치하지 않는 경우에,
    상기 수신된 음성 신호가 상기 전자 장치에 상기 사용자를 등록하기 위한 명령을 포함하는지 여부를 식별하는 단계;
    상기 수신된 음성 신호가 상기 전자 장치에 상기 사용자를 등록하기 위한 명령을 포함하는 경우에, 상기 수신된 음성 신호를 사용하여 상기 사용자가 상기 전자 장치를 제어할 수 있도록 상기 사용자를 등록하는 단계;
    상기 수신된 음성 신호가 상기 전자 장치에 상기 사용자를 등록하기 위한 명령을 포함하지 않은 경우에, 상기 사용자가 상기 전자 장치를 제어하기 위한 권한을 갖는지를 인증하는 단계; 및
    상기 인증 결과에 기초하여 상기 음성 신호에 따라 상기 전자 장치의 동작을 제어하는 단계를 포함하는 전자 장치의 동작 방법.
  2. 제1항에 있어서, 상기 전자 장치의 동작을 제어하는 단계는
    상기 적어도 하나의 사용자 각각의 우선 순위를 할당하는 단계; 및
    상기 할당된 우선 순위에 기초하여, 상기 수신된 음성 신호에 따라, 상기 전자 장치의 동작을 제어하는 단계를 포함하는, 방법.
  3. 제2항에 있어서, 상기 우선 순위는
    상기 적어도 하나의 사용자 각각에 대한 상기 전자 장치의 사용 패턴 또는 미리 설정된 순서에 기초하여, 상기 적어도 하나의 사용자 각각에 대해 할당되는, 방법.
  4. 제3항에 있어서, 상기 전자 장치의 사용 패턴은,
    상기 적어도 하나의 사용자 각각에 대한, 상기 전자 장치의 사용 횟수 및 사용 시간 중 적어도 하나에 기초하여, 획득되는, 방법.
  5. 제2항에 있어서, 상기 우선 순위를 할당하는 단계는
    제1 시간 구간 동안, 상기 적어도 하나의 사용자 각각이 상기 전자 장치를 사용한 횟수를 식별하는 단계; 및
    상기 식별된 횟수에 기초하여, 상기 적어도 하나의 사용자 각각의 우선 순위를 할당하는 단계를 포함하는, 방법.
  6. 사용자로부터 음성 신호를 수신하는 수신부; 및
    프로세서를 포함하는 전자 장치에 있어서,
    상기 프로세서는,
    상기 수신된 음성 신호의 음성 파라미터가 상기 전자 장치를 제어할 수 있는 권한을 가진 적어도 하나의 사용자의 적어도 하나의 음성 파라미터와 일치하는 지를 식별하고,
    상기 수신된 음성 신호의 음성 파라미터가 상기 적어도 하나의 사용자의 상기 적어도 하나의 음성 파라미터에 일치하는 경우에, 상기 수신된 음성 신호에 따라, 상기 전자 장치의 동작을 제어하고,
    상기 수신된 음성 신호의 음성 파라미터가 상기 적어도 하나의 사용자의 상기 적어도 하나의 파라미터에 일치하지 않는 경우에,
    상기 수신된 음성 신호가 상기 전자 장치에 상기 사용자를 등록하기 위한 명령을 포함하는지 여부를 식별하고,
    상기 수신된 음성 신호가 상기 전자 장치에 상기 사용자를 등록하기 위한 명령을 포함하지 않은 경우에, 상기 사용자가 상기 전자 장치를 제어하기 위한 권한을 갖는지를 인증하고,
    상기 인증 결과에 기초하여 상기 음성 신호에 따라 상기 전자 장치의 동작을 제어하는, 전자 장치.
  7. 제6항에 있어서, 상기 프로세서는
    상기 적어도 하나의 사용자 각각의 우선 순위를 할당하고,
    상기 할당된 우선 순위에 기초하여, 상기 수신된 음성 신호에 따라, 상기 전자 장치의 동작을 제어하는, 전자 장치.
  8. 제7항에 있어서, 상기 우선 순위는
    상기 적어도 하나의 사용자 각각에 대한 상기 전자 장치의 사용 패턴 또는 미리 설정된 순서에 기초하여, 상기 적어도 하나의 사용자 각각에 대해 할당되는, 전자 장치.
  9. 제8항에 있어서, 상기 전자 장치의 사용 패턴은,
    상기 적어도 하나의 사용자 각각에 대한, 상기 전자 장치의 사용 횟수 및 사용 시간 중 적어도 하나에 기초하여, 획득되는, 전자 장치.
  10. 제7항에 있어서, 상기 프로세서는
    제1 시간 구간 동안, 상기 적어도 하나의 사용자 각각이 상기 전자 장치를 사용한 횟수를 식별하고,
    상기 식별된 횟수에 기초하여, 상기 적어도 하나의 사용자 각각의 우선 순위를 할당하는, 전자 장치.
  11. 제1항 내지 제5항 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체.
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
KR1020160094821A 2016-07-26 2016-07-26 전자 장치 및 전자 장치의 동작 방법 KR102575634B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020160094821A KR102575634B1 (ko) 2016-07-26 2016-07-26 전자 장치 및 전자 장치의 동작 방법
US15/441,977 US10762904B2 (en) 2016-07-26 2017-02-24 Electronic device and method of operating the same
US16/901,651 US11404067B2 (en) 2016-07-26 2020-06-15 Electronic device and method of operating the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160094821A KR102575634B1 (ko) 2016-07-26 2016-07-26 전자 장치 및 전자 장치의 동작 방법

Publications (2)

Publication Number Publication Date
KR20180012055A KR20180012055A (ko) 2018-02-05
KR102575634B1 true KR102575634B1 (ko) 2023-09-06

Family

ID=61009940

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160094821A KR102575634B1 (ko) 2016-07-26 2016-07-26 전자 장치 및 전자 장치의 동작 방법

Country Status (2)

Country Link
US (2) US10762904B2 (ko)
KR (1) KR102575634B1 (ko)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11064250B2 (en) 2013-03-15 2021-07-13 Google Llc Presence and authentication for media measurement
US10541997B2 (en) 2016-12-30 2020-01-21 Google Llc Authentication of packetized audio signals
US10719591B1 (en) 2013-03-15 2020-07-21 Google Llc Authentication of audio-based input signals
US9947316B2 (en) 2016-02-22 2018-04-17 Sonos, Inc. Voice control of a media playback system
US10743101B2 (en) 2016-02-22 2020-08-11 Sonos, Inc. Content mixing
US10509626B2 (en) 2016-02-22 2019-12-17 Sonos, Inc Handling of loss of pairing between networked devices
US9965247B2 (en) 2016-02-22 2018-05-08 Sonos, Inc. Voice controlled media playback system based on user profile
US10095470B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
US10264030B2 (en) 2016-02-22 2019-04-16 Sonos, Inc. Networked microphone device control
US9978390B2 (en) 2016-06-09 2018-05-22 Sonos, Inc. Dynamic player selection for audio signal processing
US10115400B2 (en) 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US9942678B1 (en) 2016-09-27 2018-04-10 Sonos, Inc. Audio playback settings for voice interaction
US10181323B2 (en) 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
US10580405B1 (en) * 2016-12-27 2020-03-03 Amazon Technologies, Inc. Voice control of remote device
US11183181B2 (en) * 2017-03-27 2021-11-23 Sonos, Inc. Systems and methods of multiple voice services
US10475449B2 (en) 2017-08-07 2019-11-12 Sonos, Inc. Wake-word detection suppression
US10048930B1 (en) 2017-09-08 2018-08-14 Sonos, Inc. Dynamic computation of system response volume
US10446165B2 (en) 2017-09-27 2019-10-15 Sonos, Inc. Robust short-time fourier transform acoustic echo cancellation during audio playback
US10482868B2 (en) 2017-09-28 2019-11-19 Sonos, Inc. Multi-channel acoustic echo cancellation
US10621981B2 (en) 2017-09-28 2020-04-14 Sonos, Inc. Tone interference cancellation
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
WO2019107145A1 (ja) * 2017-11-28 2019-06-06 ソニー株式会社 情報処理装置、及び情報処理方法
US10672380B2 (en) * 2017-12-27 2020-06-02 Intel IP Corporation Dynamic enrollment of user-defined wake-up key-phrase for speech enabled computer system
WO2019152722A1 (en) 2018-01-31 2019-08-08 Sonos, Inc. Device designation of playback and network microphone device arrangements
EP3786945B1 (en) * 2018-04-12 2023-07-19 Spotify AB Voice-based authentication
CN108597513A (zh) * 2018-05-04 2018-09-28 深圳创维-Rgb电子有限公司 基于5.8GHz无线传输电视远场语音识别系统及方法
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
US10959029B2 (en) 2018-05-25 2021-03-23 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
US10681460B2 (en) 2018-06-28 2020-06-09 Sonos, Inc. Systems and methods for associating playback devices with voice assistant services
CN108922528B (zh) * 2018-06-29 2020-10-23 百度在线网络技术(北京)有限公司 用于处理语音的方法和装置
US11076035B2 (en) 2018-08-28 2021-07-27 Sonos, Inc. Do not disturb feature for audio notifications
US10461710B1 (en) 2018-08-28 2019-10-29 Sonos, Inc. Media playback system with maximum volume setting
US10587430B1 (en) 2018-09-14 2020-03-10 Sonos, Inc. Networked devices, systems, and methods for associating playback devices based on sound codes
US11024331B2 (en) 2018-09-21 2021-06-01 Sonos, Inc. Voice detection optimization using sound metadata
US11100923B2 (en) 2018-09-28 2021-08-24 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US11899519B2 (en) 2018-10-23 2024-02-13 Sonos, Inc. Multiple stage network microphone device with reduced power consumption and processing load
EP3654249A1 (en) 2018-11-15 2020-05-20 Snips Dilated convolutions and gating for efficient keyword spotting
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11132989B2 (en) 2018-12-13 2021-09-28 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
KR102590914B1 (ko) 2018-12-14 2023-10-19 삼성전자주식회사 전자 장치 및 이의 제어 방법
RU2744063C1 (ru) * 2018-12-18 2021-03-02 Общество С Ограниченной Ответственностью "Яндекс" Способ и система определения говорящего пользователя управляемого голосом устройства
US10602268B1 (en) 2018-12-20 2020-03-24 Sonos, Inc. Optimization of network microphone devices using noise classification
US10867604B2 (en) 2019-02-08 2020-12-15 Sonos, Inc. Devices, systems, and methods for distributed voice processing
US11315556B2 (en) 2019-02-08 2022-04-26 Sonos, Inc. Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification
US11120794B2 (en) 2019-05-03 2021-09-14 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
US10586540B1 (en) 2019-06-12 2020-03-10 Sonos, Inc. Network microphone device with command keyword conditioning
US11200894B2 (en) 2019-06-12 2021-12-14 Sonos, Inc. Network microphone device with command keyword eventing
US11361756B2 (en) 2019-06-12 2022-06-14 Sonos, Inc. Conditional wake word eventing based on environment
WO2021020877A1 (en) * 2019-07-29 2021-02-04 Samsung Electronics Co., Ltd. System and method for registering device for voice assistant service
US11138969B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US10871943B1 (en) 2019-07-31 2020-12-22 Sonos, Inc. Noise classification for event detection
US11138975B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
WO2021051403A1 (zh) * 2019-09-20 2021-03-25 深圳市汇顶科技股份有限公司 一种语音控制方法、装置、芯片、耳机及系统
US11189286B2 (en) 2019-10-22 2021-11-30 Sonos, Inc. VAS toggle based on device orientation
KR20210059367A (ko) 2019-11-15 2021-05-25 삼성전자주식회사 음성 입력 처리 방법 및 이를 지원하는 전자 장치
US11200900B2 (en) 2019-12-20 2021-12-14 Sonos, Inc. Offline voice control
US11562740B2 (en) 2020-01-07 2023-01-24 Sonos, Inc. Voice verification for media playback
US11308958B2 (en) 2020-02-07 2022-04-19 Sonos, Inc. Localized wakeword verification
US11727919B2 (en) 2020-05-20 2023-08-15 Sonos, Inc. Memory allocation for keyword spotting engines
US11308962B2 (en) 2020-05-20 2022-04-19 Sonos, Inc. Input detection windowing
US11482224B2 (en) 2020-05-20 2022-10-25 Sonos, Inc. Command keywords with input detection windowing
US11698771B2 (en) 2020-08-25 2023-07-11 Sonos, Inc. Vocal guidance engines for playback devices
KR20220099831A (ko) 2021-01-07 2022-07-14 삼성전자주식회사 전자 장치 및 전자 장치에서 사용자 발화 처리 방법
US11893985B2 (en) * 2021-01-15 2024-02-06 Harman International Industries, Incorporated Systems and methods for voice exchange beacon devices

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080253549A1 (en) 2000-02-11 2008-10-16 Microsoft Corporation Distributed conference bridge and voice authentication for access to networked computer resources
US20130179681A1 (en) 2012-01-10 2013-07-11 Jpmorgan Chase Bank, N.A. System And Method For Device Registration And Authentication
US20160155443A1 (en) * 2014-11-28 2016-06-02 Microsoft Technology Licensing, Llc Device arbitration for listening devices

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6480825B1 (en) * 1997-01-31 2002-11-12 T-Netix, Inc. System and method for detecting a recorded voice
US5913192A (en) * 1997-08-22 1999-06-15 At&T Corp Speaker identification with user-selected password phrases
JPH11311993A (ja) * 1998-04-30 1999-11-09 Toshiba Tec Corp 音声認識装置及びこの装置で使用される記憶媒体
US6978238B2 (en) * 1999-07-12 2005-12-20 Charles Schwab & Co., Inc. Method and system for identifying a user by voice
US8121649B2 (en) * 2001-09-05 2012-02-21 Vocera Communications, Inc. Voice-controlled communications system and method having an access device
US20030210770A1 (en) * 2002-05-10 2003-11-13 Brian Krejcarek Method and apparatus for peer-to-peer voice communication using voice recognition and proper noun identification
US7386448B1 (en) * 2004-06-24 2008-06-10 T-Netix, Inc. Biometric voice authentication
US20060080432A1 (en) * 2004-09-03 2006-04-13 Spataro Jared M Systems and methods for collaboration
US20060106605A1 (en) * 2004-11-12 2006-05-18 Saunders Joseph M Biometric record management
US8635243B2 (en) * 2007-03-07 2014-01-21 Research In Motion Limited Sending a communications header with voice recording to send metadata for use in speech recognition, formatting, and search mobile search application
KR20160138587A (ko) * 2009-03-06 2016-12-05 인터디지탈 패튼 홀딩스, 인크 무선 장치들의 플랫폼 검증 및 관리
US20120089392A1 (en) * 2010-10-07 2012-04-12 Microsoft Corporation Speech recognition user interface
KR20130104470A (ko) * 2012-03-14 2013-09-25 주식회사 포스뱅크 Pos 시스템에서 음성 인식을 이용한 서비스 제공 방법 및 장치
US9638537B2 (en) * 2012-06-21 2017-05-02 Cellepathy Inc. Interface selection in navigation guidance systems
US9275642B2 (en) * 2012-11-13 2016-03-01 Unified Computer Intelligence Corporation Voice-operated internet-ready ubiquitous computing device and method thereof
US9112984B2 (en) * 2013-03-12 2015-08-18 Nuance Communications, Inc. Methods and apparatus for detecting a voice command
US20140380445A1 (en) * 2013-03-17 2014-12-25 David Tunnell Universal Authentication and Data Exchange Method, System and Service
KR102394485B1 (ko) * 2013-08-26 2022-05-06 삼성전자주식회사 음성 인식을 위한 전자 장치 및 방법
CA2932273C (en) * 2013-12-06 2022-08-30 Adt Us Holdings, Inc. Voice activated application for mobile devices
GB2524222B (en) * 2013-12-18 2018-07-18 Cirrus Logic Int Semiconductor Ltd Activating speech processing
KR102210433B1 (ko) 2014-01-21 2021-02-01 삼성전자주식회사 전자 장치 및 이의 음성 인식 방법
US10157272B2 (en) * 2014-02-04 2018-12-18 Qualcomm Incorporated Systems and methods for evaluating strength of an audio password
US20150365750A1 (en) * 2014-06-16 2015-12-17 Mediatek Inc. Activating Method and Electronic Device Using the Same
KR102246900B1 (ko) * 2014-07-29 2021-04-30 삼성전자주식회사 전자 장치 및 이의 음성 인식 방법
US9812128B2 (en) * 2014-10-09 2017-11-07 Google Inc. Device leadership negotiation among voice interface devices
US9318107B1 (en) * 2014-10-09 2016-04-19 Google Inc. Hotword detection on multiple devices
US10257179B1 (en) * 2015-01-26 2019-04-09 Microstrategy Incorporated Credential management system and peer detection
KR102371697B1 (ko) * 2015-02-11 2022-03-08 삼성전자주식회사 음성 기능 운용 방법 및 이를 지원하는 전자 장치
US10157350B2 (en) * 2015-03-26 2018-12-18 Tata Consultancy Services Limited Context based conversation system
US9940934B2 (en) * 2015-11-18 2018-04-10 Uniphone Software Systems Adaptive voice authentication system and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080253549A1 (en) 2000-02-11 2008-10-16 Microsoft Corporation Distributed conference bridge and voice authentication for access to networked computer resources
US20130179681A1 (en) 2012-01-10 2013-07-11 Jpmorgan Chase Bank, N.A. System And Method For Device Registration And Authentication
US20160155443A1 (en) * 2014-11-28 2016-06-02 Microsoft Technology Licensing, Llc Device arbitration for listening devices

Also Published As

Publication number Publication date
US10762904B2 (en) 2020-09-01
KR20180012055A (ko) 2018-02-05
US20200312335A1 (en) 2020-10-01
US11404067B2 (en) 2022-08-02
US20180033438A1 (en) 2018-02-01

Similar Documents

Publication Publication Date Title
KR102575634B1 (ko) 전자 장치 및 전자 장치의 동작 방법
US11212486B1 (en) Location based device grouping with voice control
US11393472B2 (en) Method and apparatus for executing voice command in electronic device
KR102399592B1 (ko) 전자 장치 제어 시스템 및 전자 장치 제어 시스템의 동작 방법
US10353495B2 (en) Personalized operation of a mobile device using sensor signatures
US9544633B2 (en) Display device and operating method thereof
US9729821B1 (en) Sensor fusion for location based device grouping
KR102185166B1 (ko) 생체 정보를 인식하기 위한 전자 장치 및 방법
EP3535754B1 (en) Improved reception of audio commands
EP3160151B1 (en) Video display device and operation method therefor
US10891363B2 (en) User authenticating method and device
WO2019114584A1 (zh) 应用关联启动的方法、装置及移动终端
US20150029089A1 (en) Display apparatus and method for providing personalized service thereof
KR20160091725A (ko) 음성 인식 방법 및 장치
US10466795B2 (en) Mobile input device and command input method using the same
US9772815B1 (en) Personalized operation of a mobile device using acoustic and non-acoustic information
CN103916689A (zh) 电子装置及控制电子装置的方法
KR102374584B1 (ko) 영상을 디스플레이 하는 방법 및 디바이스
KR102174376B1 (ko) 이어잭 어셈블리를 갖는 전자 장치 및 그 운용 방법
WO2017215615A1 (zh) 一种音效处理方法及移动终端
KR102317090B1 (ko) 스마트 키의 기능을 공유하는 방법 및 디바이스.
KR20200035788A (ko) 디스플레이 기기의 제어 방법 및 그에 따른 디스플레이 기기
KR20200043128A (ko) 전자장치 및 그 제어방법
US9979492B2 (en) Method of sharing and receiving information based on sound signal and apparatus using the same
WO2019206223A1 (zh) 应用控制方法及移动终端

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right