KR102327279B1 - 통신 방법, 서버 및 장치 - Google Patents
통신 방법, 서버 및 장치 Download PDFInfo
- Publication number
- KR102327279B1 KR102327279B1 KR1020207011463A KR20207011463A KR102327279B1 KR 102327279 B1 KR102327279 B1 KR 102327279B1 KR 1020207011463 A KR1020207011463 A KR 1020207011463A KR 20207011463 A KR20207011463 A KR 20207011463A KR 102327279 B1 KR102327279 B1 KR 102327279B1
- Authority
- KR
- South Korea
- Prior art keywords
- voice command
- voice
- command
- information
- devices
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 183
- 238000004891 communication Methods 0.000 title claims abstract description 110
- 230000003993 interaction Effects 0.000 abstract description 24
- 230000009471 action Effects 0.000 description 86
- 230000000875 corresponding effect Effects 0.000 description 74
- 230000004044 response Effects 0.000 description 39
- 230000007958 sleep Effects 0.000 description 34
- 238000012545 processing Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 23
- 238000004458 analytical method Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 238000004590 computer program Methods 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 239000000872 buffer Substances 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
- G06F1/3231—Monitoring the presence, absence or movement of users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/02—Details
- H04L12/12—Arrangements for remote connection or disconnection of substations or of equipment thereof
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/40—Bus networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명의 실시예는 통신 방법, 서버 및 장치를 제공한다. 방법은 하나의 사용자의 다수의 장치 중의 각 장치에 의해 전송된 정보를 수신하는 단계- 이 정보는 장치 타입을 포함함 -와, 적어도 수신된 정보에 따라, 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정하는 단계와, 다수의 장치 중에서 음성 명령에 응답하는 장치와는 다른 장치에 메시지를 송신하는 단계- 메시지는 다른 장치의 음성 비서에게 음성 명령에 응답하지 않을 것을 지시하는 데 사용됨 -를 포함한다. 본 발명의 실시예에서, 하나의 사용자의 다수의 장치에 의해 전송된 정보가 수신되고, 이 정보에 따라 다수의 장치 중에서 음성 명령에 응답하는 장치가 결정된다. 다수의 상이한 장치를 갖는 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
Description
본 발명은 통신 분야에 관한 것으로, 특히 통신 방법, 서버 및 장치에 관한 것이다.
현재, 대부분의 이동 전화는 음성 비서(voice assistant)를 구비하고 있다. 또한, 음성 비서가 스마트 워치, 스마트 밴드 및 스마트 장치에 통합됨에 따라, 음성 비서는 미래의 장치에서는 "표준 구성"이 될 것이다.
장치의 음성 비서가 웨이크업되면, 장치의 음성 비서는 수신된 음성 명령에 따라 해당 동작을 수행한다. 그러나, 하나의 사용자가 예컨대 이동 전화, 스마트 워치, 태블릿 컴퓨터 및 웨어러블 장치와 같은 다수의 스마트 장치를 가질 수 있기 때문에, 사용자가 음성 비서를 웨이크업시키기 위한 음성 명령을 보내면, 다수의 장치의 음성 비서들이 동시에 웨이크업된다.
본 발명의 실시예는 하나의 사용자의 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정하여 음성 명령에 응답하는 장치를 지능적으로 선택할 수 있는 통신 방법, 서버 및 장치를 제공한다.
제1 양상에 따르면, 통신 방법이 제공되는데, 이 통신 방법은 하나의 사용자의 다수의 장치 중의 각 장치에 의해 전송된 정보를 수신하는 단계- 이 정보는 장치 타입을 포함함 -와, 적어도 수신된 정보에 따라, 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정하는 단계와, 다수의 장치 중에서 음성 명령에 응답하는 장치와는 다른 장치에 메시지를 송신하는 단계- 이 메시지는 다른 장치의 음성 비서에게 음성 명령에 응답하지 않을 것을 지시하는 데 사용됨 -를 포함한다.
제1 양상을 참조하면, 제1 가능한 구현예에서, 정보는 장치의 장면 모드(scene mode) 및 음성 명령 중 적어도 하나를 더 포함한다.
제1 양상 또는 제1 가능한 구현예를 참조하면, 제2 가능한 구현예에서, 정보가 장치 타입 및 음성 명령을 포함하는 경우, 적어도 수신된 정보에 따라 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정하는 단계는 음성 명령의 시맨틱 의미(semantic meaning)를 인식하는 단계와, 장치 타입 및 음성 명령의 시맨틱 의미에 따라, 음성 명령에 응답하는 장치를 결정하는 단계를 포함한다.
제1 양상, 또는 제1 또는 제2 가능한 구현예를 참조하면, 제4 가능한 구현예에서, 정보가 장치 타입 및 음성 명령을 포함하는 경우, 방법은 음성 명령에 대응하는 동작을 결정하는 단계와, 음성 명령에 응답하는 장치에, 동작을 나타내는 데 사용되는 표시 정보를 전송하는 단계를 더 포함한다.
제2 양상에 따르면, 또 다른 통신 방법이 제공되는데, 이 통신 방법은 하나의 사용자의 다수의 장치 중의 각 장치에 의해 전송된 동일한 음성 명령을 수신하는 단계와, 이 음성 명령에 대응하는 동작을 결정하는 단계와, 다수의 장치 중 음성 명령에 응답하는 장치에, 동작을 나타내는데 사용되는 표시 정보를 전송하는 단계를 포함하되, 음성 명령에 응답하는 장치는 다수의 장치 중의 각 장치에 의해 전송된 정보에 따라 결정되며, 그 정보는 장치 타입을 포함한다.
제2 양상을 참조하면, 제2 양상의 제1 가능한 구현예에서, 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함한다.
제3 양상에 따르면, 또 다른 통신 방법이 제공되는데, 이 통신 방법은 제1 음성 명령을 수신하는 단계와, 제1 음성 명령에 따라 웨이크업 상태에 진입하는 단계; 장치 타입을 포함하는 정보를 획득하는 단계와, 이 정보를 서버에 전송하는 단계와, 정보에 따라 서버에 의해 전송된 제1 메시지를 수신하거나, 또는 정보에 따라 서버에 의해 송신된 제2 메시지를 수신하는 단계를 포함하되, 제1 메시지는 장치의 음성 비서에게 음성 명령에 응답하지 않을 것을 지시하는데 사용되고, 제2 메시지는 장치의 음성 비서에게 음성 명령에 응답할 것을 지시하는데 사용된다.
제3 양상을 참조하면, 제3 양상의 제1 가능한 구현예에서, 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함한다.
제3 양상 또는 제3 양상의 제1 가능한 구현예를 참조하면, 제3 양상의 제2 가능한 구현예에서, 방법은 서버에 의해 전송되며 음성 명령에 대응하는 동작을 나타내는데 사용되는 표시 정보를 수신하는 단계를 더 포함하되, 이 정보는 음성 명령을 더 포함한다.
제3 양상 또는 제3 양상의 제1 가능한 구현예를 참조하면, 제3 양상의 제3 가능한 구현예에서, 정보에 따라 서버에 의해 전송된 제1 메시지가 수신된 경우, 방법은 제2 음성 명령을 수신하는 단계와, 이 제2 음성 명령에 응답하는 것을 건너뛰는 단계를 더 포함한다.
제3 양상 또는 제3 양상의 제1 또는 제2 가능한 구현예를 참조하면, 제3 양상의 제3 가능한 구현예에서, 정보에 따라 서버에 의해 전송된 제2 메시지가 수신되는 경우, 방법은 제3 음성 명령을 수신하는 단계와, 이 제3 음성 명령을 서버에 전송하는 단계와, 제3 음성 명령에 따라 서버에 의해 전송된 제3 메시지를 수신하는 단계- 제3 메시지는 제3 음성 명령에 대응하는 동작을 나타내는데 사용됨 -와, 제3 메시지에 따라, 제3 음성 명령에 대응하는 동작을 수행하는 단계를 더 포함한다.
제4 양상에 따르면, 또 다른 통신 방법이 제공되는데, 이 통신 방법은, 제1 음성 명령을 수신하는 단계와, 제1 음성 명령에 따라 웨이크업 상태에 진입하는 단계와, 장치 타입을 포함하는 정보를 획득하는 단계와, 이 정보를 서버에 전송하는 단계와, 제2 음성 명령을 수신하는 단계와, 제2 음성 명령을 서버에 전송하는 단계와, 정보에 따라 서버에 의해 전송되며 제2 음성 명령에 대응하는 동작을 나타내는데 사용되는 표시 정보를 수신하는 단계를 포함한다.
제4 양상을 참조하면, 제4 양상의 제1 가능한 구현예에서, 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함한다.
제5 양상에 따르면, 또 다른 통신 방법이 제공되는데, 이 통신 방법은, 제1 음성 명령을 수신하는 단계와, 제1 음성 명령에 따라 웨이크업 상태에 진입하는 단계와, 제2 음성 명령을 수신하는 단계와, 제2 음성 명령이 장치 정보를 포함한다고 판정하고, 이 제2 음성 명령에 응답하는 단계를 포함한다.
제6 양상에 따르면, 서버가 제공되는데, 이 서버는 하나의 사용자의 다수의 장치 중의 각 장치에 의해 전송된 정보를 수신하도록 구성된 수신 유닛- 이 정보는 장치 타입을 포함함 -과, 적어도 수신 유닛에 의해 수신된 정보에 따라, 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정하도록 구성된 처리 유닛과, 다수의 장치 중에서 음성 명령에 응답하는 장치와는 다른 장치로 메시지를 전송하도록 구성된 송신 유닛을 포함하되, 이 메시지는 다른 장치의 음성 비서에게 음성 명령에 응답하지 않을 것을 지시하는 데 사용된다.
제6 양상을 참조하면, 제6 양상의 제1 가능한 구현예에서, 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함한다.
제6 양상 또는 제6 양상의 제1 가능한 구현예를 참조하면, 제6 양상의 제2 가능한 구현예에서, 정보가 장치 타입 및 음성 명령을 포함하는 경우, 처리 유닛은 구체적으로, 음성 명령의 시맨틱 의미를 인식하고, 장치 타입 및 음성 명령의 시맨틱 의미에 따라, 음성 명령에 응답하는 장치를 결정하도록 구성된다.
제6 양상, 또는 제6 양상의 제1 또는 제2 가능한 구현예를 참조하면, 제6 양상의 제3 가능한 구현예에서, 정보가 장치 타입 및 음성 명령을 포함하는 경우, 처리 유닛은 음성 명령에 대응하는 동작을 결정하도록 더 구성되고, 송신 유닛은 이 동작을 나타내는데 사용되는 표시 정보를 음성 명령에 응답하는 장치에 전송하도록 더 구성된다.
제7 양상에 따르면, 또 다른 서버가 제공되는데, 이 서버는 하나의 사용자의 다수의 장치 중의 각각의 장치에 의해 전송된 동일한 음성 명령을 수신하도록 구성된 수신 유닛과, 수신 유닛에 의해 수신된 음성 명령에 대응하는 동작을 결정하도록 구성된 처리 유닛과, 이 동작을 나타내는데 사용되는 표시 정보를, 다수의 장치 중에서 음성 명령에 응답하는 장치에 전송하도록 구성된 송신 유닛을 포함하되, 음성 명령에 응답하는 장치는 다수의 장치 중의 각 장치에 의해 전송된 정보에 따라 결정되고, 이 정보는 장치 타입을 포함한다.
제7 양상을 참조하면, 제7 양상의 제1 가능한 구현예에서, 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함한다.
제8 양상에 따르면, 장치가 제공되는데, 이 장치는 제1 음성 명령을 수신하도록 구성된 수신 유닛과, 수신 유닛에 의해 수신된 제1 음성 명령에 따라 웨이크업 상태에 진입하도록 구성된 처리 유닛과, 장치 타입을 포함하는 정보를 획득하도록 구성된 획득 유닛과, 이 정보를 서버에 전송하도록 구성된 송신 유닛을 포함하되, 수신 유닛은 정보에 따라 서버에 의해 전송된 제1 메시지를 수신하거나, 또는 정보에 따라 서버에 의해 송신된 제2 메시지를 수신하도록 더 구성되고, 제1 메시지는 장치의 음성 비서에게 음성 명령에 응답하지 않을 것을 지시하는데 사용되고, 제2 메시지는 장치의 음성 비서에게 음성 명령에 응답할 것을 지시하는데 사용된다.
제8 양상을 참조하면, 제8 양상의 제1 가능한 구현예에서, 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함한다.
제8 양상 또는 제8 양상의 제1 가능한 구현예를 참조하면, 제8 양상의 제2 가능한 구현예에서, 수신 유닛은 서버에 의해 전송되며 음성 명령에 대응하는 동작을 나타내는데 사용되는 표시 정보를 수신하도록 더 구성되며, 정보는 음성 명령을 더 포함한다.
제8 양상 또는 제8 양상의 제1 가능한 구현예를 참조하면, 제8 양상의 제3 가능한 구현예에서, 수신 유닛이 제1 메시지를 수신한 경우, 이 수신 유닛은 제2 음성 명령을 수신하도록 더 구성되고, 처리 유닛은 수신 유닛에 의해 수신된 제2 음성 명령에 응답하는 것을 건너뛰도록 더 구성된다.
제8 양상 또는 제8 양상의 제1 또는 제2 가능한 구현예를 참조하면, 제8 양상의 제4 가능한 구현예에서, 수신 유닛이 제2 메시지를 수신하는 경우, 이 수신 유닛은 제3 음성 명령을 수신하도록 더 구성되고, 송신 유닛은 수신 유닛에 의해 수신된 제3 음성 명령을 서버에 전송하도록 더 구성되며, 수신 유닛은 제3 음성 명령에 따라 서버에 의해 전송된 제3 메시지를 수신하도록 더 구성되고- 제3 메시지는 제3 음성 명령에 대응하는 동작을 나타내는데 사용됨 -, 처리 유닛은 제3 메시지에 따라, 제3 음성 명령에 대응하는 동작을 수행하도록 더 구성된다.
제9 양상에 따르면, 또 다른 장치가 제공되는데, 이 장치는 제1 음성 명령을 수신하도록 구성된 수신 유닛과, 제1 음성 명령에 따라 웨이크업 상태에 진입하도록 구성된 처리 유닛과, 장치 타입을 포함하는 정보를 획득하도록 구성된 획득 유닛과, 이 정보를 서버에 전송하도록 구성된 송신 유닛을 포함하되, 수신 유닛은 제2 음성 명령을 수신하도록 더 구성되고, 송신 유닛은 제2 음성 명령을 서버에 전송하도록 더 구성되며, 수신 유닛은 정보에 따라 서버에 의해 전송되며 제2 음성 명령에 대응하는 동작을 나타내는데 사용되는 표시 정보를 수신하도록 더 구성된다.
제9 양상을 참조하면, 제9 양상의 제1 가능한 구현예에서, 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함한다.
제10 양상에 따르면, 또 다른 장치가 제공되는데, 이 장치는 제1 음성 명령을 수신하도록 구성된 수신 유닛과, 제1 음성 명령에 따라 웨이크업 상태에 진입하도록 구성된 처리 유닛을 포함하되, 수신 유닛은 제2 음성 명령을 수신하도록 더 구성되고, 처리 유닛은 제2 음성 명령이 장치 정보를 포함한다고 판정하고, 이 제2 음성 명령에 응답하도록 더 구성된다.
제11 양상에 따르면, 또 다른 서버가 제공되는데, 이 서버는 하나 이상의 프로세서, 메모리, 버스 시스템, 트랜시버 및 하나 이상의 프로그램을 포함하되, 프로세서, 메모리 및 트랜시버는 버스 시스템을 사용하여 서로 연결되고, 하나 이상의 프로그램은 메모리에 저장되고 하나 이상의 프로세서에 의해 실행되도록 구성되며, 하나 이상의 프로그램은 명령어를 포함하고, 이 명령어는: 트랜시버를 사용하여, 하나의 사용자의 다수의 장치 중의 각 장치에 의해 전송된 정보- 이 정보는 장치 타입을 포함함 -를 수신하고, 적어도 트랜시버에 의해 수신된 정보에 따라, 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정하고, 트랜시버를 사용하여, 다수의 장치 중에서 음성 명령에 응답하는 장치와는 다른 장치로 메시지를 전송하는데 사용되며, 이 메시지는 다른 장치의 음성 비서에게 음성 명령에 응답하지 않을 것을 지시하는데 사용된다.
제11 양상을 참조하면, 제11 양상의 가능한 제1 구현예에서, 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함한다.
제11 양상 또는 제11 양상의 제1 가능한 구현예를 참조하면, 제11 양상의 제2 가능한 구현예에서, 정보가 장치 타입 및 음성 명령을 포함하는 경우, 명령어는: 음성 명령의 시맨틱 의미를 인식하고, 장치 타입 및 음성 명령의 시맨틱 의미에 따라, 음성 명령에 응답하는 장치를 결정하는데 더 사용된다.
제11 양상 또는 제11 양상의 제1 또는 제2 가능한 구현예를 참조하면, 제11 양상의 제3 가능한 구현예에서, 정보가 장치 타입 및 음성 명령을 포함하는 경우, 명령어는: 음성 명령에 대응하는 동작을 결정하고, 트랜시버를 사용하여, 동작을 나타내는데 사용되는 표시 정보를, 다수의 장치 중에서 음성 명령에 응답하는 장치에 전송하는데 더 사용된다.
제12 양상에 따르면, 또 다른 서버가 제공되는데, 이 서버는 하나 이상의 프로세서, 메모리, 버스 시스템, 트랜시버 및 하나 이상의 프로그램을 포함하되, 프로세서, 메모리 및 트랜시버는 버스 시스템을 사용하여 서로 연결되고, 하나 이상의 프로그램은 메모리에 저장되고 하나 이상의 프로세서에 의해 실행되도록 구성되며, 하나 이상의 프로그램은 명령어를 포함하고, 이 명령어는: 트랜시버를 사용하여, 하나의 사용자의 다수의 장치 중의 각 장치에 의해 전송된 동일한 음성 명령을 수신하고, 트랜시버에 의해 수신된 음성 명령에 대응하는 동작을 결정하고, 트랜시버를 사용하여, 동작을 나타내는데 사용되는 표시 정보를, 다수의 장치 중에서 음성 명령에 응답하는 장치에 전송하는데 사용되고, 음성 명령에 응답하는 장치는 다수의 장치 중의 각 장치에 의해 전송된 정보에 따라 결정되고, 이 정보는 장치 타입을 포함한다.
제12 양상을 참조하면, 제12 양상의 제1 가능한 구현예에서, 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함한다.
제13 양상에 따르면, 또 다른 장치가 제공되는데, 이 장치는 하나 이상의 프로세서, 메모리, 버스 시스템, 트랜시버 및 하나 이상의 프로그램을 포함하되, 프로세서, 메모리 및 트랜시버는 버스 시스템을 사용하여 서로 연결되고, 하나 이상의 프로그램은 메모리에 저장되고 하나 이상의 프로세서에 의해 실행되도록 구성되며, 하나 이상의 프로그램은 명령어를 포함하고, 이 명령어는: 트랜시버를 사용하여 제1 음성 명령을 수신하고, 트랜시버에 의해 수신된 제1 음성 명령에 따라 웨이크업 상태에 진입하고, 장치 타입을 포함하는 정보를 획득하고, 트랜시버를 사용하여 정보를 서버로 전송하며, 트랜시버를 사용하여, 정보에 따라 서버에 의해 전송된 제1 메시지를 수신하거나, 트랜시버를 사용하여, 정보에 따라 서버에 의해 전송된 제2 메시지를 수신하는데 사용되고, 제1 메시지는 장치의 음성 비서에게 음성 명령에 응답하지 않을 것을 지시하는 데 사용되고, 제2 메시지는 장치의 음성 비서에게 음성 명령에 응답할 것을 지시하는 데 사용된다.
제13 양상을 참조하면, 제13 양상의 제1 가능한 구현에서, 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함한다.
제13 양상 또는 제13 양상의 제1 가능한 구현예를 참조하면, 제13 양상의 제2 가능한 구현예에서, 명령어는 또한 트랜시버를 사용하여, 서버에 의해 전송되며 음성 명령에 대응하는 동작을 나타내는데 사용되는 표시 정보를 수신하는데 사용되며, 정보는 음성 명령을 더 포함한다.
제13 양상 또는 제13 양상의 제1 가능한 구현예를 참조하면, 제13 양상의 제2 가능한 구현예에서, 명령어는 또한 제1 메시지가 트랜시버를 사용하여 수신되는 경우, 트랜시버를 사용하여 제2 음성 명령을 수신하고, 트랜시버에 의해 수신된 제2 음성 명령에 응답하는 것을 건너뛰도록 하는데 사용된다.
제13 양상 또는 제13 양상의 제1 가능한 구현예를 참조하면, 제13 양상의 제3 가능한 구현예에서, 명령어는 또한, 제2 메시지가 트랜시버를 사용하여 수신되는 경우, 트랜시버를 사용하여 제3 음성 명령을 수신하고, 트랜시버를 사용하여 제3 음성 명령을 서버에 전송하고, 트랜시버를 사용하여, 제3 음성 명령에 따라 서버에 의해 전송된 제3 메시지- 이 제3 메시지는 제3 음성 명령에 대응하는 동작을 나타내는데 사용됨 -를 수신하며, 제3 메시지에 따라, 제3 음성 명령에 대응하는 동작을 수행하는데 사용된다.
제14 양상에 따르면, 또 다른 장치가 제공되는데, 이 장치는 하나 이상의 프로세서, 메모리, 버스 시스템, 트랜시버 및 하나 이상의 프로그램을 포함하되, 프로세서, 메모리 및 트랜시버는 버스 시스템을 사용하여 서로 연결되고, 하나 이상의 프로그램은 메모리에 저장되고 하나 이상의 프로세서에 의해 실행되도록 구성되며, 하나 이상의 프로그램은 명령어를 포함하고, 이 명령어는: 트랜시버를 사용하여 제1 음성 명령을 수신하고, 이 제1 음성 명령에 따라 웨이크업 상태에 진입하고, 장치 타입을 포함하는 정보를 획득하고, 트랜시버를 사용하여 정보를 서버로 전송하고, 트랜시버를 사용하여 제2 음성 명령을 수신하고, 트랜시버를 사용하여 제2 음성 명령을 서버에 전송하며, 트랜시버를 사용하여, 정보에 따라 서버에 의해 전송되며 제2 음성 명령에 대응하는 동작을 나타내는데 사용되는 표시 정보를 수신하는데 사용된다.
제14 양상을 참조하면, 제14 양상의 제1 가능한 구현예에서, 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함한다.
제15 양상에 따르면, 또 다른 장치가 제공되는데, 이 장치는 하나 이상의 프로세서, 메모리, 버스 시스템, 트랜시버 및 하나 이상의 프로그램을 포함하되, 프로세서, 메모리 및 트랜시버는 버스 시스템을 사용하여 서로 연결되고, 하나 이상의 프로그램은 메모리에 저장되고 하나 이상의 프로세서에 의해 실행되도록 구성되며, 하나 이상의 프로그램은 명령어를 포함하고, 이 명령어는: 트랜시버를 사용하여 제1 음성 명령을 수신하고, 이 제1 음성 명령에 따라 웨이크업 상태에 진입하고, 트랜시버를 사용하여 제2 음성 명령을 수신하며, 제2 음성 명령이 장치 정보를 포함하는 것으로 결정하고 이 제2 음성 명령에 응답하는데 사용된다.
기술적 솔루션에 기초하여, 본 발명의 실시예에서, 하나의 사용자의 다수의 장치에 의해 전송된 정보가 수신되고, 이 정보에 따라 다수의 장치 중에서 음성 명령에 응답하는 장치가 결정된다. 다수의 상이한 장치를 갖는 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리한 인간-머신 상호작용 경험이 사용자에게 제공된다.
본 발명의 실시예에서 기술적 솔루션을 보다 명확히 설명하기 위해, 이하에서는 본 발명의 실시예를 설명하는데 필요한 첨부 도면을 간단히 설명할 것이다. 이하의 설명에서 첨부 도면은 본 발명의 일부 실시예만을 도시한 것이며, 당업자라면 창의적인 노력없이도 이들 첨부 도면으로부터 다른 도면을 도출할 수 있다는 것은 자명하다.
도 1a는 본 발명의 실시예에 따른 통신 방법이 적용가능한 시나리오의 개략도이다.
도 1b는 본 발명의 실시예에 따른 통신 방법이 적용가능한 다른 시나리오의 개략도이다.
도 2는 본 발명의 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 3은 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 4는 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 5는 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 6은 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 7은 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 8은 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 9는 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 10은 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 11은 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 12는 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 13은 본 발명의 실시예에 따른 서버의 개략적인 블록도이다.
도 14는 본 발명의 다른 실시예에 따른 서버의 개략적인 블록도이다.
도 15는 본 발명의 실시예에 따른 장치의 개략적인 블록도이다.
도 16은 본 발명의 다른 실시예에 따른 장치의 개략적인 블록도이다.
도 17은 본 발명의 다른 실시예에 따른 장치의 개략적인 블록도이다.
도 18은 본 발명의 다른 실시예에 따른 서버의 개략적인 블록도이다.
도 19는 본 발명의 다른 실시예에 따른 서버의 개략적인 블록도이다.
도 20은 본 발명의 다른 실시예에 따른 장치의 개략적인 블록도이다.
도 21은 본 발명의 다른 실시예에 따른 장치의 개략적인 블록도이다.
도 22는 본 발명의 다른 실시예에 따른 장치의 개략적인 블록도이다.
도 1a는 본 발명의 실시예에 따른 통신 방법이 적용가능한 시나리오의 개략도이다.
도 1b는 본 발명의 실시예에 따른 통신 방법이 적용가능한 다른 시나리오의 개략도이다.
도 2는 본 발명의 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 3은 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 4는 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 5는 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 6은 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 7은 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 8은 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 9는 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 10은 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 11은 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 12는 본 발명의 다른 실시예에 따른 통신 방법의 개략적인 흐름도이다.
도 13은 본 발명의 실시예에 따른 서버의 개략적인 블록도이다.
도 14는 본 발명의 다른 실시예에 따른 서버의 개략적인 블록도이다.
도 15는 본 발명의 실시예에 따른 장치의 개략적인 블록도이다.
도 16은 본 발명의 다른 실시예에 따른 장치의 개략적인 블록도이다.
도 17은 본 발명의 다른 실시예에 따른 장치의 개략적인 블록도이다.
도 18은 본 발명의 다른 실시예에 따른 서버의 개략적인 블록도이다.
도 19는 본 발명의 다른 실시예에 따른 서버의 개략적인 블록도이다.
도 20은 본 발명의 다른 실시예에 따른 장치의 개략적인 블록도이다.
도 21은 본 발명의 다른 실시예에 따른 장치의 개략적인 블록도이다.
도 22는 본 발명의 다른 실시예에 따른 장치의 개략적인 블록도이다.
이하에서는 본 발명의 실시예에서의 첨부 도면을 참조하여 본 발명의 실시예의 기술적 솔루션을 명확하고 완전하게 설명한다. 설명된 실시예는 본 발명의 실시예의 일부일 뿐 전부는 아니라는 것은 분명하다. 창의적인 노력없이 본 발명의 실시예에 기초하여 당업자에 의해 획득되는 다른 모든 실시예는 본 발명의 보호 범위 내에 있다.
본 발명의 다양한 실시예에서, 프로세스의 시퀀스 번호는 실행 순서를 의미하지 않는다는 것을 이해해야 한다. 프로세스의 실행 순서는 프로세스의 기능 및 내부 로직에 따라 결정되어야 하며, 본 발명의 실시예의 구현 프로세스에 대한 임의의 제한으로 해석되어서는 안된다.
본 명세서에 포함된 장치는 사용자의 삶과 밀접하게 관련된 스마트 장치 또는 이동 장치를 지칭함을 알아야 한다. 예를 들어, 장치는 스마트폰, 웨어러블 장치, 스마트 홈 기기 및 차량 내 장치를 포함할 수 있지만 이에 국한되지는 않는다. 웨어러블 장치는 스마트 워치, 밴드 및 스마트 글래스를 포함할 수 있지만 이에 국한되지 않는다. 또한, 본 명세서에 포함된 서버는 도 1의 음성 보조 서버일 수 있거나, 음성 명령을 인식할 수 있는 다른 장치일 수 있거나, 또는 음성 명령을 인식할 수 있는 도 1b의 제어기일 수 있다.
본 명세서에 포함된 "하나의 사용자의 다수의 장치"는 다수의 장치가 동일한 사용자 계정을 가지며 다수의 장치가 동일한 사용자 계정을 사용하여 무선으로 연결된 상태를 유지함을 나타낸다는 것을 알아야 한다.
본 명세서에 포함된 "음성 명령"은 음성 동작 명령 및/또는 음성 웨이크업 명령을 포함한다는 것을 이해해야 한다.
도 1a는 본 발명의 실시예에 따른 통신 방법이 적용가능한 시나리오의 개략도이다. 도 1a에 도시된 바와 같이, 음성 보조 서버는 하나의 사용자의 다수의 장치와 통신하며, 다수의 장치는 사용자에 의해 전송된 동일한 음성 웨이크업 명령 또는 음성 동작 명령을 동시에 수신할 수 있다. 도 1a는 음성 보조 서버가 하나의 사용자의 이동 전화, 웨어러블 장치, 차량 내 장치 및 스마트 홈 기기와 통신하는 하나의 예를 사용할 뿐이다. 그러나, 본 발명의 이 실시예에서 장치에 대한 제한은 없다.
선택에 따라, 도 1b에 도시된 바와 같이, 도 1a의 다수의 장치는 또한 애드 혹 네트워크를 형성할 수 있다. 애드 혹 네트워크의 제어기는 독립적인 장치 일 수도 있고 다수의 장치 중의 임의의 장치일 수도 있다.
본 발명의 이 실시예에서, 음성 비서는 장치에 통합된 처리 모듈 또는 장치에 설치된 클라이언트일 수 있음을 알아야 한다. 음성 비서에 대응하는 클라이언트는 장치의 디스플레이 스크린 상에 대응하는 아이콘 또는 인터페이스를 디스플레이할 수 있거나, 또는 대응하는 아이콘 또는 인터페이스를 디스플레이하지 않고, 단지 백그라운드에서 실행될 수 있다. 음성 비서는 미리 저장된 음성 데이터를 이용하여 대응하는 음성 데이터를 인식할 수 있다. 본 발명의 이 실시예에서의 음성 비서는 지능형 비서, 개인용 오거나이저(personal organizer) 등으로 지칭될 수 있다. 본 발명의 이 실시예에는 제한을 두지 않는다.
음성 보조 서버는 장치에 의해 전송된 음성 동작 분석 요청을 수신하고, 음성 동작 분석 요청에 포함된 음성 동작 명령을 분석하여 음성 동작 명령에 대응하는 동작을 결정하고 그 동작의 표시 정보를 장치에 전달할 수 있다.
도 2는 본 발명의 실시예에 따른 통신 방법(200)의 개략적인 흐름도이다. 서버는 하나의 사용자의 다수의 장치와 통신하며, 다수의 장치는 사용자에 의해 전송된 동일한 음성 명령을 동시에 수신할 수 있다. 방법(200)은 서버(예를 들어, 음성 보조 서버 또는 애드혹 네트워크 내의 제어기)에 의해 실행될 수 있다. 도 2에 도시된 바와 같이, 방법(200)은 아래의 단계를 포함한다.
210. 하나의 사용자의 다수의 장치 중의 각 장치에 전송된 정보를 수신하되, 이 정보는 장치 유형을 포함한다.
220. 적어도 수신된 정보에 따라, 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정한다.
음성 명령에 응답하는 장치는 음성 명령에 대응하는 동작을 수행한다.
230. 다수의 장치 중에서 음성 명령에 응답하는 장치와 다른 장치에 메시지를 전송하되, 이 메시지는 다른 장치의 음성 비서에게 음성 명령에 응답하지 않을 것을 지시하는데 사용된다.
선택에 따라, 메시지는 장치가 음성 명령에 응답한다는 것을 다른 장치에 통지하기 위해, 음성 명령에 응답하는 장치의 식별 정보를 더 운반할 수 있다.
각 장치의 장치 타입은 다음과 같은 타입, 즉 이동 전화, 밴드, 차량 내 단말기, 스테레오, 텔레비젼 등 중 임의의 하나일 수 있다. 음성 명령에 응답하는 장치는 또한 우선 응답 장치, 기본 장치, 실행 장치, 바람직한 장치 등으로 지칭될 수 있다.
예를 들어, 서버는 다수의 장치 타입에 대응하는 응답 우선순위 정보를 사전에 저장할 수 있고, 서버는 장치 타입에 대응하는 응답 우선순위에 따라, 음성 명령에 우선적으로 응답하는 장치를 결정할 수 있다. 서버는 다음과 같은 장치 타입, 즉 차량 내 장치, 밴드, 이동 전화 및 스테레오에 대응하는 응답 우선순위를 내림차순으로 사전에 저장하는 것으로 가정한다. 단계(210)에서 수신된 장치 타입이 밴드, 차량 내 장치, 및 이동 전화인 경우, 서버는 로컬로 사전 저장된 응답 우선순위 정보에 따라, 차량 내 장치가 음성 명령에 응답하는 장치임을 결정할 수 있다.
선택에 따라, 단계(230)에서, 다수의 장치 중에서 음성 명령에 응답하는 장치와는 다른 장치로 전송된 메시지는 슬립 명령 정보를 더 운반할 수 있으며, 그에 따라 음성 명령에 응답하지 않는 장치는 슬립 명령 정보에 따라 슬립 상태에 진입할 수 있다. 슬립 상태에 진입하는 장치의 저전력 음성 웨이크업 모듈은 여전히 모니터링 상태에 있지만, 수신된 음성 명령에 응답하지는 않는다.
본 발명의 실시예에서, 하나의 사용자의 다수의 장치에 의해 전송된 정보가 수신되고, 이 정보에 따라 다수의 장치 중에서 음성 명령에 우선적으로 응답하는 장치가 결정된다. 다수의 상이한 장치를 갖는 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있으며, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
사용자의 장치가 단계(230)에서 전송된 메시지를 수신하지 않는 경우, 예를 들어, 장치가 사전 설정된 기간 내에 서버에 의해 전송된 메시지를 수신하지 않는 경우, 이 장치는 기본적으로 음성 명령에 응답하는 장치로서 간주될 수 있는데, 즉 장치는 수신된 음성 명령에 응답할 수 있다. 예를 들어, 장치는 음성 명령을 운반하는 음성 동작 분석 요청을 서버에 전송할 수 있고, 음성 명령에 대응하는 동작을 서버에 요청할 수 있으며, 그 동작을 수행할 수 있다. 그러나, 본 발명의 이 실시예에는 제한이 없다. 예를 들어, 방법(200)에서, 서버가 음성 명령에 응답할 것을 장치에게 지시하기 위한 메시지를 음성 명령에 응답하는 장치에 동시에 전송할 수 있다. 메시지를 수신한 후, 장치는 수신된 음성 명령에 대응하는 동작을 서버에 요청할 수 있고, 그 동작을 수행할 수 있다.
선택에 따라, 각 장치에 의해 전송된 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 포함할 수 있다.
예를 들어, 각 장치의 장면 모드는 다음과 같은 타입, 즉 운전, 거실 내, 침실 내, 운동, 업무, 헤드셋 모드, 확성기 모드 등 중 임의의 하나를 포함할 수 있다.
각각의 장치에 의해 전송된 정보가 장치 타입 및 장면 모드를 포함하는 경우, 음성 보조 서버 또는 제어기는 하나의 사용자의 다른 장치 정보, 다른 장면 모드, 및 다른 장치 타입에 대응하는 응답 장치의 우선순위 정보 및 기타 유사 정보를 사전에 저장할 수 있다. 예를 들어, 이하의 표 1은 음성 명령에 응답하는 장치와 장치 타입 및 장면 모드 간의 대응관계를 보여준다. 다수의 장치의 장치 타입 및 장면 모드를 수신한 후, 서버는 장면 모드 및 장치 타입을 표 1에 도시된 사전 저장된 정보에 매칭시킨다. 예를 들어, 장면 모드가 "운전"이고, 현재 수신된 장치 타입이 이동 전화, 밴드 및 차량 내 장치를 포함하는 경우, 서버는 차량 내 장치를 음성 명령에 응답하는 현재 장치로서 자동으로 선택한다. 표 1에서, 장치 타입은 음성 명령에 응답하는 장치를 나타내는데 사용되지만, 본 발명의 이 실시예에 제한을 두지 않는다는 것을 알아야 한다. 예를 들어, 서버는 또한 장치 식별자와 장치 타입 간의 대응관계를 사전에 저장할 수 있다. 표 1에 도시된 대응관계 표에서, 장치 식별자는 또한 음성 명령에 응답하는 장치를 나타내는데 사용될 수 있다.
표 1에 도시된 콘텐츠는 단지 하나의 예일 뿐이며, 본 발명의 이 실시예의 범위를 제한하려 하지 않음을 또한 알아야 한다. 서버는 또한 우선순위가 설정되는 다수의 장치, 장치 타입, 장면 모드 및/또는 시맨틱 의미 간의 대응관계를 사전에 저장할 수 있고, 다수의 장치 중에서 비교적 높은 우선순위를 갖는 장치를 음성 명령에 응답하는 장치로서 사전설정할 수 있다. 예를 들어, 서버에 의해 수신된 장치 타입이 가장 높은 우선순위를 갖는 장치에 대응하는 사전 저장된 장치 타입을 포함하지 않는 경우, 서버는 다수의 장치 중에서 두 번째로 가장 높은 우선순위를 갖는 장치가 음성 명령에 대응하는 장치인 것으로 결정한다.
각 장치에 의해 전송된 정보가 장치 타입 및 음성 명령을 더 포함하는 경우, 단계(220)는 그에 따라 음성 명령의 시맨틱 의미를 인식하는 단계, 및 장치 타입 및 음성 명령의 시맨틱 의미에 따라, 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정하는 단계를 포함한다. 표 1에 도시되어 있는 바와 같이, 서버는 또한 음성 명령에 응답하는 장치, 장치 타입 및 시맨틱 의미 간의 대응관계를 사전에 저장할 수 있다. 서버는 음성 명령의 시맨틱 의미를 인식한다. 예를 들어, 시맨틱 의미가 "전화 걸기"이고, 수신된 장치 타입이 이동 전화 및 밴드를 포함하는 경우, 서버는 음성 명령에 응답하는 장치는 이동 전화인 것으로 결정한다
각 장치에 의해 전송된 정보가 장치 타입, 장면 모드 및 음성 명령을 포함하는 경우, 단계(220)는 구체적으로 음성 명령의 시맨틱 의미를 인식하는 단계, 및 장치 타입, 음성 명령의 시맨틱 의미, 및 장면 모드에 따라, 다수의 장치로부터 음성 명령에 응답하는 장치를 결정하는 단계를 포함한다.
표 1에 도시되어 있는 바와 같이, 서버는 또한 음성 명령에 응답하는 장치, 장면 모드, 장치 타입 및 시맨틱 의미 간의 대응관계를 사전에 저장할 수 있다. 예를 들어, 시맨틱 의미가 "음악 감상"이고, 획득된 장치 타입이 이동 전화, 스테레오, 및 차량 내 장치를 포함하는 경우, 서버는 계속해서 장치 타입에 대응하는 장치의 장면 모드를 계속해서 획득하고, 예를 서어 장면 모드가 "거실 내"라면, 서버는 음성 명령에 응답하는 현재 장치는 스테레오인 것으로 결정한다. 분명히, 서버는 장면 모드를 먼저 결정하고, 그런 다음 시맨틱 의미에 따라, 음성 명령에 응답하는 현재 장치를 결정할 수 있다.
본 발명의 이 실시예에서, 음성 명령에 응답하는 장치가 음성 명령의 시맨틱 의미, 장면 모드, 및 장치 타입에 따라 결정되어, 장치는 더 정확하게 선택될 수 있다.
선택에 따라, 방법(200)은 음성 명령에 대응하는 동작을 결정하는 단계, 및 동작을 나타내는데 사용되는 표시 정보를 음성 명령에 응답하는 장치로 전송하는 단계를 더 포함할 수 있다.
애드 혹 네트워크의 제어기가 음성 명령을 분석할 수 없다면, 제어기가 장치 타입 및 장면 모드에 따라, 음성 명령에 응답하는 장치를 결정한 후, 제어기는 음성 명령을 운반하는 음성 동작 분석 요청을 서버(예를 들어, 음성 보조 서버)에 전송할 것을 음성 명령에 응답하는 장치에게 지시하기 위해, 메시지를 음성 명령에 응답하는 장치에 전송할 필요가 있다.
결론적으로, 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정한 후, 서버는 다수의 장치 중에서 음성 명령에 응답하지 않는 장치에게 메시지를 전송하여, 음성 명령에 응답하지 않는 장치의 음성 비서에게 수신된 음성 명령에 응답하지 않을 것을 지시하거나, 음성 명령에 응답하지 않는 장치의 음성 비서에게 슬립 상태에 진입할 것을 지시할 수 있다. 선택에 따라, 서버는 동시에 음성 명령에 응답하는 장치에 메시지를 전송하여, 장치에게 수신된 음성 명령에 응답할 것을 지시할 수 있다. 이 경우, 음성 명령에 응답하는 장치의 음성 비서만이 음성 동작 명령을 수신한 후 음성 동작 분석 요청을 서버에 전송한다.
본 발명의 이 실시예에서, 하나의 사용자의 다수의 장치에 의해 전송된 정보가 수신되고, 이 정보에 따라 다수의 장치 중에서 음성 명령에 우선적으로 응답하는 장치가 결정된다. 다수의 상이한 장치를 구비한 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
도 3은 본 발명의 다른 실시예에 따른 통신 방법(300)의 개략적인 흐름도이다. 서버는 하나의 사용자의 다수의 장치와 통신하고, 다수의 장치는 사용자에 의해 전송된 동일한 음성 명령을 동시에 수신할 수 있다. 통신 방법(300)은 서버에 의해 실행될 수 있다. 도 3에 도시된 바와 같이, 통신 방법(300)은 다음과 같은 단계를 포함한다.
310. 하나의 사용자의 다수의 장치 중의 각 장치에 의해 전송된 동일한 음성 명령을 수신한다.
320. 음성 명령에 대응하는 동작을 결정한다.
330. 동작을 나타내는데 사용되는 표시 정보를, 다수의 장치 중에서 음성 명령에 응답하는 장치에 전송하되, 음성 명령에 응답하는 장치는 다수의 장치 중의 각 장치에 의해 전송된 정보에 따라 결정되고, 이 정보는 장치 타입을 포함한다.
본 발명의 이 실시예에서, 동작의 표시 정보가 음성 명령에 응답하는 장치에 자동으로 전송된다. 다수의 상이한 장치를 갖는 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있으며, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
선택에 따라, 단계(330) 이전에, 통신 방법(300)은 하나의 사용자의 다수의 장치 중의 각 장치에 의해 전송된 정보를 수신하는 단계- 정보는 장치 타입을 포함함 -와, 이 정보에 따라, 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정하는 단계를 더 포함할 수 있다.
각 장치는 정보 및 음성 명령을 별개로 전송할 수 있고, 또는 정보 및 음성 명령을 동시에 전송할 수도 있다는 것을 알아야 한다. 본 발명의 이 실시예에 제한을 두지 않는다.
예를 들어, 다수의 장치 중에서 응답 장치를 결정한 후, 서버는 계속해서 다수의 장치 중의 각 장치에 의해 전송된 음성 동작 분석 요청을 수신하고, 음성 명령에 대응하는 동작을 결정한 후, 동작의 표시 정보를 다수의 장치 중에서 음성 명령에 응답하는 장치에 전송한다.
선택에 따라, 통신 방법(300)은 다수의 장치 중에서 음성 명령에 응답하지 않는 장치에 메시지를 전송하여, 그 장치에게 음성 명령에 응답하는 장치가 대응하는 동작을 수행함을 통지하고, 슬립 상태에 진입할 것을 장치에게 지시하는 단계를 더 포함할 수 있다.
선택에 따라, 각 장치에 의해 전송된 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함할 수 있다.
본 발명의 이 실시예에서, 각 장치에 의해 전송된 정보에 따라, 음성 명령에 응답하는 장치를 결정하는 방법에 대해, 도 2에 도시된 실시예에서의 관련 설명을 참조할 수 있음을 알아야 한다. 반복을 피하기 위해, 세부사항은 여기서 다시 설명되지 않는다.
본 발명의 이 실시예에서, 동작의 표시 정보가 음성 명령에 응답하는 장치에 자동으로 전송된다. 다수의 상이한 장치를 갖는 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있으며, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
도 4는 본 발명의 다른 실시예에 따른 통신 방법(400)의 개략적인 흐름도이다. 하나의 사용자의 다수의 장치는 사용자에 의해 전송된 동일한 음성 명령을 동시에 수신할 수 있다. 하나의 사용자의 다수의 장치와 서버 간의 연결 상태는 다음의 3가지 경우에 속한다는 것을 알아야 한다. 경우 1. 사용자의 모든 장치의 음성 비서는 서버에 연결된다. 경우 2. 사용자의 일부 장치의 음성 비서는 서버에 연결되고, 일부 다른 장치의 음성 비서는 서버에 연결되지 않는다. 경우 3. 사용자의 다수의 장치 중 어느 것도 서버에 연결되지 않는다. 서버에 연결되지 않은 장치의 음성 비서는 사용자에 의해 전송된 음성 웨이크업 명령을 수신한 후에 서버에 연결될 수 있다. 선택에 따라, 하나의 사용자의 다수의 장치는 애드 혹 네트워크를 더 형성할 수 있다.
통신 방법(400)은 하나의 사용자의 다수의 장치 중의 임의의 장치에 의해 실행될 수 있다. 구체적으로, 통신 방법(400)은 장치 또는 장치의 음성 비서에 의해 실행될 수 있다. 도 4에 도시되어 있는 바와 같이, 통신 방법(400)은 다음의 단계를 포함한다.
410. 제1 음성 명령을 수신한다.
420. 제1 음성 명령에 따라 웨이크업 상태에 진입한다.
예를 들어, 장치의 음성 비서는 제1 음성 명령에 따라 웨이크업 상태에 진입한다.
제1 음성 명령은 음성 웨이크업 명령일 수 있다. 사용자 또는 장치 제조자는 음성 비서에 대응하는 유닛, 모듈, 또는 클라이언트에, 음성 웨이크업 명령에 대응하는 콘텐츠를 설정할 수 있다. 예를 들어, 사전설정된 음성 웨이크업 명령이 "안녕, 알렌"인 경우, 음성 비서는 음성 명령 "안녕, 알렌"을 수신하면 웨이크업 상태에 진입한다.
430. 장치 타입을 포함하는 정보를 획득한다.
440. 정보를 서버에 전송한다.
서버는 음성 보조 서버일 수 있거나, 애드 혹 네트워크의 제어기일 수 있다. 장치는 정보를 서버에 전송하여, 서버는 그 정보에 따라, 장치가 음성 명령에 응답하는 장치인지 여부를 결정할 수 있다.
선택에 따라, 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함할 수 있다.
그에 따라, 정보가 장치 타입 및 음성 명령을 포함하는 경우, 그것은 장치가 동시에 장치 타입 및 음성 명령을 서버에 전송함을 나타낸다. 그에 따라, 통신 방법(400)은 서버에 의해 전송되며 음성 명령에 대응하는 동작을 나타내는데 사용되는 표시 정보를 수신하는 단계를 더 포함할 수 있다. 음성 명령을 획득하는 단계는 음성 명령을 수신하는 단계를 포함한다.
450. 정보에 따라 서버에 의해 전송된 제1 메시지를 수신하거나, 또는 정보에 따라 서버에 의해 전송된 제2 메시지를 수신하되, 제1 메시지는 장치의 음성 비서에게 음성 명령에 응답하지 않을 것을 지시하는데 사용되고, 제2 메시지는 장치의 음성 비서에게 음성 명령에 응답할 것을 지시하는데 사용된다.
본 발명의 이 실시예에서, 정보가 획득되고, 이 정보는 서버에 전송되어, 서버는 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정할 수 있다. 다수의 상이한 장치를 갖는 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있으며, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
본 발명의 이 실시예에서, 장치의 음성 비서가 웨이크업된 이후의 장치의 음성 비서의 응답 기간이 더 설정될 수 있는데, 예를 들어 1분으로 설정될 수 있다. 즉, 사용자가 "안녕, 알렌"이라는 음성 명령을 사용하여 음성 비서를 웨이크업한 이후, 음성 비서는 응답 기간(예를 들어, 1분) 내에서 음성 명령을 바로 수신하는 것만으로 응답을 할 수 있다. 예를 들어, 음성 비서가 "안녕, 알렌, 지도를 열어줘"와 같은 음성 명령을 수신하고, 지도를 여는 음성 동작을 완료한 이후, 사용자는 계속해서 "중관춘으로 가줘"라는 음성 명령을 음성 비서에게 입력할 수 있다. 음성 비서는 중관춘으로 가는 최적의 경로를 직접 획득 및 찾을 수 있고, 사용자는 "안녕, 알렌, 중관춘으로 가줘"와 같은 음성 명령을 음성 비서에게 입력할 필요가 없는 바, 사용자 조작을 용이하게 하고 사용자 경험을 개선할 수 있다. 이러한 내용은 또한 본 발명의 모든 실시예에 적용가능하지만 이 모든 실시예로 국한되지는 않는다.
선택에 따라, 단계(450)에서 수신된 제1 메시지는 슬립 명령 정보를 더 운반할 수 있다. 방법(400)은 슬립 명령 정보에 따라 슬립 상태에 진입하는 단계를 더 포함할 수 있다.
슬립 상태에서, 장치는 여전히 모니터링 상태에 있는데, 즉 장치는 사용자에 의해 전송된 음성 명령(예를 들어, 음성 웨이크업 명령 및/또는 음성 동작 명령)을 모니터링하지만 수신된 음성 명령에 응답하지는 않는다.
단계(450)에서, 정보에 따라 서버에 의해 전송된 제1 메시지가 수신된 경우, 통신 방법(400)은 제2 음성 명령을 수신하는 단계와, 제2 음성 명령에 응답하는 것을 건너뛰는 단계를 더 포함할 수 있다.
예를 들어, 제2 음성 명령은 음성 동작 명령일 수 있다.
정보에 따라 서버에 의해 전송된 제2 메시지가 수신된 경우, 통신 방법(400)은 제3 음성 명령을 수신하는 단계와, 제3 음성 명령에 서버에 전송하는 단계와, 제3 음성 명령에 따라 서버에 의해 전송된 제3 메시지- 제3 메시지는 제3 음성 명령에 대응하는 동작을 나타내는데 사용됨 -를 수신하는 단계와, 제3 메시지에 따라, 제3 음성 명령에 대응하는 동작을 수행하는 단계를 더 포함한다.
예를 들어, 제3 음성 명령은 음성 동작 명령일 수 있다.
장치는 획득된 정보 및 수신된 제3 음성 명령을 동시에 서버에 전송할 수 있거나, 또는 정보 및 제3 음성 명령을 별개로 서버에 전송할 수 있다. 본 발명의 이 실시예에 제한을 두지 않는다.
따라서, 본 발명의 이 실시예에서, 정보가 획득되고, 이 정보는 서버에 전송되어, 서버는 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정할 수 있다. 다수의 상이한 장치를 갖는 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있으며, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
도 5는 본 발명의 다른 실시예에 따른 통신 방법(500)의 개략적인 흐름도이다. 하나의 사용자의 다수의 장치는 사용자에 의해 전송된 동일한 음성 명령을 동시에 수신할 수 있다. 통신 방법(500)은 하나의 사용자의 다수의 장치 중의 임의의 장치에 의해 실행될 수 있다. 구체적으로, 통신 방법(500)은 장치 또는 장치의 음성 비서에 의해 실행될 수 있다. 도 5에 도시되어 있는 바와 같이, 통신 방법(500)은 다음의 단계를 포함한다.
510. 제1 음성 명령을 수신한다.
520. 제1 음성 명령에 따라 웨이크업 상태에 진입한다.
530. 장치 타입을 포함하는 정보를 획득한다.
540. 정보를 서버에 전송한다.
550. 제2 음성 명령을 수신한다.
560. 제2 음성 명령을 서버에 전송한다.
570. 정보에 따라 서버에 의해 전송되며 제2 음성 명령에 대응하는 동작을 나타내는데 사용되는 표시 정보를 수신한다.
정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함할 수 있다.
프로세스의 시퀀스 번호는 실행 순서를 의미하지 않음을 이해해야 한다. 프로세스의 실행 순서는 프로세스의 기능 및 내부 로직에 따라 결정되어야 하며, 본 발명의 실시예의 구현 프로세스에 대한 임의의 제한으로 해석되어서는 안된다.
예를 들어, 단계(540) 및 단계(560)는 별개로 수행될 수 있고, 또는 동시에 수행될 수도 있다. 즉, 정보 및 제2 음성 명령은 별개로 서버에 전송될 수 있거나, 또는 정보 및 제2 음성 명령은 서버에 동시에 전송될 수도 있다.
본 발명의 이 실시예에서, 획득된 정보 및 수신된 음성 명령은 서버에 전송되어, 서버는 하나의 사용자의 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정할 수 있고, 음성 명령에 대응하는 동작의 표시 정보를 음성 명령에 응답하는 장치에 전송할 수 있다. 다수의 상이한 장치를 갖는 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있으며, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
도 6은 본 발명의 다른 실시예에 따른 통신 방법(600)의 개략적인 흐름도이다. 하나의 사용자의 다수의 장치는 사용자에 의해 전송된 동일한 음성 명령을 동시에 수신할 수 있다. 통신 방법(600)은 하나의 사용자의 다수의 장치 중의 임의의 장치에 의해 실행될 수 있다. 구체적으로, 통신 방법(600)은 장치 또는 장치의 음성 비서에 의해 실행될 수 있다. 도 6에 도시되어 있는 바와 같이, 통신 방법(600)은 다음의 단계를 포함한다.
610. 제1 음성 명령을 수신한다.
620. 제1 음성 명령에 따라 웨이크업 상태에 진입한다.
630. 제2 음성 명령을 수신한다.
640. 제2 음성 명령이 장치 정보를 포함하는 것으로 결정하고 제2 음성 명령에 응답한다.
장치 정보는 하나의 사용자의 다수의 장치를 구별하는데 사용된다는 것을 알아야 한다. 장치 정보는 이동 전화, 밴드, 차량 내 장치 또는 스테레오와 같은 장치 타입이거나, 또는 장치 이름이거나, 또는 장치 번호 등일 수 있다. 하나의 사용자의 다수의 장치가 인식될 수 있는 한, 본 발명의 이 실시예에 제한을 두지 않는다.
예를 들어, 음성 동작 분석 요청이 서버에 전송되며, 음성 동작 분석 요청은 제2 음성 명령을 운반한다.
그에 따라, 제2 음성 명령이 장치 정보를 포함하지 않는 것으로 결정되면, 장치는 제2 음성 명령에 응답하지 않는다.
제2 음성 명령이 장치 정보를 포함하지 않는 것으로 장치가 인식하면, 이 장치는 음성 분석 요청을 서버에 전송하지 않는다는 것을 이해해야 한다. 예를 들어, 장치는 제2 음성 명령을 폐기할 수 있다. 이와 달리, 장치는 제2 음성 명령의 처리를 중단할 수 있다.
장치는 장치 정보를 사전에 저장할 수 있다. 장치에 의해 수신된 음성 명령이 장치 정보를 포함하는 경우, 장치는 음성 동작 분석 요청을 서버에 전송한다. 장치에 의해 수신된 음성 명령이 장치 정보를 포함하지 않는 경우, 장치는 음성 명령에 응답하지 않는다. 선택에 따라, 장치에 의해 수신된 음성 명령이 장치 정보를 포함하지 않는 경우, 장치는 예를 들어 장치 타입을 서버에 전송하여, 사용자의 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정할 것을 서버에게 요청할 수 있다.
제1 음성 명령은 음성 웨이크업 명령일 수 있고, 제2 음성 명령은 음성 동작 명령일 수 있다는 것을 이해해야 한다. 본 발명의 이 실시예에서, 음성 웨이크업 명령 및 음성 동작 명령은 동시에 수신될 수 있다. 예를 들어, 사용자에 의해 전송된 "안녕, 알렌, 이동 전화를 사용해 장산(Zhang San)에게 전화 걸어줘"라는 음성 명령이 수신된다. 이와 달리, 음성 웨이크업 명령 및 음성 동작 명령은 별개로 수신될 수 있다. 예를 들어, 사용자에 의해 전송된 "안녕, 알렌"이라는 음성 웨이크업 명령이 먼저 수신되어 웹이크업 상태에 진입하고, 다음으로 응답 기간 내에서 사용자에 의해 전송된 "이동 전화를 이용해 장산에게 전화 걸어줘"라는 음성 동작 명령이 수신된다. 본 발명의 이 실시예에 제한을 두지 않는다.
따라서, 본 발명의 이 실시예에서, 수신된 음성 명령이 장치 정보를 포함하는 것으로 결정되면, 음성 명령은 자동으로 응답을 받게 되어, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리하고 자연적인 머신-인간 상호작용 경험이 사용자에게 제공된다.
도 7 내지 도 11에서의 특정 예를 참조하여, 이하에서는 본 발명의 실시예에 따른 통신 방법이 자세히 설명된다.
도 7은 본 발명의 다른 실시예에 따른 통신 방법(700)의 개략적인 흐름도이다. 도 7에 도시되어 있는 바와 같이, 통신 방법(700)은 아래와 같은 단계를 포함한다.
단계(701a, 701b, 701c). 제1 장치, 제2 장치 및 제3 장치의 제각기의 음성 비서가 "안녕, 알렌, 지도를 열어줘"라는 음성 명령을 동시에 수신하되, 여기서, "안녕, 알렌"은 음성 웨이크업 명령이고, "지도를 열어줘"는 음성 동작 명령이다.
단계(702a, 702b, 702c). "안녕, 알렌"이라는 음성 웨이크업 명령에 따라 웨이크업 상태에 진입한 후, 제1 장치, 제2 장치, 및 제3 장치 각각의 음성 비서는 음성 동작 명령을 버퍼링하고, 음성 비서가 귀속된 장치의 장면 모드 및 장치 타입을 획득한다.
단계(703a, 703b, 703c). 제1 장치, 제2 장치 및 제3 장치 각각의 음성 비서는 음성 동작 분석 요청을 서버에 전송하되, 이 음성 동작 분석 요청은 장치의 현재 장면 모드, 장치 타입, 및 "지도를 열어줘"라는 음성 동작 명령을 운반한다.
단계(704). 서버는 음성 동작 명령을 분석하고, 수행될 필요가 있는 동작은 "지도를 열어줘"인 것으로 결정하며, 장면 모드 및 장치 타입을 참조하여, 현재 동작을 수행할 필요가 있는 장치는 예를 들어 제2 장치인 것으로 결정한다.
단계(705a). 서버는 슬립 명령 정보를 운반하는 응답 메시지를 제1 장치의 음성 비서에게 반환하고, 제2 장치의 음성 비서가 "지도를 열어줘"라는 동작을 수행함을 제1 장치의 음성 비서에게 통지한다.
단계(705b). 서버는 제2 장치의 음성 비서에게 응답 메시지를 반환하는데, 즉 서버는 수행될 필요가 있는 "지도를 열어줘"라는 동작을 나타내는데 사용되는 표시 정보를 반환한다.
단계(705c). 서버는 슬립 명령 정보를 운반하는 응답 메시지를 제3 장치의 음성 비서에게 반환하고, 제2 장치의 음성 비서가 "지도를 열어줘"라는 동작을 수행함을 제3 장치의 음성 비서에게 통지한다.
단계(706a 및 706c). 제1 장치의 음성 비서 및 제3 장치의 음성 비서 모두가 슬립 상태에 진입하는데, 슬립 상태에서, 제1 장치 및 제3 장치의 저전력 음성 웨이크업 모듈은 여전히 모니터링 상태에 있다.
단계(705b). 제2 장치의 음성 비서는 웨이크업 상태에 있다.
장면 모드가 변경되는 경우, 제1 장치의 음성 비서 및 제3 장치의 음성 비서는 슬립 상태에서 정상 상태로 전환될 수 있다.
도 8은 본 발명의 다른 실시예에 따른 통신 방법(800)의 개략적인 흐름도이다. 도 8에 도시되어 있는 바와 같이, 통신 방법(800)은 아래와 같은 단계를 포함한다.
단계(801a, 801b, 801c). 제1 장치, 제2 장치 및 제3 장치의 제각기의 음성 비서가 "안녕, 알렌"이라는 음성 웨이크업 명령을 동시에 수신한다.
단계(802a, 802b, 802c). "안녕, 알렌"이라는 음성 웨이크업 명령에 따라 웨이크업 상태에 진입한 후, 제1 장치, 제2 장치, 및 제3 장치 각각의 음성 비서는 이들 세 개의 장치로부터 장치의 장면 모드 및 장치 타입을 획득한다.
단계(803a, 803b, 803c). 제1 장치, 제2 장치 및 제3 장치 각각의 음성 비서는 장치의 장면 모드 및 장치 타입을 운반하는 응답 장치 획득 요청을 서버에 전송한다.
단계(804). 서버는 장면 모드 및 장치 타입에 따라, 음성 동작 명령에 대응하는 동작을 현재 수행할 필요가 있는 장치가 예를 들어 제2 장치인 것으로 결정한다.
단계(805a, 805b, 805c). 동작 단계들을 수행하는 경우, 제1 장치, 제2 장치 및 제3 장치 각각의 음성 비서는 여전히 계속해서 음성 동작 명령을 수신한다.
단계(806a, 806b, 806c). 제1 장치, 제2 장치 및 제3 장치 각각의 음성 비서는 "지도를 열어줘"라는 음성 동작 명령을 버퍼링한다.
단계(807a, 807b, 807c). 제1 장치, 제2 장치 및 제3 장치 각각의 음성 비서는 "지도를 열어줘"라는 음성 동작 명령을 전달하는 음성 동작 분석 요청을 서버에 전송한다.
단계(808). 서버는 음성 동작 명령을 분석하고, 분석을 통해, 수행될 필요가 있는 동작은 "지도를 열어줘"라는 것을 획득한다.
단계(809a). 서버는 슬립 명령 정보를 운반하는 응답 메시지를 제1 장치의 음성 비서에게 반환하고, 그 음성 비서에게 제2 장치의 음성 비서가 "지도를 열어줘"라는 동작을 수행함을 통지한다.
단계(809b). 서버는 제2 장치의 음성 비서에게 응답 메시지를 반환하는데, 즉 서버는 수행될 필요가 있는 "지도를 열어줘"라는 동작을 나타내는데 사용되는 표시 정보를 반환한다.
단계(809c). 서버는 슬립 명령 정보를 운반하는 응답 메시지를 제3 장치의 음성 비서에게 반환하고, 그 음성 비서에게 제2 장치의 음성 비서가 "지도를 열어줘"라는 동작을 수행함을 통지한다.
단계(810a 및 810c). 제1 장치의 음성 비서 및 제3 장치의 음성 비서 모두가 슬립 상태에 진입하는데, 슬립 상태에서, 제1 장치 및 제3 장치의 저전력 음성 웨이크업 모듈은 여전히 모니터링 상태에 있다.
단계(810b). 제2 장치의 음성 비서는 웨이크업 상태에 있다.
또한, 장면 모드가 변경되는 경우, 제1 장치의 음성 비서 및 제3 장치의 음성 비서는 슬립 상태에서 정상 상태로 전환될 수 있다.
본 발명의 이 실시예에서, 단계(803)(803a, 803b, 803c) 및 단계(804)는 단계(805)(805a, 805b, 805c), 단계(806)(806a, 806b, 806c), 및 단계(807)(807a, 807b, 807c)와 동시에 수행될 수 있고, 시간 순서는 존재하지 않는다.
도 9는 본 발명의 다른 실시예에 따른 통신 방법(900)의 개략적인 흐름도이다. 도 9에 도시되어 있는 바와 같이, 통신 방법(900)은 아래와 같은 단계를 포함한다.
단계(901a, 901b, 901c). 제1 장치, 제2 장치 및 제3 장치의 제각기의 음성 비서가 "안녕, 알렌"이라는 음성 웨이크업 명령을 동시에 수신한다.
단계(902a, 902b, 902c). "안녕, 알렌"이라는 음성 웨이크업 명령에 따라 웨이크업 상태에 진입한 후, 제1 장치, 제2 장치, 및 제3 장치 각각의 음성 비서는 음성 비서가 귀속된 장치의 장면 모드 및 장치 타입을 획득한다.
단계(903a, 903b, 903c). 제1 장치, 제2 장치 및 제3 장치 각각의 음성 비서는 장면 모드 및 장치 타입을 운반하는 응답 장치 획득 요청을 서버에 전송한다.
단계(904). 서버는 장면 모드 및 장치 타입에 따라, 동작을 현재 수행할 필요가 있는 장치는 예를 들어 제2 장치인 것으로 결정한다.
단계(905a). 서버는 슬립 명령 정보를 운반하는 응답 메시지를 제1 장치의 음성 비서에게 반환하고, 제2 장치의 음성 비서가 동작을 수행함을 제1 장치의 음성 비서에게 통지한다.
단계(905b). 서버는 제2 장치의 음성 비서에게 응답 정보를 반환하는데, 즉 서버는 음성 명령에 응답하는 장치는 제2 장치임을 통지한다.
단계(905c). 서버는 슬립 명령 정보를 운반하는 응답 메시지를 제3 장치의 음성 비서에게 반환하고, 제2 장치의 음성 비서가 동작을 수행함을 제3 장치의 음성 비서에게 통지한다.
단계(906a 및 906c). 제1 장치의 음성 비서 및 제3 장치의 음성 비서 모두가 슬립 상태에 진입하는데, 슬립 상태에서, 제1 장치 및 제3 장치의 저전력 음성 웨이크업 모듈은 여전히 모니터링 상태에 있다.
단계(906b). 제2 장치의 음성 비서는 웨이크업 상태에 있다.
단계(907a, 907b, 907c). 동작 단계들을 수행하는 경우, 제1 장치, 제2 장치 및 제3 장치 각각의 음성 비서는 여전히 계속해서 음성 동작 명령을 수신한다.
단계(908a, 908b, 908c). 제1 장치, 제2 장치 및 제3 장치 각각의 음성 비서는 "지도를 열어줘"라는 음성 동작 명령을 버퍼링한다.
단계(909). 제2 장치의 음성 비서는 "지도를 열어줘"라는 음성 동작 명령을 운반하는 음성 동작 분석 요청을 서버에 전송한다.
단계(910). 서버는 음성 동작 명령을 분석하고, 분석을 통해, 수행될 필요가 있는 동작은 "지도를 열어줘"라는 것을 획득한다.
단계(911). 서버는 제2 장치의 음성 비서에게 응답 정보를 반환하는데, 즉 서버는 수행될 필요가 있는 "지도를 열어줘"라는 동작을 나타내는데 사용되는 표시 정보를 반환한다.
응답 메시지를 수신한 후, 제2 장치의 음성 비서는 표시 정보에 따라 "지도를 열어줘"라는 동작을 수행한다.
유사하게, 장면 모드가 변경되는 경우, 제1 장치의 음성 비서 및 제3 장치의 음성 비서는 슬립 상태에서 정상 상태로 전환될 수 있다.
예를 들어, 단계들에 있어서, 단계(907)(907a, 907b, 907c) 및 단계(908)(908a, 908b, 908c)를 수행하는 것과 단계(903)(903a, 903b, 903c), 단계(904), 단계(905)(905a, 905b, 905c), 및 단계(906)(906a, 906b, 906c)를 수행하는 것 사이에는 시간 순서가 존재하지 않는다.
도 10은 본 발명의 다른 실시예에 따른 통신 방법(1000)의 개략적인 흐름도이다. 도 10에 도시되어 있는 바와 같이, 통신 방법(1000)은 아래와 같은 단계를 포함한다.
단계(1001a, 1001b, 1001c). 제1 장치, 제2 장치 및 제3 장치의 제각기의 음성 비서가 "안녕, 알렌, 지도를 열어줘"라는 음성 명령을 동시에 수신하되, "안녕, 알렌"은 음성 웨이크업 명령이고, "지도를 열어줘"는 음성 동작 명령이다.
단계(1002a, 1002b, 1002c). 제1 장치, 제2 장치, 및 제3 장치 각각의 음성 비서는 "안녕, 알렌"이라는 음성 웨이크업 명령에 따라 웨이크업 상태에 진입하고, 웨이크업 상태에 진입한 후, 음성 비서는 음성 동작 명령을 버퍼링하고, 음성 비서가 귀속된 장치로부터 장치 타입을 획득한다.
단계(1003a, 1003b, 1003c). 제1 장치, 제2 장치 및 제3 장치 각각의 음성 비서는 음성 동작 분석 요청을 서버에 전송하되, 이 음성 동작 분석 요청은 장치 타입 및 "지도를 열어줘"라는 음성 요청 명령을 포함한다.
단계(1004). 서버는 "지도를 열어줘"라는 음성 동작 명령을 분석하여 현재 수행될 필요가 있는 동작 및 "지도를 열어줘"의 시맨틱 의미를 획득하고, 음성 분석 요청에 포함된 장치 타입에 따라, 현재 장치가 제2 장치와 같은 차량 내 장치를 포함하는 것으로 결정하며, 시맨틱 의미 및 장치 타입에 따라, 음성 명령에 응답하는 현재 장치가 제2 장치인 것으로 결정한다.
단계(1005a). 서버는 제2 장치의 음성 비서가 동작을 수행한다는 응답 메시지를 제1 장치의 음성 비서에게 반환한다.
단계(1005b). 서버는 응답 메시지를 제2 장치의 음성 비서에 반환하되, 이 응답 메시지는 동작을 나타내는데 사용되는 표시 정보를 운반한다.
단계(1005c). 서버는 제2 장치의 음성 비서가 동작을 수행한다는 응답 메시지를 제3 장치의 음성 비서에게 반환한다.
도 11은 본 발명의 다른 실시예에 따른 통신 방법(1100)의 개략적인 흐름도이다. 도 11에 도시되어 있는 바와 같이, 통신 방법(1100)은 아래와 같은 단계를 포함한다.
단계(1101a, 1101b, 1101c). 제1 장치, 제2 장치 및 제3 장치의 제각기의 음성 비서가 "안녕, 알렌, 이동 전화를 사용해 장산에게 전화 걸어줘"라는 음성 명령을 동시에 수신한다.
이 단계 이전에, 장치 타입 또는 장치 이름 또는 이들 모두가 정의되고 하나의 사용자의 제1 장치, 제2 장치 및 제3 장치에 저장된다. 예를 들어, 장치 타입은 이동 전화, 차량 내 장치 또는 밴드이다.
또한, 이 단계 이전에, 제1 장치의 음성 비서 및 제3 장치의 음성 비서는 슬립 상태(이 상태에서, 저전력 웨이크업 모듈은 여전히 활성 상태에 있다)에 있고, 제2 장치의 음성 비서는 웨이크업 상태에 있다.
단계(1101)에서, 음성 명령은 더 나아가 "안녕, 알렌, 차량 내 장치를 이용해 네비게이션을 시작해줘" 또는 "안녕, 알렌, TV를 켜줘", 또는 "안녕, 알렌, '나 도착했어'라는 SMS 메시지를 밴드를 사용해 리시(Li Si)에게 보내줘" 등일 수 있다.
단계(1102a). 제1 장치의 음성 비서는 "안녕, 알렌"이라는 음성 웨이크업 명령에 따라 슬립 상태로부터 웨이크업 상태에 진입하고, 음성 동작 명령이 "이동 전화"와 같은 제1 장치에 대한 정보를 포함하고 있는 것으로 결정한다.
단계(1102b). 제2 장치의 음성 비서는 "안녕, 알렌"이라는 음성 웨이크업 명령에 따라 계속해서 웨이크업 상태를 유지하고, 음성 동작 명령이 "제2 장치"와 같은 로컬 정보를 포함하지 않는 것으로 결정하며, 음성 동작 명령에 응답하지 않는다.
단계(1102c). 제3 장치의 음성 비서는 "안녕, 알렌"이라는 음성 웨이크업 명령에 따라 슬립 상태로부터 웨이크업 상태에 진입하고, 음성 동작 명령이 "밴드"와 같은 제3 장치에 대한 정보를 포함하지 않는 것으로 결정하며, 음성 동작 명령에 응답하지 않는다.
단계(1103). 제1 장치의 음성 비서는 "장산에게 전화 걸어줘"라는 음성 동작 명령을 운반하는 음성 분석 요청을 서버에 전송한다.
단계(1104). 서버는 음성 동작 명령을 분석하고, 분석을 통해, 수행될 필요가 있는 동작은 "전화 걸어줘"이며, 피호출자는 "장산"이라는 것을 획득한다.
단계(1105). 서버는 제1 장치의 음성 비서에게 응답 메시지를 반환하는데, 이 응답 메시지는 동작을 나타내는데 사용되는 표시 정보를 운반한다.
응답 메시지를 수신한 후, 제1 장치의 음성 비서는 표시 정보에 따라, 장산의 전화번호를 검색하고 장산에게 전화를 건다.
도 12는 본 발명의 다른 실시예에 따른 통신 방법(1200)의 개략적인 흐름도이다. 도 12에 도시되어 있는 바와 같이, 통신 방법(1200)은 아래와 같은 단계를 포함한다.
단계(1201). 제1 장치, 제2 장치 및 제3 장치는 애드 혹 네트워크를 구현한다.
단계(1202a, 1202b, 1202c). 제1 장치, 제2 장치 및 제3 장치의 제각기의 음성 비서가 "안녕, 알렌, 지도를 열어줘"라는 음성 명령을 수신하되, "안녕, 알렌"은 음성 웨이크업 명령이고, "지도를 열어줘"는 음성 동작 명령이다.
단계(1203a, 1203b, 1203c). 제1 장치, 제2 장치, 및 제3 장치 각각의 음성 비서는 "안녕, 알렌"이라는 음성 웨이크업 명령에 따라 웨이크업 상태에 진입하고, 음성 비서는 음성 동작 명령을 버퍼링하고, 음성 비서가 귀속된 장치의 장면 모드 및 장치 타입을 장치로부터 획득한다.
단계(1204). 애드 혹 네트워크의 제어기는 장면 모드 및 장치 타입에 따라, 장면 모드에서 음성 명령에 응답하는 장치, 예를 들어 제2 장치를 결정한다.
단계(1205a). 제1 장치의 음성 비서는 슬립 명령 정보를 운반하는 응답 메시지를 수신하고, 이 음성 비서는 제2 장치가 음성 동작 명령에 대응하는 동작을 완료함을 통지받는다.
단계(1205b). 제2 장치가 음성 명령에 응답하는 장치여서, 제2 장치의 음성 비서는 웨이크업 상태에 있다.
단계(1205c). 제3 장치의 음성 비서는 슬립 명령 정보를 운반하는 응답 메시지를 수신하고, 이 음성 비서는 제2 장치의 음성 비서가 음성 동작 명령에 대응하는 동작을 완료함을 통지받는다.
단계(1206). 제2 장치의 음성 비서가 "지도를 열어줘"라는 음성 동작 명령을 운반하는 음성 동작 분석 요청을 서버에 전송한다.
단계(1207). 서버는 "지도를 열어줘"라는 음성 동작 명령을 분석하고, 제2 장치의 음성 비서에 의해 수행될 필요가 있는 동작은 "지도를 열어줘"인 것으로 결정한다.
단계(1208). 서버는 제2 장치의 음성 비서에게 응답 메시지를 반환하되, 이 응답 메시지는 "지도를 열어줘"라는 동작을 나타내는데 사용되는 표시 정보를 운반한다.
애드 혹 네트워크 내의 임의의 장치가 떠난 이후, 남아있는 장치는 계속해서 또 다시 네트워킹을 수행하고 애드 혹 네트워크 내의 장치의 장면 모드를 업데이트함을 알아야 한다.
앞서 도 1 내지 도 12를 참조하여 살펴본 내용은 본 발명의 실시예에 따른 통신 방법을 자세히 설명한다. 도 13 내지 도 18을 참조하여 이하에서 설명되는 내용은 본 발명의 실시예에 따른 서버 및 장치를 자세히 설명한다.
도 13은 본 발명의 실시예에 따른 서버(1300)의 개략적인 블록도이다. 서버는 하나의 사용자의 다수의 장치와 통신하고, 다수의 장치는 사용자에 의해 전송된 동일한 음성 동작 명령을 동시에 수신할 수 있다. 도 13에 도시되어 있는 바와 같이, 서버(1300)는,
하나의 사용자의 다수의 장치 중의 각 장치에 의해 전송된 정보- 이 정보는 장치 타입을 포함함 -를 수신하도록 구성된 수신 유닛(1310)과,
수신 유닛(1310)에 의해 수신된 정보에 따라, 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정하도록 구성된 처리 유닛(1320)과,
다수의 장치 중에서 음성 명령에 응답하는 장치와는 다른 장치에 메시지- 이 메시지는 다른 장치의 음성 비서에게 음성 명령에 응답하지 않을 것을 지시하는데 사용됨 -를 전송하도록 구성된 송신 유닛(1330)을 포함한다.
본 발명의 이 실시예에서, 하나의 사용자의 다수의 장치에 의해 전송된 정보가 수신되고, 이 정보에 따라 다수의 장치 중에서 음성 명령에 응답하는 장치가 결정된다. 다수의 상이한 장치를 구비한 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
선택에 따라, 각 장치에 의해 전송된 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함할 수 있다.
각 장치에 의해 전송된 정보가 장치 타입 및 음성 명령을 포함하는 경우, 처리 유닛(1320)은 구체적으로, 음성 명령의 시맨틱 의미를 인식하고, 장치 타입 및 음성 명령의 시맨틱 의미에 따라, 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정하도록 구성된다.
선택에 따라, 각 장치에 의해 전송된 정보가 장치 타입 및 음성 명령을 포함하는 경우, 처리 유닛(1320)은 음성 명령에 대응하는 동작을 결정하도록 더 구성된다. 그에 대응하여, 송신 유닛(1330)은 동작을 나타내는데 사용되는 표시 정보를 음성 명령에 응답하는 장치에 전송하도록 구성된다.
선택에 따라, 다른 장치에 의해 전송된 메시지는 슬립 명령 정보를 더 운반할 수 있다.
선택에 따라, 제어기는 다수의 장치 중의 임의의 장치일 수 있다.
서버(1300)는 통신 방법(200)에서의 서버에 대응할 수 있다. 또한, 서버(1300)의 모든 모듈/유닛의 전술한 및 그 밖의 다른 동작 및/또는 기능은 도 2의 통신 방법(200)의 대응하는 절차를 구현하는데 개별적으로 사용된다.
본 발명의 이 실시예에서, 하나의 사용자의 다수의 장치에 의해 전송된 정보가 수신되고, 이 정보에 따라 다수의 장치 중에서 음성 명령에 우선적으로 응답하는 장치가 결정된다. 다수의 상이한 장치를 구비한 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
도 14는 본 발명의 실시예에 따른 서버(1400)의 개략적인 블록도이다. 서버는 하나의 사용자의 다수의 장치와 통신하고, 다수의 장치는 사용자에 의해 전송된 동일한 음성 동작 명령을 동시에 수신할 수 있다. 도 14에 도시되어 있는 바와 같이, 서버(1400)는,
하나의 사용자의 다수의 장치 중의 각 장치에 의해 전송된 동일한 음성 명령을 수신하도록 구성된 수신 유닛(1410)과,
수신 유닛(1410)에 의해 수신된 음성 명령에 대응하는 동작을 결정하도록 구성된 처리 유닛(1420)과,
동작을 나타내는데 사용된 표시 정보를 음성 명령에 응답하는 장치에 전송하도록 구성된 송신 유닛(1430)을 포함하되, 음성 명령에 응답하는 장치는 다수의 장치 중의 각 장치에 의해 전송된 정보에 따라 결정되고, 이 정보는 장치 타입을 포함한다.
선택에 따라, 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함할 수 있다.
본 발명의 이 실시예에서, 서버(1400)가 다수의 장치 중의 각 장치에 의해 전송된 정보에 따라, 음성 명령에 응답하는 장치를 결정하는 방법에 대해, 서버(1100)의 관련 설명을 참조할 수 있다는 것을 알아야 한다. 반복을 피하기 위해, 세부사항은 여기서 다시 설명하지 않는다.
서버(1400)는 통신 방법(300)에서의 서버에 대응할 수 있다는 것을 또한 알아야 한다. 또한, 서버(1400)의 모든 모듈/유닛의 전술한 및 그 밖의 다른 동작 및/또는 기능은 도 3의 통신 방법(300)의 대응하는 절차를 구현하는데 개별적으로 사용된다. 간결함을 위해, 세부사항은 여기서 다시 설명하지 않는다.
본 발명의 이 실시예에서, 동작의 표시 정보는 음성 명령에 응답하는 장치에 자동으로 전송된다. 다수의 상이한 장치를 구비한 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
도 15는 본 발명의 실시예에 따른 장치(1500)의 개략적인 블록도이다. 하나의 사용자의 다수의 장치는 사용자에 의해 전송된 동일한 음성 웨이크업 명령 또는 음성 동작 명령을 동시에 수신할 수 있고, 장치(1500)는 다수의 장치 중의 임의의 장치일 수 있다. 도 15에 도시되어 있는 바와 같이, 장치(1500)는,
제1 음성 명령을 수신하도록 구성된 수신 유닛(1510)과,
수신 유닛(1510)에 의해 수신된 제1 음성 명령에 따라 웨이크업 상태에 진입하도록 구성된 처리 유닛(1520)과,
장치 타입을 포함하는 정보를 획득하도록 구성된 획득 유닛(1530)과,
정보를 서버에 전송하도록 구성된 송신 유닛(1540)을 포함한다.
수신 유닛(1510)은 정보에 따라 서버에 의해 전송된 제1 메시지를 수신하거나, 정보에 따라 서버에 의해 전송된 제2 메시지를 수신하도록 더 구성되되, 제1 메시지는 장치(1500)의 음성 비서에게 음성 명령에 응답하지 않을 것을 지시하는데 사용되고, 제2 메시지는 장치(1500)의 음성 비서에게 음성 명령에 응답할 것을 지시하는데 사용된다.
본 발명의 이 실시예에서, 정보가 획득되고, 이 정보는 서버에 전송되어, 서버는 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정할 수 있다. 다수의 상이한 장치를 구비한 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
선택에 따라, 정보는 장치(1500)의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함할 수 있다.
그에 대응하여, 수신 유닛(1510)은 서버에 의해 전송되며 음성 명령에 대응하는 동작을 나타내는데 사용되는 표시 정보를 수신하도록 더 구성되되, 이 정보는 음성 명령을 더 포함한다.
선택에 따라, 제1 메시지는 슬립 명령 정보를 더 운반할 수 있고, 처리 유닛(1520)은 슬립 명령 정보에 따라 슬립 상태에 진입하도록 더 구성될 수 있다.
선택에 따라, 수신 유닛(1510)이 제1 메시지를 수신하는 경우, 수신 유닛(1510)은 제2 음성 명령을 수신하도록 더 구성된다. 처리 유닛(1520)은 수신 유닛(1510)에 의해 수신된 제2 음성 명령에 응답하는 것을 건너뛰도록 더 구성된다.
선택에 따라, 수신 유닛(1510)이 제2 메시지를 수신하는 경우, 수신 유닛(1510)은 제3 음성 명령을 수신하도록 더 구성된다. 송신 유닛(1520)은 수신 유닛(1510)에 의해 수신된 제3 음성 명령을 서버에 전송하도록 더 구성된다. 수신 유닛(1510)은 제3 음성 명령에 따라 서버에 의해 전송된 제3 메시지를 수신하도록 더 구성되되, 제3 메시지는 제3 음성 명령에 대응하는 동작을 나타내는데 사용된다. 처리 유닛(1520)은 제3 메시지에 따라, 제3 음성 명령에 대응하는 동작을 수행하도록 더 구성된다.
장치(1500)는 통신 방법(400)에서의 장치에 대응할 수 있다는 것을 또한 알아야 한다. 또한, 장치(1500)의 모든 모듈/유닛의 전술한 및 그 밖의 다른 동작 및/또는 기능은 도 4의 통신 방법(400)의 대응하는 절차를 구현하는데 개별적으로 사용된다. 간결함을 위해, 세부사항은 여기서 다시 설명하지 않는다.
본 발명의 이 실시예에서, 정보가 획득되고, 이 정보는 서버에 전송되어, 서버는 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정할 수 있다. 다수의 상이한 장치를 구비한 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
도 16은 본 발명의 실시예에 따른 장치(1600)의 개략적인 블록도이다. 하나의 사용자의 다수의 장치는 사용자에 의해 전송된 동일한 음성 웨이크업 명령 또는 음성 동작 명령을 동시에 수신할 수 있고, 장치(1600)는 다수의 장치 중의 임의의 장치일 수 있다. 도 16에 도시되어 있는 바와 같이, 장치(1600)는 수신 유닛(1610), 처리 유닛(1620), 획득 유닛(1630) 및 송신 유닛(1640)을 포함한다.
수신 유닛(1610)은 제1 음성 명령을 수신하도록 구성된다.
처리 유닛(1620)은 제1 음성 명령에 따라 웨이크업 상태에 진입하도록 구성된다.
획득 유닛(1630)은 장치 타입을 포함하는 정보를 획득하도록 구성된다.
송신 유닛(1640)은 정보를 서버에 전송하도록 구성된다.
수신 유닛(1610)은 제2 음성 명령을 수신하도록 더 구성된다.
송신 유닛(1640)은 제2 음성 명령을 서버에 전송하도록 더 구성된다.
수신 유닛(1610)은 정보에 따라 서버에 의해 전송되며 제2 음성 명령에 대응하는 동작을 나타내는데 사용되는 표시 정보를 수신하도록 더 구성된다.
정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함할 수 있다.
장치(1600)는 통신 방법(500)에서의 장치에 대응할 수 있다는 것을 알아야 한다. 또한, 장치(1600)의 모든 모듈/유닛의 전술한 및 그 밖의 다른 동작 및/또는 기능은 도 5의 통신 방법(500)의 대응하는 절차를 구현하는데 개별적으로 사용된다. 간결함을 위해, 세부사항은 여기서 다시 설명하지 않는다.
본 발명의 이 실시예에서, 획득된 정보 및 수신된 음성 명령은 서버에 전송되어, 서버는 정보에 따라, 하나의 사용자의 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정할 수 있고, 음성 명령에 대응하는 동작의 표시 정보를 음성 명령에 대응하는 장치에 전송한다. 다수의 상이한 장치를 구비한 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
도 17은 본 발명의 실시예에 따른 또 다른 장치(1700)의 개략적인 블록도이다. 하나의 사용자의 다수의 장치는 사용자에 의해 전송된 동일한 음성 명령을 동시에 수신할 수 있고, 장치(1700)는 다수의 장치 중의 임의의 장치일 수 있다. 도 17에 도시되어 있는 바와 같이, 장치(1700)는
제1 음성 명령을 수신하도록 구성된 수신 유닛(1710)과,
수신 유닛(1710)에 의해 수신된 제1 음성 명령에 따라 웨이크업 상태에 진입하도록 구성된 처리 유닛(1720)을 포함한다.
수신 유닛(1710)은 제2 음성 명령을 수신하도록 더 구성된다.
처리 유닛(1720)은 수신 유닛(1710)에 의해 수신된 제2 음성 명령이 장치(1700)에 관한 정보를 포함한다는 것으로 결정하고, 이 제2 음성 명령에 응답하도록 더 구성된다.
장치(1700)는 통신 방법(600)에서의 장치에 대응할 수 있다는 것을 알아야 한다. 또한, 장치(1700)의 모든 모듈/유닛의 전술한 및 그 밖의 다른 동작 및/또는 기능은 도 6의 통신 방법(600)의 대응하는 절차를 구현하는데 개별적으로 사용된다. 간결함을 위해, 세부사항은 여기서 다시 설명하지 않는다.
본 발명의 이 실시예에서, 수신된 음성 명령이 장치 정보를 포함하는 것으로 결정되면, 음성 명령에 대한 응답이 자동으로 수행되어, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
도 18은 본 발명의 실시예에 따른 서버(1800)의 개략적인 블록도이다. 서버는 하나의 사용자의 다수의 장치와 통신하고, 다수의 장치는 사용자에 의해 전송된 동일한 음성 명령을 동시에 수신할 수 있다. 도 18에 도시되어 있는 바와 같이, 서버(1800)는 하나 이상의 프로세서(1810), 메모리(1820), 버스 시스템(1830), 트랜시버(1840), 및 하나 이상의 프로그램을 포함한다. 프로세서(1810), 메모리(1820) 및 트랜시버(1840)는 버스 시스템(1830)을 사용하여 서로 연결된다. 하나 이상의 프로그램은 메모리(1820)에 저장되고 하나 이상의 프로세서(1810)에 의해 실행되도록 구성된다. 하나 이상의 프로그램은 명령어를 포함하고, 이 명령어는:
트랜시버(1840)를 사용하여, 다수의 장치 중의 각 장치에 의해 전송된 정보- 이 정보는 장치 타입을 포함함 -를 수신하고,
적어도 트랜시버(1840)에 의해 수신된 정보에 따라, 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정하며,
트랜시버(1840)를 사용하여, 다수의 장치 중에서 음성 명령에 응답하는 장치와는 다른 장치로 메시지를 전송하는데 사용되며, 이 메시지는 다른 장치의 음성 비서에게 음성 명령에 응답하지 않을 것을 지시하는데 사용된다.
본 발명의 이 실시예에서, 하나의 사용자의 다수의 장치에 의해 전송된 정보가 수신되고, 이 정보에 따라, 다수의 장치 중에서 음성 명령에 응답하는 장치가 결정된다. 다수의 상이한 장치를 구비한 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
본 발명의 이 실시예에서, 프로세서(1810)는 중앙 처리 유닛(간단히, CPU)일 수 있거나, 또는 프로세서(1810)는 또 다른 범용 프로세서, 디지털 신호 프로세서(간단히, DSP), 주문형 집적 회로(간단히, ASIC), 필드 프로그램가능 게이트 어레이(간단히, FPGA) 또는 다른 프로그램가능 로직 장치, 이산 게이트 또는 트랜지스터 로직 장치, 이산 하드웨어 컴포넌트 등일 수 있다. 범용 프로세서는 마이크로프로세서일 수 있거나, 또는 프로세서는 임의의 종래의 프로세서 등일 수 있다.
메모리(1820)는 판독 전용 메모리 및 랜덤 액세스 메모리를 포함할 수 있고, 명령어 및 데이터를 프로세서(1810)에 제공할 수 있다. 메모리(1820)의 일부는 비휘발성 랜덤 액세스 메모리를 더 포함할 수 있다. 예를 들어, 메모리(1820)는 장치 타입에 관한 정보를 더 저장할 수 있다.
데이터 버스 이외에, 버스 시스템(1830)은 전력 버스, 제어 버스, 상태 신호 버스 등을 포함할 수 있다. 그러나, 간단한 설명을 위해, 도면에서 다양한 버스는 버스 시스템(1830)으로 표기된다.
구현 프로세스에서, 방법의 단계들은 프로세서(1810) 내의 하드웨어의 집적 로직 회로 또는 소프트웨어 형태의 명령어를 사용하여 완성될 수 있다. 본 발명의 실시예를 참조하여 설명되는 방법의 단계들은 직접 하드웨어 프로세서에 의해 수행될 수 있거나, 또는 프로세서 내의 하드웨어와 소프트웨어 모듈의 결합을 사용하여 수행될 수도 있다. 소프트웨어 모듈은 예를 들어 랜덤 액세스 메모리, 플래시 메모리, 판독 전용 메모리, 프로그램가능 판독전용 메모리, 전기 소거가능 프로그램가능 메모리 또는 레지스터와 같은 당업계에 정착된 저장 매체에 위치할 수 있다. 저장 매체는 메모리(1820)에 위치한다. 프로세서(1810)는 메모리(1820) 내의 정보를 판독하고, 프로세서(1810)의 하드웨어와 연계하여 방법의 단계들을 완성한다. 반복을 피하기 위해, 자세한 사항은 여기서 다시 설명하지 않는다.
메모리(1820)는 다수의 장치 타입에 대응하는 응답 우선순위 정보를 더 저장할 수 있고, 하나의 사용자의 다른 장치 정보, 다른 장면 모드 및 다른 장치 타입에 대응하는 응답 장치의 우선순위 정보 등을 더 저장할 수 있다.
선택에 따라, 각 장치에 의해 전송된 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함할 수 있다.
정보가 장치 타입 및 음성 명령을 포함하는 경우, 명령어는
음성 명령의 시맨틱 의미를 인식하고,
장치 타입 및 음성 명령의 시맨틱 의미에 따라, 음성 명령에 응답하는 장치를 결정하는데 더 사용된다.
선택에 따라, 정보가 장치 타입 및 음성 명령을 포함하는 경우, 명령어는 음성 명령에 대응하는 동작을 결정하고, 이 동작을 나타내는데 사용되는 표시 정보를 트랜시버(1840)를 사용하여 음성 명령에 응답하는 장치에 전송하는데 더 사용된다.
서버(1800)는 통신 방법(200)에서의 서버에 대응할 수 있다는 것을 알아야 한다. 또한, 서버(1800)의 모든 모듈/유닛의 전술한 및 그 밖의 다른 동작 및/또는 기능은 도 2의 통신 방법(200)의 대응하는 절차를 구현하는데 개별적으로 사용된다. 간결함을 위해, 세부사항은 여기서 다시 설명하지 않는다.
또한, 실행되는 경우, 통신 방법(200)의 단계(210) 내지 단계(230)에서의 동작을 수행하는 컴퓨터 판독가능 명령어를 포함하는 컴퓨터 판독가능 매체가 더 제공된다. 선택에 따라, 통신 방법(200)의 선택사항인 단계에서의 동작이 수행될 수도 있다.
또한, 컴퓨터 판독가능 매체를 포함하는 컴퓨터 프로그램 제품이 더 제공된다.
본 발명의 이 실시예에서, 하나의 사용자의 다수의 장치에 의해 전송된 정보가 수신되고, 이 정보에 따라 다수의 장치 중에서 음성 명령에 응답하는 장치가 결정된다. 다수의 상이한 장치를 구비한 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
도 19는 본 발명의 실시예에 따른 서버(1900)의 개략적인 블록도이다. 서버는 하나의 사용자의 다수의 장치와 통신하고, 다수의 장치는 사용자에 의해 전송된 동일한 음성 명령을 동시에 수신할 수 있다. 도 19에 도시되어 있는 바와 같이, 서버(1900)는 하나 이상의 프로세서(1910), 메모리(1920), 버스 시스템(1930), 트랜시버(1940), 및 하나 이상의 프로그램을 포함한다. 프로세서(1910), 메모리(1920) 및 트랜시버(1940)는 버스 시스템(1930)을 사용하여 서로 연결된다. 하나 이상의 프로그램은 메모리(1920)에 저장되고 하나 이상의 프로세서(1910)에 의해 실행되도록 구성된다. 하나 이상의 프로그램은 명령어를 포함하고, 이 명령어는:
트랜시버(1940)를 사용하여, 하나의 사용자의 다수의 장치 중의 각 장치에 의해 전송된 동일한 음성 명령을 수신하고,
트랜시버(1940)에 의해 수신된 음성 명령에 대응하는 동작을 결정하고,
트랜시버(1940)를 사용하여, 동작을 나타내는데 사용되는 표시 정보를 다수의 장치 중에서 음성 명령에 응답하는 장치에 전송하는데 사용되며, 음성 명령에 응답하는 장치는 다수의 장치 중의 각 장치에 의해 전송된 정보에 따라 결정되고, 이 정보는 장치 타입을 포함한다.
선택에 따라, 정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함할 수 있다.
본 발명의 이 실시예에서, 프로세서(1910)는 CPU일 수 있거나, 또는 프로세서(1910)는 또 다른 범용 프로세서, DSP, ASIC, FPGA 또는 다른 프로그램가능 로직 장치, 이산 게이트 또는 트랜지스터 로직 장치, 이산 하드웨어 컴포넌트 등일 수 있다. 범용 프로세서는 마이크로프로세서일 수 있거나, 또는 프로세서는 임의의 종래의 프로세서 등일 수 있다.
메모리(1920)는 판독 전용 메모리 및 랜덤 액세스 메모리를 포함할 수 있고, 명령어 및 데이터를 프로세서(1910)에 제공할 수 있다. 메모리(1920)의 일부는 비휘발성 랜덤 액세스 메모리를 더 포함할 수 있다. 예를 들어, 메모리(1920)는 장치 타입에 관한 정보를 더 저장할 수 있다.
데이터 버스 이외에, 버스 시스템(1930)은 전력 버스, 제어 버스, 상태 신호 버스 등을 포함할 수 있다. 그러나, 간단한 설명을 위해, 도면에서 다양한 버스는 버스 시스템(1930)으로 표기된다.
구현 프로세스에서, 방법의 단계들은 프로세서(1910) 내의 하드웨어의 집적 로직 회로 또는 소프트웨어 형태의 명령어를 사용하여 완성될 수 있다. 본 발명의 실시예를 참조하여 설명되는 방법의 단계들은 직접 하드웨어 프로세서에 의해 수행될 수 있거나, 또는 프로세서 내의 하드웨어와 소프트웨어 모듈의 결합을 사용하여 수행될 수도 있다. 소프트웨어 모듈은 예를 들어 랜덤 액세스 메모리, 플래시 메모리, 판독 전용 메모리, 프로그램가능 판독전용 메모리, 전기 소거가능 프로그램가능 메모리 또는 레지스터와 같은 당업계에 정착된 저장 매체에 위치할 수 있다. 저장 매체는 메모리(1920)에 위치한다. 프로세서(1910)는 메모리(1920) 내의 정보를 판독하고, 프로세서(1910)의 하드웨어와 연계하여 방법의 단계들을 완성한다. 반복을 피하기 위해, 자세한 사항은 여기서 다시 설명하지 않는다.
서버(1900)는 통신 방법(300)에서의 서버에 대응할 수 있다는 것을 알아야 한다. 또한, 서버(1900)의 모든 모듈/유닛의 전술한 및 그 밖의 다른 동작 및/또는 기능은 도 3의 통신 방법(300)의 대응하는 절차를 구현하는데 개별적으로 사용된다. 간결함을 위해, 세부사항은 여기서 다시 설명하지 않는다.
또한, 실행되는 경우, 통신 방법(300)의 단계(310) 내지 단계(330)에서의 동작을 수행하는 컴퓨터 판독가능 명령어를 포함하는 컴퓨터 판독가능 매체가 더 제공된다. 선택에 따라, 통신 방법(300)의 선택사항인 단계에서의 동작이 수행될 수도 있다.
또한, 컴퓨터 판독가능 매체를 포함하는 컴퓨터 프로그램 제품이 더 제공된다.
본 발명의 이 실시예에서, 동작의 표시 정보가 음성 명령에 응답하는 장치에 자동으로 전송된다. 다수의 상이한 장치를 구비한 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
도 20은 본 발명의 또 다른 실시예에 따른 장치(2000)의 개략적인 블록도이다. 하나의 사용자의 다수의 장치는 사용자에 의해 전송된 동일한 음성 명령을 동시에 수신할 수 있고, 장치(2000)는 다수의 장치 중의 임의의 장치일 수 있다. 도 20에 도시되어 있는 바와 같이, 장치(2000)는 하나 이상의 프로세서(2010), 메모리(2020), 버스 시스템(2030), 트랜시버(2040), 및 하나 이상의 프로그램을 포함한다. 프로세서(2010), 메모리(2020) 및 트랜시버(2040)는 버스 시스템(2030)을 사용하여 서로 연결된다. 하나 이상의 프로그램은 메모리(2020)에 저장되고 하나 이상의 프로세서(2010)에 의해 실행되도록 구성된다. 하나 이상의 프로그램은 명령어를 포함하고, 이 명령어는:
트랜시버(2040)를 사용하여 제1 음성 명령을 수신하고,
트랜시버(2040)에 의해 수신된 제1 음성 명령에 따라 웨이크업 상태에 진입하고,
장치 타입을 포함하는 정보를 획득하고,
트랜시버(2040)를 사용하여 정보를 서버로 전송하며,
트랜시버(2040)를 사용하여, 정보에 따라 서버에 의해 전송된 제1 메시지를 수신하거나, 트랜시버를 사용하여, 정보에 따라 서버에 의해 전송된 제2 메시지를 수신하는데 사용되며, 제1 메시지는 장치(2000)의 음성 비서에게 음성 명령에 응답하지 않을 것을 지시하는 데 사용되고, 제2 메시지는 장치(2000)의 음성 비서에게 음성 명령에 응답할 것을 지시하는 데 사용된다.
명령어는 메모리(2020)로부터 장치(2000)에 대한 정보를 획득하는데 사용될 수 있다.
본 발명의 이 실시예에서, 정보가 획득되고, 이 정보는 서버에 전송되어, 서버는 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정할 수 있다. 다수의 상이한 장치를 구비한 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
본 발명의 이 실시예에서, 프로세서(2010)는 CPU일 수 있거나, 또는 프로세서(2010)는 또 다른 범용 프로세서, DSP, ASIC, 필드 프로그램가능 게이트 어레이(FPGA) 또는 다른 프로그램가능 로직 장치, 이산 게이트 또는 트랜지스터 로직 장치, 이산 하드웨어 컴포넌트 등일 수 있다. 범용 프로세서는 마이크로프로세서일 수 있거나, 또는 프로세서는 임의의 종래의 프로세서 등일 수 있다.
메모리(2020)는 판독 전용 메모리 및 랜덤 액세스 메모리를 포함할 수 있고, 명령어 및 데이터를 프로세서(2010)에 제공할 수 있다. 메모리(2020)의 일부는 비휘발성 랜덤 액세스 메모리를 더 포함할 수 있다. 예를 들어, 메모리(2020)는 장치 타입에 관한 정보를 더 저장할 수 있다.
데이터 버스 이외에, 버스 시스템(2030)은 전력 버스, 제어 버스, 상태 신호 버스 등을 포함할 수 있다. 그러나, 간단한 설명을 위해, 도면에서 다양한 버스는 버스 시스템(2030)으로 표기된다.
구현 프로세스에서, 방법의 단계들은 프로세서(2010) 내의 하드웨어의 집적 로직 회로 또는 소프트웨어 형태의 명령어를 사용하여 완성될 수 있다. 본 발명의 실시예를 참조하여 설명되는 방법의 단계들은 직접 하드웨어 프로세서에 의해 수행될 수 있거나, 또는 프로세서 내의 하드웨어와 소프트웨어 모듈의 결합을 사용하여 수행될 수도 있다. 소프트웨어 모듈은 예를 들어 랜덤 액세스 메모리, 플래시 메모리, 판독 전용 메모리, 프로그램가능 판독전용 메모리, 전기 소거가능 프로그램가능 메모리 또는 레지스터와 같은 당업계에 정착된 저장 매체에 위치할 수 있다. 저장 매체는 메모리(2020)에 위치한다. 프로세서(2010)는 메모리(2020) 내의 정보를 판독하고, 프로세서(2010)의 하드웨어와 연계하여 방법의 단계들을 완성한다. 반복을 피하기 위해, 자세한 사항은 여기서 다시 설명하지 않는다.
선택에 따라, 장치(2000)에 대한 정보는 장치(2000)의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함할 수 있다.
그에 대응하여, 명령어는 트랜시버(2040)를 사용하여, 서버에 의해 전송되며 음성 명령에 대응하는 동작을 나타내는데 사용되는 표시 정보를 수신하도록 더 사용되며, 정보는 음성 명령을 더 포함한다.
선택에 따라, 제1 메시지는 슬립 명령 정보를 더 운반할 수 있고, 명령어는 장치(2000)에게 슬립 명령 정보에 따라 슬립 상태에 진입할 것을 지시하는데 더 사용된다.
선택에 따라, 또 다른 실시예에서, 명령어는 또한,
서버에 의해 전송된 제1 메시지가 트랜시버(2040)를 사용하여 수신되는 경우, 트랜시버(2040)를 사용하여 제2 음성 명령을 수신하고,
트랜시버(2040)에 의해 수신된 제2 음성 명령에 응답하는 것을 건너뛰도록 하는데 사용된다.
선택에 따라, 또 다른 실시예에서, 명령어는 또한,
서버에 의해 전송된 제2 메시지가 트랜시버(2040)를 사용하여 수신되는 경우, 트랜시버(2040)를 사용하여 제3 음성 명령을 수신하고,
트랜시버(2040)를 사용하여 제3 음성 명령을 서버에 전송하고,
트랜시버(2040)를 사용하여, 제3 음성 명령에 따라 서버에 의해 전송된 제3 메시지- 이 제3 메시지는 제3 음성 명령에 대응하는 동작을 나타내는데 사용됨 -를 수신하며,
제3 메시지에 따라, 제3 음성 명령에 대응하는 동작을 수행하는데 사용된다.
장치(2000)는 통신 방법(400)에서의 장치에 대응할 수 있다는 것을 알아야 한다. 또한, 장치(2000)의 모든 모듈/유닛의 전술한 및 그 밖의 다른 동작 및/또는 기능은 도 4의 통신 방법(400)의 대응하는 절차를 구현하는데 개별적으로 사용된다. 간결함을 위해, 세부사항은 여기서 다시 설명하지 않는다.
또한, 실행되는 경우, 통신 방법(400)의 단계(410) 내지 단계(450)에서의 동작을 수행하는 컴퓨터 판독가능 명령어를 포함하는 컴퓨터 판독가능 매체가 더 제공된다. 선택에 따라, 통신 방법(400)의 선택사항인 단계에서의 동작이 수행될 수도 있다.
또한, 컴퓨터 판독가능 매체를 포함하는 컴퓨터 프로그램 제품이 더 제공된다.
본 발명의 이 실시예에서, 정보가 획득되고, 이 정보는 서버에 전송되어, 서버는 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정할 수 있다. 다수의 상이한 장치를 구비한 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
도 21은 본 발명의 또 다른 실시예에 따른 장치(2100)의 개략적인 블록도이다. 하나의 사용자의 다수의 장치는 사용자에 의해 전송된 동일한 음성 명령을 동시에 수신할 수 있고, 장치(2100)는 다수의 장치 중의 임의의 장치일 수 있다. 도 21에 도시되어 있는 바와 같이, 장치(2100)는 하나 이상의 프로세서(2110), 메모리(2120), 버스 시스템(2130), 트랜시버(2140), 및 하나 이상의 프로그램을 포함한다. 프로세서(2110), 메모리(2120) 및 트랜시버(2140)는 버스 시스템(2130)을 사용하여 서로 연결된다. 하나 이상의 프로그램은 메모리(2120)에 저장되고 하나 이상의 프로세서(2110)에 의해 실행되도록 구성된다. 하나 이상의 프로그램은 명령어를 포함하고, 이 명령어는:
트랜시버를 사용하여 제1 음성 명령을 수신하고,
제1 음성 명령에 따라 웨이크업 상태에 진입하고,
장치 타입을 포함하는 정보를 획득하고,
트랜시버를 사용하여 정보를 서버로 전송하고,
트랜시버를 사용하여 제2 음성 명령을 수신하고,
트랜시버를 사용하여 제2 음성 명령을 서버에 전송하며,
트랜시버를 사용하여, 정보에 따라 서버에 의해 전송되며 제2 음성 명령에 대응하는 동작을 나타내는데 사용되는 표시 정보를 수신하는데 사용된다.
정보는 장치의 장면 모드 및 음성 명령 중 적어도 하나를 더 포함한다.
본 발명의 이 실시예에서, 프로세서(2110)는 CPU일 수 있거나, 또는 프로세서(2110)는 또 다른 범용 프로세서, DSP, ASIC, 필드 프로그램가능 게이트 어레이(FPGA) 또는 다른 프로그램가능 로직 장치, 이산 게이트 또는 트랜지스터 로직 장치, 이산 하드웨어 컴포넌트 등일 수 있다. 범용 프로세서는 마이크로프로세서일 수 있거나, 또는 프로세서는 임의의 종래의 프로세서 등일 수 있다.
메모리(2120)는 판독 전용 메모리 및 랜덤 액세스 메모리를 포함할 수 있고, 명령어 및 데이터를 프로세서(2110)에 제공할 수 있다. 메모리(2120)의 일부는 비휘발성 랜덤 액세스 메모리를 더 포함할 수 있다. 예를 들어, 메모리(2120)는 장치 타입에 관한 정보를 더 저장할 수 있다.
데이터 버스 이외에, 버스 시스템(2130)은 전력 버스, 제어 버스, 상태 신호 버스 등을 포함할 수 있다. 그러나, 간단한 설명을 위해, 도면에서 다양한 버스는 버스 시스템(2130)으로 표기된다.
구현 프로세스에서, 방법의 단계들은 프로세서(2110) 내의 하드웨어의 집적 로직 회로 또는 소프트웨어 형태의 명령어를 사용하여 완성될 수 있다. 본 발명의 실시예를 참조하여 설명되는 방법의 단계들은 직접 하드웨어 프로세서에 의해 수행될 수 있거나, 또는 프로세서 내의 하드웨어와 소프트웨어 모듈의 결합을 사용하여 수행될 수도 있다. 소프트웨어 모듈은 예를 들어 랜덤 액세스 메모리, 플래시 메모리, 판독 전용 메모리, 프로그램가능 판독전용 메모리, 전기 소거가능 프로그램가능 메모리 또는 레지스터와 같은 당업계에 정착된 저장 매체에 위치할 수 있다. 저장 매체는 메모리(2120)에 위치한다. 프로세서(2110)는 메모리(2020) 내의 정보를 판독하고, 프로세서(2110)의 하드웨어와 연계하여 방법의 단계들을 완성한다. 반복을 피하기 위해, 자세한 사항은 여기서 다시 설명하지 않는다.
장치(2100)는 통신 방법(500)에서의 장치에 대응할 수 있다는 것을 알아야 한다. 또한, 장치(2100)의 모든 모듈/유닛의 전술한 및 그 밖의 다른 동작 및/또는 기능은 도 5의 통신 방법(500)의 대응하는 절차를 구현하는데 개별적으로 사용된다. 간결함을 위해, 세부사항은 여기서 다시 설명하지 않는다.
또한, 실행되는 경우, 통신 방법(500)의 단계(510) 내지 단계(570)에서의 동작을 수행하는 컴퓨터 판독가능 명령어를 포함하는 컴퓨터 판독가능 매체가 더 제공된다. 선택에 따라, 통신 방법(500)의 선택사항인 단계에서의 동작이 수행될 수도 있다.
또한, 컴퓨터 판독가능 매체를 포함하는 컴퓨터 프로그램 제품이 더 제공된다.
본 발명의 이 실시예에서, 획득된 정보 및 수신된 음성 명령이 서버에 전송되어, 서버는 정보에 따라, 하나의 사용자의 다수의 장치 중에서 음성 명령에 응답하는 장치를 결정하고, 음성 명령에 대응하는 동작의 표시 정보를 음성 명령에 응답하는 장치에 전송할 수 있다. 다수의 상이한 장치를 구비한 사용자의 경우, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
도 22는 본 발명의 또 다른 실시예에 따른 장치(2200)의 개략적인 블록도이다. 하나의 사용자의 다수의 장치는 사용자에 의해 전송된 동일한 음성 명령을 동시에 수신할 수 있고, 장치(2200)는 다수의 장치 중의 임의의 장치일 수 있다. 도 22에 도시되어 있는 바와 같이, 장치(2200)는 하나 이상의 프로세서(2210), 메모리(2220), 버스 시스템(2230), 트랜시버(2240), 및 하나 이상의 프로그램을 포함한다. 프로세서(2210), 메모리(2220) 및 트랜시버(2240)는 버스 시스템(2230)을 사용하여 서로 연결된다. 하나 이상의 프로그램은 메모리(2220)에 저장되고 하나 이상의 프로세서에 의해 실행되도록 구성된다. 하나 이상의 프로그램은 명령어를 포함하고, 이 명령어는:
트랜시버(2240)를 사용하여 제1 음성 명령을 수신하고,
제1 음성 명령에 따라 웨이크업 상태에 진입하고,
트랜시버(2240)를 사용하여 제2 음성 명령을 수신하며,
제2 음성 명령이 장치(2200)에 대한 정보를 포함하는 것으로 결정하고 이 제2 음성 명령에 응답하는데 사용된다.
본 발명의 이 실시예에서, 프로세서(2210)는 CPU일 수 있거나, 또는 프로세서(2210)는 또 다른 범용 프로세서, DSP, ASIC, 필드 프로그램가능 게이트 어레이(FPGA) 또는 다른 프로그램가능 로직 장치, 이산 게이트 또는 트랜지스터 로직 장치, 이산 하드웨어 컴포넌트 등일 수 있다. 범용 프로세서는 마이크로프로세서일 수 있거나, 또는 프로세서는 임의의 종래의 프로세서 등일 수 있다.
메모리(2220)는 판독 전용 메모리 및 랜덤 액세스 메모리를 포함할 수 있고, 명령어 및 데이터를 프로세서(2210)에 제공할 수 있다. 메모리(2220)의 일부는 비휘발성 랜덤 액세스 메모리를 더 포함할 수 있다. 예를 들어, 메모리(2220)는 장치 타입에 관한 정보를 더 저장할 수 있다.
데이터 버스 이외에, 버스 시스템(2230)은 전력 버스, 제어 버스, 상태 신호 버스 등을 포함할 수 있다. 그러나, 간단한 설명을 위해, 도면에서 다양한 버스는 버스 시스템(2230)으로 표기된다.
구현 프로세스에서, 방법의 단계들은 프로세서(2210) 내의 하드웨어의 집적 로직 회로 또는 소프트웨어 형태의 명령어를 사용하여 완성될 수 있다. 본 발명의 실시예를 참조하여 설명되는 방법의 단계들은 직접 하드웨어 프로세서에 의해 수행될 수 있거나, 또는 프로세서 내의 하드웨어와 소프트웨어 모듈의 결합을 사용하여 수행될 수도 있다. 소프트웨어 모듈은 예를 들어 랜덤 액세스 메모리, 플래시 메모리, 판독 전용 메모리, 프로그램가능 판독전용 메모리, 전기 소거가능 프로그램가능 메모리 또는 레지스터와 같은 당업계에 정착된 저장 매체에 위치할 수 있다. 저장 매체는 메모리(2220)에 위치한다. 프로세서(2210)는 메모리(2020) 내의 정보를 판독하고, 프로세서(2210)의 하드웨어와 연계하여 방법의 단계들을 완성한다. 반복을 피하기 위해, 자세한 사항은 여기서 다시 설명하지 않는다.
장치(2200)는 통신 방법(600)에서의 장치에 대응할 수 있다는 것을 알아야 한다. 또한, 장치(2200)의 모든 모듈/유닛의 전술한 및 그 밖의 다른 동작 및/또는 기능은 도 6의 통신 방법(600)의 대응하는 절차를 구현하는데 개별적으로 사용된다. 간결함을 위해, 세부사항은 여기서 다시 설명하지 않는다.
또한, 실행되는 경우, 통신 방법(600)의 단계(610) 내지 단계(640)에서의 동작을 수행하는 컴퓨터 판독가능 명령어를 포함하는 컴퓨터 판독가능 매체가 더 제공된다. 선택에 따라, 통신 방법(600)의 선택사항인 단계에서의 동작이 수행될 수도 있다.
또한, 컴퓨터 판독가능 매체를 포함하는 컴퓨터 프로그램 제품이 더 제공된다.
본 발명의 이 실시예에서, 수신된 음성 명령이 장치 정보를 포함하는 것으로 결정되면, 음성 명령에 대한 응답이 자동으로 수행되어, 음성 명령에 응답하는 장치가 지능적으로 선택될 수 있고, 보다 편리하고 자연적인 인간-머신 상호작용 경험이 사용자에게 제공된다.
본 발명의 이 실시예에서 "및/또는"이라는 용어는 관련 객체들을 기술하는 연관 관계만을 나타내고 3가지 관계가 존재할 수 있음을 나타냄을 알아야 한다. 예를 들어, A 및/또는 B는 다음과 같은 3가지 경우, 즉 A만이 존재하는 경우, A와 B 모두가 존재하는 경우, 및 B만이 존재하는 경우를 나타낼 수 있다.
당업자라면, 본 명세서에 개시된 실시예에서 설명된 예시와 연계된 유닛 및 알고리즘은 전자 하드웨어에 의해 또는 컴퓨터 소프트웨어와 전자 하드웨어의 결합에 의해 구현될 수 있음을 알 수 있을 것이다. 기능이 하드웨어에 의해 수행될 지 또는 소프트웨어에 의해 수행될 지 여부는 기술적 솔루션의 특정 애플리케이션 및 설계 제약 사항에 의존한다. 당업자라면 각 특정 애플리케이션에 대해 설명된 기능을 구현함에 있어 상이한 방법을 사용할 수 있지만, 그 구현이 본 발명의 범주를 벗어나는 것으로 간주되어서는 안된다.
편리하고 간략한 설명을 위해, 시스템, 장치 및 유닛의 상세한 동작 프로세스에 대해, 방법 실시예에서의 대응하는 프로세스를 참조할 수 있고, 자세한 사항은 여기서 다시 설명하지 않는다.
본 출원에서 제공된 몇몇 실시예에서, 개시된 시스템, 장치 및 방법은 다른방식으로 구현될 수 있음을 알아야 한다. 예를 들어, 설명한 장치 실시예는 단지 하나의 예일뿐이다. 예를 들어, 유닛 분할은 단지 논리적 기능 분할이며 실제 구현에서는 다른 분할일 수 있다. 예를 들어, 다수의 유닛 또는 컴포넌트는 결합되거나 다른 시스템에 통합될 수 있고, 또는 일부 특징들은 무시되거나 실행되지 않을 수 있다. 또한, 표시된 또는 논의된 상호 결합 또는 직접 결합 또는 통신 연결은 몇몇 인터페이스를 통해 구현될 수 있다. 장치들 또는 유닛들 간의 간접 결합 또는 통신 연결은 전자, 기계 또는 다른 형식으로 구현될 수 있다.
별도의 부분으로 설명된 유닛은 물리적으로 분리되어 있을 수도 있고 또는 그렇지 않을 수도 있으며, 유닛으로 표시된 부분은 물리적 유닛일 수도 있고 또는 그렇지 않을 수도 있으며, 하나의 위치에 배치될 수 있고, 또는 다수의 네트워크 유닛에 분산될 수도 있다. 유닛의 일부 또는 전부는 실시예의 솔루션의 목적을 달성하기 위한 실제 요구에 따라 선택될 수 있다.
또한, 본 발명의 실시예에서의 기능 유닛은 하나의 처리 유닛에 통합될 수 있거나, 또는 유닛들 각각은 물리적으로 홀로 존재할 수 있거나, 또는 둘 이상의 유닛이 하나의 유닛에 통합될 수 있다.
기능이 소프트웨어 기능 유닛의 형태로 구현되고 독립적인 제품으로 판매되거나 사용되는 경우, 기능은 컴퓨터 판독가능 저장 매체에 저장될 수 있다. 이러한 이해를 바탕으로, 본질적으로 본 발명의 기술적 솔루션, 또는 종래 기술에 기여하는 부분, 또는 기술적 솔루션의 일부는 소프트웨어 제품의 형태로 구현될 수 있다. 소프트웨어 제품은 저장 매체에 저장되고, 컴퓨터 장치(개인용 컴퓨터, 서버, 네트워크 장치 등일 수 있음)로 하여금 본 발명의 실시예에서 설명된 방법의 단계들의 전부 또는 일부를 실행하게 하는 몇몇 명령어를 포함한다. 저장 매체는 USB 플래시 드라이브, 착탈식 하드 디스크, 판독전용 메모리(read-only memory, 간단히 ROM), 랜덤 액세스 메모리(random access memory, 간단히 RAM), 자기 디스크 또는 광학 디스크와 같이 프로그램 코드를 저장할 수 있는 임의의 매체를 포함한다.
이상에서 설명한 내용은 본 발명의 특정 실시예에 불과한 것일 뿐, 본 발명의 보호 범위를 한정하려는 것은 아니다. 본 발명에서 개시된 기술적 범위 내에서 당업자라면 쉽게 도출할 수 있는 임의의 변형예 또는 대체예는 본 발명의 보호 범위 내에 속한다. 따라서, 본 발명의 보호 범위는 청구범위의 보호 범위를 따라야한다.
Claims (20)
- 하나의 사용자의 다수의 장치 중 임의의 장치에 의해 실행되는 통신 방법으로서,
제1 음성 명령을 수신하는 단계와,
상기 제1 음성 명령에 따라 웨이크업 상태에 진입하는 단계와,
제2 음성 명령을 수신하는 단계와,
상기 제2 음성 명령이 장치 정보를 포함하는 것으로 결정하는 단계 - 상기 장치 정보는 장치의 장치 유형 및 장면 모드를 포함함 - 와,
상기 제2 음성 명령의 시맨틱 의미(semantic meaning)를 식별하는 단계와,
상기 시맨틱 의미, 상기 장치 유형, 상기 장면 모드, 및 각 장치에 대응하는 우선순위에 기초하여, 상기 제2 음성 명령에 응답하는 장치를 상기 하나의 사용자의 상기 다수의 장치 중에서 결정하는 단계를 포함하는
통신 방법. - 제1항에 있어서,
상기 제1 음성 명령은 음성 웨이크업 명령이고, 상기 제2 음성 명령은 음성 동작 명령인
통신 방법. - 제1항에 있어서,
상기 하나의 사용자의 다수의 장치는 상기 다수의 장치가 동일한 사용자 계정을 가지고 있고, 상기 다수의 장치는 상기 동일한 사용자 계정을 사용하여 무선으로 연결된 채로 유지됨을 나타내는
통신 방법. - 제2항에 있어서,
상기 하나의 사용자의 다수의 장치는 상기 다수의 장치가 동일한 사용자 계정을 가지고 있고, 상기 다수의 장치는 상기 동일한 사용자 계정을 사용하여 무선으로 연결된 채로 유지됨을 나타내는
통신 방법. - 제1항에 있어서,
상기 하나의 사용자의 다수의 장치 중 하나의 장치는 상기 장치 정보를 사전에 저장하는
통신 방법. - 제2항에 있어서,
상기 하나의 사용자의 다수의 장치 중 하나의 장치는 상기 장치 정보를 사전에 저장하는
통신 방법. - 제3항에 있어서,
상기 하나의 사용자의 다수의 장치 중 하나의 장치는 상기 장치 정보를 사전에 저장하는
통신 방법. - 제4항에 있어서,
상기 하나의 사용자의 다수의 장치 중 하나의 장치는 상기 장치 정보를 사전에 저장하는
통신 방법. - 하나의 사용자의 다수의 장치 중 하나의 장치에 의해 실행되는 통신 방법으로서,
제1 음성 명령을 수신하는 단계와,
상기 제1 음성 명령에 따라 웨이크업 상태에 진입하는 단계와,
제2 음성 명령을 수신하는 단계와,
상기 제2 음성 명령이 장치 정보를 포함하는 것으로 결정하는 단계 - 상기 장치 정보는 장치의 장치 유형 및 장면 모드를 포함함 - 와,
상기 제2 음성 명령의 시맨틱 의미를 식별하는 단계와,
상기 시맨틱 의미, 상기 장치 유형, 상기 장면 모드, 및 각 장치에 대응하는 우선순위에 기초하여, 상기 제2 음성 명령에 응답하는 장치를 상기 하나의 사용자의 상기 다수의 장치 중에서 결정하는 단계를 포함하는
통신 방법. - 제9항에 있어서,
상기 제1 음성 명령은 음성 웨이크업 명령이고, 상기 제2 음성 명령은 음성 동작 명령인
통신 방법. - 제9항에 있어서,
상기 하나의 사용자의 다수의 장치는 상기 다수의 장치가 동일한 사용자 계정을 가지고 있고, 상기 다수의 장치는 상기 동일한 사용자 계정을 사용하여 무선으로 연결된 채로 유지됨을 나타내는
통신 방법. - 제10항에 있어서,
상기 하나의 사용자의 다수의 장치는 상기 다수의 장치가 동일한 사용자 계정을 가지고 있고, 상기 다수의 장치는 상기 동일한 사용자 계정을 사용하여 무선으로 연결된 채로 유지됨을 나타내는
통신 방법. - 제9항에 있어서,
상기 하나의 사용자의 다수의 장치 중 상기 하나의 장치는 상기 장치 정보를 사전에 저장하는
통신 방법. - 제10항에 있어서,
상기 하나의 사용자의 다수의 장치 중 상기 하나의 장치는 상기 장치 정보를 사전에 저장하는
통신 방법. - 제11항에 있어서,
상기 하나의 사용자의 다수의 장치 중 상기 하나의 장치는 상기 장치 정보를 사전에 저장하는
통신 방법. - 제12항에 있어서,
상기 하나의 사용자의 다수의 장치 중 상기 하나의 장치는 상기 장치 정보를 사전에 저장하는
통신 방법. - 장치로서,
하나 이상의 프로세서, 메모리, 버스 시스템, 트랜시버 및 하나 이상의 프로그램을 포함하되, 상기 하나 이상의 프로세서, 상기 메모리 및 상기 트랜시버는 상기 버스 시스템을 사용하여 서로 연결되고,
상기 하나 이상의 프로그램은 상기 메모리에 저장되고 상기 하나 이상의 프로세서에 의해 실행되도록 구성되며, 상기 하나 이상의 프로그램은 명령어를 포함하고, 상기 명령어는 상기 하나 이상의 프로세서에 의해 실행되는 경우 상기 장치로 하여금 제1항 내지 제8항 중 어느 한 항에 따른 방법을 실행하게 하는
장치. - 장치로서,
하나 이상의 프로세서, 메모리, 버스 시스템, 트랜시버 및 하나 이상의 프로그램을 포함하되, 상기 하나 이상의 프로세서, 상기 메모리 및 상기 트랜시버는 상기 버스 시스템을 사용하여 서로 연결되고,
상기 하나 이상의 프로그램은 상기 메모리에 저장되고 상기 하나 이상의 프로세서에 의해 실행되도록 구성되며, 상기 하나 이상의 프로그램은 명령어를 포함하고, 상기 명령어는 상기 하나 이상의 프로세서에 의해 실행되는 경우 상기 장치로 하여금 제9항 내지 제16항 중 어느 한 항에 따른 방법을 실행하게 하는
장치. - 하나 이상의 프로그램을 저장하는 컴퓨터 판독가능 저장 매체로서,
상기 하나 이상의 프로그램은 명령어를 포함하고, 상기 명령어는 장치에 의해 실행되는 경우 상기 장치로 하여금 제1항 내지 제8항 중 어느 한 항에 따른 방법을 실행하게 하는
컴퓨터 판독가능 저장 매체. - 하나 이상의 프로그램을 저장하는 컴퓨터 판독가능 저장 매체로서,
상기 하나 이상의 프로그램은 명령어를 포함하고, 상기 명령어는 장치에 의해 실행되는 경우 상기 장치로 하여금 제9항 내지 제16항 중 어느 한 항에 따른 방법을 실행하게 하는
컴퓨터 판독가능 저장 매체.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020217036714A KR102508619B1 (ko) | 2015-08-19 | 2016-08-01 | 통신 방법, 서버 및 장치 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510511714.3 | 2015-08-19 | ||
CN201510511714.3A CN106469040B (zh) | 2015-08-19 | 2015-08-19 | 通信方法、服务器及设备 |
KR1020187005455A KR102105295B1 (ko) | 2015-08-19 | 2016-08-01 | 통신 방법, 서버 및 장치 |
PCT/CN2016/092736 WO2017028678A1 (zh) | 2015-08-19 | 2016-08-01 | 通信方法、服务器及设备 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020187005455A Division KR102105295B1 (ko) | 2015-08-19 | 2016-08-01 | 통신 방법, 서버 및 장치 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217036714A Division KR102508619B1 (ko) | 2015-08-19 | 2016-08-01 | 통신 방법, 서버 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200044156A KR20200044156A (ko) | 2020-04-28 |
KR102327279B1 true KR102327279B1 (ko) | 2021-11-16 |
Family
ID=58051904
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217036714A KR102508619B1 (ko) | 2015-08-19 | 2016-08-01 | 통신 방법, 서버 및 장치 |
KR1020207011463A KR102327279B1 (ko) | 2015-08-19 | 2016-08-01 | 통신 방법, 서버 및 장치 |
KR1020187005455A KR102105295B1 (ko) | 2015-08-19 | 2016-08-01 | 통신 방법, 서버 및 장치 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217036714A KR102508619B1 (ko) | 2015-08-19 | 2016-08-01 | 통신 방법, 서버 및 장치 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020187005455A KR102105295B1 (ko) | 2015-08-19 | 2016-08-01 | 통신 방법, 서버 및 장치 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11049499B2 (ko) |
EP (2) | EP3683672A1 (ko) |
JP (3) | JP6571273B2 (ko) |
KR (3) | KR102508619B1 (ko) |
CN (1) | CN106469040B (ko) |
WO (1) | WO2017028678A1 (ko) |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10592611B2 (en) * | 2016-10-24 | 2020-03-17 | Conduent Business Services, Llc | System for automatic extraction of structure from spoken conversation using lexical and acoustic features |
CN107135443B (zh) * | 2017-03-29 | 2020-06-23 | 联想(北京)有限公司 | 一种信号处理方法及电子设备 |
CN107146611B (zh) * | 2017-04-10 | 2020-04-17 | 北京猎户星空科技有限公司 | 一种语音响应方法、装置及智能设备 |
US11250844B2 (en) * | 2017-04-12 | 2022-02-15 | Soundhound, Inc. | Managing agent engagement in a man-machine dialog |
CN107436750A (zh) * | 2017-08-16 | 2017-12-05 | 联想(北京)有限公司 | 配置电子设备的方法、设备以及存储设备 |
CN108305621B (zh) * | 2017-08-25 | 2020-05-05 | 维沃移动通信有限公司 | 一种语音指令处理方法及电子设备 |
KR102417524B1 (ko) * | 2017-10-13 | 2022-07-07 | 현대자동차주식회사 | 음성 인식 기반의 자동차 제어 방법 |
DE102017128651A1 (de) * | 2017-12-02 | 2019-06-06 | Tobias Rückert | Dialogsystem und Verfahren zur Umsetzung von Anweisungen eines Nutzers |
CN107919123B (zh) * | 2017-12-07 | 2022-06-03 | 北京小米移动软件有限公司 | 多语音助手控制方法、装置及计算机可读存储介质 |
CN117632482A (zh) * | 2017-12-08 | 2024-03-01 | 谷歌有限责任公司 | 数字语音助理计算设备当中的信号处理协调 |
US10971173B2 (en) | 2017-12-08 | 2021-04-06 | Google Llc | Signal processing coordination among digital voice assistant computing devices |
CN111386566A (zh) * | 2017-12-15 | 2020-07-07 | 海尔优家智能科技(北京)有限公司 | 设备控制方法、云端设备、智能设备、计算机介质及设备 |
US11151991B2 (en) * | 2018-03-30 | 2021-10-19 | Verizon Media Inc. | Electronic message transmission |
CN108766422B (zh) * | 2018-04-02 | 2020-09-15 | 青岛海尔科技有限公司 | 语音设备的响应方法、装置、存储介质及计算机设备 |
CN110710158B (zh) * | 2018-05-07 | 2022-08-09 | 谷歌有限责任公司 | 验证与数字助理应用交接的代理的操作状态 |
US10198877B1 (en) | 2018-05-23 | 2019-02-05 | Google Llc | Providing a communications channel between instances of automated assistants |
JP6603001B1 (ja) * | 2018-05-23 | 2019-11-06 | グーグル エルエルシー | 自動アシスタントのインスタンス間への通信チャネルの提供 |
KR20210014625A (ko) * | 2018-05-25 | 2021-02-09 | 소니 주식회사 | 정보 처리 장치 및 정보 처리 방법, 그리고 정보 처리 시스템 |
CN109117233A (zh) * | 2018-08-22 | 2019-01-01 | 百度在线网络技术(北京)有限公司 | 用于处理信息的方法和装置 |
CN110875041A (zh) * | 2018-08-29 | 2020-03-10 | 阿里巴巴集团控股有限公司 | 语音控制方法、装置及系统 |
CN109391528A (zh) | 2018-08-31 | 2019-02-26 | 百度在线网络技术(北京)有限公司 | 语音智能设备的唤醒方法、装置、设备及存储介质 |
CN109377987B (zh) | 2018-08-31 | 2020-07-28 | 百度在线网络技术(北京)有限公司 | 智能语音设备间的交互方法、装置、设备及存储介质 |
CN109541953A (zh) * | 2018-11-27 | 2019-03-29 | 深圳狗尾草智能科技有限公司 | 拓展辅助设备、基于智能机器人的拓展平台及方法 |
CN109243459A (zh) * | 2018-11-30 | 2019-01-18 | 广东美的制冷设备有限公司 | 设备的语音唤醒方法、装置、家电设备和控制系统 |
KR20210084615A (ko) | 2018-12-03 | 2021-07-07 | 구글 엘엘씨 | 음성 입력 프로세싱 |
CN111354336B (zh) * | 2018-12-20 | 2023-12-19 | 美的集团股份有限公司 | 分布式语音交互方法、装置、系统及家电设备 |
KR20200107058A (ko) | 2019-03-06 | 2020-09-16 | 삼성전자주식회사 | 복수 개의 엔드 포인트가 포함된 플랜들을 처리하는 방법 및 그 방법을 적용한 전자 장치 |
CN111696534B (zh) * | 2019-03-15 | 2023-05-23 | 阿里巴巴集团控股有限公司 | 语音交互设备和系统、设备控制方法、计算设备以及介质 |
CN114760159A (zh) * | 2019-03-29 | 2022-07-15 | 华为技术有限公司 | 一种设备配合方法、装置及系统 |
CN111754997B (zh) * | 2019-05-09 | 2023-08-04 | 北京汇钧科技有限公司 | 控制装置及其操作方法,和语音交互装置及其操作方法 |
KR20210008696A (ko) | 2019-07-15 | 2021-01-25 | 삼성전자주식회사 | 전자 장치 및 이의 음성 인식 방법 |
CN110459221B (zh) * | 2019-08-27 | 2022-02-22 | 思必驰科技股份有限公司 | 多设备协同语音交互的方法和装置 |
CN110718219B (zh) * | 2019-09-12 | 2022-07-22 | 百度在线网络技术(北京)有限公司 | 一种语音处理方法、装置、设备和计算机存储介质 |
CN110784830B (zh) * | 2019-09-18 | 2022-07-29 | 华为技术有限公司 | 数据处理方法、蓝牙模块、电子设备与可读存储介质 |
KR102266413B1 (ko) * | 2019-10-30 | 2021-06-18 | 에스케이텔레콤 주식회사 | 단말 제어 장치 및 방법 |
CN110890092B (zh) * | 2019-11-07 | 2022-08-05 | 北京小米移动软件有限公司 | 唤醒控制方法及装置、计算机存储介质 |
CN110855772B (zh) * | 2019-11-08 | 2022-06-03 | 北京奇艺世纪科技有限公司 | 跨设备数据存储方法、系统、装置、设备、服务器及介质 |
CN111031492B (zh) * | 2019-11-25 | 2021-11-19 | 荣耀终端有限公司 | 呼叫需求响应方法、装置及电子设备 |
EP3836582B1 (en) * | 2019-12-09 | 2024-01-31 | Google LLC | Relay device for voice commands to be processed by a voice assistant, voice assistant and wireless network |
KR20210098250A (ko) * | 2020-01-31 | 2021-08-10 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
JP7465700B2 (ja) * | 2020-03-27 | 2024-04-11 | 株式会社デンソーテン | 車載装置および車載装置における音声処理方法 |
CN111694605A (zh) | 2020-05-18 | 2020-09-22 | Oppo广东移动通信有限公司 | 语音信息处理方法及装置、存储介质和电子设备 |
CN111722824B (zh) | 2020-05-29 | 2024-04-30 | 北京小米松果电子有限公司 | 语音控制方法、装置及计算机存储介质 |
US11887589B1 (en) * | 2020-06-17 | 2024-01-30 | Amazon Technologies, Inc. | Voice-based interactions with a graphical user interface |
CN111968641B (zh) * | 2020-08-20 | 2023-01-06 | Oppo(重庆)智能科技有限公司 | 语音助手唤醒控制方法及装置、存储介质和电子设备 |
WO2022102893A1 (ko) | 2020-11-11 | 2022-05-19 | 삼성전자주식회사 | 전자 장치, 시스템 및 그 제어 방법 |
CN112420043A (zh) * | 2020-12-03 | 2021-02-26 | 深圳市欧瑞博科技股份有限公司 | 基于语音的智能唤醒方法、装置、电子设备及存储介质 |
CN112929724B (zh) * | 2020-12-31 | 2022-09-30 | 海信视像科技股份有限公司 | 显示设备、机顶盒及远场拾音唤醒控制方法 |
CN113138559A (zh) * | 2021-04-02 | 2021-07-20 | Oppo广东移动通信有限公司 | 设备交互方法、装置、电子设备及存储介质 |
CN113450791B (zh) * | 2021-04-28 | 2023-08-04 | 珠海格力电器股份有限公司 | 一种语音设备控制方法、装置、存储介质及语音设备 |
CN113689857B (zh) * | 2021-08-20 | 2024-04-26 | 北京小米移动软件有限公司 | 语音协同唤醒方法、装置、电子设备及存储介质 |
EP4421070A1 (en) | 2021-10-18 | 2024-08-28 | Sapiensbio Inc. | Novel compound and pharmaceutical composition comprising same |
CN116346896A (zh) * | 2021-12-23 | 2023-06-27 | 比亚迪股份有限公司 | 车辆信息传递方法、装置和系统 |
CN114708858A (zh) * | 2022-03-07 | 2022-07-05 | 云知声智能科技股份有限公司 | 语音服务方法、装置、电子设备和存储介质 |
CN116578264A (zh) * | 2023-05-16 | 2023-08-11 | 润芯微科技(江苏)有限公司 | 一种投屏内使用语音控制的方法、系统、设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8340975B1 (en) * | 2011-10-04 | 2012-12-25 | Theodore Alfred Rosenberger | Interactive speech recognition device and system for hands-free building control |
Family Cites Families (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58208799A (ja) | 1982-05-28 | 1983-12-05 | トヨタ自動車株式会社 | 車両用音声認識方式 |
EP0767358B1 (en) * | 1995-10-04 | 2004-02-04 | Aisin Aw Co., Ltd. | Vehicle navigation system |
EP0911808B1 (en) * | 1997-10-23 | 2002-05-08 | Sony International (Europe) GmbH | Speech interface in a home network environment |
EP1063636A3 (en) * | 1999-05-21 | 2001-11-14 | Winbond Electronics Corporation | Method and apparatus for standard voice user interface and voice controlled devices |
JP2002116787A (ja) * | 2000-07-10 | 2002-04-19 | Matsushita Electric Ind Co Ltd | 優先順位決定装置、優先順位決定方法及び優先順位決定プログラム |
JP2003051887A (ja) | 2001-08-06 | 2003-02-21 | Minolta Co Ltd | 制御システムおよび制御方法 |
JP4086280B2 (ja) | 2002-01-29 | 2008-05-14 | 株式会社東芝 | 音声入力システム、音声入力方法及び音声入力プログラム |
KR100574519B1 (ko) | 2003-03-19 | 2006-04-27 | 삼성전자주식회사 | 네트워크를 통한 기기정보의 관리장치 및 방법 |
JP4131978B2 (ja) | 2006-02-24 | 2008-08-13 | 本田技研工業株式会社 | 音声認識機器制御装置 |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
JP2008257566A (ja) * | 2007-04-06 | 2008-10-23 | Kyocera Mita Corp | 電子機器 |
US20110177780A1 (en) * | 2010-01-15 | 2011-07-21 | Kabushiki Kaisha Toshiba | Wireless communication apparatus |
US8359020B2 (en) | 2010-08-06 | 2013-01-22 | Google Inc. | Automatically monitoring for voice input based on context |
JP5463385B2 (ja) | 2011-06-03 | 2014-04-09 | アップル インコーポレイテッド | テキストデータとオーディオデータとの間のマッピングの自動作成 |
AU2012232977A1 (en) | 2011-09-30 | 2013-04-18 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US8453058B1 (en) * | 2012-02-20 | 2013-05-28 | Google Inc. | Crowd-sourced audio shortcuts |
KR20130133629A (ko) * | 2012-05-29 | 2013-12-09 | 삼성전자주식회사 | 전자장치에서 음성명령을 실행시키기 위한 장치 및 방법 |
US9899040B2 (en) | 2012-05-31 | 2018-02-20 | Elwha, Llc | Methods and systems for managing adaptation data |
CN102831894B (zh) * | 2012-08-09 | 2014-07-09 | 华为终端有限公司 | 指令处理方法、装置和系统 |
US9443272B2 (en) * | 2012-09-13 | 2016-09-13 | Intel Corporation | Methods and apparatus for providing improved access to applications |
KR102070196B1 (ko) * | 2012-09-20 | 2020-01-30 | 삼성전자 주식회사 | 사용자 디바이스에서 상황 인식 서비스 제공 방법 및 장치 |
US9319019B2 (en) * | 2013-02-11 | 2016-04-19 | Symphonic Audio Technologies Corp. | Method for augmenting a listening experience |
US9361885B2 (en) * | 2013-03-12 | 2016-06-07 | Nuance Communications, Inc. | Methods and apparatus for detecting a voice command |
US9703350B2 (en) * | 2013-03-15 | 2017-07-11 | Maxim Integrated Products, Inc. | Always-on low-power keyword spotting |
US9432499B2 (en) * | 2013-05-18 | 2016-08-30 | Loralee Hajdu | Peripheral specific selection of automated response messages |
US10255930B2 (en) * | 2013-06-28 | 2019-04-09 | Harman International Industries, Incorporated | Wireless control of linked devices |
US9871865B2 (en) * | 2013-07-11 | 2018-01-16 | Neura, Inc. | Physical environment profiling through internet of things integration platform |
WO2015011624A2 (en) * | 2013-07-21 | 2015-01-29 | Wizedsp Ltd | Systems and methods using acoustic communication |
CN103442138A (zh) * | 2013-08-26 | 2013-12-11 | 华为终端有限公司 | 语音控制方法、装置及终端 |
KR101908618B1 (ko) * | 2013-08-30 | 2018-10-17 | 콘비다 와이어리스, 엘엘씨 | 디지털 홈에서의 스마트 객체 식별 |
US10181960B2 (en) * | 2013-09-05 | 2019-01-15 | Samsung Electronics Co., Ltd. | Method and apparatus for configuring and recommending device action using user context |
US9240182B2 (en) | 2013-09-17 | 2016-01-19 | Qualcomm Incorporated | Method and apparatus for adjusting detection threshold for activating voice assistant function |
KR101825700B1 (ko) * | 2013-10-21 | 2018-02-06 | 콘비다 와이어리스, 엘엘씨 | M2m 디바이스들의 크롤링 |
CN103561175B (zh) | 2013-11-05 | 2015-04-01 | 广东欧珀移动通信有限公司 | 一种使用移动终端进行语音唤醒的方法及其装置 |
CN103945062B (zh) * | 2014-04-16 | 2017-01-18 | 华为技术有限公司 | 一种用户终端的音量调节方法、装置及终端 |
US20160050315A1 (en) * | 2014-08-14 | 2016-02-18 | Harman International Industries, Incorporated | Driver status indicator |
KR102203510B1 (ko) * | 2014-09-26 | 2021-01-14 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 애플리케이션 프로그램 제어 방법 및 장치, 그리고 전자 장치 |
US9318107B1 (en) * | 2014-10-09 | 2016-04-19 | Google Inc. | Hotword detection on multiple devices |
CN104363517B (zh) | 2014-11-12 | 2018-05-11 | 科大讯飞股份有限公司 | 基于电视场景及语音助手的语音切换方法及系统 |
CN104538030A (zh) * | 2014-12-11 | 2015-04-22 | 科大讯飞股份有限公司 | 一种可以通过语音控制家电的控制系统与方法 |
US20160366528A1 (en) * | 2015-06-11 | 2016-12-15 | Sony Mobile Communications, Inc. | Communication system, audio server, and method for operating a communication system |
US10133443B2 (en) * | 2015-06-14 | 2018-11-20 | Google Llc | Systems and methods for smart home automation using a multifunction status and entry point icon |
CN105185379B (zh) * | 2015-06-17 | 2017-08-18 | 百度在线网络技术(北京)有限公司 | 声纹认证方法和装置 |
US20180018973A1 (en) * | 2016-07-15 | 2018-01-18 | Google Inc. | Speaker verification |
-
2015
- 2015-08-19 CN CN201510511714.3A patent/CN106469040B/zh active Active
-
2016
- 2016-08-01 KR KR1020217036714A patent/KR102508619B1/ko active IP Right Grant
- 2016-08-01 EP EP19213931.9A patent/EP3683672A1/en not_active Ceased
- 2016-08-01 EP EP16836542.7A patent/EP3316121B1/en active Active
- 2016-08-01 WO PCT/CN2016/092736 patent/WO2017028678A1/zh active Application Filing
- 2016-08-01 JP JP2018508731A patent/JP6571273B2/ja active Active
- 2016-08-01 KR KR1020207011463A patent/KR102327279B1/ko active IP Right Grant
- 2016-08-01 KR KR1020187005455A patent/KR102105295B1/ko active IP Right Grant
- 2016-08-01 US US15/752,139 patent/US11049499B2/en active Active
-
2019
- 2019-08-06 JP JP2019144714A patent/JP6953482B2/ja active Active
-
2021
- 2021-05-14 US US17/320,909 patent/US12094462B2/en active Active
- 2021-09-28 JP JP2021157922A patent/JP2022008594A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8340975B1 (en) * | 2011-10-04 | 2012-12-25 | Theodore Alfred Rosenberger | Interactive speech recognition device and system for hands-free building control |
Also Published As
Publication number | Publication date |
---|---|
EP3316121A1 (en) | 2018-05-02 |
KR102105295B1 (ko) | 2020-04-28 |
US11049499B2 (en) | 2021-06-29 |
EP3316121A4 (en) | 2018-07-25 |
CN106469040A (zh) | 2017-03-01 |
EP3316121B1 (en) | 2020-02-26 |
EP3683672A1 (en) | 2020-07-22 |
JP6953482B2 (ja) | 2021-10-27 |
KR20210138794A (ko) | 2021-11-19 |
JP6571273B2 (ja) | 2019-09-04 |
JP2018533036A (ja) | 2018-11-08 |
WO2017028678A1 (zh) | 2017-02-23 |
US20180247645A1 (en) | 2018-08-30 |
KR102508619B1 (ko) | 2023-03-09 |
CN106469040B (zh) | 2019-06-21 |
JP2022008594A (ja) | 2022-01-13 |
US20210272566A1 (en) | 2021-09-02 |
KR20180034556A (ko) | 2018-04-04 |
KR20200044156A (ko) | 2020-04-28 |
US12094462B2 (en) | 2024-09-17 |
JP2020003804A (ja) | 2020-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102327279B1 (ko) | 통신 방법, 서버 및 장치 | |
US10404539B2 (en) | Multi-device sensor subsystem joint optimization | |
US10834237B2 (en) | Method, apparatus, and storage medium for controlling cooperation of multiple intelligent devices with social application platform | |
EP3379853B1 (en) | Electronic device for transmitting audio data to multiple external devices | |
EP2963889A1 (en) | Method and apparatus for sharing data of electronic device | |
CN106201816B (zh) | 提醒方法及装置 | |
CN106068020A (zh) | 异常状态提示方法及装置 | |
CN104424148B (zh) | 发送内容的方法及其电子设备 | |
CN107318119B (zh) | 家电设备组网方法、家电设备和计算机可读存储介质 | |
CN106251235A (zh) | 机器人功能配置系统、方法及装置 | |
EP2790392A1 (en) | Method for connecting with external device and electronic device thereof | |
KR102267015B1 (ko) | 데이터 처리 방법 및 그 전자 장치 | |
US20180042550A1 (en) | Wearable device | |
CN107466458B (zh) | 一种语音控制方法、装置及系统 | |
KR20150110092A (ko) | 웨어러블 디바이스를 이용한 알람 및 모닝콜 제어 방법 및 시스템 | |
CN103873682B (zh) | 一种信息处理方法及电子设备 | |
CN104793729A (zh) | 一种信息处理方法及电子设备 | |
US11882621B2 (en) | Method and system for transmitting and receiving data using bluetooth low energy | |
EP4275457B1 (en) | Selecting a more suitable input modality in relation to a user command for light control | |
CN105022291A (zh) | 一种声音信号采集方法及设备 | |
CN106375984B (zh) | 一种移动终端状态信息的获取方法、装置及移动终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E90F | Notification of reason for final refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |