JP2022529708A - 音声認識デバイス及びそのウェイクアップ応答方法、コンピュータ記憶媒体 - Google Patents
音声認識デバイス及びそのウェイクアップ応答方法、コンピュータ記憶媒体 Download PDFInfo
- Publication number
- JP2022529708A JP2022529708A JP2021562155A JP2021562155A JP2022529708A JP 2022529708 A JP2022529708 A JP 2022529708A JP 2021562155 A JP2021562155 A JP 2021562155A JP 2021562155 A JP2021562155 A JP 2021562155A JP 2022529708 A JP2022529708 A JP 2022529708A
- Authority
- JP
- Japan
- Prior art keywords
- response element
- response
- central device
- wake
- recognition device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004044 response Effects 0.000 title claims abstract description 104
- 238000000034 method Methods 0.000 title claims abstract description 83
- 108091027981 Response element Proteins 0.000 claims abstract description 210
- 230000005236 sound signal Effects 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000007613 environmental effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 15
- 206010024796 Logorrhoea Diseases 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 241000209094 Oryza Species 0.000 description 3
- 235000007164 Oryza sativa Nutrition 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 235000009566 rice Nutrition 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- QVFWZNCVPCJQOP-UHFFFAOYSA-N chloralodol Chemical compound CC(O)(C)CC(C)OC(O)C(Cl)(Cl)Cl QVFWZNCVPCJQOP-UHFFFAOYSA-N 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
- G10L17/24—Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
音声信号とウェイクアップテンプレートとのマッチング度に基づいて信頼度Pを計算し、信頼度Pは音声信号とウェイクアップテンプレートとのマッチング度を示し、音声認識デバイスが音声信号によりウェイクアップされた場合、音声信号とウェイクアップテンプレートとのマッチング程度を判断し、例えば完全にマッチングしていると100%、大部分がマッチングしていると90%や80%又は70%等と表記してもよく、マッチング程度が一定の閾値を超える場合、音声認識デバイスのウェイクアップが可能であると判定する。同様に、ウェイクアップ要素のエネルギを計算する場合に計算される信頼度Pも、ウェイクアップに関する音声信号とウェイクアップテンプレートとのマッチング程度を示すものとなり、例えば、Pは1、0.9、0.8、0.7等とされてもよい。
K=xE+yP、ただし、xは有効エネルギEの重み係数、yは信頼度Pの重み係数である。
12 プロセッサ
13 メモリ
100 音声認識デバイス
200 コンピュータ記憶媒体
A1 第一中枢デバイス
B1 第二中枢デバイス
C1 第二中枢デバイス
Claims (23)
- 一つの中枢デバイスと少なくとも一つの非中枢デバイスとに分けられる複数の音声認識デバイスからエリアネットワークが構成され、
前記中枢デバイスにより音声信号を収集し分析することで、前記中枢デバイスの応答要素を得ることと、
前記非中枢デバイスにより前記音声信号を収集し分析することで得られた前記非中枢デバイスの応答要素を受信することと、
前記中枢デバイスの応答要素と前記非中枢デバイスの応答要素を比較することと、
前記エリアネットワークにおける前記音声信号に応答する音声認識デバイスである応答予定音声認識デバイスを決定することとを含むことを特徴とする音声認識デバイスのウェイクアップ応答方法。 - 前記中枢デバイスの応答要素と前記非中枢デバイスの応答要素を比較して応答予定音声認識デバイスを決定することは、
前記中枢デバイスの応答要素のエネルギ値と前記非中枢デバイスの応答要素のエネルギ値を比較することで、エネルギ値の最も大きい応答要素を得ることと、
前記エネルギ値の最も大きい応答要素に対応する音声認識デバイスを前記応答予定音声認識デバイスと決定することとを含むことを特徴とする、請求項1に記載のウェイクアップ応答方法。 - 前記中枢デバイスの応答要素と前記非中枢デバイスの応答要素を比較して応答予定音声認識デバイスを決定することは、
前記中枢デバイスの応答要素のエネルギ値と前記非中枢デバイスの応答要素のエネルギ値を比較することで、エネルギ値の最も大きい応答要素を得ることと、
前記エネルギ値の最も大きい応答要素が前記中枢デバイスの応答要素であるかどうかを判断することと、
前記エネルギ値の最も大きい応答要素が前記中枢デバイスの応答要素であることに応じて、前記中枢デバイスを前記応答予定音声認識デバイスと決定することと、
前記エネルギ値の最も大きい応答要素が前記中枢デバイスの応答要素ではないことに応じて、前記エネルギ値の最も大きい応答要素と前記中枢デバイスの応答要素とのエネルギ差を計算することと、
前記エネルギ差とウェイクアップ閾値を比較することと、
前記エネルギ差が前記ウェイクアップ閾値より大きいことに応じて、前記エネルギ値の最も大きい応答要素に対応する音声認識デバイスを前記応答予定音声認識デバイスと決定することと、
前記エネルギ差が前記ウェイクアップ閾値より小さいか等しいことに応じて、前記中枢デバイスを前記応答予定音声認識デバイスと決定することとを含むことを特徴とする、請求項1に記載のウェイクアップ応答方法。 - 前記複数の音声認識デバイスはウェイクアップ優先順位を有し、前記エネルギ値の最も大きい応答要素に対応する音声認識デバイスを前記応答予定音声認識デバイスと決定することは、
前記エネルギ値の最も大きい応答要素に対応する音声認識デバイスからウェイクアップ優先順位の最も高いものを前記応答予定音声認識デバイスと決定することを含むことを特徴とする、請求項2又は請求項3に記載のウェイクアップ応答方法。 - 前記中枢デバイスから前記非中枢デバイスへ前記音声信号に応答するかどうかの通知を送信することを含むことを特徴とする、請求項1に記載のウェイクアップ応答方法。
- 複数の前記エリアネットワークは互いに接続され、すべてのエリアネットワークにおける複数の中枢デバイスは一つの第一中枢デバイスと少なくとも一つの第二中枢デバイスとに分けられ、
前記第二中枢デバイスから前記第一中枢デバイスへ第二応答要素を送信し、前記第一中枢デバイスにより前記第二中枢デバイスが所在するエリアネットワークにおける応答予定音声認識デバイスの応答要素である前記第二応答要素と前記第一中枢デバイスが所在するエリアネットワークの応答予定音声認識デバイスの応答要素である第一応答要素を比較することで、前記音声信号に応答する音声認識デバイスを決定することをさらに含むことを特徴とする、請求項1に記載のウェイクアップ応答方法。 - 複数の前記エリアネットワークは互いに接続され、すべてのエリアネットワークにおける複数の中枢デバイスは一つの第一中枢デバイスと少なくとも一つの第二中枢デバイスとに分けられ、
前記第二中枢デバイスが所在するエリアネットワークの応答予定音声認識デバイスの応答要素である第二応答要素を前記第一中枢デバイスが受信することと、
前記第二応答要素と前記第一中枢デバイスが所在するエリアネットワークにおける応答予定音声認識デバイスの応答要素である第一応答要素を比較することで、前記音声信号に応答する音声認識デバイスを決定することとをさらに含むことを特徴とする、請求項1に記載のウェイクアップ応答方法。 - 前記第二応答要素と第一応答要素を比較して前記音声信号に応答する音声認識デバイスを決定することは、
前記第一応答要素のエネルギ値と前記第二応答要素のエネルギ値を比較することで、エネルギ値の最も大きい応答要素を得ることと、
前記エネルギ値の最も大きい応答要素に対応する音声認識デバイスにより前記音声信号に応答するのを決定することとを含むことを特徴とする、請求項6又は請求項7に記載のウェイクアップ応答方法。 - 前記複数の音声認識デバイスはウェイクアップ優先順位を有し、前記エネルギ値の最も大きい応答要素に対応する音声認識デバイスを前記応答予定音声認識デバイスと決定することは、
前記エネルギ値の最も大きい応答要素に対応する音声認識デバイスにおけるウェイクアップ優先順位の最も高いものにより前記音声信号に応答するのを決定することを含むことを特徴とする、請求項8に記載のウェイクアップ応答方法。 - 前記第二応答要素と前記第一中枢デバイスの第一応答要素を比較して前記音声信号に応答する音声認識デバイスを決定することは、
前記第一応答要素のエネルギ値と前記第二応答要素のエネルギ値を比較することで、エネルギ値の最も大きい応答要素を得ることと、
前記エネルギ値の最も大きい応答要素が前記第一応答要素であるかどうかを判断することと、
前記エネルギ値の最も大きい応答要素が前記第一応答要素であることに応じて、前記第一中枢デバイスにより前記音声信号に応答するのを決定することと、
前記エネルギ値の最も大きい応答要素が前記第一応答要素ではないことに応じて、前記エネルギ値の最も大きい応答要素と前記第一応答要素とのエネルギ差を計算することと、
前記エネルギ差とウェイクアップ閾値を比較することと、
前記エネルギ差が前記ウェイクアップ閾値より大きいことに応じて、前記エネルギ値の最も大きい応答要素に対応する音声認識デバイスにより前記音声信号に応答するのを決定することと、
前記エネルギ差が前記ウェイクアップ閾値より小さいか等しいことに応じて、前記第一中枢デバイスにより前記音声信号に応答するのを決定することとを含むことを特徴とする、請求項6又は請求項7に記載のウェイクアップ応答方法。 - 前記複数の音声認識デバイスはウェイクアップ優先順位を有し、前記エネルギ値の最も大きい応答要素に対応する音声認識デバイスにより前記音声信号に応答するのを決定することは、
前記エネルギ値の最も大きい応答要素に対応する音声認識デバイスにおけるウェイクアップ優先順位の最も高いものにより前記音声信号に応答するのを決定することを含むことを特徴とする、請求項10に記載のウェイクアップ応答方法。 - 前記第一中枢デバイスから前記複数のエリアネットワークにおける他の音声認識デバイスへ前記音声信号に応答するかどうかの通知を送信することをさらに含むことを特徴とする、請求項6又は請求項7に記載のウェイクアップ応答方法。
- 前記中枢デバイスの応答要素と前記非中枢デバイスの応答要素を応答要素と総称し、収集された音声信号を分析して応答要素を得ることは、
前記音声信号の音声特徴及び前記音声信号と前記音声認識デバイスのウェイクアップテンプレートとのマッチング度に基づいて計算することで、前記応答要素のエネルギ値を得ることを含むことを特徴とする、請求項1、請求項6、請求項7のいずれかに記載のウェイクアップ応答方法。 - 前記音声信号の音声特徴及び前記音声信号と前記音声認識デバイスのウェイクアップテンプレートとのマッチング度に基づいて計算して前記応答要素のエネルギ値を得ることは、
前記音声信号の音声特徴に基づいて計算することでウェイクアップエネルギが得られ、前記音声認識デバイスが所在する環境での環境騒音の音声特徴に基づいて計算することで暗騒音エネルギが得られ、前記ウェイクアップエネルギと前記暗騒音エネルギとの差を有効エネルギとすることと、
前記音声信号と前記ウェイクアップテンプレートとのマッチング程度に基づいて信頼度を計算することと、
前記有効エネルギと前記信頼度との加重和を求めることで、前記応答要素のエネルギ値を得ることとを含むことを特徴とする、請求項13に記載のウェイクアップ応答方法。 - 一つの中枢デバイスと少なくとも一つの非中枢デバイスとに分けられる複数の音声認識デバイスからエリアネットワークが構成され、
前記非中枢デバイスにより音声信号を収集し分析することで、前記非中枢デバイスの応答要素を得ることと、
前記中枢デバイスへ前記非中枢デバイスの応答要素を送信し、前記中枢デバイスにより前記非中枢デバイスの応答要素と前記中枢デバイスの応答要素を比較することで、前記エリアネットワークにおける前記音声信号に応答する音声認識デバイスである応答予定音声認識デバイスを決定することとを含むことを特徴とする音声認識デバイスのウェイクアップ応答方法。 - 前記中枢デバイスにより前記非中枢デバイスの応答要素と前記中枢デバイスの応答要素を比較して応答予定音声認識デバイスを決定することは、
前記中枢デバイスにより前記中枢デバイスの応答要素のエネルギ値と前記非中枢デバイスの応答要素のエネルギ値を比較することで、エネルギ値の最も大きい応答要素を得ることと、
前記エネルギ値の最も大きい応答要素に対応する音声認識デバイスを前記応答予定音声認識デバイスと決定することとを含むことを特徴とする、請求項15に記載のウェイクアップ応答方法。 - 前記中枢デバイスにより前記中枢デバイスの応答要素のエネルギ値と前記非中枢デバイスの応答要素のエネルギ値を比較することで、エネルギ値の最も大きい応答要素が得られ、
前記エネルギ値の最も大きい応答要素が中枢デバイスの応答要素であるかどうかを判断し、
前記エネルギ値の最も大きい応答要素が前記中枢デバイスの応答要素であることに応じて、前記中枢デバイスを前記応答予定音声認識デバイスと決定し、
前記エネルギ値の最も大きい応答要素が前記中枢デバイスの応答要素ではないことに応じて、前記エネルギ値の最も大きい応答要素と前記中枢デバイスの応答要素とのエネルギ差を計算し、
前記エネルギ差とウェイクアップ閾値を比較し、
前記エネルギ差が前記ウェイクアップ閾値より大きいことに応じて、前記エネルギ値の最も大きい応答要素に対応する音声認識デバイスを前記応答予定音声認識デバイスと決定し、
前記エネルギ差が前記ウェイクアップ閾値より小さいか等しいことに応じて、前記中枢デバイスを前記応答予定音声認識デバイスと決定することを特徴とする、請求項15に記載のウェイクアップ応答方法。 - 前記複数の音声認識デバイスはウェイクアップ優先順位を有し、前記エネルギ値の最も大きい応答要素に対応する音声認識デバイスを前記応答予定音声認識デバイスと決定することは、
前記エネルギ値の最も大きい応答要素に対応する音声認識デバイスからウェイクアップ優先順位の最も高いものを前記応答予定音声認識デバイスと決定することを含むことを特徴とする、請求項16又は請求項17に記載のウェイクアップ応答方法。 - 前記中枢デバイスから送信される前記音声信号に応答するかどうかの通知を受信することをさらに含むことを特徴とする、請求項15に記載のウェイクアップ応答方法。
- 前記中枢デバイスの応答要素と前記非中枢デバイスの応答要素を応答要素と総称し、収集された音声信号を分析して応答要素を得ることは、
前記音声信号の音声特徴及び前記音声信号と前記音声認識デバイスのウェイクアップテンプレートとのマッチング度に基づいて計算することで、前記応答要素のエネルギ値を得ることを含むことを特徴とする、請求項15に記載のウェイクアップ応答方法。 - 前記音声信号の音声特徴及び前記音声信号と前記音声認識デバイスのウェイクアップテンプレートとのマッチング度に基づいて計算して前記応答要素のエネルギ値を得ることは、
前記音声信号の音声特徴に基づいて計算することでウェイクアップエネルギが得られ、前記音声認識デバイスが所在する環境での環境騒音の音声特徴に基づいて計算することで暗騒音エネルギが得られ、前記ウェイクアップエネルギと前記暗騒音エネルギとの差を有効エネルギとすることと、
前記音声信号と前記ウェイクアップテンプレートとのマッチング程度に基づいて信頼度を計算することと、
前記有効エネルギと前記信頼度との加重和を求めることで、前記応答要素のエネルギ値を得ることとを含むことを特徴とする、請求項20に記載のウェイクアップ応答方法。 - コンピュータプログラムが記憶されているメモリと、前記コンピュータプログラムを実行することで請求項1~請求項21のいずれかに記載の方法の手順を実現するためのプロセッサとを含むことを特徴とする音声認識デバイス。
- 実行されることで請求項1~請求項21のいずれかに記載の方法の手順を実現するコンピュータプログラムが記憶されていることを特徴とするコンピュータ記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910343067.8 | 2019-04-26 | ||
CN201910343067.8A CN111862988B (zh) | 2019-04-26 | 2019-04-26 | 语音识别设备及其唤醒响应方法、计算机存储介质 |
PCT/CN2019/123811 WO2020215736A1 (zh) | 2019-04-26 | 2019-12-06 | 语音识别设备及其唤醒响应方法、计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022529708A true JP2022529708A (ja) | 2022-06-23 |
JP7279992B2 JP7279992B2 (ja) | 2023-05-23 |
Family
ID=72941506
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021562155A Active JP7279992B2 (ja) | 2019-04-26 | 2019-12-06 | 音声認識デバイス及びそのウェイクアップ応答方法、コンピュータ記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220044685A1 (ja) |
EP (1) | EP3944231A4 (ja) |
JP (1) | JP7279992B2 (ja) |
KR (1) | KR20210141581A (ja) |
CN (1) | CN111862988B (ja) |
WO (1) | WO2020215736A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112164405B (zh) * | 2020-11-05 | 2024-04-23 | 佛山市顺德区美的电子科技有限公司 | 语音设备及其唤醒方法、装置以及存储介质 |
CN114582337A (zh) * | 2020-12-01 | 2022-06-03 | 华为技术有限公司 | 一种设备响应方法和装置 |
WO2023240649A1 (zh) * | 2022-06-17 | 2023-12-21 | 北京小米移动软件有限公司 | 一种唤醒优先级的更新方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017107333A (ja) * | 2015-12-08 | 2017-06-15 | キヤノン株式会社 | 通信機器及び通信機器の制御方法 |
US20180342151A1 (en) * | 2017-05-23 | 2018-11-29 | Lenovo (Singapore) Pte. Ltd. | Method of associating user input with a device |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10026399B2 (en) * | 2015-09-11 | 2018-07-17 | Amazon Technologies, Inc. | Arbitration between voice-enabled devices |
US10354653B1 (en) * | 2016-01-19 | 2019-07-16 | United Services Automobile Association (Usaa) | Cooperative delegation for digital assistants |
US10133612B2 (en) * | 2016-03-17 | 2018-11-20 | Nuance Communications, Inc. | Session processing interaction between two or more virtual assistants |
DK179415B1 (en) * | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
CN107622767B (zh) * | 2016-07-15 | 2020-10-02 | 青岛海尔智能技术研发有限公司 | 家电系统的语音控制方法与家电控制系统 |
US10181323B2 (en) * | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
US11183181B2 (en) * | 2017-03-27 | 2021-11-23 | Sonos, Inc. | Systems and methods of multiple voice services |
CN107452386B (zh) * | 2017-08-16 | 2020-03-24 | 联想(北京)有限公司 | 一种语音数据处理方法和系统 |
CN107919119A (zh) * | 2017-11-16 | 2018-04-17 | 百度在线网络技术(北京)有限公司 | 多设备交互协同的方法、装置、设备及计算机可读介质 |
US11631017B2 (en) * | 2018-01-09 | 2023-04-18 | Microsoft Technology Licensing, Llc | Federated intelligent assistance |
CN108766422B (zh) * | 2018-04-02 | 2020-09-15 | 青岛海尔科技有限公司 | 语音设备的响应方法、装置、存储介质及计算机设备 |
CN109391528A (zh) * | 2018-08-31 | 2019-02-26 | 百度在线网络技术(北京)有限公司 | 语音智能设备的唤醒方法、装置、设备及存储介质 |
CN109377987B (zh) * | 2018-08-31 | 2020-07-28 | 百度在线网络技术(北京)有限公司 | 智能语音设备间的交互方法、装置、设备及存储介质 |
CN109215663A (zh) * | 2018-10-11 | 2019-01-15 | 北京小米移动软件有限公司 | 设备唤醒方法及装置 |
CN109658927A (zh) * | 2018-11-30 | 2019-04-19 | 北京小米移动软件有限公司 | 智能设备的唤醒处理方法、装置及管理设备 |
-
2019
- 2019-04-26 CN CN201910343067.8A patent/CN111862988B/zh active Active
- 2019-12-06 KR KR1020217033362A patent/KR20210141581A/ko not_active Application Discontinuation
- 2019-12-06 EP EP19926004.3A patent/EP3944231A4/en active Pending
- 2019-12-06 WO PCT/CN2019/123811 patent/WO2020215736A1/zh unknown
- 2019-12-06 JP JP2021562155A patent/JP7279992B2/ja active Active
-
2021
- 2021-10-25 US US17/452,223 patent/US20220044685A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017107333A (ja) * | 2015-12-08 | 2017-06-15 | キヤノン株式会社 | 通信機器及び通信機器の制御方法 |
US20180342151A1 (en) * | 2017-05-23 | 2018-11-29 | Lenovo (Singapore) Pte. Ltd. | Method of associating user input with a device |
Also Published As
Publication number | Publication date |
---|---|
CN111862988A (zh) | 2020-10-30 |
US20220044685A1 (en) | 2022-02-10 |
EP3944231A4 (en) | 2022-05-25 |
CN111862988B (zh) | 2023-03-03 |
KR20210141581A (ko) | 2021-11-23 |
EP3944231A1 (en) | 2022-01-26 |
JP7279992B2 (ja) | 2023-05-23 |
WO2020215736A1 (zh) | 2020-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022529708A (ja) | 音声認識デバイス及びそのウェイクアップ応答方法、コンピュータ記憶媒体 | |
CN109240111B (zh) | 智能家居控制方法、装置、系统及智能网关 | |
CN110085233B (zh) | 语音控制方法及其装置、电子设备和计算机可读存储介质 | |
US9431014B2 (en) | Intelligent placement of appliance response to voice command | |
JP2022071199A (ja) | スマートプラグの動作のシステムおよび方法 | |
EP3542230B1 (en) | Control method, apparatus and system | |
Katuk et al. | Implementation and recent progress in cloud-based smart home automation systems | |
CN110568771B (zh) | 一种智能联动控制智能家居设备的系统及方法 | |
CN110574389B (zh) | 使用功率数据和网络数据来识别设备状态改变 | |
CN106909081B (zh) | 基于家电设备的扩展平台和家电设备 | |
CN104880954B (zh) | 一种信息处理方法和智能家居控制器 | |
US20230169970A1 (en) | Remote controller control method and system, storage medium, and electronic device | |
WO2021012581A1 (zh) | 语音识别设备及其唤醒响应方法、计算机存储介质 | |
CN115793481A (zh) | 设备控制方法、装置、电子设备及存储介质 | |
CN112086097B (zh) | 语音终端的指令响应方法、电子设备及计算机存储介质 | |
WO2020215741A1 (zh) | 语音识别设备及其唤醒响应方法、计算机存储介质 | |
CN111354336B (zh) | 分布式语音交互方法、装置、系统及家电设备 | |
CN111183478B (zh) | 家电系统 | |
WO2023193411A1 (zh) | 设备配网方法、装置、计算机设备及存储介质 | |
JP2021092913A (ja) | 報知制御装置、報知制御システム、報知制御方法、及び報知制御プログラム | |
CN113757948B (zh) | 遥控器的控制处理方法、装置、遥控器及电器设备 | |
KR20230133302A (ko) | 애널리틱스를 사용하여 스마트 전기 스위치 및 관련장치를 원격으로 제어하는 방법 및 시스템 | |
CN117031973A (zh) | 一种家电设备控制方法、装置、设备及存储介质 | |
WO2022149325A1 (ja) | 機器制御方法、プログラム及び機器制御装置 | |
JP7126141B2 (ja) | ログ取得装置、ログ取得システム、およびログ取得方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211019 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230502 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7279992 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |