JP2023535250A - 自動化された音声アシスタントにおける失敗の検出および処理 - Google Patents
自動化された音声アシスタントにおける失敗の検出および処理 Download PDFInfo
- Publication number
- JP2023535250A JP2023535250A JP2022571845A JP2022571845A JP2023535250A JP 2023535250 A JP2023535250 A JP 2023535250A JP 2022571845 A JP2022571845 A JP 2022571845A JP 2022571845 A JP2022571845 A JP 2022571845A JP 2023535250 A JP2023535250 A JP 2023535250A
- Authority
- JP
- Japan
- Prior art keywords
- automated assistant
- user
- request
- response
- audio data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims description 20
- 230000004044 response Effects 0.000 claims abstract description 159
- 238000000034 method Methods 0.000 claims abstract description 97
- 230000008569 process Effects 0.000 claims abstract description 34
- 238000012545 processing Methods 0.000 claims description 17
- 230000000007 visual effect Effects 0.000 claims description 17
- 230000015654 memory Effects 0.000 claims description 9
- 238000003058 natural language processing Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 15
- 230000003993 interaction Effects 0.000 description 14
- 230000009471 action Effects 0.000 description 13
- 238000012937 correction Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 230000004913 activation Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000013518 transcription Methods 0.000 description 6
- 230000035897 transcription Effects 0.000 description 6
- 239000000463 material Substances 0.000 description 5
- 230000001755 vocal effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 235000013550 pizza Nutrition 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 235000013580 sausages Nutrition 0.000 description 1
- 230000011273 social behavior Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- Monitoring And Testing Of Exchanges (AREA)
Abstract
Description
102 その他のセンサデータ
103 予測された出力
105 グラウンドトゥルース出力
106 勾配
107 追加の勾配
110 クライアントデバイス
111 オンデバイスのストレージ
122A 機械学習エンジン
122B ホットワード検出エンジン
124 アシスタント作動エンジン
126 勾配エンジン
128 音声活動検出器
132A オンデバイスの機械学習訓練エンジン
142 オンデバイスの音声認識器
142A オンデバイスの音声認識モデル
143A 認識されたテキスト
143B さらなる認識されたテキスト
144 オンデバイスのNLUエンジン
144A オンデバイスのNLUモデル
145A NLUデータ
146 オンデバイスの履行エンジン
146A オンデバイスの履行モデル
147A 履行データ
150 実行
152A 機械学習モデル
152A1 大域的な音声認識モデル
152B ホットワード検出モデル
160 リモートサーバ、リモートシステム
162 リモート訓練エンジン
164 更新配信エンジン
170 追加のクライアントデバイス
211 マイクロフォン
212 スピーカ
213 視覚構成要素
214 ディスプレイ
240 自動化されたアシスタントクライアント
242 音声キャプチャエンジン
244 視覚キャプチャエンジン
280 クラウドに基づく自動化されたアシスタント構成要素
281 リモートのASRエンジン
282 リモートのNLUエンジン
283 リモートの履行エンジン
295 自動化されたアシスタント
300 方法
400 方法
500 方法
610 コンピューティングデバイス
612 バスサブシステム
614 プロセッサ
616 ネットワークインターフェースサブシステム
620 ユーザインターフェース出力デバイス
622 ユーザインターフェース入力デバイス
624 ストレージサブシステム
625 メモリサブシステム
626 ファイルストレージサブシステム
630 RAM
632 ROM
Claims (24)
ユーザによって動作されるコンピューティングデバイスにおいて少なくとも部分的に、非アクティブ状態の第1の自動化されたアシスタントを実行するステップと、
前記非アクティブ状態である間に、前記第1の自動化されたアシスタントによって、第2の自動化されたアシスタントが前記ユーザの要求を満たすことに失敗したと判定するステップと、
前記第2の自動化されたアシスタントが前記ユーザの前記要求を満たすことに失敗したという判定に応じて、前記第1の自動化されたアシスタントが、前記第2の自動化されたアシスタントが満たすことに失敗した前記要求を含む前記ユーザの口頭発話をキャプチャするキャッシュされたオーディオデータ、または前記キャッシュされたオーディオデータの特徴を処理して、前記ユーザの前記要求を満たす応答を決定するステップと、
前記第1の自動化されたアシスタントによって前記ユーザに、前記ユーザの前記要求を満たす前記応答を提供するステップとを含む、方法。
最初の応答をキャプチャするオーディオデータを受け取ることと、
前記最初の応答をキャプチャする前記オーディオデータに対する話者識別を使用して、前記最初の応答が前記第2の自動化されたアシスタントによって提供されると判定することとを含む請求項1に記載の方法。
自動音声認識を使用して、前記最初の応答をキャプチャする前記オーディオデータを処理してテキストを生成することと、
自然言語処理技術を使用して前記テキストを処理して、前記最初の応答が前記ユーザの前記要求を満たさないと判定することとを含む請求項2に記載の方法。
前記キャッシュされたオーディオデータが、前記コンピューティングデバイス上で実行されるメタアシスタントを介して前記第1の自動化されたアシスタントによって受け取られる請求項1から5のいずれか一項に記載の方法。
前記キャッシュされたオーディオデータが、前記コンピューティングデバイスの1つまたは複数のマイクロフォンを介して前記第1の自動化されたアシスタントによって受け取られる請求項1から6のいずれか一項に記載の方法。
ユーザによって動作されるコンピューティングデバイスにおいて少なくとも部分的に、非アクティブ状態の第1の自動化されたアシスタントを実行するステップと、
前記非アクティブ状態である間に、前記第1の自動化されたアシスタントによって、第2の自動化されたアシスタントが前記ユーザの要求を満たすことに失敗したと判定するステップと、
前記第2の自動化されたアシスタントが前記ユーザの前記要求を満たすことに失敗したという判定に応じて、前記第1の自動化されたアシスタントによって、前記第2の自動化されたアシスタントが満たすことに失敗した前記要求を含む前記ユーザの口頭発話をキャプチャするキャッシュされたオーディオデータ、または前記キャッシュされたオーディオデータの特徴を処理して、前記ユーザの前記要求を満たす応答を決定するステップと、
前記第1の自動化されたアシスタントによって前記ユーザに、前記ユーザの前記要求を満たす前記応答の可用性の指示を提供するステップとを含む、方法。
最初の応答をキャプチャするオーディオデータを受け取ることと、
前記最初の応答をキャプチャする前記オーディオデータに対する話者識別を使用して、前記最初の応答が前記第2の自動化されたアシスタントによって提供されると判定することと、
ホットワード検出モデルを使用して、前記最初の応答をキャプチャする前記オーディオデータを処理して、前記最初の応答が前記ユーザの前記要求を満たさないと判定することとを含む請求項10に記載の方法。
前記キャッシュされたオーディオデータが、前記コンピューティングデバイス上で実行されるメタアシスタントを介して前記第1の自動化されたアシスタントによって受け取られる請求項10から12のいずれか一項に記載の方法。
前記キャッシュされたオーディオデータが、前記コンピューティングデバイスの1つまたは複数のマイクロフォンを介して前記第1の自動化されたアシスタントによって受け取られる請求項10から13のいずれか一項に記載の方法。
前記第1の自動化されたアシスタントによって、前記ユーザの前記要求を満たす前記応答の要求を受け取り、
前記ユーザの前記要求を満たす前記応答の前記要求の受け取りに応じて、前記第1の自動化されたアシスタントによって前記ユーザに、前記ユーザの前記要求を満たす前記応答を提供するためにさらに実行可能である請求項15に記載のコンピュータプログラム製品。
ユーザによって動作されるコンピューティングデバイスにおいて少なくとも部分的に、非アクティブ状態の第1の自動化されたアシスタントを実行するステップと、
前記非アクティブ状態である間に、前記第1の自動化されたアシスタントによって、第2の自動化されたアシスタントが前記ユーザの要求を満たすことに失敗したと判定するステップと、
前記第2の自動化されたアシスタントが前記ユーザの前記要求を満たすことに失敗したという判定に応じて、前記第1の自動化されたアシスタントが前記ユーザの前記要求を満たすために利用可能であるという指示を前記ユーザに提供するステップと、
前記要求を満たす命令の前記ユーザからの受け取りに応じて、前記第1の自動化されたアシスタントによって、前記第2の自動化されたアシスタントが満たすことに失敗した前記要求を含む前記ユーザの口頭発話をキャプチャするキャッシュされたオーディオデータ、または前記キャッシュされたオーディオデータの特徴を処理して、前記ユーザの前記要求を満たす応答を決定するステップと、
前記第1の自動化されたアシスタントによって前記ユーザに、前記ユーザの前記要求を満たす前記応答を提供するステップとを含む、方法。
最初の応答をキャプチャするオーディオデータを受け取ることと、
前記最初の応答をキャプチャする前記オーディオデータに対する話者識別を使用して、前記最初の応答が前記第2の自動化されたアシスタントによって提供されると判定することと、
ホットワード検出モデルを使用して、前記最初の応答をキャプチャする前記オーディオデータを処理して、前記最初の応答が前記ユーザの前記要求を満たさないと判定することとを含む請求項17に記載の方法。
前記キャッシュされたオーディオデータが、前記コンピューティングデバイス上で実行されるメタアシスタントを介して前記第1の自動化されたアシスタントによって受け取られる請求項17または請求項18に記載の方法。
前記キャッシュされたオーディオデータが、前記コンピューティングデバイスの1つまたは複数のマイクロフォンを介して前記第1の自動化されたアシスタントによって受け取られる請求項17から19のいずれか一項に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063093163P | 2020-10-16 | 2020-10-16 | |
US63/093,163 | 2020-10-16 | ||
US17/087,358 US11557300B2 (en) | 2020-10-16 | 2020-11-02 | Detecting and handling failures in other assistants |
US17/087,358 | 2020-11-02 | ||
PCT/US2020/064987 WO2022081186A1 (en) | 2020-10-16 | 2020-12-15 | Detecting and handling failures in automated voice assistants |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024128859A Division JP2024153892A (ja) | 2020-10-16 | 2024-08-05 | 自動化された音声アシスタントにおける失敗の検出および処理 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023535250A true JP2023535250A (ja) | 2023-08-17 |
JP7541120B2 JP7541120B2 (ja) | 2024-08-27 |
Family
ID=81185143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022571845A Active JP7541120B2 (ja) | 2020-10-16 | 2020-12-15 | 自動化された音声アシスタントにおける失敗の検出および処理 |
Country Status (7)
Country | Link |
---|---|
US (2) | US11557300B2 (ja) |
EP (1) | EP4133479A1 (ja) |
JP (1) | JP7541120B2 (ja) |
KR (1) | KR20230005351A (ja) |
CN (1) | CN115668361A (ja) |
AU (2) | AU2020472583B2 (ja) |
WO (1) | WO2022081186A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3841459B1 (en) * | 2019-11-08 | 2023-10-04 | Google LLC | Using corrections, of automated assistant functions, for training of on-device machine learning models |
US11783824B1 (en) * | 2021-01-18 | 2023-10-10 | Amazon Technologies, Inc. | Cross-assistant command processing |
KR20220119219A (ko) * | 2021-02-19 | 2022-08-29 | 삼성전자주식회사 | 온디바이스 인공지능 서비스를 제공하는 전자 장치 및 방법 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9172747B2 (en) * | 2013-02-25 | 2015-10-27 | Artificial Solutions Iberia SL | System and methods for virtual assistant networks |
US9424841B2 (en) * | 2014-10-09 | 2016-08-23 | Google Inc. | Hotword detection on multiple devices |
US9812126B2 (en) | 2014-11-28 | 2017-11-07 | Microsoft Technology Licensing, Llc | Device arbitration for listening devices |
US10354653B1 (en) * | 2016-01-19 | 2019-07-16 | United Services Automobile Association (Usaa) | Cooperative delegation for digital assistants |
US20170277993A1 (en) * | 2016-03-22 | 2017-09-28 | Next It Corporation | Virtual assistant escalation |
WO2017222503A1 (en) * | 2016-06-21 | 2017-12-28 | Hewlett-Packard Development Company, L.P. | Communications utilizing multiple virtual assistant services |
US10313779B2 (en) * | 2016-08-26 | 2019-06-04 | Bragi GmbH | Voice assistant system for wireless earpieces |
US10395652B2 (en) * | 2016-09-20 | 2019-08-27 | Allstate Insurance Company | Personal information assistant computing system |
US11164570B2 (en) * | 2017-01-17 | 2021-11-02 | Ford Global Technologies, Llc | Voice assistant tracking and activation |
US11188808B2 (en) * | 2017-04-11 | 2021-11-30 | Lenovo (Singapore) Pte. Ltd. | Indicating a responding virtual assistant from a plurality of virtual assistants |
US20190013019A1 (en) * | 2017-07-10 | 2019-01-10 | Intel Corporation | Speaker command and key phrase management for muli -virtual assistant systems |
US11062702B2 (en) * | 2017-08-28 | 2021-07-13 | Roku, Inc. | Media system with multiple digital assistants |
US10431219B2 (en) * | 2017-10-03 | 2019-10-01 | Google Llc | User-programmable automated assistant |
US10971173B2 (en) * | 2017-12-08 | 2021-04-06 | Google Llc | Signal processing coordination among digital voice assistant computing devices |
CN116705020A (zh) * | 2017-12-08 | 2023-09-05 | 谷歌有限责任公司 | 使设备与环境中的多个设备隔离以响应口头助理调用 |
WO2019172946A1 (en) * | 2018-03-07 | 2019-09-12 | Google Llc | Facilitating end-to-end communications with automated assistants in multiple languages |
EP4254402A3 (en) * | 2018-04-16 | 2023-12-20 | Google LLC | Automatically determining language for speech recognition of spoken utterance received via an automated assistant interface |
US10679622B2 (en) * | 2018-05-01 | 2020-06-09 | Google Llc | Dependency graph generation in a networked system |
US11152003B2 (en) * | 2018-09-27 | 2021-10-19 | International Business Machines Corporation | Routing voice commands to virtual assistants |
US10971158B1 (en) * | 2018-10-05 | 2021-04-06 | Facebook, Inc. | Designating assistants in multi-assistant environment based on identified wake word received from a user |
WO2020091454A1 (en) * | 2018-10-31 | 2020-05-07 | Samsung Electronics Co., Ltd. | Method and apparatus for capability-based processing of voice queries in a multi-assistant environment |
US20190074013A1 (en) * | 2018-11-02 | 2019-03-07 | Intel Corporation | Method, device and system to facilitate communication between voice assistants |
US20220036897A1 (en) | 2018-12-07 | 2022-02-03 | Sony Group Corporation | Response processing apparatus, response processing method, and response processing program |
CN113412516B (zh) * | 2019-02-06 | 2024-04-05 | 谷歌有限责任公司 | 处理自动语音识别asr请求的方法和系统 |
JP7280066B2 (ja) | 2019-03-07 | 2023-05-23 | 本田技研工業株式会社 | エージェント装置、エージェント装置の制御方法、およびプログラム |
JP7280074B2 (ja) | 2019-03-19 | 2023-05-23 | 本田技研工業株式会社 | エージェント装置、エージェント装置の制御方法、およびプログラム |
US11056114B2 (en) * | 2019-05-30 | 2021-07-06 | International Business Machines Corporation | Voice response interfacing with multiple smart devices of different types |
CN110718218B (zh) * | 2019-09-12 | 2022-08-23 | 百度在线网络技术(北京)有限公司 | 一种语音处理方法、装置、设备和计算机存储介质 |
US11646013B2 (en) * | 2019-12-30 | 2023-05-09 | International Business Machines Corporation | Hybrid conversations with human and virtual assistants |
-
2020
- 2020-11-02 US US17/087,358 patent/US11557300B2/en active Active
- 2020-12-15 CN CN202080101563.3A patent/CN115668361A/zh active Pending
- 2020-12-15 AU AU2020472583A patent/AU2020472583B2/en active Active
- 2020-12-15 EP EP20829155.9A patent/EP4133479A1/en active Pending
- 2020-12-15 KR KR1020227042198A patent/KR20230005351A/ko unknown
- 2020-12-15 JP JP2022571845A patent/JP7541120B2/ja active Active
- 2020-12-15 WO PCT/US2020/064987 patent/WO2022081186A1/en unknown
-
2023
- 2023-01-13 US US18/097,157 patent/US20230169980A1/en active Pending
-
2024
- 2024-01-12 AU AU2024200224A patent/AU2024200224A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US11557300B2 (en) | 2023-01-17 |
AU2020472583B2 (en) | 2023-10-12 |
WO2022081186A1 (en) | 2022-04-21 |
EP4133479A1 (en) | 2023-02-15 |
AU2024200224A1 (en) | 2024-02-01 |
US20230169980A1 (en) | 2023-06-01 |
AU2020472583A1 (en) | 2022-12-15 |
JP7541120B2 (ja) | 2024-08-27 |
KR20230005351A (ko) | 2023-01-09 |
CN115668361A (zh) | 2023-01-31 |
US20220122610A1 (en) | 2022-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7418563B2 (ja) | オンデバイスの機械学習モデルの訓練のための自動化アシスタントの機能の訂正の使用 | |
CN110998717A (zh) | 自动确定通过自动化助理接口接收的口头话语的语音识别的语言 | |
JP7541120B2 (ja) | 自動化された音声アシスタントにおける失敗の検出および処理 | |
US12014738B2 (en) | Arbitrating between multiple potentially-responsive electronic devices | |
JP2023530048A (ja) | ホットワード/キーワード検出のためのユーザ仲介 | |
US11727925B2 (en) | Cross-device data synchronization based on simultaneous hotword triggers | |
US11972766B2 (en) | Detecting and suppressing commands in media that may trigger another automated assistant | |
US20240055002A1 (en) | Detecting near matches to a hotword or phrase | |
JP2024153892A (ja) | 自動化された音声アシスタントにおける失敗の検出および処理 | |
US12039979B2 (en) | Multiple concurrent voice assistants |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230120 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240403 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240716 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240815 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7541120 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |