JP7195343B2 - 自動化アシスタントを介して実行されるように要求された一連のアクションの実行の編成 - Google Patents
自動化アシスタントを介して実行されるように要求された一連のアクションの実行の編成 Download PDFInfo
- Publication number
- JP7195343B2 JP7195343B2 JP2020569786A JP2020569786A JP7195343B2 JP 7195343 B2 JP7195343 B2 JP 7195343B2 JP 2020569786 A JP2020569786 A JP 2020569786A JP 2020569786 A JP2020569786 A JP 2020569786A JP 7195343 B2 JP7195343 B2 JP 7195343B2
- Authority
- JP
- Japan
- Prior art keywords
- action
- actions
- user
- order
- execution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009471 action Effects 0.000 title claims description 714
- 230000001755 vocal effect Effects 0.000 claims description 103
- 238000000034 method Methods 0.000 claims description 97
- 230000003993 interaction Effects 0.000 claims description 42
- 230000004044 response Effects 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 27
- 230000002123 temporal effect Effects 0.000 claims description 27
- 230000000977 initiatory effect Effects 0.000 claims description 24
- 230000009850 completed effect Effects 0.000 claims description 11
- 238000003062 neural network model Methods 0.000 claims description 7
- 230000000153 supplemental effect Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 1
- 238000010801 machine learning Methods 0.000 description 63
- 238000012549 training Methods 0.000 description 42
- 230000000875 corresponding effect Effects 0.000 description 20
- 239000003795 chemical substances by application Substances 0.000 description 11
- 230000015654 memory Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000007405 data analysis Methods 0.000 description 3
- 235000013305 food Nutrition 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 244000025272 Persea americana Species 0.000 description 1
- 235000008673 Persea americana Nutrition 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/34—Adaptation of a single recogniser for parallel processing, e.g. by use of multiple processors or cloud computing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Machine Translation (AREA)
Description
102 口頭の発話
104 自然言語出力
106 エリア
108 ユーザ
110 別のデバイス
112 スタンドアロンのスピーカデバイス
118 リモートコンピューティングデバイス
120 サーバデバイス
122 サーバの自動化アシスタント
124 クライアントデバイス
126 クライアントの自動化アシスタント
128 アシスタントインターフェース
130 ネットワーク
200 図
202 口頭の発話
204 自然言語出力
208 ユーザ
210 その他のデバイス
212 スタンドアロンのスピーカデバイス
214 クライアントデバイス
216 クライアントの自動化アシスタント
220 リモートコンピューティングデバイス
224 サーバデバイス
226 サーバの自動化アシスタント
228 ネットワーク
230 バックグラウンドアクション
300 システム
302 サーバデバイス
304 自動化アシスタント
306 入力処理エンジン
308 スピーチ処理モジュール
310 データ解析モジュール
312 パラメータモジュール
316 アシスタントデータ
318 コンピューティングデバイス
320 アシスタントインターフェース
322 クライアントの自動化アシスタント
324 アクション分類エンジン
326 アクション順序エンジン
328 履歴的コミュニティインタラクションデータ
330 アクション実行エンジン
332 アクション順序モデル
334 その他のコンピューティングデバイス、クライアントデータ
336 履歴的ユーザインタラクションデータ
338 ネットワーク
340 アプリケーション
400 方法
500 方法
610 コンピュータシステム
612 バスサブシステム
614 プロセッサ
616 ネットワークインターフェースサブシステム
620 ユーザインターフェース出力デバイス
622 ユーザインターフェース入力デバイス
624 ストレージサブシステム
625 メモリ
626 ファイルストレージサブシステム
630 主ランダムアクセスメモリ(RAM)
632 読み出し専用メモリ(ROM)
Claims (24)
ユーザからの単一の口頭の発話を特徴付けるオーディオデータを受信するステップであって、前記単一の口頭の発話が、自動化アシスタントを介して複数のアクションが実行されるようにとの要求を含み、前記単一の口頭の発話が、コンピューティングデバイスの自動化アシスタントインターフェースにおいて受信される、ステップと、
前記単一の口頭の発話を特徴付ける前記オーディオデータに基づいて、前記自動化アシスタントを介して実行されることを前記ユーザによって要求された前記複数のアクションのうちの各アクションを特定するステップであって、前記複数のアクションが実行されるようにとの要求が、第1のアクションの順序に従って前記単一の口頭の発話内で示される、ステップと、
前記複数のアクションのうちの各アクションを特定したことに基づいて、前記複数のアクションのうちの各アクションの実行の特徴を決定するステップであって、
前記複数のアクションのうちのアクションの特定の実行の特徴が、前記複数のアクションが1つまたは複数のコンピューティングデバイスによって前記第1のアクションの順序に従って実行されるときに前記複数のアクションの実行の時間的側面に影響を与え、
前記複数のアクションのうちの各アクションの前記実行の特徴を決定するステップが、前記コンピューティングデバイスおよび/または別のコンピューティングデバイスにおける前記複数のアクションのうちの1つまたは複数のアクションの過去の実行に基づいて生成されるデータにアクセスするステップを含む、
ステップと、
前記複数のアクションのうちの前記アクションの前記特定の実行の特徴に基づいて、前記複数のアクションを実行するための第2のアクションの順序を決定するステップであって、前記第2のアクションの順序が、前記1つまたは複数のコンピューティングデバイスによって実行されるとき、前記複数のアクションの実行の前記時間的側面において有利である、ステップと、
前記第2のアクションの順序を決定したことに基づいて、前記自動化アシスタントに、前記第2のアクションの順序に従って前記複数のアクションのうちの1つまたは複数のアクションの実行を初期化させるステップと
を含む、方法。
トレーニングされたニューラルネットワークモデルからの出力データを処理するステップであって、前記トレーニングされたニューラルネットワークモデルが、前記ユーザと前記自動化アシスタントとの間の少なくとも1つまたは複数の以前のインタラクションを特徴付ける履歴的インタラクションデータを使用してトレーニングされている、ステップ
を含む、請求項1に記載の方法。
前記複数のアクションが前記第1のアクションの順序に従って実行されるときに、前記補足的な会話セッションが前記1つまたは複数のアクションの実行の前記推定された時間を延長すると予測されると判定するステップ
をさらに含む、請求項5に記載の方法。
前記第2のアクションの順序が、前記連続メディア再生を提供することを含む前記別のアクションよりも前記会話開始アクションを優先する、
請求項5または6に記載の方法。
前記複数のアクションのうちの前記少なくとも1つのアクションが前記第2のアクションの順序に従って初期化されたというインジケーションを前記ユーザに提供する自然言語出力を生成するステップ
を含む、請求項5に記載の方法。
自動化アシスタントが複数のアクションを実行することを要求するユーザからの単一の口頭の発話を特徴付けるオーディオデータを処理するステップであって、前記複数のアクションが、第1のアクションの順序に従って前記単一の口頭の発話内で前記ユーザによって特徴付けられる、ステップと、
前記オーディオデータを処理したことに基づいて、前記ユーザによって要求された前記複数のアクションのうちの各アクションに関するアクションの分類を決定するステップであって、前記複数のアクションのうちの特定のアクションの特定のアクションの分類が、少なくとも1つのパラメータに従って実行される会話開始アクションを含む、ステップと、
前記少なくとも1つのパラメータに関する値が前記単一の口頭の発話内で前記ユーザによって指定されるかどうかを判定するステップと、
前記少なくとも1つのパラメータに関する前記値が前記単一の口頭の発話内で指定されなかったとき、
前記複数のアクションに関する第2のアクションの順序を生成するステップであって、前記第2のアクションの順序が、少なくとも1つのパラメータに関する前記値が前記単一の口頭の発話内で指定されなかったことに基づいて、前記会話開始アクションに前記複数のアクションのうちの別のアクションに比べて引き下げられた優先度を持たせる、ステップと
を含む、方法。
前記複数のアクションに関する第3のアクションの順序を生成するステップであって、前記第3のアクションの順序が、前記会話開始アクションに、前記ユーザが前記単一の口頭の発話内で少なくとも1つのパラメータに関する前記値を指定することによる影響を受けない優先度を持たせる、ステップ
をさらに含む、請求項9に記載の方法。
前記複数のアクションのうちの要求されたアクションがメディアの連続再生のアクションを含むとき、
前記要求されたアクションが前記複数のアクションのうちの前記別のアクションに比べて時間的に後で実行されるように前記要求されたアクションを優先順位付けする前記第2のアクションの順序または前記第3のアクションの順序を生成するステップ
をさらに含む、請求項10に記載の方法。
前記ユーザが前記複数のアクションのうちの前記少なくとも1つのアクションを実行することに関する前記時間的条件を明示的に指定したとき、
前記複数のアクションのうちの少なくとも1つのアクションを実行することに関する前記時間的条件に合う前記第2のアクションの順序または前記第3のアクションの順序を生成するステップと
をさらに含む、請求項10または11に記載の方法。
自動化アシスタントが第1の種類のアクションおよび第2の種類のアクションを含む複数のアクションを実行する要求を含む単一の口頭の発話をユーザが与えたと判定するステップであって、前記自動化アシスタントが、コンピューティングデバイスの自動化アシスタントインターフェースを介して前記ユーザによってアクセス可能である、ステップと、
前記ユーザが前記単一の口頭の発話を与えたことに応じて、
前記複数のアクションの実行中に前記第2の種類のアクションが前記第1の種類のアクションよりも優先されるときの前記第1の種類のアクションに関する推定された遅延を生成するステップと、
前記推定された遅延に基づいて、前記第1の種類のアクションに関する前記推定された遅延が閾値を満たすかどうかを判定するステップであって、
前記第1の種類のアクションに関する前記推定された遅延が前記閾値を満たすとき、前記第1の種類のアクションの実行が前記第2の種類のアクションよりも優先される、ステップと、
前記推定された遅延が前記閾値を満たすかどうかに基づいて、前記ユーザによって要求された前記複数のアクションに関する実行の好ましい順序を生成するステップと、
前記自動化アシスタントに実行の前記好ましい順序に従って前記複数のアクションの実行を初期化させるステップと
を含む、方法。
前記会話開始アクションが前記メディア再生アクションよりも優先されるとき、
前記別のコンピューティングデバイスに前記メディア再生アクションを実行するためにアプリケーションを初期化させるのと同時に前記コンピューティングデバイスにおいて前記会話開始アクションが初期化されるようにするステップ
をさらに含む、請求項16に記載の方法。
前記会話開始アクションの完了を促進するために前記自動化アシスタントに会話に対応する自然言語出力を提供させるステップと、
前記会話開始アクションが完了されるとき、
前記自動化アシスタントに前記コンピューティングデバイスまたは前記別のコンピューティングデバイスにおいて前記メディア再生アクションの実行を初期化させるステップと
をさらに含む、請求項17に記載の方法。
請求項16から18のいずれか一項に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862770516P | 2018-11-21 | 2018-11-21 | |
US62/770,516 | 2018-11-21 | ||
PCT/US2019/017039 WO2020106315A1 (en) | 2018-11-21 | 2019-02-07 | Orchestrating execution of a series of actions requested to be performed via an automated assistant |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021533399A JP2021533399A (ja) | 2021-12-02 |
JP7195343B2 true JP7195343B2 (ja) | 2022-12-23 |
Family
ID=65494654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020569786A Active JP7195343B2 (ja) | 2018-11-21 | 2019-02-07 | 自動化アシスタントを介して実行されるように要求された一連のアクションの実行の編成 |
Country Status (6)
Country | Link |
---|---|
US (3) | US11031007B2 (ja) |
EP (3) | EP4407607A3 (ja) |
JP (1) | JP7195343B2 (ja) |
KR (1) | KR102477072B1 (ja) |
CN (1) | CN112352276B (ja) |
WO (1) | WO2020106315A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7334988B2 (ja) | 2021-03-11 | 2023-08-29 | 株式会社フジキカイ | 箱連結装置 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020106315A1 (en) | 2018-11-21 | 2020-05-28 | Google Llc | Orchestrating execution of a series of actions requested to be performed via an automated assistant |
CN113544770A (zh) * | 2019-05-06 | 2021-10-22 | 谷歌有限责任公司 | 在访问非助理应用时通过自动助理初始化非助理后台动作 |
US11568246B2 (en) * | 2019-05-09 | 2023-01-31 | Sri International | Synthetic training examples from advice for training autonomous agents |
WO2020242493A1 (en) | 2019-05-31 | 2020-12-03 | Google Llc | Dynamically assigning multi-modality circumstantial data to assistant action requests for correlating with subsequent requests |
US11842025B2 (en) * | 2019-08-06 | 2023-12-12 | Sony Group Corporation | Information processing device and information processing method |
US11763090B2 (en) | 2019-11-11 | 2023-09-19 | Salesforce, Inc. | Predicting user intent for online system actions through natural language inference-based machine learning model |
US11769013B2 (en) * | 2019-11-11 | 2023-09-26 | Salesforce, Inc. | Machine learning based tenant-specific chatbots for performing actions in a multi-tenant system |
US11763809B1 (en) * | 2020-12-07 | 2023-09-19 | Amazon Technologies, Inc. | Access to multiple virtual assistants |
EP4281968A1 (en) * | 2021-01-21 | 2023-11-29 | Citrix Systems Inc. | Active learning via a surrogate machine learning model using knowledge distillation |
US12057116B2 (en) * | 2021-01-29 | 2024-08-06 | Salesforce, Inc. | Intent disambiguation within a virtual agent platform |
US20220274251A1 (en) * | 2021-11-12 | 2022-09-01 | Intel Corporation | Apparatus and methods for industrial robot code recommendation |
DE102021006023B3 (de) * | 2021-12-07 | 2022-12-22 | Mercedes-Benz Group AG | Verfahren zum Betreiben eines Sprachdialogsystems und Sprachdialogsystem |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004325848A (ja) | 2003-04-25 | 2004-11-18 | Nippon Telegr & Teleph Corp <Ntt> | 音声対話制御方法、音声対話制御装置、音声対話制御プログラム |
JP2008268340A (ja) | 2007-04-17 | 2008-11-06 | Honda Motor Co Ltd | 音声認識装置、音声認識方法、及び音声認識用プログラム |
US20140074483A1 (en) | 2012-09-10 | 2014-03-13 | Apple Inc. | Context-Sensitive Handling of Interruptions by Intelligent Digital Assistant |
JP2015210390A (ja) | 2014-04-25 | 2015-11-24 | シャープ株式会社 | 情報処理装置および制御プログラム |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ATE329433T1 (de) * | 2000-03-29 | 2006-06-15 | Cit Alcatel | Verfahren zur erzeugung einer annahmeentscheidung in einem telekommunikationssystem |
US20090125380A1 (en) * | 2001-11-14 | 2009-05-14 | Retaildna, Llc | System and method for location based suggestive selling |
CN100465843C (zh) * | 2004-04-19 | 2009-03-04 | 西门子能量及自动化公司 | 查询机器情况的系统和方法 |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US9150209B2 (en) * | 2013-07-22 | 2015-10-06 | General Electric Company | System and method for monitoring braking effort |
US9721570B1 (en) * | 2013-12-17 | 2017-08-01 | Amazon Technologies, Inc. | Outcome-oriented dialogs on a speech recognition platform |
US8964234B1 (en) * | 2014-04-23 | 2015-02-24 | Xerox Corporation | Auto-developing new print queues and print attribute subsets |
TWI566107B (zh) * | 2014-05-30 | 2017-01-11 | 蘋果公司 | 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置 |
US9767794B2 (en) * | 2014-08-11 | 2017-09-19 | Nuance Communications, Inc. | Dialog flow management in hierarchical task dialogs |
US9812126B2 (en) * | 2014-11-28 | 2017-11-07 | Microsoft Technology Licensing, Llc | Device arbitration for listening devices |
KR102420518B1 (ko) * | 2015-09-09 | 2022-07-13 | 삼성전자주식회사 | 자연어 처리 시스템, 자연어 처리 장치, 자연어 처리 방법 및 컴퓨터 판독가능 기록매체 |
US10431218B2 (en) * | 2016-02-15 | 2019-10-01 | EVA Automation, Inc. | Integration and probabilistic control of electronic devices |
US10339934B2 (en) * | 2016-06-27 | 2019-07-02 | Google Llc | Asynchronous processing of user requests |
KR20180030297A (ko) | 2016-09-12 | 2018-03-22 | 삼성디스플레이 주식회사 | 마이크로 렌즈 어레이의 특성 측정 장치 및 그 장치를 이용한 마이크로 렌즈 어레이의 특성 측정 방법 |
US10950230B2 (en) * | 2016-10-28 | 2021-03-16 | Panasonic Intellectual Property Corporation Of America | Information processing device and information processing method |
US10679608B2 (en) * | 2016-12-30 | 2020-06-09 | Google Llc | Conversation-aware proactive notifications for a voice interface device |
US10332505B2 (en) * | 2017-03-09 | 2019-06-25 | Capital One Services, Llc | Systems and methods for providing automated natural language dialogue with customers |
US10311872B2 (en) * | 2017-07-25 | 2019-06-04 | Google Llc | Utterance classifier |
US10248379B2 (en) * | 2017-07-27 | 2019-04-02 | Motorola Solutions, Inc. | Automatic and selective context-based gating of a speech-output function of an electronic digital assistant |
US10896675B1 (en) * | 2018-06-29 | 2021-01-19 | X Development Llc | Multi-tiered command processing |
WO2020106315A1 (en) | 2018-11-21 | 2020-05-28 | Google Llc | Orchestrating execution of a series of actions requested to be performed via an automated assistant |
-
2019
- 2019-02-07 WO PCT/US2019/017039 patent/WO2020106315A1/en unknown
- 2019-02-07 JP JP2020569786A patent/JP7195343B2/ja active Active
- 2019-02-07 US US16/343,285 patent/US11031007B2/en active Active
- 2019-02-07 EP EP24181922.6A patent/EP4407607A3/en active Pending
- 2019-02-07 CN CN201980043375.7A patent/CN112352276B/zh active Active
- 2019-02-07 KR KR1020207035897A patent/KR102477072B1/ko active IP Right Grant
- 2019-02-07 EP EP21192015.2A patent/EP3944233B1/en active Active
- 2019-02-07 EP EP19706214.4A patent/EP3679572B1/en active Active
-
2021
- 2021-06-04 US US17/339,114 patent/US11769502B2/en active Active
-
2023
- 2023-08-07 US US18/231,112 patent/US12118998B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004325848A (ja) | 2003-04-25 | 2004-11-18 | Nippon Telegr & Teleph Corp <Ntt> | 音声対話制御方法、音声対話制御装置、音声対話制御プログラム |
JP2008268340A (ja) | 2007-04-17 | 2008-11-06 | Honda Motor Co Ltd | 音声認識装置、音声認識方法、及び音声認識用プログラム |
US20140074483A1 (en) | 2012-09-10 | 2014-03-13 | Apple Inc. | Context-Sensitive Handling of Interruptions by Intelligent Digital Assistant |
JP2015210390A (ja) | 2014-04-25 | 2015-11-24 | シャープ株式会社 | 情報処理装置および制御プログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7334988B2 (ja) | 2021-03-11 | 2023-08-29 | 株式会社フジキカイ | 箱連結装置 |
Also Published As
Publication number | Publication date |
---|---|
US20210295841A1 (en) | 2021-09-23 |
EP3944233A3 (en) | 2022-05-11 |
JP2021533399A (ja) | 2021-12-02 |
KR20210010523A (ko) | 2021-01-27 |
EP3679572B1 (en) | 2021-08-25 |
US20200302924A1 (en) | 2020-09-24 |
EP4407607A2 (en) | 2024-07-31 |
EP4407607A3 (en) | 2024-10-16 |
US11031007B2 (en) | 2021-06-08 |
US11769502B2 (en) | 2023-09-26 |
US12118998B2 (en) | 2024-10-15 |
WO2020106315A1 (en) | 2020-05-28 |
KR102477072B1 (ko) | 2022-12-13 |
CN112352276B (zh) | 2024-04-09 |
EP3679572A1 (en) | 2020-07-15 |
EP3944233B1 (en) | 2024-07-03 |
EP3944233A2 (en) | 2022-01-26 |
US20230377572A1 (en) | 2023-11-23 |
CN112352276A (zh) | 2021-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7195343B2 (ja) | 自動化アシスタントを介して実行されるように要求された一連のアクションの実行の編成 | |
US12073832B2 (en) | Supplementing voice inputs to an automated assistant according to selected suggestions | |
US11664028B2 (en) | Performing subtask(s) for a predicted action in response to a separate user interaction with an automated assistant prior to performance of the predicted action | |
US12106759B2 (en) | Initializing non-assistant background actions, via an automated assistant, while accessing a non-assistant application | |
JP2023529279A (ja) | 現在のユーザ入力を完了するための特定のオートコンプリート提案をユーザが選択する前に、実行可能な要求を履行すること | |
JP2023536563A (ja) | 自動アシスタントとのユーザ対話を介したアプリケーション動作の取消し | |
WO2020226667A1 (en) | Performing subtask(s) for a predicted action in response to a separate user interaction with an automated assistant prior to performance of the predicted action | |
US20240038246A1 (en) | Non-wake word invocation of an automated assistant from certain utterances related to display content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210208 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220704 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7195343 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |