JP2021515341A - リモートに生成された自動化アシスタントコンテンツのレンダリングにおけるクライアントデバイスレイテンシの軽減 - Google Patents
リモートに生成された自動化アシスタントコンテンツのレンダリングにおけるクライアントデバイスレイテンシの軽減 Download PDFInfo
- Publication number
- JP2021515341A JP2021515341A JP2020546985A JP2020546985A JP2021515341A JP 2021515341 A JP2021515341 A JP 2021515341A JP 2020546985 A JP2020546985 A JP 2020546985A JP 2020546985 A JP2020546985 A JP 2020546985A JP 2021515341 A JP2021515341 A JP 2021515341A
- Authority
- JP
- Japan
- Prior art keywords
- content
- action
- client device
- automation assistant
- request
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000009877 rendering Methods 0.000 title claims abstract description 65
- 230000009471 action Effects 0.000 claims abstract description 403
- 230000004044 response Effects 0.000 claims abstract description 97
- 238000000034 method Methods 0.000 claims description 107
- 239000003795 chemical substances by application Substances 0.000 claims description 90
- 239000000872 buffer Substances 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 7
- 230000015572 biosynthetic process Effects 0.000 claims description 5
- 230000003139 buffering effect Effects 0.000 claims description 5
- 230000002093 peripheral effect Effects 0.000 claims description 5
- 238000003786 synthesis reaction Methods 0.000 claims description 5
- 238000013467 fragmentation Methods 0.000 claims description 4
- 238000006062 fragmentation reaction Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims 1
- 230000000875 corresponding effect Effects 0.000 description 38
- 239000012634 fragment Substances 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 239000000463 material Substances 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 238000001556 precipitation Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000010587 phase diagram Methods 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/285—Memory allocation or algorithm optimisation to reduce hardware requirements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Information Transfer Between Computers (AREA)
- Machine Translation (AREA)
- Projection Apparatus (AREA)
- Toys (AREA)
Abstract
Description
できる(たとえば、オペレーティングシステムのアプリケーションであるがオペレーティングシステムと一体であると見なすことができる)。
スエンゲージメントなしにルーチンを実行することができる。たとえば、自動化アシスタントは、クライアントデバイスが特定の期間内にユーザの存在を検出するか、または特定の期間内にユーザの声を検出したことに応じてルーチンを実行することができる(たとえば、午前7時から午前9時の間にユーザの存在を検出したことに応じて「おはようございます」ルーチンを実行する)。
続けることができる。
102 リモートコンピューティングデバイス
104 自動化アシスタント
106 音声テキスト合成エンジン
108 テキストパーサーエンジン
110 ルーチンエンジン
112 ユーザ
116 クライアントデバイス
118 リモートデバイス
120 リモートデバイス
122 第1のコンテンツエージェント
124 第2のコンテンツエージェント
200 状態図
202 クライアントデバイス
204 自動化アシスタント
206 リモートデバイス
208 第1のエージェントアプリケーション
210 自動化アシスタント
212 第2のエージェントアプリケーション
214 リモートデバイス
216 ルーチン要求
218 要求されたルーチン
222 第1のコンテンツ
224 第2のコンテンツ
226 第2のコンテンツ
228 第1のコンテンツ
230 第1のコンテンツ
232 第2のコンテンツ
234 第2のコンテンツ
402 クライアントデバイス
404 自動化アシスタント
406 リモートデバイス
408 第1のエージェントアプリケーション
410 リモートデバイス
412 第2のエージェントアプリケーション
416 ルーチン要求
418 要求されたルーチン
422 第2のコンテンツ
424 第2のコンテンツ
426 第2のコンテンツ
428 第1のコンテンツ
430 第1のコンテンツ
434 バッファ
510 コンピュータシステム
512 バスサブシステム
514 プロセッサ
516 ネットワークインターフェースサブシステム
520 ユーザインターフェース出力デバイス
522 ユーザインターフェース入力デバイス
524 ストレージサブシステム
526 ファイルストレージサブシステム
530 メインランダムアクセスメモリ
532 読取り専用メモリ
Claims (33)
- クライアントデバイスから離れた1つまたは複数の自動化アシスタントサーバデバイスの1つまたは複数のプロセッサによって、
前記クライアントデバイスによって送信された多重アクション要求をネットワークインターフェースを介して受信するステップと、
前記多重アクション要求に基づいて、
前記多重アクション要求によって示される第1の自動化アシスタントアクション、および
前記多重アクション要求によって示される第2の自動化アシスタントアクションであって、前記第1の自動化アシスタントアクションとは異なる第2の自動化アシスタントアクションを判定するステップと、
前記多重アクション要求によって示される前記第1の自動化アシスタントアクションに基づく第1のアクションコンテンツを生成するステップと、
前記多重アクション要求を受信したことに応じて、前記第1の自動化アシスタントアクションに基づく前記第1のアクションコンテンツを前記クライアントデバイスに送信するステップであって、
前記送信された第1のアクションコンテンツを受信したことに応じて、前記クライアントデバイスが、前記第1のアクションコンテンツに基づく第1の出力をレンダリングする、ステップと、
前記クライアントデバイスによる前記第1の出力の前記レンダリングが完了する前に、
前記第2の自動化アシスタントアクションに基づく第2のアクションコンテンツの少なくとも一部を生成するステップと、
前記多重アクション要求を受信したことに応じて、前記第2の自動化アシスタントアクションに基づく前記第2のアクションコンテンツの前記少なくとも一部を前記クライアントデバイスに送信するステップと
を含み、
前記クライアントデバイスは、前記クライアントデバイスによる前記第1の出力の前記レンダリングが完了する前に前記第2のアクションコンテンツの前記少なくとも一部を受信し、
前記クライアントデバイスは、前記第2のアクションコンテンツの前記送信された少なくとも一部を受信したことに応じて、前記第2のアクションコンテンツの前記少なくとも一部を前記クライアントデバイスのローカルメモリにバッファし、
前記クライアントデバイスは、前記第1の出力のレンダリングが完了したことに応じて、前記ローカルメモリにバッファされた前記第2のアクションコンテンツの前記少なくとも一部にアクセスして、前記第2のアクションコンテンツの前記少なくとも一部に基づく第2の出力をレンダリングする、方法。 - 前記第1の自動化アシスタントアクションおよび前記第2の自動化アシスタントアクションを判定するステップ、前記第1のアクションコンテンツを生成するステップ、前記第1のアクションコンテンツを送信するステップ、前記第2のアクションコンテンツを生成するステップ、前記第2のアクションコンテンツを送信するステップは、
すべて、前記多重アクション要求を受信したことに応じて実行され、かつ
すべて、前記クライアントデバイスによって送信された任意の他の要求を受信する前に実行される、請求項1に記載の方法。 - 前記第2のアクションコンテンツの前記少なくとも一部を生成する前記ステップは、
前記多重アクション要求によって示される前記第2の自動化アシスタントアクションに基づくエージェント要求をエージェントアプリケーションに送信するステップと、
前記エージェント要求に応じた応答を前記エージェントアプリケーションから受信するステップと、
前記応答に基づいて前記第2のアクションコンテンツの前記少なくとも一部を生成するステップとを含む、請求項1または2に記載の方法。 - 前記エージェント要求を送信する前記ステップは、前記エージェントアプリケーションに、ネットワーク化された周辺デバイスの状態を変更させ、前記応答は、前記状態の変更が成功したことを示し、前記第2のアクションコンテンツの前記少なくとも一部は、前記クライアントデバイスによってレンダリングされる前記第2の出力に、前記状態の変更が成功したことを前記クライアントデバイスのユーザに知覚可能に伝達させる、請求項3に記載の方法。
- 前記第2のアクションコンテンツの前記少なくとも一部は、前記応答に含められる、請求項3または4に記載の方法。
- 前記第1の出力は、前記クライアントデバイスの1つまたは複数のスピーカを介してレンダリングされたオーディオ出力を備える、請求項1から5のいずれか一項に記載の方法。
- 前記第1のアクションコンテンツはオーディオデータを備え、前記クライアントデバイスは、前記オーディオデータに基づいて前記1つまたは複数のスピーカを駆動することによって前記第1の自動化アシスタントアクションに基づく前記第1の出力をレンダリングする、請求項6に記載の方法。
- 前記第1のアクションコンテンツは、テキストを備え、前記クライアントデバイスは、前記クライアントデバイスにローカルに記憶されたテキスト音声合成モデルを使用した前記テキストの処理に基づいてオーディオデータを生成し、前記生成されたオーディオデータを、前記オーディオ出力をレンダリングするために提供することによって前記第1のアクションコンテンツに基づく前記第1の出力をレンダリングする、請求項6または7に記載の方法。
- 前記クライアントデバイスとのストリーミング接続を確立するステップをさらに含み、
前記第1のアクションコンテンツを送信する前記ステップが前記ストリーミング接続を介して行われ、
前記第2のアクションコンテンツの前記少なくとも一部を送信する前記ステップが前記ストリーミング接続を介して行われる、請求項1から8のいずれか一項に記載の方法。 - 前記多重アクション要求は、前記クライアントデバイスにおいて検出された発話に対応するオーディオデータを備え、前記方法は、
前記多重アクション要求の前記オーディオデータを処理して前記オーディオデータをテキストに変換するステップをさらに含み、
前記多重アクション要求に基づいて前記第1の自動化アシスタントアクションおよび前記第2の自動化アシスタントアクションを判定する前記ステップは、
前記第1の自動化アシスタントアクションと前記第2の自動化アシスタントアクションがどちらも、前記テキストにマップされるとともに前記クライアントデバイスの識別子にマップされると判定するステップを含む、請求項1から9のいずれか一項に記載の方法。 - 前記多重アクション要求に基づいて前記第1の自動化アシスタントアクションおよび前記第2の自動化アシスタントアクションを判定する前記ステップは、前記多重アクション要求が、前記第1の自動化アシスタントアクションを前記第2の自動化アシスタントアクションよりも前に実行することを指示していると判定するステップをさらに含み、
前記第1のアクションコンテンツを送信する前記ステップは、前記多重アクション要求が、前記第2の自動化アシスタントアクションの直前に前記第1の自動化アシスタントアクションを実行することを指示していることに基づいて、前記第2のアクションコンテンツの前記少なくとも一部を送信する前に行われる、請求項1から10のいずれか一項に記載の方法。 - 前記第1の自動化アシスタントアクションに基づく前記第1のアクションコンテンツを生成する前記ステップは、
前記第1のアクションコンテンツのうちの第2の部分を生成することが完了する前に前記第1のアクションコンテンツの第1の部分を生成するステップを含み、
前記第1の自動化アシスタントアクションに基づく前記第1のアクションコンテンツを送信する前記ステップは、
前記第1のアクションコンテンツの前記第1の部分が前記クライアントデバイスによって直ちにレンダリング可能であると判定したことに基づいて、前記第2の部分の生成が完了する前に前記第1のアクションコンテンツの前記第1の部分を送信するステップと、
前記第2の部分の生成が完了した後で前記第2の部分を送信するステップとを含む、請求項1から11のいずれか一項に記載の方法。 - 前記第1の部分は、オーディオデータまたはテキストの第1のセグメントを備え、前記第2の部分は、オーディオデータまたはテキストの第2のセグメントを備える、請求項12に記載の方法。
- 前記第1の部分は、少なくとも1つのディスプレイ変数を有するグラフィカルインターフェースを備え、前記第2の部分は、前記少なくとも1つのディスプレイ変数の値を定義する、請求項13に記載の方法。
- クライアントデバイスによって、1つまたは複数の自動化アシスタントサーバデバイスのシステムに多重アクション要求を送信するステップと、
システムによって、前記クライアントデバイスによって送信された前記多重アクション要求を受信するステップと、
前記システムによって、前記多重アクション要求に基づいて、前記多重アクション要求によって示される第1の自動化アシスタントアクション、および前記多重アクション要求によって示される異なる第2の自動化アシスタントアクションを判定するステップと、
前記システムによって、前記第1の自動化アシスタントアクションに基づく第1のアクションコンテンツを生成するステップと、
前記システムによって、第1のアクションに基づく前記第1のアクションコンテンツを送信するステップと、
前記クライアントデバイスによって、前記第1のアクションコンテンツを受信するステップと、
前記クライアントデバイスによって、前記第1のアクションコンテンツを受信したことに応じて、前記第1のアクションコンテンツに基づく第1の出力をレンダリングするステップと、
前記クライアントデバイスによる前記第1の出力の前記レンダリングが完了する前に、
前記システムによって、前記第2の自動化アシスタントアクションに基づく第2のアクションコンテンツを生成するステップと、
前記システムによって、前記第2の自動化アシスタントアクションに基づく前記第2のアクションコンテンツを送信するステップと、
前記クライアントデバイスによって、前記第2のアクションコンテンツを受信するステップと、
前記クライアントデバイスによって、前記クライアントデバイスのローカルメモリに前記第2のアクションコンテンツをバッファするステップと、
前記クライアントデバイスによって、前記第1の出力の前記レンダリングが完了したことに応じて、前記ローカルメモリにバッファされた前記第2のアクションコンテンツに基づく第2の出力をレンダリングするステップとを含む、方法。 - 前記第1のアクションコンテンツは、オーディオデータを備え、前記第1のアクションコンテンツに基づく前記第1の出力をレンダリングする前記ステップは、前記オーディオデータに基づいて前記クライアントデバイスの1つまたは複数のスピーカを駆動するステップを含む、請求項15に記載の方法。
- 前記第1のアクションコンテンツはテキストを備え、前記第1のアクションコンテンツに基づく前記第1の出力をレンダリングする前記ステップは、
前記クライアントデバイス上にローカルに記憶されたテキスト音声合成モデルを使用した前記テキストの処理に基づいてオーディオデータを生成し、
前記クライアントデバイスの1つまたは複数のスピーカを介してオーディオ出力をレンダリングするために、前記生成されたオーディオデータを提供するステップ
を含む、請求項15または16に記載の方法。 - 前記多重アクション要求が送信されてから前記第2の出力がレンダリングされるまでの間に前記クライアントデバイスによって前記システムに要求が送信されることはない、請求項15から17のいずれか一項に記載の方法。
- 前記クライアントデバイスによって、前記クライアントデバイスの1つまたは複数のマイクロフォンを介して前記クライアントデバイスのユーザの発話を受信するステップをさらに含み、
前記多重アクション要求を送信する前記ステップが、前記発話を受信したことに応じて行われる、請求項15から18のいずれか一項に記載の方法。 - 前記多重アクション要求は、前記発話に基づくオーディオデータを備える、請求項19に記載の方法。
- 前記クライアントデバイスによって、前記クライアントデバイスにローカルに記憶された1つまたは複数の音声認識モデルを使用して前記発話を処理するステップと、
前記クライアントデバイスによって、前記処理に基づいて、前記発話が前記多重アクション要求に対応すると判定するステップをさらに含み、
前記多重アクション要求を送信する前記ステップが、前記発話が前記多重アクション要求に対応するとの判定に応じて行われる、請求項19または20に記載の方法。 - 1つまたは複数のプロセッサによって実行される方法であって、
複数の異なるアクションを含むルーチンを生成するステップであって、自動化アシスタントが、クライアントデバイスの自動化アシスタントインターフェースにおいて入力された自然言語を受信したことに応じて、前記複数の異なるアクションに含まれるアクションを実行するように構成される、ステップと、
前記ルーチンを実行する要求を前記クライアントデバイスから受信するステップであって、前記複数の異なるアクションが、前記自動化アシスタントインターフェースを介して、第1のエージェントアプリケーションを介してアクセス可能な第1のコンテンツおよび第2のエージェントアプリケーションを介してアクセス可能な第2のコンテンツを提供するステップを含む、ステップと、
前記第1のエージェントアプリケーションからの前記第1のコンテンツの取り出しおよび前記第2のエージェントアプリケーションを介した前記第2のコンテンツの取り出しを初期設定するステップと、
前記第2のエージェントアプリケーションから前記第2のコンテンツの一部を受信する前に前記第1のエージェントアプリケーションから前記第1のコンテンツの一部を受信するステップと、
前記自動化アシスタントに前記自動化アシスタントインターフェースを介して出力ストリームを提供させるステップであって、前記出力ストリームが前記第1のコンテンツの前記一部を含む、ステップと、
前記第2のコンテンツの前記一部が、前記自動化アシスタントが前記第1のコンテンツの前記一部を含む前記出力ストリームを提供するのと同時に受信されたときに、
前記自動化アシスタントに、
前記自動化アシスタントが前記第1のコンテンツを完全にプロビジョニングする前に前記第2のコンテンツの前記一部を前記出力ストリームに組み込ませるステップとを含む、方法。 - 前記自動化アシスタントに前記第2のコンテンツの前記一部を組み込ませる前記ステップは、前記自動化アシスタントに前記自動化アシスタントインターフェースを介してユーザにプロンプトを提供させるステップを含む、請求項22に記載の方法。
- 前記第2のコンテンツの前記一部が、前記自動化アシスタントが前記第1のコンテンツの前記一部を含む前記出力ストリームを提供するのと同時に受信されたときに、
前記自動化アシスタントに前記クライアントデバイスの別個の自動化アシスタントインターフェースを介して前記第1のコンテンツの残りの部分を提供させるステップをさらに含み、前記自動化アシスタントインターフェースおよび前記別個の自動化アシスタントインターフェースは、前記クライアントデバイスの異なるサブシステムに対応する、請求項23に記載の方法。 - 前記第2のコンテンツの前記一部が、前記自動化アシスタントが前記第1のコンテンツの前記一部を含む前記出力ストリームを提供するのと同時に受信されたときに、
前記自動化アシスタントにグラフィカルインターフェースを介して前記第1のコンテンツの残りの部分を提供させ、オーディオインターフェースを介して前記第2のコンテンツを提供させるステップをさらに含む、請求項23または24に記載の方法。 - 前記第2のコンテンツはユーザプロンプトを含み、前記方法は、前記ユーザプロンプトが前記自動化アシスタントによって前記自動化アシスタントインターフェースにおいて提供されるようにし、前記第1のコンテンツの残りの部分が前記自動化アシスタントによって別個の自動化アシスタントインターフェースを介して提供されるようにするステップをさらに含む、請求項22から25のいずれか一項に記載の方法。
- 前記出力ストリームは、前記クライアントデバイスのディスプレイインターフェースにおいて提示される一連のグラフィカル要素、または前記クライアントデバイスのオーディオインターフェースにおいて提供される一連のオーディオクリップに対応する、請求項22から26のいずれか一項に記載の方法。
- 前記第2のコンテンツが、前記自動化アシスタントが前記第1のコンテンツの前記一部を含む前記出力ストリームを提供するのと同時に受信されたことに応じて、データのフラグメント化を予期して前記第1のコンテンツの前記データの選択をタグ付けするステップをさらに含む、請求項22から27のいずれか一項に記載の方法。
- 1つまたは複数のプロセッサによって実行される方法であって、
クライアントデバイスにおいて、自動化アシスタントが複数の異なるアクションを含むルーチンを実行することを求める要求を受信するステップであって、前記自動化アシスタントが前記クライアントデバイスの自動化アシスタントインターフェースにおいて入力を受信したことに応じて、前記複数の異なるアクションに含まれるアクションを実行するように構成された、ステップと、
前記複数の異なるアクションのうちの第1のアクションおよび第2のアクションを初期設定させるステップであって、前記第1のアクションおよび前記第2のアクションを初期設定することが、1つまたは複数のサーバデバイスから前記クライアントデバイスによってコンテンツストリームを介して受信される第1のコンテンツおよび第2のコンテンツを要求することを含む、ステップと、
前記コンテンツストリームを介して前記第1のコンテンツの一部を受信するステップと、
前記第1のコンテンツの前記一部を前記クライアントデバイスを介してユーザに提供するステップと、
前記第1のコンテンツが前記ユーザに提供され、前記第2のコンテンツが前記自動化アシスタントに利用可能になったときに、
前記クライアントデバイスが前記第1のコンテンツを完全にプロビジョニングする前にフラグメント化すべき前記第1のコンテンツのデータを特定するステップと、
前記第1のコンテンツのそれぞれに異なるフラグメント化された部分をプロビジョニングする間に前記第2のコンテンツが出力されるようにするステップと
を含む、方法。 - 1つまたは複数のプロセッサによって実行される方法であって、
サーバデバイスにおいて、自動化アシスタントが複数の異なるアクションを含むルーチンを実行することを求める要求を受信するステップであって、前記要求が、クライアントデバイスに接続された1つまたは複数の自動化アシスタントインターフェースにおいて受信されるユーザ入力に対応し、前記自動化アシスタントが、前記クライアントデバイスにおいて入力を受信したことに応じて、前記複数の異なるアクションに含まれる少なくとも1つのアクションを実行するように構成された、ステップと、
前記複数の異なるアクションのうちの第1のアクションが前記1つまたは複数の自動化アシスタントインターフェースを介して提供されるユーザプロンプトに関連付けられており、前記複数の異なるアクションのうちの第2のアクションが、前記サーバデバイスによって取り出され、前記クライアントデバイスに接続された前記1つまたは複数の自動化アシスタントインターフェースを介して出力されるコンテンツに関連付けられていると判定するステップと、
前記コンテンツを取り出す別の要求を生成するステップと、
前記ルーチンを進行させる際に、前記クライアントデバイスに、前記1つまたは複数の自動化アシスタントインターフェースを介してユーザへ前記ユーザプロンプトを提供させるステップと、
前記クライアントデバイスが前記ユーザプロンプトを提供しており、前記ユーザが前記ユーザプロンプトに応答せず、前記サーバデバイスが前記コンテンツを受信したときに、
前記クライアントデバイスに、前記第2のアクションに関連付けられた前記コンテンツの少なくとも一部を前記1つまたは複数の自動化アシスタントインターフェースを介して提供させるステップと、
前記ユーザが前記1つまたは複数の自動化アシスタントインターフェースのうちの第1の自動化アシスタントインターフェースを介して前記ユーザプロンプトに対する応答を提供しており、前記サーバデバイスが前記コンテンツを受信したときに、
前記クライアントデバイスに、前記1つまたは複数の自動化アシスタントインターフェースのうちの第2の自動化アシスタントインターフェースを介して前記第2のアクションに関連付けられた前記コンテンツの少なくとも前記一部を提供させるステップと
を含む、方法。 - 請求項1から30のいずれか一項に記載の方法を実行するための手段を備えるデータ処理システム。
- 1つまたは複数のプロセッサによって実行されたときに、前記1つまたは複数のプロセッサに、請求項1から30のいずれか一項に記載の方法を実行させる命令を備えるコンピュータプログラム。
- 1つまたは複数のプロセッサによって実行されたときに、前記1つまたは複数のプロセッサに、請求項1から30のいずれか一項に記載の方法を実行させる命令を備えるコンピュータ可読記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862640391P | 2018-03-08 | 2018-03-08 | |
US62/640,391 | 2018-03-08 | ||
PCT/US2018/024115 WO2019172943A1 (en) | 2018-03-08 | 2018-03-23 | Mitigation of client device latency in rendering of remotely generated automated assistant content |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021515341A true JP2021515341A (ja) | 2021-06-17 |
JP7170739B2 JP7170739B2 (ja) | 2022-11-14 |
Family
ID=61966082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020546985A Active JP7170739B2 (ja) | 2018-03-08 | 2018-03-23 | リモートに生成された自動化アシスタントコンテンツのレンダリングにおけるクライアントデバイスレイテンシの軽減 |
Country Status (5)
Country | Link |
---|---|
US (3) | US11114096B2 (ja) |
EP (1) | EP3555739A1 (ja) |
JP (1) | JP7170739B2 (ja) |
KR (1) | KR102446961B1 (ja) |
WO (1) | WO2019172943A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102446961B1 (ko) * | 2018-03-08 | 2022-09-23 | 구글 엘엘씨 | 원격으로 생성된 자동화된 어시스턴트 콘텐츠를 렌더링할 때 클라이언트 디바이스 지연 완화 |
US10937418B1 (en) * | 2019-01-04 | 2021-03-02 | Amazon Technologies, Inc. | Echo cancellation by acoustic playback estimation |
US11164585B2 (en) * | 2019-06-07 | 2021-11-02 | Mitsubishi Electric Automotive America, Inc. | Systems and methods for virtual assistant routing |
CN111243587A (zh) * | 2020-01-08 | 2020-06-05 | 北京松果电子有限公司 | 语音交互方法、装置、设备及存储介质 |
JP7347324B2 (ja) * | 2020-05-18 | 2023-09-20 | トヨタ自動車株式会社 | エージェント連携装置 |
JP2021182052A (ja) * | 2020-05-18 | 2021-11-25 | トヨタ自動車株式会社 | エージェント連携装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005196269A (ja) * | 2003-12-26 | 2005-07-21 | Keyence Corp | 端末装置、サーバ装置、サーバプログラム、端末プログラム設定装置、端末プログラム設定プログラム、サーバプログラム設定装置、サーバプログラム設定プログラム、コンピュータで読み取り可能な記録媒体 |
JP2005348262A (ja) * | 2004-06-04 | 2005-12-15 | Ricoh Co Ltd | データ通信方式、電子会議システム、データ通信方法、データ通信プログラム及び記憶媒体 |
JP2009110300A (ja) * | 2007-10-30 | 2009-05-21 | Nippon Telegr & Teleph Corp <Ntt> | 情報家電ネットワーク制御装置、情報家電ネットワーク制御システム、情報家電ネットワーク制御方法、およびプログラム |
US20150184186A1 (en) * | 2013-12-23 | 2015-07-02 | Rijk Zwaan Zaadteelt En Zaadhandel B.V. | Hybrid pepper varieties 35-178 rz and 35-179 rz |
US20150350717A1 (en) * | 2014-05-30 | 2015-12-03 | Apple Inc. | Item to item transitions |
JP2016500504A (ja) * | 2013-07-18 | 2016-01-12 | コニンクリーケ・ケイピーエヌ・ナムローゼ・フェンノートシャップ | 低レイテンシ・ストリーミング |
WO2016143131A1 (ja) * | 2015-03-12 | 2016-09-15 | 株式会社 東芝 | 対話支援装置、方法およびプログラム、および端末 |
JP2017084353A (ja) * | 2016-10-11 | 2017-05-18 | 株式会社Future Tech Lab | 情報システム、サーバ装置、端末装置、情報処理方法、およびプログラム |
JP2017142805A (ja) * | 2012-05-15 | 2017-08-17 | アップル インコーポレイテッド | サードパーティサービスをデジタルアシスタントと統合するシステム及び方法 |
WO2018008605A1 (ja) * | 2016-07-04 | 2018-01-11 | 株式会社Seltech | 人工知能を有するシステム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150058409A1 (en) * | 2013-03-22 | 2015-02-26 | Frank C. Wang | Enhanced content delivery system and method spanning multiple data processing systems |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
KR101803621B1 (ko) * | 2012-12-21 | 2017-12-28 | 코닌클리즈케 케이피엔 엔.브이. | 저 지연 스트리밍 |
WO2015184186A1 (en) * | 2014-05-30 | 2015-12-03 | Apple Inc. | Multi-command single utterance input method |
KR102297394B1 (ko) | 2016-04-18 | 2021-09-02 | 구글 엘엘씨 | 적절한 에이전트의 자동화된 어시스턴트 호출 |
US10380852B2 (en) * | 2017-05-12 | 2019-08-13 | Google Llc | Systems, methods, and devices for activity monitoring via a home assistant |
KR102446961B1 (ko) * | 2018-03-08 | 2022-09-23 | 구글 엘엘씨 | 원격으로 생성된 자동화된 어시스턴트 콘텐츠를 렌더링할 때 클라이언트 디바이스 지연 완화 |
US10198877B1 (en) * | 2018-05-23 | 2019-02-05 | Google Llc | Providing a communications channel between instances of automated assistants |
KR20210009596A (ko) * | 2019-07-17 | 2021-01-27 | 엘지전자 주식회사 | 지능적 음성 인식 방법, 음성 인식 장치 및 지능형 컴퓨팅 디바이스 |
KR20210147678A (ko) * | 2020-05-29 | 2021-12-07 | 엘지전자 주식회사 | 인공 지능 장치 |
-
2018
- 2018-03-23 KR KR1020207028684A patent/KR102446961B1/ko active IP Right Grant
- 2018-03-23 WO PCT/US2018/024115 patent/WO2019172943A1/en unknown
- 2018-03-23 EP EP18717484.2A patent/EP3555739A1/en not_active Withdrawn
- 2018-03-23 JP JP2020546985A patent/JP7170739B2/ja active Active
- 2018-03-23 US US16/341,774 patent/US11114096B2/en active Active
-
2021
- 2021-09-03 US US17/466,875 patent/US11869502B2/en active Active
-
2024
- 2024-01-08 US US18/406,522 patent/US20240144927A1/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005196269A (ja) * | 2003-12-26 | 2005-07-21 | Keyence Corp | 端末装置、サーバ装置、サーバプログラム、端末プログラム設定装置、端末プログラム設定プログラム、サーバプログラム設定装置、サーバプログラム設定プログラム、コンピュータで読み取り可能な記録媒体 |
JP2005348262A (ja) * | 2004-06-04 | 2005-12-15 | Ricoh Co Ltd | データ通信方式、電子会議システム、データ通信方法、データ通信プログラム及び記憶媒体 |
JP2009110300A (ja) * | 2007-10-30 | 2009-05-21 | Nippon Telegr & Teleph Corp <Ntt> | 情報家電ネットワーク制御装置、情報家電ネットワーク制御システム、情報家電ネットワーク制御方法、およびプログラム |
JP2017142805A (ja) * | 2012-05-15 | 2017-08-17 | アップル インコーポレイテッド | サードパーティサービスをデジタルアシスタントと統合するシステム及び方法 |
JP2016500504A (ja) * | 2013-07-18 | 2016-01-12 | コニンクリーケ・ケイピーエヌ・ナムローゼ・フェンノートシャップ | 低レイテンシ・ストリーミング |
US20150184186A1 (en) * | 2013-12-23 | 2015-07-02 | Rijk Zwaan Zaadteelt En Zaadhandel B.V. | Hybrid pepper varieties 35-178 rz and 35-179 rz |
US20150350717A1 (en) * | 2014-05-30 | 2015-12-03 | Apple Inc. | Item to item transitions |
WO2016143131A1 (ja) * | 2015-03-12 | 2016-09-15 | 株式会社 東芝 | 対話支援装置、方法およびプログラム、および端末 |
WO2018008605A1 (ja) * | 2016-07-04 | 2018-01-11 | 株式会社Seltech | 人工知能を有するシステム |
JP2017084353A (ja) * | 2016-10-11 | 2017-05-18 | 株式会社Future Tech Lab | 情報システム、サーバ装置、端末装置、情報処理方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
KR20200124298A (ko) | 2020-11-02 |
EP3555739A1 (en) | 2019-10-23 |
WO2019172943A1 (en) | 2019-09-12 |
KR102446961B1 (ko) | 2022-09-23 |
US20240144927A1 (en) | 2024-05-02 |
US20210398536A1 (en) | 2021-12-23 |
US11114096B2 (en) | 2021-09-07 |
JP7170739B2 (ja) | 2022-11-14 |
US20200302923A1 (en) | 2020-09-24 |
US11869502B2 (en) | 2024-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220157309A1 (en) | Supplementing voice inputs to an automated assistant according to selected suggestions | |
JP2021515341A (ja) | リモートに生成された自動化アシスタントコンテンツのレンダリングにおけるクライアントデバイスレイテンシの軽減 | |
US11996102B2 (en) | Performing subtask(s) for a predicted action in response to a separate user interaction with an automated assistant prior to performance of the predicted action | |
CN112119379B (zh) | 在执行自动助理例程期间在客户端设备之间传输该例程 | |
KR20210134741A (ko) | 어시스턴트 응답을 동적으로 적응시키는 방법, 시스템 및 매체 | |
US11960837B2 (en) | Fulfillment of actionable requests ahead of a user selecting a particular autocomplete suggestion for completing a current user input | |
JP2024506778A (ja) | アシスタントコマンドの受動的な曖昧さ解消 | |
US20220351720A1 (en) | Methods and systems for reducing latency in automated assistant interactions | |
CN115769298A (zh) | 缺少自动化助理应用编程接口功能的外部应用的自动化助理控制 | |
WO2020226667A1 (en) | Performing subtask(s) for a predicted action in response to a separate user interaction with an automated assistant prior to performance of the predicted action | |
CN114144789A (zh) | 图形用户界面中的内容的声控输入 | |
US20240038246A1 (en) | Non-wake word invocation of an automated assistant from certain utterances related to display content | |
CN118245009A (zh) | 在执行自动助理例程期间在客户端设备之间传输该例程 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220628 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7170739 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |