JP2021522636A - ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること - Google Patents
ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること Download PDFInfo
- Publication number
- JP2021522636A JP2021522636A JP2021512355A JP2021512355A JP2021522636A JP 2021522636 A JP2021522636 A JP 2021522636A JP 2021512355 A JP2021512355 A JP 2021512355A JP 2021512355 A JP2021512355 A JP 2021512355A JP 2021522636 A JP2021522636 A JP 2021522636A
- Authority
- JP
- Japan
- Prior art keywords
- user
- client device
- content
- subset
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
- G06F9/453—Help systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
いる1つまたは複数のセンサからの出力に頼ることができる。さらに、様々な実装において、クライアントデバイス104は、任意で、センサからの出力(および/またはその変換)を遠隔のデバイス116に提供することができ、遠隔のデバイス116は、任意で、そのような提供されたデータに基づいて距離の測定値を決定することができる。
に留意されたい。
ング可能」であるアプリケーションであることが可能である。アプリケーションが呼び出されるとき、アプリケーションは、クライアントデバイス516によって実行され、および/またはクライアントデバイスによって前面に出され得る(たとえば、アプリケーションのコンテンツが、クライアントデバイスの表示を引き継ぐことができる)。
102 ユーザ
104 クライアントデバイス
106 移動
108 第1の距離の閾値
110 第2の距離の閾値
112 第1のコンテンツ
114 第2のコンテンツ
116 遠隔のデバイス
118 第3の距離の閾値
120 第1の位置
122 第2の位置
200 図
204 クライアントデバイス
206 図
208 ユーザ
210 クライアントデバイス
212 第1のコンテンツ
214 第2のコンテンツ
216 第3のコンテンツ
218 環境
300 方法
400 方法
500 システム
502 サーバデバイス
504 自動化されたアシスタント
506 ボイストゥテキストエンジン、ユーザデータ
508 テキストパーサエンジン
512 遠隔のコンピューティングデバイス
516 クライアントデバイス
518 自動化されたアシスタントインターフェース
522 コンテキストデータ
528 エージェント選択エンジン
530 遠隔のデバイス
532 エージェント
534 エージェントデータ選択エンジン
536 エージェントデータ
538 エージェント
610 コンピュータシステム
612 バスサブシステム
614 プロセッサ
616 ネットワークインターフェースサブシステム
620 ユーザインターフェース出力デバイス
622 ユーザインターフェース入力デバイス
624 ストレージサブシステム
625 メモリ
626 ファイルストレージサブシステム
630 主ランダムアクセスメモリ(RAM)
632 読み出し専用メモリ(ROM)
Claims (28)
自動化されたアシスタントにアクションの実行を初期化させる要求を受信するステップであって、前記自動化されたアシスタントが、ディスプレイデバイスおよびセンサと通信しているクライアントデバイスの自動化されたアシスタントインターフェースを介してアクセス可能であり、前記センサが、前記ディスプレイデバイスに対するユーザの距離を示す出力を提供する、ステップと、
前記ディスプレイデバイスに対する前記ユーザの推定された距離に対応する距離の測定値を前記センサの前記出力に基づいて決定するステップと、
前記アクションを完了するためのエージェントを前記受信された要求に基づいて特定するステップであって、前記エージェントが、前記自動化されたアシスタントによってアクセス可能であり、前記ディスプレイデバイスに対する前記ユーザの前記推定された距離に基づいて前記クライアントデバイスのためのデータを提供するように構成される、ステップと、
前記要求を受信したことおよび前記受信された要求に基づいて前記エージェントを特定したことに応じて、前記特定されたエージェントに前記アクションを促進するためにコンテンツアイテムを提供させるエージェント要求を生成するステップであって、前記エージェント要求が、前記決定された距離の測定値を特定する、ステップと、
前記アクションのためのコンテンツアイテムのサブセットを、候補のコンテンツアイテムの前記サブセットと前記エージェント要求に含まれる前記距離の測定値との間の対応に基づいて前記エージェントに選択させるために前記エージェントに前記エージェント要求を送信するステップであって、前記候補のコンテンツアイテムの前記サブセットが、コンテンツアイテムの前記サブセットから除外されたその他のコンテンツアイテムに比べて独特に前記クライアントデバイスにおいてレンダリングされるように構成される、ステップと、
前記クライアントデバイスに候補のコンテンツアイテムの前記選択されたサブセットをレンダリングさせるステップとを含む、
方法。
前記クライアントデバイスに前記第1のサブセットのみを最初にレンダリングさせるステップと、
前記クライアントデバイスに前記第2のサブセットをバッファリングさせるとともに、次いで、前記ユーザが距離の前記第2の範囲内にある新しい距離に移動したと判定したことに応じて前記第2のサブセットをレンダリングさせるステップとを含む、
請求項1に記載の方法。
請求項2に記載の方法。
請求項3に記載の方法。
請求項2に記載の方法。
請求項5に記載の方法。
請求項2から6のいずれか一項に記載の方法。
前記エージェント要求に前記推定された変化率のインジケーションを含めるステップとをさらに含み、
前記エージェントが、前記距離の測定値に対応する前記ユーザの前記推定された距離を包含する距離の前記第1の範囲に対応する第1のサブセットに基づいて前記第1のサブセットを選択し、前記エージェントが、前記推定された変化率の前記インジケーションに基づいて前記第2のサブセットを選択する、
請求項2から6のいずれか一項に記載の方法。
前記ユーザが前記自動化されたアシスタントの現在アクティブなユーザであると判定するステップをさらに含み、
前記ユーザの前記推定された距離に対応する前記距離の測定値を決定するステップが、前記ユーザが前記自動化されたアシスタントの前記現在アクティブなユーザであると判定したことに応じて前記1人または複数のさらなるユーザの代わりに前記ユーザの前記距離の測定値を決定するステップを含む、
請求項1から8のいずれか一項に記載の方法。
請求項9に記載の方法。
請求項10に記載の方法。
別個の距離の測定値を決定するステップであって、前記別個の距離の測定値が、前記ディスプレイデバイスに対する前記ユーザの前記距離が変わったことを示す、ステップと、
前記別個の距離の測定値を決定したことに応じて、前記特定されたエージェントに関する別個のエージェント要求を生成するステップであって、前記別個のエージェント要求が、前記別個の距離の測定値を含む、ステップと、
前記候補のコンテンツアイテムの別個のサブセットと前記エージェント要求に含まれる前記別個の距離の測定値との間の対応に基づいて前記アクションのための前記候補のコンテンツアイテムの前記別個のサブセットを前記エージェントに選択させるために前記エージェントに前記別個のエージェント要求を送信するステップと、
前記クライアントデバイスに候補のコンテンツアイテムの前記選択された別個のサブセットをレンダリングさせるステップとをさらに含む、
請求項1から9のいずれか一項に記載の方法。
近さに適応するコンテンツに関連するユーザプリファレンスを示すユーザプロファイルを前記ユーザの前記声紋に基づいて選択するステップであって、コンテンツアイテムの前記サブセットが、前記ユーザプリファレンスに基づいて選択される、ステップをさらに含む、
請求項1に記載の方法。
請求項1に記載の方法。
請求項1に記載の方法。
ユーザと自動化されたアシスタントとの間のインタラクション中に前記ユーザによって既に要求されたアクションを促進するために第1のコンテンツをレンダリングするステップであって、前記自動化されたアシスタントが、クライアントデバイスの自動化されたアシスタントインターフェースを介してアクセス可能であり、前記第1のコンテンツが、前記クライアントデバイスのローカルに記憶されるコンテンツアイテムの第1のサブセットに基づいてレンダリングされる、ステップと、
前記クライアントデバイスに接続されるセンサの出力に基づいて、前記クライアントデバイスが前記第1のコンテンツをレンダリングしている間に、前記ユーザの位置が第1の位置から第2の位置に変わったと判定するステップと、
前記アクションを促進するために第2のコンテンツをそこからレンダリングするためのコンテンツアイテムの第2のサブセットを前記センサの前記出力に基づいて特定するステップであって、コンテンツアイテムの前記第2のサブセットが、コンテンツアイテムの前記第1のサブセットと排他的なデータを含み、前記クライアントデバイスのローカルに記憶される、ステップと、
コンテンツアイテムの前記特定された第2のサブセットに基づいて前記第2のコンテンツをレンダリングするステップと、
前記クライアントデバイスが前記第2のコンテンツをレンダリングしている間、前記センサの後続の出力を監視するステップと、
前記センサの前記後続の出力が、前記ユーザが前記第1の位置および前記第2の位置と異なる第3の位置に移動したことを示すときに、
前記ユーザが前記第3の位置にいるときに第3のコンテンツをそこからレンダリングするためのコンテンツアイテムの第3のサブセットが前記クライアントデバイスのローカルで利用され得ないと判定するステップと、
前記自動化されたアシスタントによってアクセスされ得る遠隔のサーバデバイスからコンテンツアイテムの前記第3のサブセットを受信する要求を生成するステップとを含む、
方法。
コンテンツアイテムの前記第3のサブセットを受信するステップと、
コンテンツアイテムの前記第3のサブセットに基づいて前記第3のコンテンツをレンダリングするステップであって、前記第1のコンテンツが、第1のモダリティによってレンダリングされ、前記第3のコンテンツが、前記第1のモダリティと異なる第2のモダリティによってレンダリングされる、ステップとをさらに含む、
請求項16に記載の方法。
請求項17に記載の方法。
請求項18に記載の方法。
前記受け取られた口頭の発話に対応するオーディオデータに基づいて、前記アクションを実行するための目標アプリケーションおよび前記クライアントデバイスに対する前記ユーザの向きを決定するステップとをさらに含む、
請求項16に記載の方法。
前記センサの前記後続の出力が、前記ユーザが前記第3の位置に移動したことを示すときに、
前記カメラによってキャプチャされた1つまたは複数の画像に基づいて、前記ユーザがアクティブなユーザであるかどうかを、1つもしくは複数の画像の処理に基づいて決定された前記ユーザの姿勢、前記1つもしくは複数の画像の処理に基づいて決定された前記ユーザの凝視の方向、前記1つもしくは複数の画像の処理に基づいて決定された前記ユーザの口の動き、および前記1つまたは複数の画像の処理に基づいて検出された前記ユーザのジェスチャのうちの1つまたは複数に基づいて判定するステップをさらに含む、
請求項16に記載の方法。
ディスプレイデバイスを含むクライアントデバイスによって送信された自動化されたアシスタントの要求を遠隔の自動化されたアシスタントシステムにおいて受信するステップと、
前記遠隔の自動化されたアシスタントシステムによって、前記自動化されたアシスタントの要求の内容に基づいて、
前記自動化されたアシスタントの要求のための自動化されたアシスタントエージェント、および
前記クライアントデバイスとユーザとの間の現在の距離を示すユーザの距離の測定値であって、前記ユーザが、前記クライアントデバイスの環境内にいる、ユーザの距離の測定値を決定するステップと、
前記遠隔の自動化されたアシスタントシステムによって、前記自動化されたアシスタントの要求のための前記決定された自動化されたアシスタントエージェントに、前記ユーザの距離の測定値を含むエージェント要求を送信するステップと、
前記遠隔の自動化されたアシスタントシステムによって、前記エージェント要求に応じて前記自動化されたアシスタントエージェントから、前記ユーザの距離の測定値に適応されるコンテンツアイテムを受信するステップと、
前記ユーザの距離の測定値に適応される前記コンテンツアイテムを送信するステップであって、前記コンテンツアイテムが、前記自動化されたアシスタントの要求に応じて前記遠隔の自動化されたアシスタントから前記クライアントデバイスに送信される、ステップとを含み、
応答コンテンツを送信することが、前記クライアントデバイスに前記クライアントデバイスの前記ディスプレイデバイスによって前記応答コンテンツをレンダリングさせる、
方法。
請求項22に記載の方法。
請求項23に記載の方法。
請求項24に記載の方法。
請求項23に記載の方法。
システム。
コンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022084510A JP2022119878A (ja) | 2018-05-04 | 2022-05-24 | ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2018/031163 WO2019212566A1 (en) | 2018-05-04 | 2018-05-04 | Generating and/or adapting automated assistant content according to a distance between user(s) and an automated assistant interface |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022084510A Division JP2022119878A (ja) | 2018-05-04 | 2022-05-24 | ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021522636A true JP2021522636A (ja) | 2021-08-30 |
JP7081045B2 JP7081045B2 (ja) | 2022-06-06 |
Family
ID=62555161
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021512355A Active JP7081045B2 (ja) | 2018-05-04 | 2018-05-04 | ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること |
JP2022084510A Pending JP2022119878A (ja) | 2018-05-04 | 2022-05-24 | ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022084510A Pending JP2022119878A (ja) | 2018-05-04 | 2022-05-24 | ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること |
Country Status (6)
Country | Link |
---|---|
US (3) | US10878279B2 (ja) |
EP (2) | EP4361777A3 (ja) |
JP (2) | JP7081045B2 (ja) |
KR (2) | KR20230128586A (ja) |
CN (1) | CN112204500B (ja) |
WO (1) | WO2019212566A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10097919B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Music service selection |
EP4361777A3 (en) | 2018-05-04 | 2024-07-31 | Google LLC | Generating and/or adapting automated assistant content according to a distance between user(s) and an automated assistant interface |
CN112236739B (zh) * | 2018-05-04 | 2024-05-17 | 谷歌有限责任公司 | 基于检测到的嘴运动和/或凝视的适配自动助理 |
KR102512446B1 (ko) | 2018-05-04 | 2023-03-22 | 구글 엘엘씨 | 자동화된 어시스턴트 기능(들)의 핫-워드 프리 적응 |
US10890969B2 (en) | 2018-05-04 | 2021-01-12 | Google Llc | Invoking automated assistant function(s) based on detected gesture and gaze |
US10783428B2 (en) * | 2018-07-05 | 2020-09-22 | Accenture Global Solutions Limited | Holographic virtual assistant |
US10692518B2 (en) | 2018-09-29 | 2020-06-23 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection via multiple network microphone devices |
US11164585B2 (en) * | 2019-06-07 | 2021-11-02 | Mitsubishi Electric Automotive America, Inc. | Systems and methods for virtual assistant routing |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
KR20190106921A (ko) * | 2019-08-30 | 2019-09-18 | 엘지전자 주식회사 | 커뮤니케이션 로봇 및 그의 구동 방법 |
CN111273833B (zh) * | 2020-03-25 | 2022-02-01 | 北京百度网讯科技有限公司 | 人机交互的控制方法、装置和系统、电子设备 |
US11308962B2 (en) * | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
CN112954437B (zh) * | 2021-02-02 | 2022-10-28 | 深圳市慧鲤科技有限公司 | 一种视频资源处理方法、装置、计算机设备及存储介质 |
TW202240461A (zh) * | 2021-03-03 | 2022-10-16 | 美商元平台公司 | 使用輔助系統的語音和手勢輸入之文字編輯 |
JP2023535102A (ja) * | 2021-07-19 | 2023-08-16 | グーグル エルエルシー | サードパーティデジタルアシスタントのアクションのためのビットベクトルに基づくコンテンツマッチング |
US12100395B2 (en) | 2021-11-30 | 2024-09-24 | Google Llc | Dynamic assistant suggestions during assistant browsing |
US12020704B2 (en) | 2022-01-19 | 2024-06-25 | Google Llc | Dynamic adaptation of parameter set used in hot word free adaptation of automated assistant |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0348866A (ja) * | 1989-07-18 | 1991-03-01 | Ricoh Co Ltd | 複写機のガイダンス制御装置 |
JP2005534065A (ja) * | 2002-07-25 | 2005-11-10 | ソニー インターナショナル (ヨーロッパ) ゲゼルシャフト ミット ベシュレンクテル ハフツング | マンマシンインタフェースユニットの動作及び/又は制御方法 |
JP2006236013A (ja) * | 2005-02-25 | 2006-09-07 | Nippon Telegr & Teleph Corp <Ntt> | 環境的情報提示装置、環境的情報提示方法およびこの方法のプログラム |
JP2010049313A (ja) * | 2008-08-19 | 2010-03-04 | Sony Corp | 画像処理装置、画像処理方法、プログラム |
JP2012181748A (ja) * | 2011-03-02 | 2012-09-20 | Dainippon Printing Co Ltd | 図柄表示具、及び合成画像表示システム |
WO2016157662A1 (ja) * | 2015-03-31 | 2016-10-06 | ソニー株式会社 | 情報処理装置、制御方法、およびプログラム |
US20170289766A1 (en) * | 2016-03-29 | 2017-10-05 | Microsoft Technology Licensing, Llc | Digital Assistant Experience based on Presence Detection |
WO2017184587A1 (en) * | 2016-04-18 | 2017-10-26 | Google Inc. | Automated assistant invocation of appropriate agent |
JP2018055155A (ja) * | 2016-09-26 | 2018-04-05 | トヨタ自動車株式会社 | 音声対話装置および音声対話方法 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6971072B1 (en) * | 1999-05-13 | 2005-11-29 | International Business Machines Corporation | Reactive user interface control based on environmental sensing |
US7203911B2 (en) * | 2002-05-13 | 2007-04-10 | Microsoft Corporation | Altering a display on a viewing device based upon a user proximity to the viewing device |
US7134080B2 (en) * | 2002-08-23 | 2006-11-07 | International Business Machines Corporation | Method and system for a user-following interface |
US20050229200A1 (en) * | 2004-04-08 | 2005-10-13 | International Business Machines Corporation | Method and system for adjusting a display based on user distance from display device |
US8203577B2 (en) | 2007-09-25 | 2012-06-19 | Microsoft Corporation | Proximity based computer display |
KR101472844B1 (ko) | 2007-10-23 | 2014-12-16 | 삼성전자 주식회사 | 적응적 문서 디스플레이 장치 및 방법 |
CN101742282A (zh) | 2008-11-24 | 2010-06-16 | 深圳Tcl新技术有限公司 | 一种调整显示设备视频内容参数的方法、系统及设备 |
US20110298980A1 (en) | 2010-06-08 | 2011-12-08 | Sony Corporation | Resizing tv graphic elements and reorienting graphics plane for user position |
US9274744B2 (en) * | 2010-09-10 | 2016-03-01 | Amazon Technologies, Inc. | Relative position-inclusive device interfaces |
US9390317B2 (en) * | 2011-03-21 | 2016-07-12 | Hewlett-Packard Development Company, L.P. | Lip activity detection |
US20120246678A1 (en) | 2011-03-24 | 2012-09-27 | Tobe Barksdale | Distance Dependent Scalable User Interface |
KR101591579B1 (ko) * | 2011-03-29 | 2016-02-18 | 퀄컴 인코포레이티드 | 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링 |
US8782716B2 (en) | 2011-07-29 | 2014-07-15 | Google Inc. | Systems and methods for rendering user interface objects in accordance with a variable scaling factor |
US20130113879A1 (en) * | 2011-11-04 | 2013-05-09 | Comcast Cable Communications, Llc | Multi-Depth Adaptation For Video Content |
EP2780825A4 (en) * | 2011-11-15 | 2015-07-08 | Trimble Navigation Ltd | 3D MODELING EXTENSIBLE ON THE WEB |
US9046917B2 (en) | 2012-05-17 | 2015-06-02 | Sri International | Device, method and system for monitoring, predicting, and accelerating interactions with a computing device |
US9674331B2 (en) * | 2012-06-08 | 2017-06-06 | Apple Inc. | Transmitting data from an automated assistant to an accessory |
US9164580B2 (en) * | 2012-08-24 | 2015-10-20 | Microsoft Technology Licensing, Llc | Calibration of eye tracking system |
US8659703B1 (en) | 2012-10-23 | 2014-02-25 | Sony Corporation | Adapting layout and text font size for viewer distance from TV |
US9804820B2 (en) * | 2013-12-16 | 2017-10-31 | Nuance Communications, Inc. | Systems and methods for providing a virtual assistant |
JP2017508312A (ja) * | 2013-12-30 | 2017-03-23 | トムソン ライセンシングThomson Licensing | 近さ依存のメディア再生 |
US20150309580A1 (en) * | 2014-04-25 | 2015-10-29 | Wipro Limited | Method and computing unit for facilitating interactions of a group of users with gesture-based application |
US9588408B1 (en) * | 2014-05-15 | 2017-03-07 | Autofuss | Methods and systems for projecting a target portion of an image at a higher resolution |
JP2017144521A (ja) | 2016-02-18 | 2017-08-24 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US11227017B2 (en) * | 2016-05-17 | 2022-01-18 | Google Llc | Providing suggestions for interaction with an automated assistant in a multi-user message exchange thread |
US10467510B2 (en) * | 2017-02-14 | 2019-11-05 | Microsoft Technology Licensing, Llc | Intelligent assistant |
US10853911B2 (en) * | 2018-04-17 | 2020-12-01 | Google Llc | Dynamic adaptation of images for projection, and/or of projection parameters, based on user(s) in environment |
EP4361777A3 (en) | 2018-05-04 | 2024-07-31 | Google LLC | Generating and/or adapting automated assistant content according to a distance between user(s) and an automated assistant interface |
-
2018
- 2018-05-04 EP EP24163016.9A patent/EP4361777A3/en active Pending
- 2018-05-04 US US16/618,532 patent/US10878279B2/en active Active
- 2018-05-04 KR KR1020237029180A patent/KR20230128586A/ko not_active Application Discontinuation
- 2018-05-04 WO PCT/US2018/031163 patent/WO2019212566A1/en unknown
- 2018-05-04 EP EP18729824.5A patent/EP3616034B1/en active Active
- 2018-05-04 KR KR1020207033967A patent/KR102574277B1/ko active IP Right Grant
- 2018-05-04 CN CN201880094151.4A patent/CN112204500B/zh active Active
- 2018-05-04 JP JP2021512355A patent/JP7081045B2/ja active Active
-
2020
- 2020-12-28 US US17/135,272 patent/US11789522B2/en active Active
-
2022
- 2022-05-24 JP JP2022084510A patent/JP2022119878A/ja active Pending
-
2023
- 2023-10-02 US US18/375,876 patent/US20240028108A1/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0348866A (ja) * | 1989-07-18 | 1991-03-01 | Ricoh Co Ltd | 複写機のガイダンス制御装置 |
JP2005534065A (ja) * | 2002-07-25 | 2005-11-10 | ソニー インターナショナル (ヨーロッパ) ゲゼルシャフト ミット ベシュレンクテル ハフツング | マンマシンインタフェースユニットの動作及び/又は制御方法 |
JP2006236013A (ja) * | 2005-02-25 | 2006-09-07 | Nippon Telegr & Teleph Corp <Ntt> | 環境的情報提示装置、環境的情報提示方法およびこの方法のプログラム |
JP2010049313A (ja) * | 2008-08-19 | 2010-03-04 | Sony Corp | 画像処理装置、画像処理方法、プログラム |
JP2012181748A (ja) * | 2011-03-02 | 2012-09-20 | Dainippon Printing Co Ltd | 図柄表示具、及び合成画像表示システム |
WO2016157662A1 (ja) * | 2015-03-31 | 2016-10-06 | ソニー株式会社 | 情報処理装置、制御方法、およびプログラム |
US20170289766A1 (en) * | 2016-03-29 | 2017-10-05 | Microsoft Technology Licensing, Llc | Digital Assistant Experience based on Presence Detection |
WO2017184587A1 (en) * | 2016-04-18 | 2017-10-26 | Google Inc. | Automated assistant invocation of appropriate agent |
JP2018055155A (ja) * | 2016-09-26 | 2018-04-05 | トヨタ自動車株式会社 | 音声対話装置および音声対話方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7081045B2 (ja) | 2022-06-06 |
KR102574277B1 (ko) | 2023-09-04 |
EP4361777A3 (en) | 2024-07-31 |
US10878279B2 (en) | 2020-12-29 |
KR20230128586A (ko) | 2023-09-05 |
US20210117720A1 (en) | 2021-04-22 |
EP3616034A1 (en) | 2020-03-04 |
CN112204500B (zh) | 2024-09-10 |
US20240028108A1 (en) | 2024-01-25 |
JP2022119878A (ja) | 2022-08-17 |
CN112204500A (zh) | 2021-01-08 |
EP3616034B1 (en) | 2024-04-10 |
EP4361777A2 (en) | 2024-05-01 |
US11789522B2 (en) | 2023-10-17 |
KR20210002648A (ko) | 2021-01-08 |
WO2019212566A1 (en) | 2019-11-07 |
US20200167597A1 (en) | 2020-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7081045B2 (ja) | ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること | |
KR102661487B1 (ko) | 검출된 제스처 및 시선에 기초하여 자동화된 어시스턴트 기능 호출 | |
KR102677096B1 (ko) | 감지된 입 움직임 및/또는 시선을 기반으로 자동화된 어시스턴트 적응 | |
KR102512446B1 (ko) | 자동화된 어시스턴트 기능(들)의 핫-워드 프리 적응 | |
CN112119379B (zh) | 在执行自动助理例程期间在客户端设备之间传输该例程 | |
US11830491B2 (en) | Determining whether to automatically resume first automated assistant session upon cessation of interrupting second session | |
JP7170739B2 (ja) | リモートに生成された自動化アシスタントコンテンツのレンダリングにおけるクライアントデバイスレイテンシの軽減 | |
US20220351720A1 (en) | Methods and systems for reducing latency in automated assistant interactions | |
CN114981772A (zh) | 在不需要自动助理的基于语音的调用的情况下基于检测到的环境状况来选择性地调用自动助理 | |
US20230197071A1 (en) | Accelerometer-based endpointing measure(s) and /or gaze-based endpointing measure(s) for speech processing | |
US11948580B2 (en) | Collaborative ranking of interpretations of spoken utterances | |
EP4169016B1 (en) | Collaborative ranking of interpretations of spoken utterances |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220525 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7081045 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |