JP6919080B2 - 自動化されたアシスタントのための視覚的な手掛かりの選択的検出 - Google Patents
自動化されたアシスタントのための視覚的な手掛かりの選択的検出 Download PDFInfo
- Publication number
- JP6919080B2 JP6919080B2 JP2020572379A JP2020572379A JP6919080B2 JP 6919080 B2 JP6919080 B2 JP 6919080B2 JP 2020572379 A JP2020572379 A JP 2020572379A JP 2020572379 A JP2020572379 A JP 2020572379A JP 6919080 B2 JP6919080 B2 JP 6919080B2
- Authority
- JP
- Japan
- Prior art keywords
- image frames
- visual
- detected
- user
- automated assistant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Quality & Reliability (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
1つまたは複数の画像フレームが、たとえば、視覚センサー307によってキャプチャされてもよく、それらの画像フレームは、視覚センサー307の視野348に対応する可能性がある。これらの画像フレームは、テレビ350および写真フレーム352を含む領域などのノイズのソースを含む可能性が高い領域を特定するためにたとえば視覚的手掛かりモジュール112によって分析されてもよい。視覚的手掛かりモジュール112は、画像フレームのその視覚的手掛かりモジュール112の分析の一部としてそのような物体を認識し、それに応じて領域を特定してもよい。これらの領域が特定されると、視覚的手掛かりモジュール112は、視覚的なノイズの潜在的なソースを含む対応する対象領域を生成してもよい。たとえば、図4は、図3と同じ視野348を示す。しかし、図4においては、対象領域360および362が、テレビ350および写真フレーム352をそれぞれ含むように生成済みである。これらの対象領域360〜362は、視覚的なノイズを含む可能性が高い(または視覚的な手掛かりを含む可能性が低い)ものとして分類されてもよい。たとえば、対象領域は、特定の閾値を超える視覚的なノイズの確率を割り振られてもよい。追加的にまたは代替的に、対象領域は、(たとえば、視覚的なノイズの確率が閾値を超えていることを示す可能性がある)視覚的なノイズインジケータに関連付けられてもよい。
107 視覚センサー、カメラ
108 自動化されたアシスタントクライアント
109 マイクロフォン
110 音声キャプチャモジュール
111 画像キャプチャモジュール
112 視覚的手掛かりモジュール
113 呼び出しモジュール
114 視覚的手掛かりモデルデータベース
116 クラウドに基づくTTSモジュール
117 クラウドに基づくSTTモジュール
119 クラウドに基づく自動化されたアシスタント構成要素
120 自動化されたアシスタント
122 自然言語プロセッサ
124 遂行モジュール
126 自然言語ジェネレータ
130 リソースモジュール
135 自然言語理解モジュール、自然言語理解エンジン
136 意図マッチャ
137 データベース
150 検索モジュール
250 テレビ
306 アシスタントデバイス
307 視覚センサー
348 視野
350 テレビ
352 写真フレーム
360 対象領域
362 対象領域
500 方法
610 コンピューティングデバイス
612 バスサブシステム
614 プロセッサ
616 ネットワークインターフェースサブシステム
620 ユーザインターフェース出力デバイス
622 ユーザインターフェース入力デバイス
624 ストレージサブシステム
625 メモリサブシステム
626 ファイルストレージサブシステム
630 RAM
632 ROM
Claims (20)
1つまたは複数の視覚センサーから1つまたは複数の初期画像フレームを取得するステップと、
視覚的なノイズを含む可能性が高いものとして前記1つまたは複数の初期画像フレームの特定の領域を分類するために前記1つまたは複数の初期画像フレームを分析するステップであって、当該分析するステップが、前記1つまたは複数の初期画像フレーム内でキャプチャされた電子ディスプレイを検出することを含み、前記1つまたは複数の画像フレームの前記特定の領域が、前記検出された電子ディスプレイを含む、分析するステップと、
前記1つまたは複数の視覚センサーから1つまたは複数の後続の画像フレームを取得するステップと、
前記1人または複数のユーザによって与えられた1つまたは複数の利用可能な視覚的な手掛かりを検出するために前記1つまたは複数の後続の画像フレームを分析するステップであって、
前記1つもしくは複数の後続の画像フレームの前記特定の領域を分析することを控えること、または
前記1つもしくは複数の後続の画像フレームの前記特定の領域内で検出された第1の候補の視覚的な手掛かりを前記1つもしくは複数の後続の画像フレーム内の他の場所で検出された第2の候補の視覚的な手掛かりよりも低く重み付けすることを含む、分析するステップと、
前記検出された利用可能な視覚的な手掛かりのうちの1つまたは複数に基づいて1つまたは複数の応答アクションを前記自動化されたアシスタントに行わせるステップとを含み、
前記控えることまたは前記重み付けすることが、前記電子ディスプレイがグラフィックスを現在レンダリングしているかどうかの判定に基づいて条件付きで実行される、方法。
前記1つまたは複数の初期画像フレームの前記特定の領域を視覚的なノイズインジケータに関連付けることを含む請求項1から7のいずれか一項に記載の方法。
1つまたは複数の視覚センサーから1つまたは複数の初期画像フレームを取得する動作、
視覚的なノイズを含む可能性が高いものとして前記1つまたは複数の初期画像フレームの特定の領域を分類するために前記1つまたは複数の初期画像フレームを分析する動作であって、当該分析する動作が、前記1つまたは複数の初期画像フレーム内でキャプチャされた電子ディスプレイを検出することを含み、前記1つまたは複数の画像フレームの前記特定の領域が、前記検出された電子ディスプレイを含む、分析する動作、
前記1つまたは複数の視覚センサーから1つまたは複数の後続の画像フレームを取得する動作、
1人または複数のユーザによって与えられた1つまたは複数の利用可能な視覚的な手掛かりを検出するために前記1つまたは複数の後続の画像フレームを分析する動作であって、
前記1つもしくは複数の後続の画像フレームの前記特定の領域を分析することを控えること、または
前記1つもしくは複数の後続の画像フレームの前記特定の領域内で検出された第1の候補の視覚的な手掛かりを前記1つもしくは複数の後続の画像フレーム内の他の場所で検出された第2の候補の視覚的な手掛かりよりも低く重み付けすることを含む、分析する動作、および
前記検出された利用可能な視覚的な手掛かりのうちの1つまたは複数に基づいて1つまたは複数の応答アクションを自動化されたアシスタントに行わせる動作
を実行させる前記命令を記憶し、
前記控えることまたは前記重み付けすることが、前記電子ディスプレイがグラフィックスを現在レンダリングしているかどうかの判定に基づいて条件付きで実行される、システム。
前記1つまたは複数の初期画像フレームの前記特定の領域を視覚的なノイズインジケータに関連付けることを含む請求項9から15のいずれか一項に記載のシステム。
1つまたは複数の視覚センサーから1つまたは複数の初期画像フレームを取得する動作、
視覚的なノイズを含む可能性が高いものとして前記1つまたは複数の初期画像フレームの特定の領域を分類するために前記1つまたは複数の初期画像フレームを分析する動作であって、当該分析する動作が、前記1つまたは複数の初期画像フレーム内でキャプチャされた電子ディスプレイを検出することを含み、前記1つまたは複数の画像フレームの前記特定の領域が、前記検出された電子ディスプレイを含む、分析する動作、
前記1つまたは複数の視覚センサーから1つまたは複数の後続の画像フレームを取得する動作、
1人または複数のユーザによって与えられた1つまたは複数の利用可能な視覚的な手掛かりを検出するために前記1つまたは複数の後続の画像フレームを分析する動作であって、
前記1つもしくは複数の後続の画像フレームの前記特定の領域を分析することを控えること、または
前記1つもしくは複数の後続の画像フレームの前記特定の領域内で検出された第1の候補の視覚的な手掛かりを前記1つもしくは複数の後続の画像フレーム内の他の場所で検出された第2の候補の視覚的な手掛かりよりも低く重み付けすることを含む、動作、および
前記検出された利用可能な視覚的な手掛かりのうちの1つまたは複数に基づいて1つまたは複数の応答アクションを自動化されたアシスタントに行わせる動作
を実行させる前記命令を含み、
前記控えることまたは前記重み付けすることが、前記電子ディスプレイがグラフィックスを現在レンダリングしているかどうかの判定に基づいて条件付きで実行される、少なくとも1つのコンピュータ可読記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021119640A JP7268093B2 (ja) | 2018-05-04 | 2021-07-20 | 自動化されたアシスタントのための視覚的な手掛かりの選択的検出 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2018/031168 WO2019212568A1 (en) | 2018-05-04 | 2018-05-04 | Selective detection of visual cues for automated assistants |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021119640A Division JP7268093B2 (ja) | 2018-05-04 | 2021-07-20 | 自動化されたアシスタントのための視覚的な手掛かりの選択的検出 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021515350A JP2021515350A (ja) | 2021-06-17 |
JP6919080B2 true JP6919080B2 (ja) | 2021-08-11 |
Family
ID=62486635
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020572379A Active JP6919080B2 (ja) | 2018-05-04 | 2018-05-04 | 自動化されたアシスタントのための視覚的な手掛かりの選択的検出 |
JP2021119640A Active JP7268093B2 (ja) | 2018-05-04 | 2021-07-20 | 自動化されたアシスタントのための視覚的な手掛かりの選択的検出 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021119640A Active JP7268093B2 (ja) | 2018-05-04 | 2021-07-20 | 自動化されたアシスタントのための視覚的な手掛かりの選択的検出 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11023051B2 (ja) |
EP (2) | EP3805902B1 (ja) |
JP (2) | JP6919080B2 (ja) |
KR (2) | KR102591555B1 (ja) |
CN (1) | CN112236737A (ja) |
WO (1) | WO2019212568A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019216875A1 (en) | 2018-05-07 | 2019-11-14 | Google Llc | Multi-modal interaction between users, automated assistants, and other computing services |
US11200893B2 (en) * | 2018-05-07 | 2021-12-14 | Google Llc | Multi-modal interaction between users, automated assistants, and other computing services |
US10885286B2 (en) * | 2018-10-12 | 2021-01-05 | Microsoft Technology Licensing, Llc | Simultaneous and real time translation and language switching across a set of features |
US10891940B1 (en) * | 2018-12-13 | 2021-01-12 | Noble Systems Corporation | Optimization of speech analytics system recognition thresholds for target word identification in a contact center |
US11665013B1 (en) * | 2019-12-13 | 2023-05-30 | Amazon Technologies, Inc. | Output device selection |
US11709691B2 (en) * | 2021-09-01 | 2023-07-25 | Sap Se | Software user assistance through image processing |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7274803B1 (en) * | 2002-04-02 | 2007-09-25 | Videomining Corporation | Method and system for detecting conscious hand movement patterns and computer-generated visual feedback for facilitating human-computer interaction |
JP4218368B2 (ja) * | 2003-02-25 | 2009-02-04 | パナソニック電工株式会社 | 人検出方法及び人検出装置 |
JP2004265291A (ja) | 2003-03-04 | 2004-09-24 | Yamatake Corp | 背景差分処理法および装置 |
US8732025B2 (en) * | 2005-05-09 | 2014-05-20 | Google Inc. | System and method for enabling image recognition and searching of remote content on display |
US8024189B2 (en) * | 2006-06-22 | 2011-09-20 | Microsoft Corporation | Identification of people using multiple types of input |
JP4992618B2 (ja) | 2007-09-05 | 2012-08-08 | カシオ計算機株式会社 | ジェスチャー認識装置及びジェスチャー認識方法 |
US9292092B2 (en) | 2007-10-30 | 2016-03-22 | Hewlett-Packard Development Company, L.P. | Interactive display system with collaborative gesture detection |
DE602007012270D1 (de) * | 2007-11-16 | 2011-03-10 | Honda Res Inst Europe Gmbh | Verfahren und Vorrichtung zur kontinuierlichen Objekt-Hintergrund-Segmentierung in Bildern aus dynamischen Sichtszenen |
KR101015663B1 (ko) * | 2008-06-24 | 2011-02-22 | 삼성전자주식회사 | 문자인식장치에서의 문자인식방법 및 그 장치 |
US9417700B2 (en) * | 2009-05-21 | 2016-08-16 | Edge3 Technologies | Gesture recognition systems and related methods |
EP2494432B1 (en) * | 2009-10-27 | 2019-05-29 | Harmonix Music Systems, Inc. | Gesture-based user interface |
US8577135B2 (en) * | 2009-11-17 | 2013-11-05 | Tandent Vision Science, Inc. | System and method for detection of specularity in an image |
US8334842B2 (en) * | 2010-01-15 | 2012-12-18 | Microsoft Corporation | Recognizing user intent in motion capture system |
US8750573B2 (en) | 2010-08-02 | 2014-06-10 | Sony Corporation | Hand gesture detection |
CN102959551B (zh) * | 2011-04-25 | 2017-02-08 | 松下电器(美国)知识产权公司 | 图像处理装置 |
US9001199B2 (en) * | 2011-04-29 | 2015-04-07 | Tata Consultancy Services Limited | System and method for human detection and counting using background modeling, HOG and Haar features |
US8891868B1 (en) * | 2011-08-04 | 2014-11-18 | Amazon Technologies, Inc. | Recognizing gestures captured by video |
US20130211843A1 (en) | 2012-02-13 | 2013-08-15 | Qualcomm Incorporated | Engagement-dependent gesture recognition |
US20140067631A1 (en) * | 2012-09-05 | 2014-03-06 | Helix Systems Incorporated | Systems and Methods for Processing Structured Data from a Document Image |
US9678713B2 (en) * | 2012-10-09 | 2017-06-13 | At&T Intellectual Property I, L.P. | Method and apparatus for processing commands directed to a media center |
US9094576B1 (en) * | 2013-03-12 | 2015-07-28 | Amazon Technologies, Inc. | Rendered audiovisual communication |
KR102135770B1 (ko) * | 2014-02-10 | 2020-07-20 | 한국전자통신연구원 | 스테레오 카메라 기반의 3차원 얼굴 복원 방법 및 장치 |
JP6354385B2 (ja) * | 2014-06-27 | 2018-07-11 | 株式会社リコー | 表示装置、表示方法およびプログラム |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US11190400B2 (en) * | 2014-08-06 | 2021-11-30 | Belkin International, Inc. | Identifying and automating a device type using image data |
US20170154273A1 (en) * | 2015-11-30 | 2017-06-01 | Seematics Systems Ltd | System and method for automatically updating inference models |
US10579860B2 (en) * | 2016-06-06 | 2020-03-03 | Samsung Electronics Co., Ltd. | Learning model for salient facial region detection |
JP6800628B2 (ja) * | 2016-06-22 | 2020-12-16 | キヤノン株式会社 | 追跡装置、追跡方法、及びプログラム |
US10339934B2 (en) | 2016-06-27 | 2019-07-02 | Google Llc | Asynchronous processing of user requests |
JP2018190110A (ja) * | 2017-04-28 | 2018-11-29 | 富士通株式会社 | 情報処理プログラム、情報処理方法及び情報処理装置 |
US10521944B2 (en) * | 2017-08-16 | 2019-12-31 | Microsoft Technology Licensing, Llc | Repositioning user perspectives in virtual reality environments |
US10474231B2 (en) * | 2017-08-16 | 2019-11-12 | Industrial Technology Research Institute | Eye tracking apparatus and method thereof |
US10943463B1 (en) * | 2018-02-19 | 2021-03-09 | Agape Grace Clark | Technologies for assistance and security services |
-
2018
- 2018-05-04 EP EP20212478.0A patent/EP3805902B1/en active Active
- 2018-05-04 KR KR1020207034620A patent/KR102591555B1/ko active IP Right Grant
- 2018-05-04 JP JP2020572379A patent/JP6919080B2/ja active Active
- 2018-05-04 EP EP18728483.1A patent/EP3635513B1/en active Active
- 2018-05-04 US US16/617,592 patent/US11023051B2/en active Active
- 2018-05-04 CN CN201880094188.7A patent/CN112236737A/zh active Pending
- 2018-05-04 KR KR1020237034858A patent/KR20230148270A/ko active Application Filing
- 2018-05-04 WO PCT/US2018/031168 patent/WO2019212568A1/en unknown
-
2021
- 2021-04-13 US US17/229,285 patent/US11392213B2/en active Active
- 2021-07-20 JP JP2021119640A patent/JP7268093B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US11023051B2 (en) | 2021-06-01 |
EP3805902B1 (en) | 2023-08-23 |
KR20210003259A (ko) | 2021-01-11 |
KR20230148270A (ko) | 2023-10-24 |
JP7268093B2 (ja) | 2023-05-02 |
US11392213B2 (en) | 2022-07-19 |
JP2021176093A (ja) | 2021-11-04 |
EP3635513B1 (en) | 2021-07-07 |
JP2021515350A (ja) | 2021-06-17 |
US20200103978A1 (en) | 2020-04-02 |
EP3635513A1 (en) | 2020-04-15 |
CN112236737A (zh) | 2021-01-15 |
KR102591555B1 (ko) | 2023-10-23 |
US20210232231A1 (en) | 2021-07-29 |
WO2019212568A1 (en) | 2019-11-07 |
EP3805902A1 (en) | 2021-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11493992B2 (en) | Invoking automated assistant function(s) based on detected gesture and gaze | |
JP6919080B2 (ja) | 自動化されたアシスタントのための視覚的な手掛かりの選択的検出 | |
KR102498811B1 (ko) | 자동화된 어시스턴트를 호출하기 위한 다이내믹 및/또는 컨텍스트 특정 핫워드 | |
JP7159392B2 (ja) | 画像および/または他のセンサデータに基づいている自動アシスタント要求の解決 | |
JP7487276B2 (ja) | 検出された口運動および/または注視に基づく自動化アシスタントの適応 | |
CN109478106B (zh) | 利用环境上下文以用于增强的通信吞吐量 | |
US20190341040A1 (en) | Multi-modal interaction between users, automated assistants, and other computing services |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201223 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201223 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201223 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210721 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6919080 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |