JP2021176093A - 自動化されたアシスタントのための視覚的な手掛かりの選択的検出 - Google Patents
自動化されたアシスタントのための視覚的な手掛かりの選択的検出 Download PDFInfo
- Publication number
- JP2021176093A JP2021176093A JP2021119640A JP2021119640A JP2021176093A JP 2021176093 A JP2021176093 A JP 2021176093A JP 2021119640 A JP2021119640 A JP 2021119640A JP 2021119640 A JP2021119640 A JP 2021119640A JP 2021176093 A JP2021176093 A JP 2021176093A
- Authority
- JP
- Japan
- Prior art keywords
- visual
- user
- automated assistant
- assistant
- implementations
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Quality & Reliability (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
1つまたは複数の画像フレームが、たとえば、視覚センサー307によってキャプチャされてもよく、それらの画像フレームは、視覚センサー307の視野348に対応する可能性がある。これらの画像フレームは、テレビ350および写真フレーム352を含む領域などのノイズのソースを含む可能性が高い領域を特定するためにたとえば視覚的手掛かりモジュール112によって分析されてもよい。視覚的手掛かりモジュール112は、画像フレームのその視覚的手掛かりモジュール112の分析の一部としてそのような物体を認識し、それに応じて領域を特定してもよい。これらの領域が特定されると、視覚的手掛かりモジュール112は、視覚的なノイズの潜在的なソースを含む対応する対象領域を生成してもよい。たとえば、図4は、図3と同じ視野348を示す。しかし、図4においては、対象領域360および362が、テレビ350および写真フレーム352をそれぞれ含むように生成済みである。これらの対象領域360〜362は、視覚的なノイズを含む可能性が高い(または視覚的な手掛かりを含む可能性が低い)ものとして分類されてもよい。たとえば、対象領域は、特定の閾値を超える視覚的なノイズの確率を割り振られてもよい。追加的にまたは代替的に、対象領域は、(たとえば、視覚的なノイズの確率が閾値を超えていることを示す可能性がある)視覚的なノイズインジケータに関連付けられてもよい。
107 視覚センサー、カメラ
108 自動化されたアシスタントクライアント
109 マイクロフォン
110 音声キャプチャモジュール
111 画像キャプチャモジュール
112 視覚的手掛かりモジュール
113 呼び出しモジュール
114 視覚的手掛かりモデルデータベース
116 クラウドに基づくTTSモジュール
117 クラウドに基づくSTTモジュール
119 クラウドに基づく自動化されたアシスタント構成要素
120 自動化されたアシスタント
122 自然言語プロセッサ
124 遂行モジュール
126 自然言語ジェネレータ
130 リソースモジュール
135 自然言語理解モジュール、自然言語理解エンジン
136 意図マッチャ
137 データベース
150 検索モジュール
250 テレビ
306 アシスタントデバイス
307 視覚センサー
348 視野
350 テレビ
352 写真フレーム
360 対象領域
362 対象領域
500 方法
610 コンピューティングデバイス
612 バスサブシステム
614 プロセッサ
616 ネットワークインターフェースサブシステム
620 ユーザインターフェース出力デバイス
622 ユーザインターフェース入力デバイス
624 ストレージサブシステム
625 メモリサブシステム
626 ファイルストレージサブシステム
630 RAM
632 ROM
Claims (15)
- 自動化されたアシスタントの非接触の呼び出しを容易にするために、視覚センサーを備えるアシスタントデバイスの1つまたは複数のプロセッサにより実行される方法であって、
1つまたは複数の刺激を検出するステップと、
前記検出に応答して、除外される領域の分類プロセスを実行して、前記視覚センサーの視野の1つまたは複数の領域を、視覚的なノイズを含む可能性が高いおよび/またはユーザによって与えられた視覚的な手掛かりを含む可能性が低いものとして分類するステップであって、前記領域の分類プロセスが、
前記視覚センサーから1つまたは複数の画像フレームを取得するステップと、
前記1つまたは複数の画像フレームを分析するステップと、
前記分析に基づき、前記視覚センサーの前記視野の前記1つまたは複数の領域を、視覚的なノイズを含む可能性が高いものとして分類するステップと
を含む、分類するステップと
を含み、
前記分類の結果、前記分類された領域の1つまたは複数において検出された視覚的な手掛かりが、前記1つまたは複数の分類された領域の外側で後に検出された視覚的な手掛かりよりも、前記自動化されたアシスタントを呼び出す可能性が低い、または、
前記1つまたは複数の分類された領域は、前記視覚センサーにより取得された後続の画像フレームにおいて、前記自動化されたアシスタントを呼び出すために視覚的な手掛かりのために分析されない、方法。 - 前記1つまたは複数の刺激が、前記視覚センサーにより検出された照明の変化を含む、請求項1に記載の方法。
- 前記1つまたは複数の刺激が、テレビまたはコンピュータがオフにされたとの判定を含む、請求項1に記載の方法。
- 前記1つまたは複数の刺激が、テレビまたはコンピュータが動かされたという判定を含む、請求項1に記載の方法。
- 前記1つまたは複数の刺激が、時刻を含む、請求項1に記載の方法。
- 前記1つまたは複数の刺激が、前記アシスタントデバイスの位置の変化を含む、請求項1に記載の方法。
- 前記1つまたは複数の刺激が、前記アシスタントデバイスの前記視覚センサーに対して行われる調整を含む、請求項1に記載の方法。
- 前記調整が、前記視覚センサーのパン、チルト、およびズームのうちの1つまたは複数の調整を含む、請求項7に記載の方法。
- 1つまたは複数のプロセッサ、メモリ、および視覚センサーを備え、自動化されたアシスタントの非接触の呼び出しを容易にするアシスタントデバイスであって、
前記メモリは命令を記録し、前記命令は、前記命令の実行に応答して前記1つまたは複数のプロセッサに、
1つまたは複数の刺激を検出することと、
前記検出に応答して、除外される領域の分類プロセスを実行して、前記視覚センサーの視野の1つまたは複数の領域を、視覚的なノイズを含む可能性が高いおよび/またはユーザによって与えられた視覚的な手掛かりを含む可能性が低いものとして分類することであって、前記領域の分類プロセスが、
前記視覚センサーから1つまたは複数の画像フレームを取得するステップと、
前記1つまたは複数の画像フレームを分析するステップと、
前記分析に基づき、前記視覚センサーの前記視野の前記1つまたは複数の領域を、視覚的なノイズを含む可能性が高いものとして分類するステップと
を含む、分類することと
を行わせ、
前記分類の結果、前記分類された領域の1つまたは複数において検出された視覚的な手掛かりが、前記1つまたは複数の分類された領域の外側で後に検出された視覚的な手掛かりよりも、前記自動化されたアシスタントを呼び出す可能性が低い、または、
前記1つまたは複数の分類された領域は、前記視覚センサーにより取得された後続の画像フレームにおいて、前記自動化されたアシスタントを呼び出すために視覚的な手掛かりのために分析されない、アシスタントデバイス。 - 前記1つまたは複数の刺激が、前記視覚センサーにより検出された照明の変化を含む、請求項9に記載のアシスタントデバイス。
- 前記1つまたは複数の刺激が、テレビまたはコンピュータがオフにされたとの判定を含む、請求項9に記載のアシスタントデバイス。
- 前記1つまたは複数の刺激が、テレビまたはコンピュータが動かされたという判定を含む、請求項9に記載のアシスタントデバイス。
- 前記1つまたは複数の刺激が、時刻を含む、請求項9に記載のアシスタントデバイス。
- 前記1つまたは複数の刺激が、前記アシスタントデバイスの位置の変化、または前記アシスタントデバイスの前記視覚センサーに対して行われる調整を含む、請求項9に記載のアシスタントデバイス。
- 請求項1から8のうちのいずれか一項に記載の方法を実行するように実行可能である命令を含むコンピュータ可読記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021119640A JP7268093B2 (ja) | 2018-05-04 | 2021-07-20 | 自動化されたアシスタントのための視覚的な手掛かりの選択的検出 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2018/031168 WO2019212568A1 (en) | 2018-05-04 | 2018-05-04 | Selective detection of visual cues for automated assistants |
JP2020572379A JP6919080B2 (ja) | 2018-05-04 | 2018-05-04 | 自動化されたアシスタントのための視覚的な手掛かりの選択的検出 |
JP2021119640A JP7268093B2 (ja) | 2018-05-04 | 2021-07-20 | 自動化されたアシスタントのための視覚的な手掛かりの選択的検出 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020572379A Division JP6919080B2 (ja) | 2018-05-04 | 2018-05-04 | 自動化されたアシスタントのための視覚的な手掛かりの選択的検出 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021176093A true JP2021176093A (ja) | 2021-11-04 |
JP7268093B2 JP7268093B2 (ja) | 2023-05-02 |
Family
ID=62486635
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020572379A Active JP6919080B2 (ja) | 2018-05-04 | 2018-05-04 | 自動化されたアシスタントのための視覚的な手掛かりの選択的検出 |
JP2021119640A Active JP7268093B2 (ja) | 2018-05-04 | 2021-07-20 | 自動化されたアシスタントのための視覚的な手掛かりの選択的検出 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020572379A Active JP6919080B2 (ja) | 2018-05-04 | 2018-05-04 | 自動化されたアシスタントのための視覚的な手掛かりの選択的検出 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11023051B2 (ja) |
EP (2) | EP3805902B1 (ja) |
JP (2) | JP6919080B2 (ja) |
KR (2) | KR20230148270A (ja) |
CN (1) | CN112236737A (ja) |
WO (1) | WO2019212568A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11200893B2 (en) * | 2018-05-07 | 2021-12-14 | Google Llc | Multi-modal interaction between users, automated assistants, and other computing services |
JP7203865B2 (ja) | 2018-05-07 | 2023-01-13 | グーグル エルエルシー | ユーザと、自動化されたアシスタントと、他のコンピューティングサービスとの間のマルチモーダル対話 |
US10885286B2 (en) * | 2018-10-12 | 2021-01-05 | Microsoft Technology Licensing, Llc | Simultaneous and real time translation and language switching across a set of features |
US10891940B1 (en) * | 2018-12-13 | 2021-01-12 | Noble Systems Corporation | Optimization of speech analytics system recognition thresholds for target word identification in a contact center |
US11665013B1 (en) * | 2019-12-13 | 2023-05-30 | Amazon Technologies, Inc. | Output device selection |
US11709691B2 (en) * | 2021-09-01 | 2023-07-25 | Sap Se | Software user assistance through image processing |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004265291A (ja) * | 2003-03-04 | 2004-09-24 | Yamatake Corp | 背景差分処理法および装置 |
JP2009064199A (ja) * | 2007-09-05 | 2009-03-26 | Casio Comput Co Ltd | ジェスチャー認識装置及びジェスチャー認識方法 |
US20120278077A1 (en) * | 2006-06-22 | 2012-11-01 | Microsoft Corporation | Identification of people using multiple types of input |
US20170372703A1 (en) * | 2016-06-27 | 2017-12-28 | Google Inc. | Asynchronous processing of user requests |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7274803B1 (en) * | 2002-04-02 | 2007-09-25 | Videomining Corporation | Method and system for detecting conscious hand movement patterns and computer-generated visual feedback for facilitating human-computer interaction |
JP4218368B2 (ja) * | 2003-02-25 | 2009-02-04 | パナソニック電工株式会社 | 人検出方法及び人検出装置 |
US8732025B2 (en) * | 2005-05-09 | 2014-05-20 | Google Inc. | System and method for enabling image recognition and searching of remote content on display |
WO2009059065A1 (en) | 2007-10-30 | 2009-05-07 | Hewlett-Packard Development Company, L.P. | Interactive display system with collaborative gesture detection |
DE602007012270D1 (de) * | 2007-11-16 | 2011-03-10 | Honda Res Inst Europe Gmbh | Verfahren und Vorrichtung zur kontinuierlichen Objekt-Hintergrund-Segmentierung in Bildern aus dynamischen Sichtszenen |
KR101015663B1 (ko) * | 2008-06-24 | 2011-02-22 | 삼성전자주식회사 | 문자인식장치에서의 문자인식방법 및 그 장치 |
US9417700B2 (en) * | 2009-05-21 | 2016-08-16 | Edge3 Technologies | Gesture recognition systems and related methods |
US10357714B2 (en) * | 2009-10-27 | 2019-07-23 | Harmonix Music Systems, Inc. | Gesture-based user interface for navigating a menu |
US8577135B2 (en) * | 2009-11-17 | 2013-11-05 | Tandent Vision Science, Inc. | System and method for detection of specularity in an image |
US8334842B2 (en) * | 2010-01-15 | 2012-12-18 | Microsoft Corporation | Recognizing user intent in motion capture system |
US8750573B2 (en) | 2010-08-02 | 2014-06-10 | Sony Corporation | Hand gesture detection |
WO2012147256A1 (ja) * | 2011-04-25 | 2012-11-01 | パナソニック株式会社 | 画像処理装置 |
EP2518661A3 (en) * | 2011-04-29 | 2015-02-11 | Tata Consultancy Services Limited | System and method for human detection and counting using background modeling, hog and haar features |
US8891868B1 (en) * | 2011-08-04 | 2014-11-18 | Amazon Technologies, Inc. | Recognizing gestures captured by video |
US20130211843A1 (en) | 2012-02-13 | 2013-08-15 | Qualcomm Incorporated | Engagement-dependent gesture recognition |
US20140067631A1 (en) * | 2012-09-05 | 2014-03-06 | Helix Systems Incorporated | Systems and Methods for Processing Structured Data from a Document Image |
US9678713B2 (en) * | 2012-10-09 | 2017-06-13 | At&T Intellectual Property I, L.P. | Method and apparatus for processing commands directed to a media center |
US9094576B1 (en) * | 2013-03-12 | 2015-07-28 | Amazon Technologies, Inc. | Rendered audiovisual communication |
KR102135770B1 (ko) * | 2014-02-10 | 2020-07-20 | 한국전자통신연구원 | 스테레오 카메라 기반의 3차원 얼굴 복원 방법 및 장치 |
JP6354385B2 (ja) * | 2014-06-27 | 2018-07-11 | 株式会社リコー | 表示装置、表示方法およびプログラム |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US11190400B2 (en) * | 2014-08-06 | 2021-11-30 | Belkin International, Inc. | Identifying and automating a device type using image data |
US20170154246A1 (en) * | 2015-11-30 | 2017-06-01 | Seematics Systems Ltd | Apparatus and method for inferring information using a computer network |
US10579860B2 (en) * | 2016-06-06 | 2020-03-03 | Samsung Electronics Co., Ltd. | Learning model for salient facial region detection |
JP6800628B2 (ja) * | 2016-06-22 | 2020-12-16 | キヤノン株式会社 | 追跡装置、追跡方法、及びプログラム |
JP2018190110A (ja) * | 2017-04-28 | 2018-11-29 | 富士通株式会社 | 情報処理プログラム、情報処理方法及び情報処理装置 |
US10474231B2 (en) * | 2017-08-16 | 2019-11-12 | Industrial Technology Research Institute | Eye tracking apparatus and method thereof |
US10521944B2 (en) * | 2017-08-16 | 2019-12-31 | Microsoft Technology Licensing, Llc | Repositioning user perspectives in virtual reality environments |
US10943463B1 (en) * | 2018-02-19 | 2021-03-09 | Agape Grace Clark | Technologies for assistance and security services |
-
2018
- 2018-05-04 EP EP20212478.0A patent/EP3805902B1/en active Active
- 2018-05-04 KR KR1020237034858A patent/KR20230148270A/ko active Application Filing
- 2018-05-04 WO PCT/US2018/031168 patent/WO2019212568A1/en unknown
- 2018-05-04 JP JP2020572379A patent/JP6919080B2/ja active Active
- 2018-05-04 US US16/617,592 patent/US11023051B2/en active Active
- 2018-05-04 EP EP18728483.1A patent/EP3635513B1/en active Active
- 2018-05-04 CN CN201880094188.7A patent/CN112236737A/zh active Pending
- 2018-05-04 KR KR1020207034620A patent/KR102591555B1/ko active IP Right Grant
-
2021
- 2021-04-13 US US17/229,285 patent/US11392213B2/en active Active
- 2021-07-20 JP JP2021119640A patent/JP7268093B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004265291A (ja) * | 2003-03-04 | 2004-09-24 | Yamatake Corp | 背景差分処理法および装置 |
US20120278077A1 (en) * | 2006-06-22 | 2012-11-01 | Microsoft Corporation | Identification of people using multiple types of input |
JP2009064199A (ja) * | 2007-09-05 | 2009-03-26 | Casio Comput Co Ltd | ジェスチャー認識装置及びジェスチャー認識方法 |
US20170372703A1 (en) * | 2016-06-27 | 2017-12-28 | Google Inc. | Asynchronous processing of user requests |
Also Published As
Publication number | Publication date |
---|---|
US11392213B2 (en) | 2022-07-19 |
KR20210003259A (ko) | 2021-01-11 |
EP3635513B1 (en) | 2021-07-07 |
JP6919080B2 (ja) | 2021-08-11 |
KR102591555B1 (ko) | 2023-10-23 |
US20200103978A1 (en) | 2020-04-02 |
JP2021515350A (ja) | 2021-06-17 |
JP7268093B2 (ja) | 2023-05-02 |
EP3805902A1 (en) | 2021-04-14 |
EP3635513A1 (en) | 2020-04-15 |
US11023051B2 (en) | 2021-06-01 |
EP3805902B1 (en) | 2023-08-23 |
CN112236737A (zh) | 2021-01-15 |
US20210232231A1 (en) | 2021-07-29 |
WO2019212568A1 (en) | 2019-11-07 |
KR20230148270A (ko) | 2023-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11493992B2 (en) | Invoking automated assistant function(s) based on detected gesture and gaze | |
JP6919080B2 (ja) | 自動化されたアシスタントのための視覚的な手掛かりの選択的検出 | |
JP7487276B2 (ja) | 検出された口運動および/または注視に基づく自動化アシスタントの適応 | |
KR102498811B1 (ko) | 자동화된 어시스턴트를 호출하기 위한 다이내믹 및/또는 컨텍스트 특정 핫워드 | |
JP7159392B2 (ja) | 画像および/または他のセンサデータに基づいている自動アシスタント要求の解決 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210812 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220829 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230327 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230420 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7268093 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |