JP6898234B2 - 反射に基づくコントロールのアクティブ化 - Google Patents
反射に基づくコントロールのアクティブ化 Download PDFInfo
- Publication number
- JP6898234B2 JP6898234B2 JP2017526045A JP2017526045A JP6898234B2 JP 6898234 B2 JP6898234 B2 JP 6898234B2 JP 2017526045 A JP2017526045 A JP 2017526045A JP 2017526045 A JP2017526045 A JP 2017526045A JP 6898234 B2 JP6898234 B2 JP 6898234B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- electronic device
- user interface
- alignment
- optical reflection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004913 activation Effects 0.000 title description 2
- 230000009471 action Effects 0.000 claims description 38
- 238000000034 method Methods 0.000 claims description 32
- 230000003287 optical effect Effects 0.000 claims description 24
- 230000003213 activating effect Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 5
- 230000006870 function Effects 0.000 description 23
- 238000004891 communication Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 8
- 238000013519 translation Methods 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 230000008707 rearrangement Effects 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Ophthalmology & Optometry (AREA)
- Audiology, Speech & Language Pathology (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Telephone Function (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Geophysics And Detection Of Objects (AREA)
- Image Analysis (AREA)
Description
xp=Axx’p+Axx’r+Bx (1)
yp=Ayy’p+Ayy’r+By (2)
[0047]上記方程式(1)および(2)において、A=[Ax,Ay]は拡大縮小係数を表し、一方、B=[Bx,By]は並進係数を表す。一実装形態では、図3に関して前述した並進係数および拡大縮小係数などの並進係数(B)および拡大縮小係数(A)は、事前較正プロセスにおいて取得される。一実装形態では、拡大縮小係数(A)および並進係数(b)は、以下の方程式(3)および(4)によって与えられる。
csrx=Ax(dx+cx)+Ax(cx)+Bx (7)
csry=Ay(dy+cy)+Ay(cy)+By (8)
ユーザの優位眼が、カーソルソース522として選択された場合、点(csrx,csry)は、(xp,yp)に等しい(前述の方程式(5)および(6)で定義される)。
Claims (19)
- プロセッサが実施する方法であって、
2以上のユーザインターフェースコントロールを電子デバイスの光学的反射面に表示するステップと、
前記電子デバイスの前記光学的反射面において光学的に映し出された光学的反射像と、前記2以上のユーザインターフェースコントロールのうちの1つのユーザインターフェースコントロールが表示される前記光学的反射面における物理的位置との間の位置合わせを検出するステップと、
前記位置合わせが、前記1つのユーザインターフェースコントロールが表示される前記物理的位置において維持されている間に、選択アクションを検出するステップと、
検出された前記位置合わせ及び検出された前記選択アクションに応答して前記1つのユーザインターフェースコントロールをアクティブにするステップと
を含む方法。 - 請求項1に記載のプロセッサが実施する方法であって、前記選択アクションは、ユーザの動きである、方法。
- 請求項1に記載のプロセッサが実施する方法であって、前記選択アクションは、前記電子デバイスのマイクロフォンによって検出される、方法。
- 請求項1に記載のプロセッサが実施する方法であって、前記光学的反射像は、ユーザの映し出された一部である、方法。
- 請求項1に記載のプロセッサが実施する方法であって、前記光学的反射像は、ユーザの顔の特徴を含む、方法。
- 請求項1に記載のプロセッサが実施する方法であって、前記電子デバイスはモバイルデバイスである、方法。
- 請求項1に記載のプロセッサが実施する方法であって、前記位置合わせは、ユーザの視線に沿った方向で実現される、方法。
- 請求項1に記載のプロセッサが実施する方法であって、ユーザの視点が前記電子デバイスのセンサによって決定される、方法。
- 電子システムであって、
2以上のユーザインターフェースコントロールを表示するように構成された光学的反射面と、
前記光学的反射面において光学的に映し出された光学的反射像と、前記2以上のユーザインターフェースコントロールのうちの1つのユーザインターフェースコントロールが表示される前記光学的反射面における物理的位置との間の位置合わせを検出するように構成された位置合わせ検出器と、
前記位置合わせが、前記1つのユーザインターフェースコントロールが表示される前記物理的位置において維持されている間に、選択アクションを検出するように構成された選択入力検出器と、
検出された前記位置合わせ及び検出された前記選択アクションに応答して前記1つのユーザインターフェースコントロールをアクティブにするように構成されたユーザインターフェースコントローラと
を備えた電子システム。 - 請求項9に記載の電子システムであって、前記選択アクションは、ユーザの動きである、電子システム。
- 請求項9に記載の電子システムであって、前記選択アクションは、前記電子システムのマイクロフォンによって検出される、電子システム。
- 請求項9に記載の電子システムであって、前記光学的反射像は、ユーザの映し出された一部である、電子システム。
- 請求項9に記載の電子システムであって、前記光学的反射像は、ユーザの顔の特徴を含む、電子システム。
- 請求項9に記載の電子システムであって、前記電子システムはモバイルデバイスである、電子システム。
- 請求項9に記載の電子システムであって、前記位置合わせは、ユーザの視線に沿った方向で実現される、電子システム。
- 請求項9に記載の電子システムであって、ユーザの視点が前記電子システムのセンサによって決定される、電子システム。
- プロセッサにコンピュータプロセスを実行させるコンピュータプログラムであって、前記コンピュータプロセスは、
2以上のユーザインターフェースコントロールを電子デバイスの光学的反射面に表示するステップと、
前記電子デバイスの前記光学的反射面において光学的に映し出された光学的反射像と、前記2以上のユーザインターフェースコントロールのうちの1つのユーザインターフェースコントロールが表示される前記光学的反射面における物理的位置との間の位置合わせを検出するステップと、
前記位置合わせが、前記1つのユーザインターフェースコントロールが表示される前記物理的位置において維持されている間に、選択アクションを検出するステップと、
検出された前記位置合わせ及び検出された前記選択アクションに応答して前記1つのユーザインターフェースコントロールをアクティブにするステップと
を含む、コンピュータプログラム。 - 請求項17に記載のコンピュータプログラムであって、前記光学的反射面において光学的に映し出された前記光学的反射像と、前記1つのユーザインターフェースコントロールが表示される前記物理的位置とは、ユーザの視線に沿って位置合わせされる、コンピュータプログラム。
- 請求項17又は18に記載のコンピュータプログラムを記憶した1以上のコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/449,435 US9645641B2 (en) | 2014-08-01 | 2014-08-01 | Reflection-based control activation |
US14/449,435 | 2014-08-01 | ||
PCT/US2015/042550 WO2016018957A1 (en) | 2014-08-01 | 2015-07-29 | Reflection-based control activation |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017526096A JP2017526096A (ja) | 2017-09-07 |
JP2017526096A5 JP2017526096A5 (ja) | 2018-08-30 |
JP6898234B2 true JP6898234B2 (ja) | 2021-07-07 |
Family
ID=53836836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017526045A Active JP6898234B2 (ja) | 2014-08-01 | 2015-07-29 | 反射に基づくコントロールのアクティブ化 |
Country Status (11)
Country | Link |
---|---|
US (1) | US9645641B2 (ja) |
EP (1) | EP3175325B1 (ja) |
JP (1) | JP6898234B2 (ja) |
KR (1) | KR102392437B1 (ja) |
CN (1) | CN107077200B (ja) |
AU (1) | AU2015296666B2 (ja) |
BR (1) | BR112017001326A2 (ja) |
CA (1) | CA2955072C (ja) |
MX (1) | MX2017001514A (ja) |
RU (1) | RU2693308C2 (ja) |
WO (1) | WO2016018957A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105190515A (zh) * | 2013-05-08 | 2015-12-23 | 富士通株式会社 | 输入装置以及输入程序 |
WO2016064311A1 (en) * | 2014-10-22 | 2016-04-28 | Telefonaktiebolaget L M Ericsson (Publ) | Method and device for providing a touch-based user interface |
JP6780315B2 (ja) * | 2016-06-22 | 2020-11-04 | カシオ計算機株式会社 | 投影装置、投影システム、投影方法及びプログラム |
US11423879B2 (en) * | 2017-07-18 | 2022-08-23 | Disney Enterprises, Inc. | Verbal cues for high-speed control of a voice-enabled device |
CN112236739B (zh) * | 2018-05-04 | 2024-05-17 | 谷歌有限责任公司 | 基于检测到的嘴运动和/或凝视的适配自动助理 |
US11080514B2 (en) * | 2019-09-13 | 2021-08-03 | Citrix Systems, Inc. | Facial recognition based auto zoom |
JP7446913B2 (ja) * | 2020-05-21 | 2024-03-11 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラム |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05204526A (ja) * | 1992-01-23 | 1993-08-13 | Nec Corp | 視点監視入力装置 |
JPH1097376A (ja) * | 1996-09-20 | 1998-04-14 | Canon Inc | 視線操作装置 |
US6088018A (en) * | 1998-06-11 | 2000-07-11 | Intel Corporation | Method of using video reflection in providing input data to a computer system |
RU2316051C2 (ru) * | 2005-01-12 | 2008-01-27 | Самсунг Электроникс Ко., Лтд. | Способ и система автоматической проверки присутствия лица живого человека в биометрических системах безопасности |
JP2008118633A (ja) * | 2006-10-11 | 2008-05-22 | Victor Co Of Japan Ltd | 電子機器の制御装置及び制御方法 |
US8726194B2 (en) * | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
US9002073B2 (en) * | 2007-09-01 | 2015-04-07 | Eyelock, Inc. | Mobile identity platform |
US20110273369A1 (en) | 2010-05-10 | 2011-11-10 | Canon Kabushiki Kaisha | Adjustment of imaging property in view-dependent rendering |
US9285874B2 (en) * | 2011-02-09 | 2016-03-15 | Apple Inc. | Gaze detection in a 3D mapping environment |
US8625847B2 (en) * | 2011-03-21 | 2014-01-07 | Blackberry Limited | Login method based on direction of gaze |
US8594374B1 (en) | 2011-03-30 | 2013-11-26 | Amazon Technologies, Inc. | Secure device unlock with gaze calibration |
KR101773845B1 (ko) | 2011-05-16 | 2017-09-01 | 삼성전자주식회사 | 휴대용 단말기에서 입력 처리 방법 및 장치 |
US8885882B1 (en) * | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
US9083532B2 (en) * | 2012-03-06 | 2015-07-14 | Ebay Inc. | Physiological response PIN entry |
JP5456817B2 (ja) * | 2012-03-23 | 2014-04-02 | ヤフー株式会社 | 表示制御装置、表示制御方法、情報表示システム及びプログラム |
AU2013205535B2 (en) | 2012-05-02 | 2018-03-15 | Samsung Electronics Co., Ltd. | Apparatus and method of controlling mobile terminal based on analysis of user's face |
TWI590098B (zh) | 2012-05-09 | 2017-07-01 | 劉鴻達 | 以臉部表情為輸入的控制系統 |
WO2013168171A1 (en) * | 2012-05-10 | 2013-11-14 | Umoove Services Ltd. | Method for gesture-based operation control |
US20130342672A1 (en) | 2012-06-25 | 2013-12-26 | Amazon Technologies, Inc. | Using gaze determination with device input |
PT106430B (pt) * | 2012-07-03 | 2018-08-07 | Cesar Augusto Dos Santos Silva | Sistema para medição da distância interpupilar usando um dispositivo equipado com um ecrã e uma câmara |
KR20140073730A (ko) * | 2012-12-06 | 2014-06-17 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기 제어방법 |
US9274608B2 (en) * | 2012-12-13 | 2016-03-01 | Eyesight Mobile Technologies Ltd. | Systems and methods for triggering actions based on touch-free gesture detection |
KR102012254B1 (ko) * | 2013-04-23 | 2019-08-21 | 한국전자통신연구원 | 이동 단말기를 이용한 사용자 응시점 추적 방법 및 그 장치 |
RU2522848C1 (ru) * | 2013-05-14 | 2014-07-20 | Федеральное государственное бюджетное учреждение "Национальный исследовательский центр "Курчатовский институт" | Способ управления устройством с помощью глазных жестов в ответ на стимулы |
GB2514603B (en) * | 2013-05-30 | 2020-09-23 | Tobii Ab | Gaze-controlled user interface with multimodal input |
TW201518979A (zh) * | 2013-11-15 | 2015-05-16 | Utechzone Co Ltd | 手持式眼控接目裝置、及密碼輸入裝置、方法以及電腦可讀取記錄媒體及電腦程式產品 |
US20150227735A1 (en) * | 2014-02-13 | 2015-08-13 | Robert Chappell | System and method for eye tracking authentication |
-
2014
- 2014-08-01 US US14/449,435 patent/US9645641B2/en active Active
-
2015
- 2015-07-29 EP EP15750525.6A patent/EP3175325B1/en active Active
- 2015-07-29 KR KR1020177002744A patent/KR102392437B1/ko active IP Right Grant
- 2015-07-29 BR BR112017001326A patent/BR112017001326A2/pt not_active Application Discontinuation
- 2015-07-29 RU RU2017103121A patent/RU2693308C2/ru active
- 2015-07-29 CN CN201580041482.8A patent/CN107077200B/zh active Active
- 2015-07-29 WO PCT/US2015/042550 patent/WO2016018957A1/en active Application Filing
- 2015-07-29 MX MX2017001514A patent/MX2017001514A/es active IP Right Grant
- 2015-07-29 JP JP2017526045A patent/JP6898234B2/ja active Active
- 2015-07-29 CA CA2955072A patent/CA2955072C/en active Active
- 2015-07-29 AU AU2015296666A patent/AU2015296666B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
RU2693308C2 (ru) | 2019-07-02 |
WO2016018957A1 (en) | 2016-02-04 |
AU2015296666B2 (en) | 2020-04-30 |
US9645641B2 (en) | 2017-05-09 |
US20160034030A1 (en) | 2016-02-04 |
CA2955072C (en) | 2022-02-22 |
KR20170040222A (ko) | 2017-04-12 |
EP3175325B1 (en) | 2020-11-18 |
KR102392437B1 (ko) | 2022-04-28 |
BR112017001326A2 (pt) | 2017-11-14 |
JP2017526096A (ja) | 2017-09-07 |
CN107077200A (zh) | 2017-08-18 |
CA2955072A1 (en) | 2016-02-04 |
RU2017103121A3 (ja) | 2018-12-20 |
EP3175325A1 (en) | 2017-06-07 |
CN107077200B (zh) | 2020-01-21 |
RU2017103121A (ru) | 2018-08-01 |
AU2015296666A1 (en) | 2017-02-09 |
MX2017001514A (es) | 2017-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6898234B2 (ja) | 反射に基づくコントロールのアクティブ化 | |
EP3781896B1 (en) | System for locating and identifying an object in unconstrained environments | |
JP7191714B2 (ja) | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 | |
US12111962B2 (en) | User interfaces and device settings based on user identification | |
US11755122B2 (en) | Hand gesture-based emojis | |
US9213436B2 (en) | Fingertip location for gesture input | |
KR102636243B1 (ko) | 이미지를 처리하기 위한 방법 및 그 전자 장치 | |
WO2014197408A1 (en) | Calibrating eye tracking system by touch input | |
US20160026342A1 (en) | Alignable user interface | |
US9400575B1 (en) | Finger detection for element selection | |
US20230273985A1 (en) | Devices, methods, and graphical user interfaces for authorizing a secure operation | |
US20220108000A1 (en) | Permitting device use based on location recognized from camera input | |
US9898183B1 (en) | Motions for object rendering and selection | |
CN107422854A (zh) | 应用于虚拟现实的动作识别方法及终端 | |
US20230306097A1 (en) | Confirm Gesture Identity | |
KR20240144279A (ko) | 보안 동작을 인가하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들 | |
WO2022178132A1 (en) | User interfaces and device settings based on user identification | |
CN111723348A (zh) | 人机识别方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180720 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180720 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190607 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191205 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20200326 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20201111 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20210217 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20210414 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20210512 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20210512 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210610 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6898234 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |