JP2021536609A - 注視点推定方法及びシステム - Google Patents
注視点推定方法及びシステム Download PDFInfo
- Publication number
- JP2021536609A JP2021536609A JP2021510379A JP2021510379A JP2021536609A JP 2021536609 A JP2021536609 A JP 2021536609A JP 2021510379 A JP2021510379 A JP 2021510379A JP 2021510379 A JP2021510379 A JP 2021510379A JP 2021536609 A JP2021536609 A JP 2021536609A
- Authority
- JP
- Japan
- Prior art keywords
- gaze point
- difference
- image
- images
- gaze
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 111
- 238000012545 processing Methods 0.000 claims abstract description 21
- 230000008569 process Effects 0.000 claims description 35
- 238000012549 training Methods 0.000 claims description 31
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 230000001537 neural effect Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims 2
- 230000008878 coupling Effects 0.000 claims 1
- 238000010168 coupling process Methods 0.000 claims 1
- 238000005859 coupling reaction Methods 0.000 claims 1
- 239000013598 vector Substances 0.000 description 15
- 210000003128 head Anatomy 0.000 description 10
- 238000013459 approach Methods 0.000 description 7
- 230000004424 eye movement Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 5
- 230000036544 posture Effects 0.000 description 5
- 206010041349 Somnolence Diseases 0.000 description 4
- 230000000295 complement effect Effects 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000007637 random forest analysis Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 239000002775 capsule Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012482 interaction analysis Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000006996 mental state Effects 0.000 description 2
- 230000004459 microsaccades Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000010363 phase shift Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 230000004434 saccadic eye movement Effects 0.000 description 2
- 230000003997 social interaction Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010035148 Plague Diseases 0.000 description 1
- 241000287181 Sturnus vulgaris Species 0.000 description 1
- 241000607479 Yersinia pestis Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
Abstract
Description
各基準画像20が、好ましくは、異なる基準注視点に関連するとして、個人(好ましくは、同じユーザー、最も好ましくは、入力画像と同じ眼)の複数(例えば、一つの集合25)の異なる基準画像20を読み込む工程と、
入力画像10と読み込んだ基準画像を処理して、共通の注視点差分及び/又は複数(例えば、一の集合)の注視点差分(例えば、角度による差分30)を推定する工程と、
前記の推定された共通の注視点差分及び/又は注視点差分と基準注視点を組み合わせて、入力画像(即ち、ユーザー)の注視点21を読み込む工程と、
を有する。
Iは、入力画像であり、
gsm(I)は、入力画像の注視点であり、
Fは、基準画像であり、
Dcは、基準画像の集合であり、
dp(I,F)は、入力画像と基準画像Fの間の注視点の差分であり、
ggt(F)は、基準画像Fの注視点であり、
w(・)は、重み係数である。
上述した入力画像10を読み込む工程を実行するように構成された入力画像読込モジュール62と、
上述した(第一の)基準画像20、第二の基準画像又は複数(一つの集合)の基準画像を読み込む工程を実行するように構成された基準画像読込モジュール61と、
入力画像10と、(第一の)基準画像、第二の基準画像及び/又は複数(一つの集合)の基準画像とを処理して、(第一の)注視点差分、第二の注視点差分、共通の注視点差分及び/又は複数(一つの集合)の注視点差分を推定する工程、及び
(第一の)注視点差分30、第二の注視点差分及び/又は複数(一つの集合)の注視点差分、並びに(第一の)注視点基準22、第二の注視点基準及び/又は複数(一つの集合)の注視点基準に基づき、ユーザーの注視点12を読み込む工程、
の上述した工程を実行するように構成された処理モジュール63と、
を備えている。
ユーザーの眼11の入力画像10を読み込む工程と、
個人の眼21の所与の画像20を読み込む工程と、
入力画像10と前記の第一の基準画像20を処理して、入力画像における眼の注視点12と前記の第一の基準画像における眼の注視点22の間の第一の注視点差分30を推定する工程と、
を有することができる。
ユーザーの眼の画像(画像サンプル)の時系列を読み込む工程と、
時系列の注視点差分を使用して、連続する画像サンプルの間の注視点差分を読み込んで、ユーザーの眼の動きの状態の予測及び/又は眼/注視点の動き(例えば、凝視状態又はサッケード状態)の分類を行う工程と、
を有することができる。
ユーザーの眼の画像(画像サンプル)の時系列を読み込む工程と、
連続する画像サンプルの間の注視点差分を読み込む工程と、
眼の動きのモデルを読み込む工程と、
時系列の注視点差分と眼の動きのモデルを使用して、眼が動きを止める将来時点及び/又は眼の動き又はユーザーの状態の予測及び/又は眼/注視点の動きの分類を行う工程と、
を有することができる。
少なくとも二つの画像を含む画像の集合を読み込む工程であって、この集合の各画像が、個人の少なくとも一つの眼の見え方を含む工程と、
前記の画像の集合を使用するように構成された差分機械(例えば、回帰モデル)32を読み込む工程と、
前記の差分機械を使用して、前記の画像の集合を処理して、この集合の少なくとも二つの画像の間の注視点の差分を推定する工程と、
を有することができる。
少なくとも二つの画像を含む画像の集合を読み込む画像読込モジュール61,62であって、この集合の各画像が、個人の少なくとも一つの眼の見え方を含む、好ましくは、この集合の少なくとも一つの画像が基準注視点と共に提供される画像読込モジュールと、
前記の画像の集合を使用して、この画像の集合の中の少なくとも二つの画像の間の注視点の差分を推定するように構成された差分機械(例えば、回帰モデル)32と、
を備えることができる。
11 ユーザーの眼
12 注視点
20,20a−e 基準画像
21 眼
22 基準注視点
23 ユーザー/眼の識別子
25 データベース
30 注視点差分
32 差分機械
33 注視点推定器
34,35 ニューラルネットワーク
40 測定された注視点差分と推定された注視点差分の間の誤差
50,51 テスト画像/訓練画像
52,53 基準注視点
54 測定された注視点差分
55 訓練用データベース
60 移動体機器
61 基準画像読込モジュール
62 入力画像読込モジュール
63 処理モジュール
64 データベース
65 カメラ
66 スクリーン
67 ボタン
68 通信モジュール
Claims (20)
- ユーザーの注視点を推定する方法であって、
ユーザーの眼(11)の入力画像(10)を読み込む工程と、
第一の基準注視点(22)を有する個人の眼(21)の第一の基準画像(20)を読み込む工程と、
入力画像(10)と前記の第一の基準画像(20)を処理して、入力画像における眼の注視点(12)と前記の第一の基準画像における眼の注視点(22)の間の第一の注視点差分(30)を推定する工程と、
前記の注視点差分(30)と前記の第一の基準注視点(22)を使用して、ユーザーの注視点(12)を読み込む工程とを有する方法。 - 請求項1に記載の方法において、
前記の第一の基準画像を読み込む工程が、既知の基準注視点を有する個人の眼の異なる基準画像の集合(25)を読み込む工程を有する工程と、
前記の注視点差分を推定する工程が、入力画像(10)と前記の基準画像の集合を処理して、入力画像の注視点(12)と前記の集合の基準画像の注視点の間の共通の注視点差分及び/又は注視点差分の集合を推定する工程を有する工程と、
前記のユーザーの注視点(12)を読み込む工程が、前記の共通の注視点差分及び/又は注視点差分の集合と前記の基準画像とを使用する工程を有する工程とを更に有する方法。 - 請求項2に記載の方法において、
前記の基準画像の集合(25)が、第一の基準画像と第二の基準注視点を有する第二の基準画像とを有し、
前記のユーザーの注視点(12)を読み込む工程が、
第一の注視点差分と第一の基準注視点に基づく第一の注視点結果と、
第二の注視点差分が入力画像(10)と第二の基準画像を別個に処理することによって提供されるとして、この第二の注視点差分と前記の第二の基準注視点に基づく第二の注視点結果とを重み付けする工程を有する方法。 - 請求項2又は3に記載の方法において、
前記の集合(25)の各基準画像が同じユーザーの異なる注視点の異なる同じ眼を表示する方法。 - 請求項1〜4のいずれか1項に記載の方法において、
前記の第一の注視点差分(30)、前記の第二の注視点差分、前記の共通の注視点差分及び前記の注視点差分の集合の中の一つ以上が差分機械(32)を用いて推定される方法。 - 請求項5に記載の方法において、
前記の差分機械(32)が、各画像(34,35)から特徴マップを別個に読み込む畳込層を有するニューラルネットワーク(34,35)、好ましくは、ディープニューラルネットワークを備えている方法。 - 請求項6に記載の方法において、
前記の差分機械(32)が、画像の結合特徴マップを処理して、前記の画像の注視点差分を読み込むニューラル層(37,38,39)、好ましくは、全結合層を有するニューラルネットワーク(35)を備えている方法。 - 請求項5から7までのいずれか一つに記載の方法において、
前記の差分機械(32)が、測定された注視点差分(54)から成る入力集合としてのユーザー及び/又は個人の同じ眼の第一と第二の訓練用画像(50,51)のペアリングにより作成された訓練用データベースセット(55)を用いて訓練される方法。 - 請求項2を引用する請求項8に記載の方法において、
前記の基準画像(20a−e)の集合の中の少なくとも一つの基準画像が、前記の第一及び第二の訓練用画像(50,51)の中の一つ以上として使用される方法。 - 注視点を推定するシステム(60)であって、
ユーザーの眼(11)の入力画像(10)を読み込むように構成された入力画像読込モジュール(62)と、
個人の眼(21)の既知の第一の基準注視点(22)を有する第一の基準画像(20)を読み込むように構成された基準画像読込モジュール(61)と、
入力画像(10)と基準画像(20)を処理して、入力画像の注視点(12)と前記の第一の基準画像の注視点(22)の間の第一の注視点差分(30)を推定し、
前記の第一の注視点差分(30)と第一の基準画像の前記の第一の基準注視点(22)に基づき、ユーザーの注視点(12)を読み込む、
ように構成された処理モジュール(63)とを備えたシステム。 - 請求項10に記載のシステムにおいて、
基準画像読込モジュール(61)が、既知の基準注視点を有する、個人の眼の異なる基準画像の集合(25)を読み込むように構成され、
前記の処理モジュール(63)が、
入力画像(10)と前記の基準画像(20)の集合を処理して、入力画像の注視点(12)と前記の集合の第一の基準画像の注視点の間の共通の注視点差分及び/又は注視点差分の集合を推定し、
前記の共通の注視点差分及び/又は注視点差分の集合と、前記の基準注視点とを使用して、ユーザーの注視点(12)を読み込むようにも構成されているシステム。 - 請求項11に記載のシステムにおいて、
前記の基準画像の集合(25)が、第一の基準画像と、第二の基準注視点を有する第二の基準画像とを有し、
処理モジュール(63)が、入力画像(10)と第二の基準画像を処理して、入力画像の注視点(12)と第二の基準画像の注視点の間の第二の注視点差分を推定するように構成され、
処理モジュール(63)が、
第一の注視点差分と前記の第一の基準注視点に基づく第一の注視点結果と、
第二の注視点差分と前記の第二の基準注視点に基づく第二の注視点結果と、
を重み付けすることによって、ユーザーの注視点(12)を読み込むように構成されているシステム。 - 請求項10〜12のいずれか1項に記載のシステムにおいて、
処理モジュール(623)が、前記の第一の注視点差分(30)、前記の第二の注視点差分、前記の共通の注視点差分及び前記の注視点差分の集合の中の一つ以上を読み込むように構成された差分機械(32)を備えているシステム。 - 請求項13に記載のシステムにおいて、
前記の差分機械(32)が、好ましくは、三つの畳込ニューラル層(37,38,39)を有するディープニューラルネットワーク(34,35)を備えているシステム。 - 請求項10〜14のいずれか1項に記載のシステムにおいて、
入力画像読込モジュール(62)が、前記の入力画像(10)を提供する画像取得機器(65)、好ましくは、カメラを備えているシステム。 - 請求項10〜15のいずれか1項に記載のシステムにおいて、
このシステムが携帯機器(60)であるシステム。 - ユーザーの注視点を解析する方法であって、
少なくとも二つの画像から成る画像の集合を読み込む工程であって、この集合の各画像がユーザーの少なくとも一つの眼の見え方を含む工程と、
前記の画像の集合を使用するように構成された差分機械を、特に、回帰モデルを読み込む工程と、
前記の差分機械を使用して、前記の画像の集合を処理して、この集合の少なくとも二つの画像の間の注視点差分を推定する工程とを有する方法。 - 請求項17に記載の方法において、
前記の集合の中の少なくとも一つの画像が基準注視点を有する方法。 - 少なくとも二つの画像から成る画像の集合を読み込む入力画像読込モジュール(61,62)であって、この集合の各画像が個人の少なくとも一つの眼の見え方を含む、好ましくは、この集合の少なくとも一つの画像が基準注視点を有する入力画像読込モジュールと、
前記の画像の集合を使用して、前記の画像の集合の中の少なくとも二つの画像の間の注視点差分を推定するように構成された差分機械、特に、回帰モデルとを備えたシステム。 - コンピュータプログラムが記録されたコンピュータ読み取り可能な記憶媒体であって、
このプログラムがプロセッサ上で実行された時に、このコンピュータプログラムが、請求項1から8と請求項17及び18のいずれか1項に記載の方法の工程を実施するように構成されている記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CH01046/2018 | 2018-08-31 | ||
CH10462018 | 2018-08-31 | ||
PCT/IB2019/057068 WO2020044180A2 (en) | 2018-08-31 | 2019-08-22 | Method and system for gaze estimation |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021536609A true JP2021536609A (ja) | 2021-12-27 |
Family
ID=64456712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021510379A Pending JP2021536609A (ja) | 2018-08-31 | 2019-08-22 | 注視点推定方法及びシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210319585A1 (ja) |
EP (1) | EP3844553A2 (ja) |
JP (1) | JP2021536609A (ja) |
CN (1) | CN113227878A (ja) |
WO (1) | WO2020044180A2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023139975A1 (ja) * | 2022-01-21 | 2023-07-27 | 日本電気株式会社 | 眼球運動測定装置、眼球運動測定プログラムを格納した非一時的なコンピュータ可読媒体及び眼球運動測定方法 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3751326A1 (en) * | 2019-06-14 | 2020-12-16 | Leica Microsystems CMS GmbH | Method and microscope for imaging a sample |
WO2022084803A1 (en) | 2020-10-23 | 2022-04-28 | Eyeware Tech Sa | Automated calibration method of a system comprising an external eye tracking device and a computing device |
EP4027220A1 (en) | 2021-01-08 | 2022-07-13 | Eyeware Tech SA | Method for calibrating an eye-tracking device |
CN113238652B (zh) * | 2021-05-11 | 2023-07-14 | 北京字跳网络技术有限公司 | 视线估计方法、装置、设备及存储介质 |
EP4113464A1 (en) | 2021-06-30 | 2023-01-04 | Tobii AB | An eye tracking system |
EP4113983A1 (en) | 2021-06-30 | 2023-01-04 | Eyeware Tech SA | Method for gaze tracking calibration with a video conference system |
EP4113982A1 (en) | 2021-06-30 | 2023-01-04 | Eyeware Tech SA | Method for sensing and communicating visual focus of attention in a video conference |
EP4113251A1 (en) | 2021-06-30 | 2023-01-04 | Eyeware Tech SA | Calibration method of a system comprising an eye tracking device and a computing device comprising one or multiple screens |
CN117133043A (zh) * | 2023-03-31 | 2023-11-28 | 荣耀终端有限公司 | 注视点估计方法、电子设备及计算机可读存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012020760A1 (ja) * | 2010-08-09 | 2012-02-16 | 国立大学法人静岡大学 | 注視点検出方法及び注視点検出装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19736995B4 (de) * | 1997-08-26 | 2009-05-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung zum Bestimmen eines Fixationspunktes |
JP3361980B2 (ja) * | 1997-12-12 | 2003-01-07 | 株式会社東芝 | 視線検出装置及びその方法 |
JP3790680B2 (ja) * | 2001-05-25 | 2006-06-28 | 株式会社東芝 | 画像処理システム及びこれを用いた運転支援システム |
JP6577454B2 (ja) * | 2013-03-18 | 2019-09-18 | ミラメトリックス インコーポレイテッド | 軸上視線追跡システム及び方法 |
CN108229284B (zh) * | 2017-05-26 | 2021-04-09 | 北京市商汤科技开发有限公司 | 视线追踪及训练方法和装置、系统、电子设备和存储介质 |
CN107545302B (zh) * | 2017-08-02 | 2020-07-07 | 北京航空航天大学 | 一种人眼左右眼图像联合的视线方向计算方法 |
CN108171218A (zh) * | 2018-01-29 | 2018-06-15 | 深圳市唯特视科技有限公司 | 一种基于深度外观注视网络的视线估计方法 |
US10866635B2 (en) * | 2018-09-13 | 2020-12-15 | Toyota Research Institute, Inc. | Systems and methods for capturing training data for a gaze estimation model |
-
2019
- 2019-08-22 CN CN201980056363.8A patent/CN113227878A/zh active Pending
- 2019-08-22 US US17/272,171 patent/US20210319585A1/en not_active Abandoned
- 2019-08-22 JP JP2021510379A patent/JP2021536609A/ja active Pending
- 2019-08-22 EP EP19780361.2A patent/EP3844553A2/en active Pending
- 2019-08-22 WO PCT/IB2019/057068 patent/WO2020044180A2/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012020760A1 (ja) * | 2010-08-09 | 2012-02-16 | 国立大学法人静岡大学 | 注視点検出方法及び注視点検出装置 |
Non-Patent Citations (1)
Title |
---|
菅野 裕介 他3名: "マウス操作を利用した逐次学習による自由頭部姿勢下での視線推定", 電子情報通信学会論文誌, vol. 第J93-D巻,第8号, JPN6023024059, 1 August 2010 (2010-08-01), JP, pages 1386 - 1396, ISSN: 0005084069 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023139975A1 (ja) * | 2022-01-21 | 2023-07-27 | 日本電気株式会社 | 眼球運動測定装置、眼球運動測定プログラムを格納した非一時的なコンピュータ可読媒体及び眼球運動測定方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020044180A3 (en) | 2020-04-23 |
US20210319585A1 (en) | 2021-10-14 |
WO2020044180A2 (en) | 2020-03-05 |
CN113227878A (zh) | 2021-08-06 |
EP3844553A2 (en) | 2021-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021536609A (ja) | 注視点推定方法及びシステム | |
US11282273B2 (en) | Predictive information for free space gesture control and communication | |
Moon et al. | Multiple kinect sensor fusion for human skeleton tracking using Kalman filtering | |
US9750420B1 (en) | Facial feature selection for heart rate detection | |
US10482677B1 (en) | Distributed simultaneous localization and mapping (SLAM) in virtual, augmented, and mixed reality (xR) applications | |
JP2024045273A (ja) | 非制約環境において人間の視線及びジェスチャを検出するシステムと方法 | |
Sugano et al. | Appearance-based gaze estimation with online calibration from mouse operations | |
US11047691B2 (en) | Simultaneous localization and mapping (SLAM) compensation for gesture recognition in virtual, augmented, and mixed reality (xR) applications | |
CN109271914A (zh) | 检测视线落点的方法、装置、存储介质和终端设备 | |
KR101612605B1 (ko) | 얼굴 특징점 추출 방법 및 이를 수행하는 장치 | |
KR20120045667A (ko) | 움직임 인식을 이용한 사용자 인터페이스 장치 및 방법 | |
JP6822482B2 (ja) | 視線推定装置、視線推定方法及びプログラム記録媒体 | |
US10816341B2 (en) | Backchannel encoding for virtual, augmented, or mixed reality (xR) applications in connectivity-constrained environments | |
CN105760809A (zh) | 用于头部姿态估计的方法和设备 | |
WO2021250808A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
Utaminingrum et al. | Eye movement and blink detection for selecting menu on-screen display using probability analysis based on facial landmark | |
WO2019207721A1 (ja) | 情報処理装置、制御方法、及びプログラム | |
Sireesha et al. | A survey on gaze estimation techniques | |
JP2022019991A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Fujiyoshi et al. | Inside-out camera for acquiring 3D gaze points | |
JP2020098474A (ja) | 属性決定装置、属性決定システム、属性決定方法、プログラムおよび記録媒体 | |
JP7435754B2 (ja) | 画像選択装置、画像選択方法、及びプログラム | |
WO2023152007A1 (en) | System and method for monitoring human skin | |
Zhao et al. | RGBE-Gaze: A Large-scale Event-based Multimodal Dataset for High Frequency Remote Gaze Tracking | |
Ma et al. | Comparative Analysis on Few Typical Algorithms of Gesture Recognition for Human-robot Interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230614 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230824 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240124 |