JP2015528359A - 三次元物体上の注視点決定方法及び装置 - Google Patents
三次元物体上の注視点決定方法及び装置 Download PDFInfo
- Publication number
- JP2015528359A JP2015528359A JP2015531598A JP2015531598A JP2015528359A JP 2015528359 A JP2015528359 A JP 2015528359A JP 2015531598 A JP2015531598 A JP 2015531598A JP 2015531598 A JP2015531598 A JP 2015531598A JP 2015528359 A JP2015528359 A JP 2015528359A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- gaze
- dimensional
- camera
- end point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title description 35
- 210000001508 eye Anatomy 0.000 claims abstract description 92
- 210000003128 head Anatomy 0.000 claims abstract description 58
- 238000013507 mapping Methods 0.000 claims description 29
- 238000001514 detection method Methods 0.000 claims description 9
- 230000000007 visual effect Effects 0.000 claims description 8
- 238000012800 visualization Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000007246 mechanism Effects 0.000 claims description 5
- 230000005484 gravity Effects 0.000 claims description 4
- 230000004807 localization Effects 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 2
- 238000007493 shaping process Methods 0.000 claims description 2
- 230000001360 synchronised effect Effects 0.000 claims description 2
- 238000005259 measurement Methods 0.000 description 13
- 230000026683 transduction Effects 0.000 description 9
- 238000010361 transduction Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 5
- 239000003550 marker Substances 0.000 description 5
- 239000013598 vector Substances 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Abstract
Description
注視される点を決定する有力な手法としては、アイトラッカーについて定められた仮想シーン面と注視方向とを交差させることが考えられる。WO2010/083853A1は、この目的のため、例えば本棚への取付けなど、特定の場所に固定された作動時のIRマーカの使用が開示されている。これらのマーカの所在は、二つのラインセンサの最大強度を検出することにより二つの直交角度を検出する二つの直交IRライン検出器を使用して、頭部装着カメラにより得られる「参照」画像として機能する「試験シーン」について最初に検出される。IRソースの検出角は、参照画像の場所に対応する。マーカの角度は、異なる場所から頭部装着カメラで撮影される、後に検出されたシーンについて検出される。これにより、後のシーン画像におけるIRソースの場所が検出される。頭部装着カメラが異なる場所にあるときには、後で撮影される画像(シーン画像)で検出されるIRソースの場所を、試験画像(参照画像)のIR光源の場所に変換するマッピングとして「透視投影」が決定される。この変換により、シーン画像について後で決定される注視点もまた、試験画像の対応(実際の)注視点に変換することができる。
この目的のため、WO2010/083853A1に開示された従来技術は、最大出射角を検出する直交IRライン検出器によってその場所が検出可能である人工マーカとしてIRソースを使用している。
前記装置は、
前記参照画像における複数の特徴とそれらの位置とを識別するため、前記参照画像の特徴検出アルゴリズムを実行するモジュールと、
前記シーン画像の前記複数の特徴と、それらの位置とを再識別するため、前記シーン画像の前記特徴検出アルゴリズムを実行するモジュールと、
前記参照画像と前記シーン画像において検出された前記複数の特徴の場所に基づき、前記シーン画像と前記参照画像間の点の位置を変換する、点変換マッピングを決定するモジュールと、
前記点変換マッピングを使用して、前記シーン画像で決定された注視点を前記参照画像の対応点にマッピングするモジュールと、を備える。
従って本発明の目的は、三次元空間の任意の三次元物体の注視端点を決定できる方法を提供することにある。
アイトラッカー及びヘッドトラッカーという三次元表示を用いることで、二次元面の注視点だけでなく、被験者が注視する物体及び/又は三次元の注視端点を決定することができる。
頭部装着アイトラッカー及び頭部装着シーンカメラは、このような装置の便利な実践である。更に、アイトラッカーが頭部に装着される場合、ヘッドトラッカーもまた自動的にアイトラッカーの位置/方位を提供する。シーンカメラの場合も同様である。ヘッドトラッカーにより決定された頭部の位置(場所と方位)により、アイトラッカーの座標系において頭部装着アイトラッカーにより決定された注視方向に基づき、ヘッドトラッカーの参照座標系の対応注視方向を決定することができる。ヘッドトラッカーにより決定された頭部の場所と方位を利用して、アイトラッカーの座標系からヘッドトラッカーの座標系へと注視方向を変換する簡単な変換によって上記を実行することができる。ヘッドトラッカーにより提供される位置により、所定の構成を通してアイトラッカーの位置も自動的に提供される。この構成において、アイトラッカーは、例えば、装着フレームを介して頭部に固定され、頭部との間に空間が形成される。
このように、非静止シーンについてもオンライン計測を実施することができる。
これらは、計測された注視端点の可視化の実施に最適な手法である。
一実施例において、注視端点の決定について定められ、そして、一実施例では、平面ではなく、三次元空間の一般物体に対する注視端点のマッピングについて定められている。更に、一実施例では、被験者が三次元空間のどの物体を注視しているかを決定することができる。
他の実施例において、物体の三次元表現では、三次元の物体表面をメッシュで表現するなど、より高い細分性による高精度な表現が使用される。原理上、システムを同様に操作することができる。注視点が更に高精度で決定され、三次元で表現された物体の表面上又は近くに存在する場合、このシステムは被験者が注視している物体を決定するだけでなく、ユーザが注視する物体の位置も決定することができる。
すなわちこの手法では、「実世界」の物体を示す三次元構造として決定され、交差された注視方向に基づき、三次元物体上での注視端点を決定することができる。一実施例において、このように決定された注視端点は、シーンの任意の画像において、対応位置へマッピングすることができる。更に、このように、注視される物体を識別する課題が、物体/物体の一部の名前付けに帰着する。これは、この手法において、注視方向とユーザが注視している物体とが交差しているため、その注視物体が直接提供されるからである。
これは、注視点を決定するための非常に新規な手法である。各画像について手動で物体を指定する必要があるため、シーンの画像上の注視点を把握することとは大きく異なる。
シーンカメラによって撮影されたシーン画像への注視端点のマッピングを実行することができる。このため、カメラの位置とパラメータを使用した、三次元構造の二次元シーン画像へのマッピングを実行する任意の三次元投影方法を使用することができる。このように、注視が三次元構造にヒットする場所を、シーンカメラで撮影されたシーン画像の対応場所へとマッピングすることができる。図2は、三次元構造のシーン画像へのマッピング工程(例えば、三次元投影によって実行される)を説明するステップb)を示し、その下部に、マッピング工程の概略が示されている。
‐ 磁気ヘッドトラッカー、又は
‐ 光学ヘッドトラッカー、
‐ 三次元構造検出器(又はシーン内の物体)についてET(又は単眼自体)の位置及び方位を計測することができる任意の種類の装置
‐ 三次元スキャナー(レーザスキャナー、構造化ライトスキャナーなど)
‐ ステレオカメラシステム
‐ 単眼カメラシステム(視覚SLAM)
‐ 手動計測
手動計測について、例えば建物の平面図は、施工計画により事前に把握されているか、特定の「手動計測」によって平面が把握されている。実際の構造を決定することなく、事前に計測され、格納された三次元構造データを「取得」又は「読み込む」装置に、三次元構造検出器を組み入れることができる。
そうでなければ、オフライン(初期)三次元検出と興味の物体(物体トラッカーの補助として)のトラッキングとの組み合わせを使用することができる。スーパーマーケットの棚のように経時的に不変の静止シーンについては、この構造を一度事前に計測することができる。
・注視端点は、シーンカメラ画像から分離される。物体の画像ではなく、注視が物体にマッピングされる。シーンカメラを有するETについて、参照モデル物体からシーンカメラ画像の画像面へと注視を再マッピングすることができる。このことは、注視点がシーン画像から逸脱した場合でも適用される。
・注視端点は幾何学的に正しく算出されるため、無視差ではないアイトラッカーが使用されている場合でも、注視マッピングで視差のエラーは発生しない。
・両眼転導を利用して複数の物体が注視経路と交差するように、複数の関連物体が整列されている背景のシーンにおいても、実際にどの物体が注視されているかを識別することが可能である。注視方向が,別の物体の前方に位置する物体と交差し、両眼転導による二つの注視点の交点が後方の物体に存在する場合、実際の注視点は、後方の物体であると仮定できる。
・注視データを新たに可視化することができる。
・ 時間及び/又は参加者について集計
・ 物体表面(例:ヒートマップ)
・ 空間での注視射線、空間での物体、マッピングされた注視データにより加工された物体(ヒートマップ、フォーカスマップなど)の三次元視覚化
・ シーン画像に投影された物体の自動輪郭、重心など
・ 物体の周囲をフライスルーするような動的な視覚化
・ 任意のシーン画像/シーン動画の注視データの集計(参加者のシーンカメラからの動画は特例)
Claims (15)
- 被験者の注視端点を決定するシステムにおいて、
被験者の単眼又は両眼の注視方向を決定するよう構成されたアイトラッキングユニットと、
参照座標系についてヘッド及び/又はアイトラッキングユニットの場所と方位から成る位置を決定するよう構成された物体トラッキングユニットと、
参照座標系の座標により、三次元位置及び/又はその三次元構造を通して実世界のシーンの物体を表示することで、実世界のシーンと、シーンに含まれる物体を表示して、シーンの三次元構造の表示を提供する、三次元シーン構造表示ユニットと、
注視方向、アイトラッカー位置及び三次元シーン構造表示に基づき、注視端点を算出し、及び/又は、注視方向、アイトラッカー位置及び三次元シーン構造表示に基づき、被験者が注視する三次元シーンの物体を決定する、算出ユニットと、を備えることを特徴とするシステム。 - シーンの三次元構造表示の物体上の注視端点を算出するモジュールを備え、三次元構造シーン表示の物体と、注視方向との交点に基づき、前記注視端点を算出することを特徴とする、請求項1に記載のシステム。
- 被験者の両眼の注視方向の交点に基づき、注視端点を算出するモジュール及び/又は 算出された注視端点及び、実世界シーンの物体の三次元位置及び/又は三次元構造に基づき、被験者が注視している物体を決定するモジュールを備える、請求項1又は2に記載のシステム。
- 被検者が注視している前記物体は、三次元位置及び/又は構造が、算出された注視端点に最も近い物体を被検者が注視している物体として選択することで決定される、請求項3に記載のシステム。
- 前記被験者の前記単眼又は両眼の注視方向を決定するよう構成されている前記アイトラッキングユニットは、前記単眼又は両眼の前記注視方向の確率分布を決定するよう構成され、
注視されている物体を決定する前記算出ユニットは、一つ以上の物体について、前記単眼又は両眼の前記注視方向の前記確率分布に基づき、注視されている前記物体の確率を決定することを特徴とする、請求項1〜4のいずれか一項に記載のシステム。 - 任意の視点からのシーンの一つ以上の画像を取得するよう構成されたシーンカメラと、
シーンカメラにより撮影されるシーン画像の画像面へと三次元注視端点をマッピングするモジュールとを更に備え、特定位置の決定又は物体トラッキング機構によってシーンカメラの位置が把握されるか決定され、三次元注視端点を前記シーンカメラの画像に投影することでマッピングが実行されることを特徴とする、請求項1〜5のいずれか一項に記載のシステム。 - 三次元構造表示に基づき、任意の視点から見られるシーン画像を生成するモジュールと、
前記シーン画像生成モジュールにより生成された画像の画像面へと三次元注視端点をマッピングするモジュールとを更に備え、三次元注視端点を前記シーン画像生成モジュールによって生成された前記シーン画像の画像面へと投影することで、マッピングが実行されることを特徴とする、請求項1〜5のいずれか一項に記載のシステム。 - 前記アイトラッカーは、頭部装着アイトラッカーであり、及び/又は前記シーンカメラは、頭部装着シーンカメラであることを特徴とする、請求項1〜7のいずれか一項に記載のシステム。
- 前記三次元シーン構造表示ユニットは、シーンの三次元構造表示を得るため、参照座標系のシーンの物体の三次元構造及び位置又はそれらの幾何学的表面構造を決定するよう構成された三次元構造検出器を備え、
前記三次元構造検出器は、
カメラと組合されるレーザスキャナーと、
光源出射構造化ライトを有する光学スキャナーと、
ステレオカメラシステムと、
超音波検出器と、
三次元物体の検出に使用される任意の機構実装と、のいずれか一つを任意に備えることを特徴とする、請求項1〜8のいずれか一項に記載のシステム。 - 複数の異なるシーンカメラに撮影された一つ以上のシーン画像及び/又は異なる視点から撮影されたシーン画像にマッピングされる三次元注視端点、
複数の異なる被験者について、同じシーン画像にマッピングされる三次元注視端点、
同じシーン画像にマッピングされるか、経時的に集計される三次元注視端点のうち、一つ以上を備えることを特徴とする、請求項1〜9のいずれか一項に記載のシステム。 - 対応するビューの頻度又は異なる被験者で識別されている、累積されたビューの時間と共に三次元注視端点を視覚化することで、経時的にマッピングされた三次元注視端点が可視化されることを特徴とする、請求項10に記載のシステム。
- 前記可視化は、
ヒートマップと、
フォーカスマップと、
注視の重心と、
ビューの時間の自動形状化と、の一つ以上を使用することを特徴とする、請求項10又は11に記載のシステム。 - 前記三次元シーン構造検出器は、前記三次元シーンが静止していなくても、前記アイトラッカー及び前記ヘッドトラッカーを使用して、リアルタイムの注視点検出を可能とする前記三次元構造を繰り返し決定し、又は前記三次元シーン構造検出器は、前記三次元構造を一回決定し、物体トラッカーは、シーン内の一つ以上の物体の動きをトラッキングすることで、トラッキングされた物体と経時的にトラッキングされた注視方向を利用して、経時的に注視点決定を可能とすることを特徴とする、請求項1〜12のいずれか一項に記載のシステム。
- 前記三次元構造検出器は、一つ以上のシーンカメラと、前記一つ以上のカメラの画像に基づき、前記三次元構造を算出する演算装置とを備え、及び/又は
前記演算装置は、望ましくは、前記三次元構造及び/又はシーンカメラの位置を算出する視覚SLAM(視覚同期ローカライゼーション及びマッピング)アルゴリズムを使用する、請求項1〜13のいずれか一項に記載のシステム。 - 一台以上のシーンカメラの画像を、一つ又は複数のシーン画像として使用されるパノラマ又は多重視点画像など一つ以上のより大きな画像と組み合わせ、及び/又は前記三次元構造表示ユニットは、参照座標系のシーンの物体の三次元構造及び位置を利用して、事前に決定されたシーンの三次元構造表示を提供することを特徴とする、請求項1〜14のいずれか一項に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP12184725.5A EP2709060B1 (en) | 2012-09-17 | 2012-09-17 | Method and an apparatus for determining a gaze point on a three-dimensional object |
EP12184725.5 | 2012-09-17 | ||
PCT/EP2013/069236 WO2014041188A1 (en) | 2012-09-17 | 2013-09-17 | Method and an apparatus for determining a gaze point on a three-dimensional object |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019071195A Division JP6690041B2 (ja) | 2012-09-17 | 2019-04-03 | 三次元物体上の注視点決定方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015528359A true JP2015528359A (ja) | 2015-09-28 |
JP6808320B2 JP6808320B2 (ja) | 2021-01-06 |
Family
ID=47010238
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015531598A Active JP6808320B2 (ja) | 2012-09-17 | 2013-09-17 | 三次元物体上の注視点を決定するシステム |
JP2019071195A Active JP6690041B2 (ja) | 2012-09-17 | 2019-04-03 | 三次元物体上の注視点決定方法及び装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019071195A Active JP6690041B2 (ja) | 2012-09-17 | 2019-04-03 | 三次元物体上の注視点決定方法及び装置 |
Country Status (6)
Country | Link |
---|---|
US (4) | US10223808B2 (ja) |
EP (1) | EP2709060B1 (ja) |
JP (2) | JP6808320B2 (ja) |
CN (1) | CN104685541B (ja) |
IN (1) | IN2015DN01984A (ja) |
WO (1) | WO2014041188A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015219892A (ja) * | 2014-05-21 | 2015-12-07 | 大日本印刷株式会社 | 視線分析システムおよび視線分析装置 |
WO2017126195A1 (ja) * | 2016-01-18 | 2017-07-27 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2023054661A1 (ja) * | 2021-10-01 | 2023-04-06 | 株式会社日立製作所 | 注視位置分析システム及び注視位置分析方法 |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9811731B2 (en) * | 2013-10-04 | 2017-11-07 | Qualcomm Incorporated | Dynamic extension of map data for object detection and tracking |
WO2015117904A1 (de) * | 2014-02-04 | 2015-08-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Hough-prozessor |
US20180133593A1 (en) * | 2014-08-07 | 2018-05-17 | Fove, Inc. | Algorithm for identifying three-dimensional point-of-gaze |
US10228766B2 (en) * | 2014-09-12 | 2019-03-12 | Microsoft Technology Licensing, Llc | Enhanced Display Rotation |
JP6547268B2 (ja) * | 2014-10-02 | 2019-07-24 | 富士通株式会社 | 視線位置検出装置、視線位置検出方法及び視線位置検出プログラム |
CN107249433B (zh) * | 2015-03-01 | 2019-12-20 | 诺瓦赛特有限公司 | 用于测量眼能动性的系统和方法 |
WO2016151581A1 (en) * | 2015-03-23 | 2016-09-29 | Controlrad Systems Inc. | Eye tracking system |
WO2016179825A1 (zh) | 2015-05-14 | 2016-11-17 | 中国科学院深圳先进技术研究院 | 基于三维场景的导航方法 |
GB2539009A (en) * | 2015-06-03 | 2016-12-07 | Tobii Ab | Gaze detection method and apparatus |
US9829976B2 (en) * | 2015-08-07 | 2017-11-28 | Tobii Ab | Gaze direction mapping |
US10444972B2 (en) | 2015-11-28 | 2019-10-15 | International Business Machines Corporation | Assisting a user with efficient navigation between a selection of entries with elements of interest to the user within a stream of entries |
TWI589150B (zh) * | 2016-03-04 | 2017-06-21 | 液態三維系統有限公司 | 3d自動對焦顯示方法及其系統 |
US11579686B2 (en) * | 2016-03-07 | 2023-02-14 | Apple Inc. | Method and device for carrying out eye gaze mapping |
US10063560B2 (en) * | 2016-04-29 | 2018-08-28 | Microsoft Technology Licensing, Llc | Gaze-based authentication |
US10765314B2 (en) | 2016-05-29 | 2020-09-08 | Novasight Ltd. | Display system and method |
WO2017216273A1 (en) * | 2016-06-16 | 2017-12-21 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Method and system for providing eye tracking based information about a user behavior, client device, server and computer program product |
CN110381810B (zh) | 2016-09-23 | 2020-11-10 | 诺瓦赛特有限公司 | 筛查装置和方法 |
WO2018076202A1 (zh) * | 2016-10-26 | 2018-05-03 | 中国科学院深圳先进技术研究院 | 能够进行人眼追踪的头戴式可视设备及人眼追踪方法 |
CN108338798B (zh) * | 2017-01-25 | 2020-11-06 | 北京数字新思科技有限公司 | 一种注意力测量方法和系统 |
CN106840167B (zh) * | 2017-02-23 | 2019-12-20 | 周良辰 | 基于街景地图的目标物地理位置的二维量测算方法 |
JP6893607B2 (ja) | 2017-04-21 | 2021-06-23 | 達闥机器人有限公司 | ロボット制御方法、ロボット装置及びロボット機器 |
CN108965687B (zh) * | 2017-05-22 | 2021-01-29 | 阿里巴巴集团控股有限公司 | 拍摄方向识别方法、服务器及监控方法、系统及摄像设备 |
CN107369205B (zh) * | 2017-07-04 | 2020-10-16 | 东南大学 | 一种移动终端城市二三维联动显示方法 |
CN107392853B (zh) * | 2017-07-13 | 2020-05-26 | 河北中科恒运软件科技股份有限公司 | 双摄像头视频融合畸变校正与视点微调整方法及系统 |
US10853965B2 (en) * | 2017-08-07 | 2020-12-01 | Standard Cognition, Corp | Directional impression analysis using deep learning |
CN107504917B (zh) * | 2017-08-17 | 2020-02-21 | 深圳市异方科技有限公司 | 一种三维尺寸测量方法及装置 |
KR102495359B1 (ko) | 2017-10-27 | 2023-02-02 | 삼성전자주식회사 | 객체 트래킹 방법 및 장치 |
WO2019097639A1 (ja) * | 2017-11-16 | 2019-05-23 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および画像生成方法 |
EP3752957A4 (en) | 2018-02-15 | 2021-11-17 | DMAI, Inc. | SYSTEM AND PROCEDURE FOR SPEECH UNDERSTANDING VIA INTEGRATED AUDIO AND VIDEO-BASED VOICE RECOGNITION |
WO2019161241A1 (en) * | 2018-02-15 | 2019-08-22 | DMAI, Inc. | System and method for identifying a point of interest based on intersecting visual trajectories |
WO2019161229A1 (en) | 2018-02-15 | 2019-08-22 | DMAI, Inc. | System and method for reconstructing unoccupied 3d space |
WO2019161200A1 (en) | 2018-02-15 | 2019-08-22 | DMAI, Inc. | System and method for conversational agent via adaptive caching of dialogue tree |
CN110320997B (zh) * | 2018-03-30 | 2022-05-17 | 托比股份公司 | 用于确定注视关注目标的对物体映射的多线迹注视 |
TWI719343B (zh) * | 2018-08-28 | 2021-02-21 | 財團法人工業技術研究院 | 資訊顯示方法及其顯示系統 |
US11170212B2 (en) * | 2018-09-28 | 2021-11-09 | Apple Inc. | Sensor fusion eye tracking |
CN109491508B (zh) * | 2018-11-27 | 2022-08-26 | 北京七鑫易维信息技术有限公司 | 一种确定注视对象的方法和装置 |
SE543121C2 (en) | 2019-02-04 | 2020-10-13 | Tobii Ab | Method and system for determining a current gaze direction |
SE543144C2 (en) * | 2019-05-15 | 2020-10-13 | Tobii Ab | Method and system for dwell-less, hands-free interaction with a selectable object |
CN112013844B (zh) * | 2019-05-31 | 2022-02-11 | 北京小米智能科技有限公司 | 建立室内环境地图的方法及装置 |
US11181978B2 (en) | 2019-06-17 | 2021-11-23 | Hemy8 Sa | System and method for gaze estimation |
PL3839411T3 (pl) * | 2019-12-17 | 2023-12-27 | John Cockerill Defense SA | Inteligentny układ sterowania funkcjami wieży pojazdu bojowego |
CN112509007A (zh) * | 2020-12-14 | 2021-03-16 | 科大讯飞股份有限公司 | 真实注视点定位方法以及头戴式视线跟踪系统 |
WO2023189218A1 (ja) * | 2022-04-01 | 2023-10-05 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、記録媒体 |
SE2250674A1 (en) | 2022-06-03 | 2023-12-04 | Tobii Ab | Method of estimating a three-dimensional position of an object |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10326071A (ja) * | 1997-03-27 | 1998-12-08 | Nippon Telegr & Teleph Corp <Ntt> | 注視点高解像度化による計算機ホログラム表示方法並びに装置並びにこの方法を記録した記録媒体 |
JP2005071041A (ja) * | 2003-08-22 | 2005-03-17 | Nissan Motor Co Ltd | 運転者視対象検出装置及び運転者視対象検出システム |
JP2006119297A (ja) * | 2004-10-20 | 2006-05-11 | Olympus Corp | 情報端末装置 |
JP2007286995A (ja) * | 2006-04-19 | 2007-11-01 | Hitachi Ltd | 注目度計測装置及び注目度計測システム |
JP2007289659A (ja) * | 2006-03-27 | 2007-11-08 | Fujifilm Corp | 画像記録装置、画像記録方法、および画像記録プログラム |
JP2007319187A (ja) * | 2006-05-30 | 2007-12-13 | Toyota Motor Corp | 動作補助装置及びその制御方法 |
WO2011003303A1 (en) * | 2009-07-10 | 2011-01-13 | Peking University | Image manipulation based on tracked eye movement |
JP2012029940A (ja) * | 2010-07-30 | 2012-02-16 | Hiroshima City Univ | 視線計測方法及び視線計測装置 |
US20120051597A1 (en) * | 2009-03-03 | 2012-03-01 | The Ohio State University | Gaze tracking measurement and training system and method |
JP2012050837A (ja) * | 2004-04-01 | 2012-03-15 | William C Torch | 目の動きをモニターするバイオセンサ、コミュニケーター及びコントローラー並びにそれらの使用方法 |
JP2012128661A (ja) * | 2010-12-15 | 2012-07-05 | Canon Inc | 情報処理装置、情報処理方法及びプログラム |
JP2012515579A (ja) * | 2009-01-26 | 2012-07-12 | トビー・テクノロジー・アーベー | 光学的参照の支援による注視点検出 |
JP2012170546A (ja) * | 2011-02-18 | 2012-09-10 | Nippon Hoso Kyokai <Nhk> | 視線位置推定システム及び視線位置推定プログラム |
JP2013008365A (ja) * | 2011-06-23 | 2013-01-10 | Ailive Inc | 運動感知型機器を用いる遠隔制御 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0862096A3 (en) * | 1996-12-06 | 1999-05-19 | Nippon Telegraph And Telephone Corporation | Method and system for producing computer generated holograms realizing real time holographic video production and display |
JP2002525425A (ja) | 1998-09-14 | 2002-08-13 | キューリック アンド ソファ インベストメンツ インコーポレイテッド | ワイヤボンティング合金複合物 |
US7046924B2 (en) * | 2002-11-25 | 2006-05-16 | Eastman Kodak Company | Method and computer program product for determining an area of importance in an image using eye monitoring information |
US8781162B2 (en) * | 2011-01-05 | 2014-07-15 | Ailive Inc. | Method and system for head tracking and pose estimation |
KR100820639B1 (ko) * | 2006-07-25 | 2008-04-10 | 한국과학기술연구원 | 시선 기반 3차원 인터랙션 시스템 및 방법 그리고 3차원시선 추적 시스템 및 방법 |
EP2242419B1 (en) * | 2008-02-14 | 2016-01-13 | Nokia Technologies Oy | Device and method for determining gaze direction |
CN201307266Y (zh) * | 2008-06-25 | 2009-09-09 | 韩旭 | 双目视线跟踪装置 |
CN101419672B (zh) * | 2008-12-03 | 2010-09-08 | 中国科学院计算技术研究所 | 一种同步采集人脸图像和注视视角的装置及方法 |
US8408706B2 (en) * | 2010-12-13 | 2013-04-02 | Microsoft Corporation | 3D gaze tracker |
US8885882B1 (en) * | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
US9116926B2 (en) * | 2012-12-20 | 2015-08-25 | Google Inc. | Sharing photos |
-
2012
- 2012-09-17 EP EP12184725.5A patent/EP2709060B1/en active Active
-
2013
- 2013-09-17 CN CN201380048140.XA patent/CN104685541B/zh active Active
- 2013-09-17 IN IN1984DEN2015 patent/IN2015DN01984A/en unknown
- 2013-09-17 US US14/428,608 patent/US10223808B2/en active Active
- 2013-09-17 WO PCT/EP2013/069236 patent/WO2014041188A1/en active Application Filing
- 2013-09-17 JP JP2015531598A patent/JP6808320B2/ja active Active
-
2019
- 2019-03-03 US US16/290,934 patent/US10699439B2/en active Active
- 2019-04-03 JP JP2019071195A patent/JP6690041B2/ja active Active
-
2020
- 2020-05-20 US US16/878,932 patent/US11676302B2/en active Active
-
2023
- 2023-02-17 US US18/111,099 patent/US11948332B2/en active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10326071A (ja) * | 1997-03-27 | 1998-12-08 | Nippon Telegr & Teleph Corp <Ntt> | 注視点高解像度化による計算機ホログラム表示方法並びに装置並びにこの方法を記録した記録媒体 |
JP2005071041A (ja) * | 2003-08-22 | 2005-03-17 | Nissan Motor Co Ltd | 運転者視対象検出装置及び運転者視対象検出システム |
JP2012050837A (ja) * | 2004-04-01 | 2012-03-15 | William C Torch | 目の動きをモニターするバイオセンサ、コミュニケーター及びコントローラー並びにそれらの使用方法 |
JP2006119297A (ja) * | 2004-10-20 | 2006-05-11 | Olympus Corp | 情報端末装置 |
JP2007289659A (ja) * | 2006-03-27 | 2007-11-08 | Fujifilm Corp | 画像記録装置、画像記録方法、および画像記録プログラム |
JP2007286995A (ja) * | 2006-04-19 | 2007-11-01 | Hitachi Ltd | 注目度計測装置及び注目度計測システム |
JP2007319187A (ja) * | 2006-05-30 | 2007-12-13 | Toyota Motor Corp | 動作補助装置及びその制御方法 |
JP2012515579A (ja) * | 2009-01-26 | 2012-07-12 | トビー・テクノロジー・アーベー | 光学的参照の支援による注視点検出 |
US20120051597A1 (en) * | 2009-03-03 | 2012-03-01 | The Ohio State University | Gaze tracking measurement and training system and method |
WO2011003303A1 (en) * | 2009-07-10 | 2011-01-13 | Peking University | Image manipulation based on tracked eye movement |
JP2012029940A (ja) * | 2010-07-30 | 2012-02-16 | Hiroshima City Univ | 視線計測方法及び視線計測装置 |
JP2012128661A (ja) * | 2010-12-15 | 2012-07-05 | Canon Inc | 情報処理装置、情報処理方法及びプログラム |
JP2012170546A (ja) * | 2011-02-18 | 2012-09-10 | Nippon Hoso Kyokai <Nhk> | 視線位置推定システム及び視線位置推定プログラム |
JP2013008365A (ja) * | 2011-06-23 | 2013-01-10 | Ailive Inc | 運動感知型機器を用いる遠隔制御 |
Non-Patent Citations (3)
Title |
---|
ANDREW T.DUCHOWSKI, ET AL.: ""Aggregate Gaze Visualization with Real-time Heatmaps"", ETRA 2012, SANTA BARBARA, CA PROCEEDINGS, JPN7017001416, 28 March 2012 (2012-03-28), pages 13 - 20, XP058752917, ISSN: 0003764887, DOI: 10.1145/2168556.2168558 * |
LI SUN, ET AL.: ""EYEWATCHME-3D Hand and Object Tracking for Inside Out Activity Analysis"", COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS, JPN7017001415, 20 June 2009 (2009-06-20), pages 9 - 16, ISSN: 0004088235 * |
SUSAN M.MUNN, ET AL.: ""3D point-of-regard, position and head orientation from a portable monocular video-based eye tracke", ETRA'08 PROCEEDINGS OF THE 2008 SYMPOSIUM ON EYE TRACKING RESEARCH AND APPLICATIONS, JPN7017001417, 26 March 2008 (2008-03-26), pages 181 - 188, XP058753542, ISSN: 0003764888, DOI: 10.1145/1344471.1344517 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015219892A (ja) * | 2014-05-21 | 2015-12-07 | 大日本印刷株式会社 | 視線分析システムおよび視線分析装置 |
WO2017126195A1 (ja) * | 2016-01-18 | 2017-07-27 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US10684682B2 (en) | 2016-01-18 | 2020-06-16 | Sony Corporation | Information processing device and information processing method |
WO2023054661A1 (ja) * | 2021-10-01 | 2023-04-06 | 株式会社日立製作所 | 注視位置分析システム及び注視位置分析方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2014041188A1 (en) | 2014-03-20 |
EP2709060A1 (en) | 2014-03-19 |
US11676302B2 (en) | 2023-06-13 |
US20150243036A1 (en) | 2015-08-27 |
JP6690041B2 (ja) | 2020-04-28 |
JP2019141620A (ja) | 2019-08-29 |
US20190272650A1 (en) | 2019-09-05 |
JP6808320B2 (ja) | 2021-01-06 |
IN2015DN01984A (ja) | 2015-08-14 |
US20230206494A1 (en) | 2023-06-29 |
US20200334858A1 (en) | 2020-10-22 |
US10699439B2 (en) | 2020-06-30 |
US10223808B2 (en) | 2019-03-05 |
US11948332B2 (en) | 2024-04-02 |
EP2709060B1 (en) | 2020-02-26 |
CN104685541A (zh) | 2015-06-03 |
CN104685541B (zh) | 2019-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6690041B2 (ja) | 三次元物体上の注視点決定方法及び装置 | |
US11861062B2 (en) | Blink-based calibration of an optical see-through head-mounted display | |
US10448003B2 (en) | System and method for triangulation-based depth and surface visualization | |
JP5467303B1 (ja) | 注視点検出装置、注視点検出方法、個人パラメータ算出装置、個人パラメータ算出方法、プログラム、及びコンピュータ読み取り可能な記録媒体 | |
US9292089B1 (en) | Gestural object selection | |
US20180046874A1 (en) | System and method for marker based tracking | |
JP2020034919A (ja) | 構造化光を用いた視線追跡 | |
JP6839656B2 (ja) | 視標追跡システム | |
US8885177B2 (en) | Medical wide field of view optical tracking system | |
EP3076892A1 (en) | A medical optical tracking system | |
JP2014509535A (ja) | 注視点マッピング方法および装置 | |
CN108537103B (zh) | 基于瞳孔轴测量的活体人脸检测方法及其设备 | |
JP2018099174A (ja) | 瞳孔検出装置及び瞳孔検出方法 | |
JP2005256232A (ja) | 3dデータ表示方法、装置、およびプログラム | |
Hua et al. | A testbed for precise registration, natural occlusion and interaction in an augmented environment using a head-mounted projective display (HMPD) | |
JP2017153827A (ja) | 合成画像提示システム | |
JP6430813B2 (ja) | 位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置 | |
Liu et al. | A portable projection mapping device for medical augmented reality in single-stage cranioplasty | |
TWI823740B (zh) | 主動式互動導覽系統以及主動式互動導覽方法 | |
JP2019066196A (ja) | 傾き測定装置及び傾き測定方法 | |
EP4322114A1 (en) | Projective bisector mirror | |
US20240115325A1 (en) | Camera tracking system for computer assisted surgery navigation | |
Combier et al. | Towards an Augmented Reality Head Mounted Display System Providing Stereoscopic Wide Field of View for Indoor and Outdoor Environments with Interaction through the Gaze Direction | |
JP2024035533A (ja) | 情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170509 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20170724 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20171004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171005 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20171010 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180326 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180611 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190403 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20190403 |
|
C11 | Written invitation by the commissioner to file amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C11 Effective date: 20190415 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190516 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20190520 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20190802 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20190813 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20190827 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20190909 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20200114 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200413 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20200413 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200714 |
|
C302 | Record of communication |
Free format text: JAPANESE INTERMEDIATE CODE: C302 Effective date: 20200909 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20200910 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200916 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20201012 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20201109 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20201109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6808320 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |