JP6268303B2 - 2d画像分析装置 - Google Patents
2d画像分析装置 Download PDFInfo
- Publication number
- JP6268303B2 JP6268303B2 JP2016550234A JP2016550234A JP6268303B2 JP 6268303 B2 JP6268303 B2 JP 6268303B2 JP 2016550234 A JP2016550234 A JP 2016550234A JP 2016550234 A JP2016550234 A JP 2016550234A JP 6268303 B2 JP6268303 B2 JP 6268303B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- pattern
- scaled
- list
- hough
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 210000001747 pupil Anatomy 0.000 claims description 138
- 238000012545 processing Methods 0.000 claims description 92
- 239000013598 vector Substances 0.000 claims description 86
- 238000000034 method Methods 0.000 claims description 80
- 238000004364 calculation method Methods 0.000 claims description 55
- 238000010191 image analysis Methods 0.000 claims description 43
- 238000006243 chemical reaction Methods 0.000 claims description 29
- 238000004422 calculation algorithm Methods 0.000 claims description 25
- 239000011159 matrix material Substances 0.000 claims description 24
- 238000007781 pre-processing Methods 0.000 claims description 23
- 238000012805 post-processing Methods 0.000 claims description 22
- 230000009466 transformation Effects 0.000 claims description 20
- 230000003044 adaptive effect Effects 0.000 claims description 18
- 238000011156 evaluation Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 12
- 238000012935 Averaging Methods 0.000 claims description 5
- 230000004438 eyesight Effects 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 2
- 210000001508 eye Anatomy 0.000 description 136
- 238000009499 grossing Methods 0.000 description 38
- 230000006870 function Effects 0.000 description 33
- 238000001514 detection method Methods 0.000 description 31
- 230000003287 optical effect Effects 0.000 description 30
- 230000000875 corresponding effect Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 21
- 238000000605 extraction Methods 0.000 description 19
- 230000001629 suppression Effects 0.000 description 15
- 238000003909 pattern recognition Methods 0.000 description 13
- 238000003860 storage Methods 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 11
- 230000008901 benefit Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000013461 design Methods 0.000 description 6
- 230000009467 reduction Effects 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 230000001934 delay Effects 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 4
- 210000000887 face Anatomy 0.000 description 4
- 102100026816 DNA-dependent metalloprotease SPRTN Human genes 0.000 description 3
- 101710175461 DNA-dependent metalloprotease SPRTN Proteins 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000004397 blinking Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 108010076504 Protein Sorting Signals Proteins 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000004321 blink reflex Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000035479 physiological effects, processes and functions Effects 0.000 description 2
- 230000035484 reaction time Effects 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 206010041349 Somnolence Diseases 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000002500 effect on skin Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/48—Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/14—Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
- G06F17/145—Square transforms, e.g. Hadamard, Walsh, Haar, Hough, Slant transforms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/77—Determining position or orientation of objects or cameras using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/955—Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20008—Globally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20061—Hough transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Software Systems (AREA)
- Ophthalmology & Optometry (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Algebra (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Eye Examination Apparatus (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Complex Calculations (AREA)
Description
そのコントローラは、例えば下流側の処理ユニット内に配置されてもよく、パターンが認識されない場合、又はその認識が十分でない場合(画像コンテンツと探索パターンとの一致度が低い場合)に、フィルタ106の遅延特性を調整するよう構成されてもよい。このコントローラに関しては、図5aを参照しながら説明する。
− セットの追加的な値の1つにより定量化される、探索構造との関連する一致度によれば、それがデータ列の外れ値となる。
− 例えば現実のオブジェクトのサイズが以前のオブジェクトから余りに強く外れている場合など、関連するサイズパラメータ又は幾何学パラメータによれば、それが外れ値となる。
− 現実のデータ値(例えば現実の位置の値)が閾値の間にない場合、現実のデータ値と以前のデータ値に基づいて決定されていた閾値との比較に従えば、それが外れ値となる。これを説明する実例は、例えば、オブジェクトの現実の位置座標(セットのデータ値)が選択的適応型データ処理部により事前に決定された位置座標から余りに強く外れている場合である。
現実に平滑化された値=現実の値×平滑化係数+最後の平滑化された値×(1−平滑化係数)
カメラセンサ中心の方向を眼が直接的に見る場合、基準瞳孔中点は、決定された瞳孔中点から決められる。これは、仮想のセンサ平面(視線方向計算に関する説明参照)上の瞳孔輪郭が円を特徴付ける場合に行われる。
基準瞳孔中点の位置の粗い推定として、眼の開口部の表面の焦点が使用され得る。顔が横たわる平面がカメラのセンサ平面と平行でない場合、この推定方法は限界に達する。(例えば事前に実行された頭部位置の決定及びアライメントなどにより)カメラセンサ平面に対する顔面の傾きが既知であり、推定された基準瞳孔中点の位置の修正にその傾きが使用される場合、この限界は補償され得る。
眼の中点の3D位置が使用可能である場合、3Dの眼の中点と仮想センサの中点との間の直線、及び、眼球の表面とその直線との交点が決定され得る。カメラ画像内へと変換されたこの交点の位置から、基準瞳孔中点が分かる。
統合型アイトラッカーは、FPGA最適化済みアルゴリズムのコンパイルを含み、それらアルゴリズムは、カメラライブ画像から並列ハフ変換により(楕円)特徴(ハフ特徴)を抽出するのに適している。次に、抽出された特徴を評価することで、瞳孔の楕円が決定され得る。ある位置を有する複数のカメラを使用し、アライメントが互いに既知である場合、瞳孔中点の3D位置と3D視線方向及び瞳孔の直径が決定され得る。その計算には、カメラ画像内の楕円の位置と形状が考慮される。それぞれのユーザーにとってシステムの校正は必要でなく、カメラと分析される眼との間の距離の知識も必要でない。
−複数の(ライブ)カメラ画像内における3D空間内での3Dの眼の位置及び3D視線方向のロバストな検出、及び瞳孔サイズの検出
−非常に短い反応時間(又は処理時間)
−小型の構造
−統合された解決策による(PCから独立した)自律機能
−アイトラッカーシステム
・Steffen Markert: gaze direction determination of the human eye in real time(非特許文献1及び特許文献2)
・Andrew T. Duchowski: Eye Tracking Methodology:Theory and Practice(非特許文献2)
−並列ハフ変換
・Johannes Katzmann: A real time implementation for the ellipsis Hough transformation(非特許文献3及び特許文献1)
・Christian Holland-Nell: Implementation of a pupil detection algorithm based on the Hough transformation for circles(非特許文献4及び特許文献1)
−アイトラッカーシステム
○欠点
・アイトラッカーシステムは一般的に、使用前に(複雑な)校正を必要とする。
・Markertによるシステム(特許文献2)は、校正不要であるが、以下のような所定の要件の下でしか作動しない。
1.カメラと瞳孔中点との間の距離が既知であり、ファイルされていること
2.3D瞳孔中点がカメラの光軸の範囲内にある場合にだけその方法が作動する
・全体的な処理はPCハードウェアに対して最適化されている。よって、それによる欠点(処理の期間中では固定の時間レジームが可能でないこと)も免れない。
・アルゴリズムが非常に高い資源消費を有するため、効率的なシステムが必要となる。
・結果が有効になるまでに長期の処理時間、よって長期の遅延時間が発生する(評価されるべき画像サイズに部分的に依存する)。
−並列ハフ変換
○欠点
・二値エッジ画像だけが伝送され得る。
・変換はある画像座標に関連する二値結果を提供するだけである(構造の位置は既知となったが、ヒット確率及び更なる構造特徴は未知である)。
・動作中に変換コアの柔軟な調節ができず、よって、動的な画像コンテンツ(例えば小さな瞳孔と大きな瞳孔などの)動的な画像コンテンツに対しては適性不十分である。
・動作中に変換コアを他の構造へとリコンフィグレーションすることは不可能である。よって、オブジェクト認識への適性は限定的である。
全体的なシステムは、同一の眼が表示されている2個以上のカメラ画像から、多次元ハフ特徴のリストをそれぞれ決定し、それらに基づいて瞳孔楕円の位置及び形状をそれぞれ計算する。これら2個の楕円パラメータから、また、カメラの互いの位置及びアライメントのみから、瞳孔中点の3D位置と3D視線方向及び瞳孔直径とが完全に校正不要で決定され得る。ハードウェアのプラットフォームとして、少なくとも2つの画像センサの組合せと、FPGA及び/又は下流側のマイクロプロセッサシステムが(PCIを強制的に必要とせずに)使用される。「ハフ処理」、「並列ハフ変換」、「ハフ特徴抽出部」、「楕円変換部へのハフ特徴」、「コアサイズ制御」、「時間的スマート平滑化フィルタ」、「3Dカメラシステムモデル」、「3D位置計算」及び「3D視線方向計算」は、統合型アイトラッカーの個々の機能モジュールに関係する。それらは統合型アイトラッカーの一連の画像処理ライン内に以下のように当てはまる。
○機能
・「並列ハフ変換」モジュールのためのビデオストリームのアップサンプリング。特に、「並列ハフ変換」モジュールの並列化の程度に従う、変換されるべき画像の画像回転及びアップサンプリングによる。
○入力
・二値エッジ画像又はグラデーション画像
○出力
・後続のモジュールの並列化の程度に従い、入力からアップサンプリングされたピクセルデータを有する1つ以上のビデオストリーム
○詳細な説明
・並列ハフ変換は、その原理に基づき、画像コンテンツに対し、それぞれ約90°歪まされた4つの主方向から適用され得る。
・このため、前処理の中で約90°の画像回転が行われる。
・回転された画像と回転されていない画像とが水平方向に反転されているという事実から、(ストレージ内にファイルされた画像行列の逆読み出しにより)残りの2つの方向がカバーされる。
・モジュールの並列化の程度に従い、以下の3つの場合が出力用にもたらされる。
・・100%並列化:4個のビデオデータストリームの同時出力。即ち、約90°回転済み、回転なし、及びそれぞれの反転済みの同時出力。
・・50%並列化:2個のビデオデータストリームの出力。即ち、約90°回転済み及び回転なしの出力と、それぞれの反転済みバージョンの出力とが、シーケンシャルに行われる。
・・25%並列化:1個のビデオデータストリームの出力。即ち、約90°回転済み、回転なし、及びそれぞれの反転済みバージョンが、シーケンシャルに出力される。
○機能
・簡素なパターン(異なるサイズ及び傾きを有する直線と、異なる半径及び向きを有する曲線)と、二値エッジ又はグラデーション画像内におけるそれらの出現確率との並列認識
○入力
・並列ハフ変換のためのアップサンプリング済みのエッジ画像又はグラデーション画像(「ハフ前処理」モジュールの出力)
○出力
・探索構造の全ての関連パラメータを含む多次元ハフ空間
○詳細な説明
・ピクセルデータについての定義された「通過方向」を有し、以下の特徴によって特性付けされる、複素遅延ベースのローカルフィルタによる入力の処理。
・・遅延要素から成る可変サイズを有するフィルタコア
・・探索構造へのフィルタの適応型調節のために、動作中に遅延要素がスイッチオン及びオフされ得る
・・フィルタの各コラムは探索構造(曲線又は直線の傾き)の特定の特性を表す
・・フィルタコラムを介する合計は、各コラムによって表された構造の特性についての出現確率を提供する
・・フィルタを通過するとき、探索パターンの特性についての最高の出現確率を有するコラムが常に出力される
・各画像ピクセルについて、フィルタは、ハフ空間内の以下のような情報を含む1つの点を提供する:
・・パターンの種類(例えば直線又は半円)
・・パターンについての出現確率
・・構造の特性(カーブの強度又は直線については傾き及び長さ)
・・画像内の構造の位置及び向き
・変換結果として多次元画像がもたらされ、これは以下においてはハフ空間と称される。
○機能
・パターン認識のための関連情報を含むハフ空間からの特徴の抽出
○入力
・多次元ハフ空間(「並列ハフ変換」モジュールの出力)
○出力
・パターン認識のための関連情報を含むハフ特徴のリスト
○詳細な説明
・ハフ特徴空間の平滑化(ローカルフィルタリングを用いた空間的修正)
・修正された「非最大抑圧」によるハフ空間の「間引き」(パターン認識と無関係な情報の抑制)
・・パターンの種類と構造の特性を考慮した、処理に無関係な点(ハフ確率空間内の「非最大」)の削除
・・以下の適切な閾値を用いたハフ空間点の更なる間引き
・・○ハフ確率空間における閾値によるノイズ抑制
・・○構造の最小及び最大の許容可能な特性のための区間の指示(例えば曲線構造については最小/最大のカーブ、又は、直線については最低/最高の傾き)
・オリジナル画像スコープの結果における全ての残りの点のパラメータの分析的な再変換は、以下のハフ特徴をもたらす。
・・次のパラメータを有する曲線構造
・・○位置(x−及びy−画像座標)
・・○ハフ特徴の出現確率
・・○円弧の半径
・・○円弧がどの方向に開口しているかを示す角度
・・次のパラメータを有する直線
・・○位置(x−及びy−画像座標)
・・○ハフ特徴の出現確率
・・○直線の傾きを示す角度
・・○表された直線セグメントの長さ
○機能
・画像内の瞳孔エッジ(楕円)を最高確率で記述する3〜4個のハフ特徴(曲線)の選択と楕円の決定
○入力
・カメラ画像内の全ての検出されたハフ特徴(曲線)のリスト
○出力
・瞳孔を最高確率で表している楕円のパラメータ
○詳細な説明
・全てのハフ特徴(曲線)のリストから3〜4個のハフ特徴の組合せが形成され、それらのパラメータによってハフ特徴が水平及び垂直の端点を記述し得る
・その場合、以下のような基準がハフ特徴の選択に影響を与える
・・ハフ特徴のスコア(確率)
・・ハフ特徴のカーブ
・・ハフ特徴同士の互いに対する位置及び向き
・選択されたハフ特徴の組合せは以下のようにアレンジされる
・・第1に、含まれるハフ特徴の数に従って
・・第2に、含まれるハフ特徴の組合せられた確率に従って
・アレンジングの後で、第1位のハフ特徴の組合せが選択されて、カメラ画像内の瞳孔を最も確からしく表している楕円がフィットされる。
○機能
・並列ハフ変換のフィルタコア(ハフコア)の、現実の楕円サイズへの動的な調節
○入力
・最後に使用されたハフコアサイズ
・対応するカメラ画像内の瞳孔を表す楕円のパラメータ
○出力
・更新されたハフコアサイズ
○詳細な説明
・「ハフ特徴を楕円変換部へ」により計算された楕円のサイズ(半軸の長さ)に依存して、端点の検出の間にハフ変換結果の精度を向上させるためにハフコアサイズがトラッキングされる。
○機能
・指数平滑法の原理に従う(例えば決定された楕円中点座標の)データ列の適応型同時平滑化であり、その場合、平滑化されるべきデータ列内の外れ値又は極端な孤立値が平滑化されたデータの変動をもたらすことがない。
○入力
・モジュールの各活性化期間において、それぞれ、データ列の1つの値及び関連する品質基準(例えばフィットされた楕円の出現確率など)
○出力
・平滑化されたデータ列(例えば楕円中点座標)
○詳細な説明
・1セットのフィルタパラメータを介してフィルタを初期化することで、その挙動が決定され得る。
・以下のカテゴリの1つに該当しない場合、現実の入力値が平滑化に使用される。
・・関連する出現確率に対応して、それがデータ列の外れ値である場合
・・関連する楕円パラメータに対応して、それがデータ列の孤立値である場合
・・○現実の楕円サイズが以前の楕円サイズと違い過ぎる場合
・・○楕円の最後の位置に対する現実の位置の差異が大き過ぎる場合
・更に、これらの基準の1つが満たされた場合、以前に決定された値が出力される。そうでない場合には、平滑化のための現在の値が考慮される。
・平滑化の間に可能な低遅延を得るために、現在の値は過去の値よりもより強く評価される:
・・現在平滑化されている値=現在値*平滑化係数+最後に平滑化された値*(1−平滑化係数)
・・平滑化係数は、定義された境界内において、平滑化されるべきデータの傾向に対して動的に調節される:
・・○データ列内におけるほぼ一定の値動向を用いた低減
・・○データ列内における増加又は減少する値動向を用いた増強
・平滑化されるべき楕円パラメータに関して長期的に大きな逸脱が発生する場合、フィルタ及び平滑化された値動向が調節される。
○機能
・複数のカメラと、ユーザー(又は彼/彼女の眼)と、可能性としてスクリーンとが配置された、3D空間のモデリング
○入力
・全てのモデルのモデルパラメータ(位置パラメータ、光学的パラメータ、その他)を含むコンフィグレーションファイル
○出力
・このモデル内での計算のための統計的枠組み及び関数を提供する
○詳細な説明
・モデルの全ての構成要素の空間位置(位置及び回転角度)と、それらの幾何学的特性(例えばピクセルサイズ、センササイズ、解像度)及び光学的特性(例えば焦点距離、対物レンズ歪み)のモデリング
・モデルはこの時点で以下の構成要素を含む
・・次の構成要素を含むカメラユニット
・・○カメラセンサ
・・○対物レンズ
・・眼
・・ディスプレイ
・モデルの全ての構成要素の特性の他に、特に、以下に説明する機能、即ち(眼の位置の計算のための)「3D位置計算」と、(視線方向の計算のための)「3D視線方向計算」とが提供される。
・このモデルにより、特に(瞳孔中点及び視線方向ベクトルからなる)3Dの目視線(3D-Blickgerade)であって、人間の眼の生物学及び生理学に対応して修正されたものが計算され得る。
・任意ではあるが、(例えばディスプレイ上の)3Dモデルの他のオブジェクトのビューワの視点と、そのビューワの焦点領域もまた計算され得る。
○機能
・2個以上のカメラによって捕捉されたある点(例えば瞳孔中点)の空間位置(3D座標)の三角形分割による計算
○入力
・2つのカメラ画像内の1つの点の2D座標
○出力
・その点の3D座標
・誤差の尺度:伝送された2D座標の精度をモデルパラメータとの組合せで記述する
○詳細な説明
・伝送された2D座標から、両方のカメラについて「3Dカメラシステムモデル」により(特に光学的パラメータを考慮して)、3D点をセンサ上の2D点として表示した光線が計算される。
・これらの光線はこのモードの3D空間における直線として記述される。
・両方の直線同士の距離が最短となる点(理想的な場合には直線の交点)が探索3D点であると推定される。
○機能
・瞳孔の2個の楕円形状の投影からカメラセンサまでの視線方向を、校正なしでかつ眼とカメラシステムとの間の距離を知ることなく決定すること。
○入力
・画像センサの3D位置パラメータ
・両方の画像センサに投影された瞳孔の楕円パラメータ
・両方の画像センサ上の楕円中点の3D位置
・瞳孔中点の3D位置
○出力
・ベクトル及び角度表現における3D視線方向
○詳細な説明
・瞳孔中点の3D位置及び画像センサの位置から、現実のカメラユニットの回転により仮想のカメラユニットが計算され、その光軸は、3Dの瞳孔中点を通過する。
・次に、現実のセンサへの瞳孔の投影に基づいて、仮想のセンサへのそれぞれの瞳孔の投影が計算されて、いわゆる2個の仮想の楕円がもたらされる。
・仮想の楕円のパラメータから、両方のセンサについて、眼のそれぞれ2個の視点が、それぞれのセンサ平面に対して任意に平行な平行平面上において計算され得る。
・これら4個の視点と3Dの瞳孔中点とにより、4個の視線方向ベクトル(各カメラの結果からそれぞれ2個のベクトル)が計算され得る。
・これら4個の視線方向ベクトルのうち、あるカメラの1つのベクトルが、他のカメラの1つのベクトルと正に同一又は略同一となる。
・同一のベクトルの両方は眼の探索視線方向を示し、その視線方向が「3D視線方向計算」モジュールにより結果として提供される。
−カメラに対する眼の位置の知識から独立した、3Dの眼の位置、3D視線方向及び瞳孔サイズの、非接触かつ完全に校正不要の決定。
−3Dの眼の位置と3D視線方向との(3D空間モデルを包含することによる)分析的な決定により、3D空間内におけるカメラの任意の個数(>2)及び任意のカメラ位置が可能となる。
−カメラに投影された瞳孔の計測と、それによる瞳孔サイズの正確な決定
−一連の処理において再帰がない完全に並列の処理に起因して、高いフレームレート(例えば1つのXILINX Spartan 3A DSP @ 96MHzについて60FPS @ 640x480)及び短い待ち時間
−並列FPGA構造のために開発されたFPGAハードウェア及びアルゴリズムの使用
−オブジェクト認識(ここでは瞳孔楕円の特徴)のためのロバストな特徴抽出のための(上述したFPGAハードウェアのために調節された形態における)ハフ変換の使用
−ハフ変換の結果の後処理のためのアルゴリズムはFPGAにおける並列処理に最適化されている。
−固定の時間レジーム(連続的な結果間の一定の時間差)
−1チップ上に完全に集積されていることによる最小の構造空間
−低いエネルギー消費
−FPGAからASICへの処理の直接的な変更の可能性→スケーリング効果の活用に起因して、多数でも非常に費用効率が良好な解決策
−(部分的な)他のアルゴリズムの使用(例えば楕円検出のための異なるオブジェクト認識方法)
−対応する製品が、FPGA及びマイクロプロセッサから構成される高速かつ完全に校正不要なアイトラッキングシステムであれば、明らかに特許侵害の可能性がある。
−FPGAビットファイル/ネットワークリストリストのコピー/模倣による特許侵害の証明
○例えばチェックアマウントにより容易に証明できるであろう。
○更に、ビットファイルはFPGA−IDに束縛され得る→よって、FPGAの類似IDを使用する場合にのみコピーが可能となるであろう。
−FPGAビットファイル/ネットワークリストリストの分解による特許侵害の証明
○特許侵害の示唆は、それぞれのFPGAビットファイル/ネットワークリストリストの分解により認識可能であり得る。
○完全な証明は実現困難となる可能性がある。
−プロセッサコードの「分解」による特許侵害の証明
○示唆は認識可能であるが、完全な証明は困難であろう。
−(ライブ)カメラ画像データストリーム内で、3Dの眼の位置及び3Dの視線方向が検出され、それらは以下のアプリケーションのために使用され得る。
○セキュリティ関連分野
・自動車分野における運転支援システムとして、(例えば瞳孔のカバー度をまばたきの尺度とする)眼の評価による、かつ視点及び焦点を考慮に入れた、例えば瞬間的居眠り警報システム又は疲労検出器
○人間−機械インターフェイス
・技術的デバイスのための入力インターフェイスとして(眼の位置及び視線方向は入力パラメータとして使用され得る)
・スクリーンコンテンツを眺めているときのユーザーの支援(例えば眺められている領域の強調)
・例えば
・・介護分野
・・コンピュータゲーム
・・頭部装着型デバイス用の視線方向サポートされた入力
・・視線方向を含めることによる3D可視化の最適化
○市場及びメディア展開
・例えば被験者の空間的視線方向及び視点を評価することによる、広告の魅力の評価
○眼科的診断(例えば対物視野計測)及び治療
本発明の一態様は、自律型(PCから独立した)システムに関し、特に、FPGA最適化されたアルゴリズムを使用し、カメラライブ画像内の顔とその(空間的)位置を検出するのに適したシステムに関する。使用されるアルゴリズムは、特に、FPGA(プログラム可能ゲートアレイ)上の処理に対して最適化されており、現存の方法と比較して、処理の中に再帰なしで処理が進むという特徴を有する。そのアルゴリズムは、FPGAにおいて一定のフレームレートと最短の待ち時間と最小の資源消費とを用いて非常に高速の画像処理を可能にする。従って、これらのモジュールは、(例えば運転支援システムなど)時間的/待ち時間的/セキュリティ的に厳しいアプリケーション、又は、小型の構造体であることを要件とする(例えばモバイルデバイス用の)人間・機械インターフェイスとしてのアプリケーションに適している。更に、第2のカメラを使用することで、画像内の特定の点に対するユーザーの空間的位置が、高度な精度を持って、校正不要かつ非接触で決定され得る。
(ライブ)カメラ画像内におけるロバストでハードウェアベースの顔検出
−ステレオカメラシステムを使用した3D空間内での顔及び眼の位置の検出
−非常に短い反応時間(又は処理時間)
−小型の構造
−統合された解決策による(PCから独立した)自律機能
−文献:
○Christian Kueblbeck, Andreas Ernst: Face detection and tracking in video sequences using the modified census transformation(非特許文献5)
○Paul Viola, Michael Jones: Robust Real-time Object Detection(非特許文献6)
−全体的な処理はPCシステム(より一般的:汎用目的プロセッサ)のために最適化されており、従ってその欠点から免れない(例えば処理進行中の固定の時間レジームが可能でない(実例:画像コンテンツ、例えば背景に依存して、トラッキングにより長い時間が掛かる可能性がある))。
−シーケンシャルな処理;初期画像は異なるスケーリング段階へと(最低のスケーリング段階に到達するまで)連続的に送り込まれ、顔に関する多段階分類部を用いてそれぞれ探索される。
○どれだけ多くのスケーリング段階が計算されるべきか、又は、分類部のどれだけ多くの段階が計算されるべきかに依存して、結果が利用可能となるまで処理期間が変化する。
−高いフレームレートに到達するために、効率的なシステムが必要となる(より高いクロックレート、マルチコア−システムの環境下で)。なぜなら、PCハードウェアに対して最適化されたアルゴリズムは(特に組込型プロセッサシステムが用いられた場合)、非常に高い資源消費を必要とするから。
−検出された顔位置に基づいて、分類部は不正確な眼の位置しか提供しない(眼の位置−特に瞳孔中点−は分析的に決定(又は測定)されておらず、従って不正確性から免れない)。
−決定された顔と眼の位置は2D画像座標においてのみ利用可能であり、3Dでは利用できない。
全体的なシステムは、(単一の顔だけが表示されている)1つのカメラ画像から顔の位置を決定し、この位置を使用して左右の眼の瞳孔中点の位置を決定する。互いにに対する既知のアライメントを有する2つ以上のカメラが使用される場合、これら2つの点が三次元空間のために指示され得る。決定された両方の眼の位置は、「統合型アイトラッカー」を使用するシステム内で更に処理されてもよい。「並列画像スケーラ」、「並列フェイスファインダ」、「並列眼分析器」、「並列瞳孔分析器」、「時間的スマート平滑化フィルタ」、「3Dカメラシステムモデル」及び「3D位置計算」は、全体システム(FPGAフェイストラッカー)の個々の機能モジュールに関係している。それらはFPGAフェイストラッカーの画像の一連の処理に以下のように関与する。
○機能
・初期画像のスケーリング段階の並列計算と、計算されたスケーリング段階の新たな画像行列内でのアレンジメントにより、後続の画像処理モジュールが全てのスケーリング段階を同時分析できるようする。
○入力
・オリジナル解像度における初期画像710
○出力712
・初期画像のより多くのスケール済み変形例を、後続のフェイストラキングモジュールのために適切なアレンジメントで含む、新たな画像行列
○詳細な説明
・初期画像の異なるスケーリング段階の並列的計算により画像ピラミッドを確立する。
・以前に計算されたスケーリング段階の目標行列内における定義されたアレンジメントを保証するため、種々の基準により、それぞれのスケーリング段階の画像座標が目標行列の画像座標システムへと変換される。
・・隣接する段階内の分析結果のクロストークを抑制するため、スケーリング段階同士間の定義された最短距離
・・画像から部分的に突出している顔の分析を保証するため、目標行列のエッジへの定義された距離
○機能
・1つの行列内に合体してアレンジされた複数のスケーリング段階の分類結果から顔を検出する。並列フェイスファインダ808は図1のファインダに匹敵し、その場合、ファインダ706は一般的な機能範囲(瞳孔認識などの更なるパターンの認識)を含む。
○入力712
・複数のスケーリング段階を含む分類された画像行列
○出力
・(複数の基準を考慮して)最高確率で顔が配置される位置
○詳細な説明
・分類結果を限定するためのノイズ抑制
・局所合計及び最大値フィルタ(lokalen Summen- und Maximunfilter)の組合せによる、スケーリング段階内の分類結果の空間的修正
・任意ではあるが全てのスケーリング段階にわたる顔サイズにおける、顔の最高出現確率についての向き
・選択されたスケーリング段階にわたる結果位置の空間的平均化
・・平均化に関与するスケーリング段階の選択は、以下の基準を考慮して行われる。
・・○観察されたスケーリング段階内の選択された顔の中点同士の差
・・○合計フィルタの最高結果の動的に決定された偏差
・・○分類結果なしのスケーリング段階の抑制
・「並列フェイスファインダ」の検出性能の閾値ベースの調節
○機能
・顔検出の間に、対応する顔内の眼の位置を並列に検出する(これは理想的に前面から捕捉されておらず、かつ歪んだ顔の場合に特に重要である)。
○入力
・(「並列画像スケーラ」モジュールからの)初期画像の複数のスケーリング段階を含む画像行列と、(「並列フェイスファインダ」モジュールからの)探索される顔が最高確率で配置されているそれぞれの現在の位置
○出力
・「並列フェイスファインダ」により検出された現在の顔の中の眼の位置及び関連する確率値
○詳細な説明
・ダウンスケールされた初期画像に基づき、「並列フェイスファインダ」により提供された顔領域内の眼の定義された範囲(眼の範囲)内において、各眼に対する眼の探索が以下のように行われる。
・・顔領域内の眼の経験的に決定された通常位置から眼の範囲を定義する。
・・特別に形成された相関ベースのローカルフィルタを用いて、眼の存在についての確率が眼の範囲内で決定される(この画像セグメント内の眼は、光環境を有する小さな暗い表面として簡素に記述される)
・・正確な眼の位置であって、以前に計算された確率分布における最大探索からの眼の位置の確率結果を含む
○機能
・以前に決定された眼の位置に基づいて、検出された眼の中の瞳孔中点の位置を検出する(眼の位置の精度が向上することになり、それは瞳孔の測定や後続の評価にとって重要である)
○入力
・オリジナル解像度における初期画像と、(「並列眼分析器」又は「並列フェイスファインダ」からの)決定された眼の位置及び顔のサイズ
○出力
・評価された画像内の瞳孔の位置と、瞳孔が発見されたかどうかについてのステータス指示
○詳細な説明
・決定された眼の位置と顔のサイズに基づいて、処理されるべき画像部分が眼の周囲に認識される
・この画像行列内で画像コラムの最小値を含むベクトルと画像ラインの最小値を含むベクトルとが構築される。
・これらベクトルの中で(最小グレー値から)、以下に説明するように瞳孔中点が水平及び垂直方向において別々に検出される
・・それぞれのベクトルの最小値の検出(瞳孔内の位置として)
・・この最小値に基づいて、そのベクトル内で、正及び負の方向に、全てのベクトル要素の動的な範囲に比例的に関連する調節可能な閾値を超えた位置が決定される
・・両方のベクトル内のこれらの範囲の中点が一緒に、分析された画像内の瞳孔の中点を形成する。
○機能
・(例えば決定された顔座標の)データ列の適応型時間的平滑化であり、これにより、外れ値、不合理な値又は極端な孤立値が、平滑化されたデータ内で変動をもたらさなくなる。
○入力
・モジュールの各活性化期間に対し、それぞれデータ列の1つの値及び関連する品質基準(フェイストラッキングに関して:顔が発見されたフェイススコア及びダウンスケーリング段階)
○出力
・平滑化されたデータ値(例えば顔座標)
○詳細な説明
・フィルタパラメータのセットを介し、フィルタの初期化の間に、その挙動が決定され得る。
・現在の入力値は、それが以下のカテゴリの1つに当てはまらない場合、平滑化のために使用される。
・・関連するスコアによれば、それはデータ列の外れ値である。
・・関連するダウンスケーリング段階によれば、それは不合理な値(離れ過ぎであるとダウンスケーリング段階内で決定されていた値)である。
・・平滑化に使用された最後の値に対して過大な差がある場合、それは外れ値である。
・これらの基準の1つが満足された場合、以前に決定された平滑化済み値が出力される。それ以外の場合には、現在の値が平滑化のために考慮される。
・平滑化の間のできるだけ低い遅延を達成するために、現在の値が過去の値よりもより強く評価される。
・・現時点で平滑化される値=現在値*平滑化係数+最後の平滑化された値*(1−平滑化係数)
・・平滑化係数は、平滑化されるべきデータの傾向に対し、定義された境界内において動的に調節される
・・○データ列の比較的一定した値動向の低減
・・○データ列の増加又は減少する値動向の増強
・平滑化されるべき楕円パラメータに関して長期的に大きな逸脱が発生する場合、フィルタ及び平滑化された値動向が調整される。
○機能
・複数のカメラ、ユーザー(又は彼/彼女の眼)、及び可能性としてスクリーンが配置されている3D空間のモデリング
○入力
・モデルの全ての構成要素のモデルパラメータ(位置パラメータ、光学的パラメータなど)を含むコンフィグレーションファイル
○出力
・このモデル内での計算のための統計的枠組み及び関数を提供する
○詳細な説明
・モデルの全ての構成要素の空間位置(位置及び回転角度)と、それらの幾何学的特性(例えばピクセルサイズ、センササイズ、解像度)及び光学的特性(例えば焦点距離、対物レンズ歪み)のモデリング
・モデルはこの時点で以下の構成要素を含む
・・次の構成要素を含むカメラユニット
・・○カメラセンサ
・・○対物レンズ
・・眼
・・ディスプレイ
・モデルの全ての構成要素の特性の他に、特に、以下に説明する機能(眼の位置の計算のための)「3D位置計算」と、(視線方向の計算のための)「3D視線方向計算」とが提供される。
・他のアプリケーションの場合、更に以下の機能が提供される。
・・このモデルにより、特に(瞳孔中点及び視線方向ベクトルからなる)3Dの目線であって、人間の眼の生物学及び生理学に対応して修正されたものが計算され得る。
・・任意ではあるが、(例えばディスプレイ上の)3Dモデルの他のオブジェクトへのビューワの視点と、そのビューワの焦点領域もまた計算され得る。
○機能
・2個以上のカメラによって捕捉されたある点(例えば瞳孔中点)の空間位置(3D座標)の計算
○入力
・2つのカメラ画像内の1つの点の2D座標
○出力
・その点の3D座標
・誤差の尺度:伝送された2D座標の精度をモデルパラメータに関連して記述する
○詳細な説明
・伝送された2D座標から、両方のカメラについて「3Dカメラシステムモデル」により(特に光学的パラメータを考慮して)、3D点をセンサ上の2D点として表示した光線が計算される。
・これらの光線はこのモードの3D空間における直線として記述される。
・両方の直線同士の距離が最短となる点(理想的な場合には直線の交点)が探索3D点であると推定される。
2D内の(ライブ)カメラ画像内における、及び3D空間での再計算による(3D空間モデルを含めることによる)3Dにおける、顔の位置及び眼の位置の決定
−3.で提示したアルゴリズムは、FPGAにおいてリアルタイム可能でかつ並列の処理に対して最適化されている。
−一連の処理の中に再帰がない完全に並列の処理に起因する、高いフレームレート(XILINX Spartan3A DSP @48MHzについて60FPS@640x480)と、短い待ち時間→非常に高速の画像処理及び最小遅延での結果の出力
−全体機能が1つの構成要素(FPGA)で達成できることによる最小の構造空間
−低いエネルギー消費
−固定の時間レジーム(連続的な結果間の一定の時間差)及びセキュリティ的に厳しいアプリケーションへの使用の適応性
−FPGAからASIC(特定用途向け統合型回路)への処理の直接的な変更の可能性→スケーリング効果の活用に起因して、多数でも非常に費用効率が良好な解決策
−個々のサブ関数の全体的な機能のための他のアルゴリズムの使用
−FPGAビットファイル/ネットワークリストリストのコピー/模倣による特許侵害の証明
○例えばチェックアマウントにより容易に証明であろう。
○更に、ビットファイルはFPGA−IDに束縛され得る→よって、FPGAの類似IDを使用する場合にのみコピーが可能となるであろう。
−FPGAビットファイル/ネットワークリストリストの「分解」による特許侵害の証明
○特許侵害の示唆は、それぞれのFPGAビットファイル/ネットワークリストリストの分解により認識可能であり得る。
○完全な証明は実現困難となる可能性がある。
−ソフトウエア解決策との比較におけるアプリケーション間の長所
○自律機能(チップ上のシステム)
○ASICへの容易な変更の可能性
○既存のシステム/スイッチ内への空間節約的な統合
−ソフトウエア解決策の分野と類似するアプリケーション分野((ライブ)カメラ画像データストリーム内で顔の位置及び対応する眼の位置が検出されて、以下のリストに記載するアプリケーションに使用される)。
○セキュリティアプリケーション
○セキュリティ関連分野
・例えば眼(まばたきの程度)の評価と眼及び頭部の動きの評価とによる、自動車分野における瞬間的居眠り警報システム
○人間−機械インターフェイス
・例えば技術的デバイスのための入力インターフェイスとして(頭部又は眼の位置を入力パラメータとして)
○視線計測
・例えば顔及び眼の位置を(「統合型アイトラッカー」との組合せにおける)視線方向決定のための事前段階として
○マーケティング
・例えば頭部及び眼のパラメータ(特に位置)を決定することによる、広告の魅力の評価
上述したように、カメラレンズ808a及び808bにより画像センサ802a及び802bの上に円形の瞳孔806aを描写することにより、楕円形状の瞳孔の投影がそれぞれもたらされる(図8a参照)。瞳孔の中心はセンサ802a及び802bの両方の上にあり、また、それぞれのカメラ画像の中では、常に楕円の中点EMP K1及びEMP K2として描かれている。従って、これら2個の楕円中点EMP K1及びEMP K2のステレオ後方投影(stereoskopische Rueckprojektion)に基づいて、3Dの瞳孔中点が対物レンズモデルによって決定され得る。その場合の任意選択的な要件は、理想的に時間同期するピクチャであり、それにより両方のカメラから取り出された描写場面が同一となり、よって、瞳孔中点が同一の位置に集められたようになる。
[数1]
により構成され、使用される対物レンズモデル(図8b)を、対物レンズの2つの主要点H1及びH2から、及びセンサ平面内の楕円中心EMPから、数式(A2)及び(A3)によりもたらす。このため、全ての3個の点(H1,H2,HMP)は、アイトラッカー配位システム(Eyetracker-Koordinatensystem)の中で使用可能でなくてはならない。
[数2]
[数3]
はカメラセンサ平面の法線ベクトルである。カメラ配位システムにおける3Dの楕円中心は、以前に決定された楕円中心パラメータxm及びymから計算されることができ、次式により提供される。
[数6]
は、数式(A4)に従って、その方向ベクトルの交差積(Kreuzprodukt)として計算され得る。
[数7]
決定されるべき視線方向ベクトル
は、円形の瞳孔表面の法線ベクトルに対応し、よって、3D空間で特定される瞳孔のアライメントに基づく。カメラセンサ上の瞳孔の2つの楕円形状の投影の各々について決定され得る楕円パラメータから、瞳孔の位置及びアライメントが決定され得る。これにより、2つの半軸の長さと、投影された楕円の回転角度とは、カメラ位置に対する瞳孔及び/又は視線方向のアライメントについて特徴的となる。
を計算できるようにするため、楕円パラメータに対する角度δの影響は排除されるべきであり、その結果、瞳孔投影の形状だけが瞳孔のアライメントによる影響を受ける。瞳孔中点PMPがカメラシステムの光軸内に直に存在すれば、これは常に既定となる。つまり、仮想のカメラシステムvKであって、その光軸が図8cに示すように予め計算された瞳孔中点PMPを直接的に通過するカメラシステムの、センサ上の瞳孔投影を計算することにより、角度δの影響を排除できる。
を取得するために、アイトラッカー配位システムのz方向の単位ベクトルが、アイトラッカー配位システムの複数の軸回りに回転されるべき角度である。軸vKθ、vKφ、及びvKψ回りの、アイトラッカー配位システムのx方向の単位ベクトルの回転と、y方向の単位ベクトルの回転とにより、ベクトルvKx及び
が計算でき、それらはアイトラッカー配位システムにおける仮想のセンサのx軸及びy軸を示す。
[数12]
[数14]
[数15]
[数16]
[数17]
[数18]
[数19]
[数20]
に対応するセンサの法線とともに、光軸に沿って瞳孔中点PMPを通過して走る直線を形成する。つまり、特許文献2の特許明細書で提示された手法に基づいて、次に視線方向を計算するための要件を満足している。従って、この手法を用いると、瞳孔中点が実際のカメラシステムの光軸からずれて存在する場合、上述した仮想のカメラシステムを使用して視線方向を決定することが可能となり、そのような場合とは実際のアプリケーションにおいてほぼ当てはまる。
は、以下のように決定され得る。
と、カメラ2の可能な視線方向
とが必要となる。これら4個のベクトルのうち、各カメラのそれぞれ1つは実際の視線方向を示している。よって、これら2つの標準化されたベクトルは理想的には同一である。それらを識別するために、可能な4個の全ての組合せについて、それぞれに選択された可能な視線方向ベクトルの差が、1つのカメラのベクトルから、及び他のカメラのベクトルから形成される。最小の差を有する組合せが探索ベクトルを含む。平均化されると、これらの結果は決定されるべき視線方向ベクトル
をもたらす。平均化するとき、ほぼ同時に捕捉された画像は、両方のカメラが同じ瞳孔位置と同じアライメント、よって同じ視線方向を収集したと想定されるべきである。
の間の角度wdiffが計算され得る。wdiffが小さければ小さいほど、それまで計算に使用されたモデルパラメータ及び楕円中点が正確であったことになる。
[数30]
から、次式によって計算されるべきである。
[数33]
本願の以下の実施形態の目的は、並列ハフ変換に基づいて、特徴抽出のためのロバストな方法を発展させることである。このために、ハフコアは修正され、特徴抽出のための方法が提示される。その方法は、変換の結果を減少させ、それらを画像ごとの少数の「特徴ベクトル」へと作り変える。その後、新たに発展された方法は、MATLABツールボックス内に実装されて試験される。最後に、新たに発展された方法のFPGA実装を提示する。
並列ハフ変換は種々のサイズのハフコアを使用し、それらはそれぞれのアプリケーション用のコンフィグレーション行列によって構成されなければならない。そのようなコンフィグレーション行列を確立するための数学的コンテキスト及び方法を、以下に提示する。MATLAB alc_config_lines_curvatures.m は、これらの方法に言及し、異なるサイズの直線及び半円のためのコンフィグレーション行列を確立する。
[数36]
により修正されなければならない。
[数44]
1)曲線のアレイの第1曲線から開始して、第1のxインデックス番号のy値をテストする。y値がゼロよりも大きい場合、正に同じ位置(同じxインデックス)にある同じライン(同じyインデックス)内でコンフィグレーション行列の要素を1で占める。
2)曲線のアレイの全ての曲線を介して、y値を同じxインデックスで修正する。第1ステップにおいてある要素が1で占められていた場合、全てのy値から1を差し引く。第1ステップにおいてその要素が何も占められていない場合、何もしない。
3)コンフィグレーション行列の全ての要素がアプローチされる限り、ステップ1とステップ2とをパススルーする。
Holland-Nell(非特許文献4)のFPGA構成の決定的な欠点は、ハフコアの柔軟性のないコンフィグレーションである。合成に先立って遅延ラインがパラメータ化されなければならず、その後、ハードウェア構造の中に固定的に格納される(Holland-Nell(非特許文献4)の48〜49頁)。ランタイム中の変化(例えばハフコアサイズ)は全く不可能である。新たな方法は、この点においてより柔軟になることである。新たなハフコアは、−ランタイム中であっても−FPGAにおいて、完全に新たに構成可能となるべきである。これにより、複数の長所が生まれる。一方では、2つのハフコア(タイプ1及びタイプ2)が並列にファイルされる必要がなく、他方では、直線及び半円について異なるコンフィグレーションが使用されてもよいことである。更に、ハフコアサイズがランタイム中に柔軟に変更され得る。
並列ハフ変換に関する実施形態について、画像回転の必要性とタイプ2のハフコアの特殊性が既に紹介された。並列ハフ変換に関し、初期画像はハフコアを4回通過しなければならない。これは、直線と半円が異なる角度位置で検出され得るようにするために必要である。タイプ1のハフコアだけが使用される場合、画像は初期位置で処理され、約90°、180°及び270°の回転が行われなければならないであろう。タイプ2のハフコアを含むことで、約180°と270°の回転は省略される。未回転の初期画像がタイプ2のハフコアで処理される場合、これはタイプ1のハフコアを用いた約180°回転された初期画像の処理と対応する。それは約270°の回転と類似する。これはタイプ2のハフコアを用いた約90°回転された画像の処理で置換され得る。画像回転は通常、外部ストレージによってのみ解決されるので、FPGA構造にとって、追加的な回転の省略は肯定的な影響を与える。適用されたハードウェアに従い、所定の帯域幅(最大限可能なデータレート)だけがFPGAとストレージ要素との間で使用可能である。タイプ2のハフコアの使用については、外部ストレージ要素の帯域幅は約90°の回転によって占有されるだけである。Holland-Nell(非特許文献4)の従来の構成に関しては、タイプ1のハフコア及びタイプ2のハフコアをFPGA内にファイルすることが必要とされていた。修正されたハフコア設計を用いて、FPGA内にハフコア構造を一度ファイルし、かつタイプ1又はタイプ2のコンフィグレーションをアップロードすることも可能になった。この新たな機能により、初期画像は単一のハフコアだけを用いかつ単一の画像回転を用いるだけで完全に変換することができる。
[数51]
[数52]
[数53]
[数54]
[数55]
[数56]
[数57]
[数58]
[数62]
[数63]
Claims (16)
- 探索パターン(711)を含む画像(710)を受信し、スケーリングファクタに従って前記受信された画像(710)をスケールするよう構成された、画像スケーラ(702)と、
前記受信されかつスケールされた画像の複数のコピー(710'〜710''''''''')を含む一覧画像(712)を生成するよう構成された画像生成部(704)であって、各コピーは異なるスケーリングファクタによってスケールされており、前記生成は、前記一覧画像(712)を形成するために、前記受信されかつスケールされた画像のコピー(710'〜710''''''''')を編集すること、及び前記受信されかつスケールされた画像のコピー(710'〜710''''''''')を前記一覧画像(712)の画像行列内に配置することを含み、前記画像生成部(704)は、前記受信されかつスケールされた画像のコピー(710'〜710''''''''')について、前記一覧画像(712)内の前記受信されかつスケールされた画像のコピー(710'〜710''''''''')間のギャップ、及び前記受信されかつスケールされた画像のコピー(710'〜710''''''''')と前記一覧画像(712)の1つ以上の境界とのギャップを考慮しながら、前記一覧画像(712)内のそれぞれの位置を計算することを含む、画像生成部(704)と、
並列アーキテクチャを有するFPGA上に実装され、所定パターンと前記一覧画像(712)内の前記受信され又はスケールされた画像の複数のコピー(710'〜710''''''''')とを比較し、前記探索パターンと前記所定パターンとの一致度が最大になる、前記一覧画像内の位置に関する情報を出力するよう構成されたパターンファインダ(706)であって、前記位置は前記受信されかつスケールされた画像のそれぞれのコピー(710'〜710''''''''')に関連しており、前記パターンファインダ(706)は、関与する全てのスケールされた画像のコピーを一括して単一ステップで探索する、パターンファインダ(706)と、
を含む2D画像分析装置(700)。 - 請求項1に記載の2D画像分析装置(700)において、スケールされた画像の各コピー(710'〜710''''''''')は、個々のスケーリングファクタにしたがって、前記一覧画像(712)内のそれぞれの位置に割り当てられている、2D画像分析装置。
- 請求項1又は2に記載の2D画像分析装置(700)において、前記それぞれの位置は、前記一覧画像(712)における前記スケールされた画像のコピー(710'〜710''''''''')間のギャップ、前記スケールされた画像のコピー(710'〜710''''''''')の前記一覧画像(712)における1つ以上の境界とのギャップ及び/又は他の所定の条件を考慮する、アルゴリズムによって計算可能である、2D画像分析装置。
- 請求項1〜3のいずれか1項に記載の2D画像分析装置(700)において、前記パターンファインダ(706)は1つ以上の特徴を変換するための特徴変換部と分類部とを有し、前記分類部は前記一覧画像(712)におけるパターンを分類するか、又は前記特徴変換部によって特徴空間へと変換された前記一覧画像(712)における1つのパターンを分類するよう構成されている、2D画像分析装置。
- 請求項4に記載の2D画像分析装置(700)において、前記特徴変換部は特徴を抽出するよう構成され、その特徴変換は、ハフアルゴリズム、センサスアルゴリズム、勾配アルゴリズム、ヒストグラムベースのアルゴリズム、及び/又は相関ベースのアルゴリズムに基づいている、2D画像分析装置。
- 請求項4又は5に記載の2D画像分析装置(700)において、前記分類部は、前記一覧画像(712)のセンサス変換済みバージョンに基づいて、前記一覧画像(712)の特徴空間へと変換されたバージョンに基づいて、又は前記一覧画像(712)のグラデーション画像へと変換されたバージョンに基づいて、分類を実行するよう構成されている、2D画像分析装置。
- 請求項6に記載の2D画像分析装置(700)において、前記パターンファインダ(706)は、前記一覧画像(712)の前記センサス変換済みバージョン、又は前記一覧画像(712)の前記特徴空間へ変換されたバージョン、又は前記一覧画像(712)の前記グラデーション画像へと変換されたバージョン、における1つ以上の極大値を識別するよう構成され、前記極大値の各位置は、前記受信されかつスケールされた画像のそれぞれのコピー(710'〜710''''''''')において識別されるべき前記所定パターンの各位置を示している、2D画像分析装置。
- 請求項6又は7に記載の2D画像分析装置(700)において、前記パターンファインダ(706)は、合計フィルタ及び/又は最大値フィルタを有し、そのフィルタは、前記受信されかつスケールされた画像のそれぞれのコピー(710’〜710’’’’’’’’’)における識別された前記所定パターンの位置を平滑化し、及び/又は分類された前記一覧画像(712)における極大値の位置を平滑化しかつ修正するよう構成されている、2D画像分析装置。
- 請求項4乃至8のいずれか1項に記載の2D画像分析装置(700)において、前記パターンファインダ(706)は、前記受信されかつスケールされた画像のコピー(710'〜710''''''''')について、平均化に基づいて前記極大値の位置を決定するために前記特徴変換と分類とを実行し、前記極大値の位置は、前記受信されかつスケールされた画像のそれぞれのコピー(710'〜710''''''''')における前記識別された所定パターンの位置を示している、2D画像分析装置。
- 請求項4乃至9のいずれか1項に記載の2D画像分析装置(700)において、前記識別された所定パターンの位置は顔の参照点、眼又は一般的な探索オブジェクトに関係している、2D画像分析装置。
- 請求項1乃至10のいずれか1項に記載の2D画像分析装置(700)において、前記2D画像分析装置(700)は、選択的適応型データプロセッサを有する処理ユニットに接続されており、前記プロセッサは複数セットの値を受信し、各セットがそれぞれのサンプルに割り当てられ、前記プロセッサはフィルタプロセッサを含み、
前記フィルタプロセッサは、受信された前記セットに基づき、かつ妥当でないセットが妥当なセットによって置き換えられる方法で、妥当なセットを出力するよう構成されている、2D画像分析装置。 - 請求項1乃至11のいずれか1項に記載の2D画像分析装置(700)において、前記2D画像分析装置(700)は、3D画像分析装置(400)を有する処理ユニットに接続されており、前記3D画像分析装置は第1画像(710)に基づいて決定された画像データの少なくとも1つの第1セットと、前記第1画像(710)又は追加画像(710)に基づいて決定された画像データの追加セットとを受信するよう構成され、前記第1画像(710)は第1視覚から第1画像平面への3次元オブジェクトのパターンを表示しており、前記追加セットは前記3次元オブジェクトの1点と前記第1画像平面との間の相対関係を示す相対情報を含み、
前記3D画像分析装置は
前記第1セットと前記追加画像(710)に基づいて決定された前記追加セットとに基づいて3次元空間内での前記パターンの位置を計算するよう構成されるか、又は前記第1セットと、前記第1画像(710)における2つの特性的特徴の相互間の統計的に評価された関係とに基づいて前記3次元空間内での前記パターンの位置を計算するよう構成された位置計算部と、
1画像毎に2つの可能な3D視線ベクトルを計算し、これら2つの可能な3D視線ベクトルから、前記パターンが前記3次元空間において位置合わせされる3D視線ベクトルを決定するよう構成されるアライメント計算部であって、前記計算と決定とは前記第1セットと前記追加セットとに基づき、かつ計算されるべき前記パターンの位置とに基づいて行われる、アライメント計算部と、
を含む2D画像分析装置。 - 請求項9に記載の2D画像分析装置(700)を含む2D画像分析システムであって、
前記2D画像分析装置(700)は、第1カメラのための第1ハフ経路と前記第1ハフ経路結果の後処理のための処理ユニットとを含む、瞳孔の収集及び/又はトラッキングのための前記画像分析システムに接続されており、前記第1ハフ経路は以下の特徴を持つハフプロセッサを含み、
前処理部(102)であって、それぞれ1つの画像(710)を含む複数のサンプル(112a,112b,112c)を受信し、個々の前記サンプル(112a,112b,112c)の画像(710)を回転及び/又は反転させ、個々の前記サンプル(112a,112b,112c)のために個々の前記サンプル(112a,112b,112c)の画像(710)の複数のバージョン(112a,112a',112a'',112a''')を出力するよう構成された前処理部(102)と、
ハフ変換ユニット(104)であって、前記複数のバージョン(112a,112a',112a'',112a''')に基づいて、前記複数のサンプル(112a,112b,112c)内の所定の探索パターンを収集するよう構成され、このハフ変換ユニット(104)の特性は前記探索パターンに依存して調節可能である、ハフ変換ユニット(104)と、
を備え、前記処理ユニットは収集された前記パターンを分析し、かつ1セットの幾何学的パラメータを出力するためのユニットを有し、前記幾何学的パラメータは各サンプルについて前記パターンの位置及び/又は幾何学的形状を表している、
2D画像分析システム。 - 請求項9に記載の2D画像分析装置(700)と、眼の無反応を検出するよう構成された評価ユニットとを含む、2D画像分析システム。
- 探索パターンを含む受信された画像(710)をスケーリングファクタに従ってスケールするステップと、
受信されかつスケールされた前記画像の複数のコピー(710'〜710''''''''')を含む一覧画像(712)を生成するステップであって、各コピーは異なるスケーリングファクタによってスケールされており、前記生成するステップは、前記一覧画像(712)を形成するために、前記受信されかつスケールされた画像のコピー(710'〜710''''''''')を編集すること、及び前記受信されかつスケールされた画像のコピー(710'〜710''''''''')を前記一覧画像(712)の画像行列内に配置することを含み、前記生成するステップは、前記受信されかつスケールされた画像のコピー(710'〜710''''''''')について、前記一覧画像(712)内の前記受信されかつスケールされた画像のコピー(710'〜710''''''''')間のギャップ、及び前記受信されかつスケールされた画像のコピー(710'〜710''''''''')と前記一覧画像(712)の1つ以上の境界とのギャップを考慮しながら、前記一覧画像(712)内のそれぞれの位置を計算することを含む、ステップと、
並列アーキテクチャを有するFPGA上に実装されたパターンファインダ(706)によって、所定パターンと前記一覧画像(712)内の複数の受信されかつスケールされた前記画像(710'〜710''''''''')の複数のパターンとを比較し、前記探索パターンと前記所定パターンとの一致度が最大になる、前記一覧画像内の位置に関する情報を出力するステップであって、前記位置は前記受信されかつスケールされた画像のそれぞれのコピー(710'〜710''''''''')に関連しており、前記パターンファインダ(706)は、関与する全てのスケールされた画像のコピーを一括して単一ステップで探索する、ステップと、
を含む2D画像(710)を分析する方法。 - FPGA上で作動するとき、請求項15に従う方法の実行のためのプログラムコードを有するコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014201997.4 | 2014-02-04 | ||
DE102014201997 | 2014-02-04 | ||
PCT/EP2015/052009 WO2015117906A1 (de) | 2014-02-04 | 2015-01-30 | 2d-bildanalysator |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017508207A JP2017508207A (ja) | 2017-03-23 |
JP6268303B2 true JP6268303B2 (ja) | 2018-01-24 |
Family
ID=52434840
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016550180A Expired - Fee Related JP6248208B2 (ja) | 2014-02-04 | 2015-01-30 | 視線方向を決定するための3d画像分析装置 |
JP2016550234A Expired - Fee Related JP6268303B2 (ja) | 2014-02-04 | 2015-01-30 | 2d画像分析装置 |
JP2016550235A Expired - Fee Related JP6483715B2 (ja) | 2014-02-04 | 2015-01-30 | ハフプロセッサ |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016550180A Expired - Fee Related JP6248208B2 (ja) | 2014-02-04 | 2015-01-30 | 視線方向を決定するための3d画像分析装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016550235A Expired - Fee Related JP6483715B2 (ja) | 2014-02-04 | 2015-01-30 | ハフプロセッサ |
Country Status (6)
Country | Link |
---|---|
US (3) | US10192135B2 (ja) |
EP (4) | EP3103059A1 (ja) |
JP (3) | JP6248208B2 (ja) |
KR (2) | KR101991496B1 (ja) |
CN (3) | CN106258010B (ja) |
WO (4) | WO2015117906A1 (ja) |
Families Citing this family (131)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150022664A1 (en) | 2012-01-20 | 2015-01-22 | Magna Electronics Inc. | Vehicle vision system with positionable virtual viewpoint |
US10365711B2 (en) | 2012-05-17 | 2019-07-30 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for unified scene acquisition and pose tracking in a wearable display |
CN104715227B (zh) * | 2013-12-13 | 2020-04-03 | 北京三星通信技术研究有限公司 | 人脸关键点的定位方法和装置 |
KR101991496B1 (ko) * | 2014-02-04 | 2019-06-20 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 허프 프로세서 |
DE102015202846B4 (de) | 2014-02-19 | 2020-06-25 | Magna Electronics, Inc. | Fahrzeugsichtsystem mit Anzeige |
US10445573B2 (en) | 2014-06-27 | 2019-10-15 | Fove, Inc. | Gaze detection device |
US10318067B2 (en) * | 2014-07-11 | 2019-06-11 | Hewlett-Packard Development Company, L.P. | Corner generation in a projector display area |
US20180227735A1 (en) * | 2014-08-25 | 2018-08-09 | Phyziio, Inc. | Proximity-Based Attribution of Rewards |
US11049476B2 (en) | 2014-11-04 | 2021-06-29 | The University Of North Carolina At Chapel Hill | Minimal-latency tracking and display for matching real and virtual worlds in head-worn displays |
KR20160094190A (ko) * | 2015-01-30 | 2016-08-09 | 한국전자통신연구원 | 시선 추적 장치 및 방법 |
JP6444233B2 (ja) * | 2015-03-24 | 2018-12-26 | キヤノン株式会社 | 距離計測装置、距離計測方法、およびプログラム |
US20160363995A1 (en) * | 2015-06-12 | 2016-12-15 | Seeing Machines Limited | Circular light element for illumination of cornea in head mounted eye-tracking |
CN105511093B (zh) * | 2015-06-18 | 2018-02-09 | 广州优视网络科技有限公司 | 3d成像方法及装置 |
US9798950B2 (en) * | 2015-07-09 | 2017-10-24 | Olympus Corporation | Feature amount generation device, feature amount generation method, and non-transitory medium saving program |
CN108352393B (zh) | 2015-07-23 | 2022-09-16 | 光程研创股份有限公司 | 高效宽光谱传感器 |
US10707260B2 (en) | 2015-08-04 | 2020-07-07 | Artilux, Inc. | Circuit for operating a multi-gate VIS/IR photodiode |
TW202335281A (zh) | 2015-08-04 | 2023-09-01 | 光程研創股份有限公司 | 光感測系統 |
US10761599B2 (en) * | 2015-08-04 | 2020-09-01 | Artilux, Inc. | Eye gesture tracking |
US10861888B2 (en) | 2015-08-04 | 2020-12-08 | Artilux, Inc. | Silicon germanium imager with photodiode in trench |
US10616149B2 (en) * | 2015-08-10 | 2020-04-07 | The Rocket Science Group Llc | Optimizing evaluation of effectiveness for multiple versions of electronic messages |
CN108140656B (zh) | 2015-08-27 | 2022-07-26 | 光程研创股份有限公司 | 宽频谱光学传感器 |
JP6634765B2 (ja) * | 2015-09-30 | 2020-01-22 | 株式会社ニデック | 眼科装置、および眼科装置制御プログラム |
EP3360023A4 (en) * | 2015-10-09 | 2018-10-10 | SZ DJI Technology Co., Ltd. | Salient feature based vehicle positioning |
US10254389B2 (en) | 2015-11-06 | 2019-04-09 | Artilux Corporation | High-speed light sensing apparatus |
US10418407B2 (en) | 2015-11-06 | 2019-09-17 | Artilux, Inc. | High-speed light sensing apparatus III |
US10886309B2 (en) | 2015-11-06 | 2021-01-05 | Artilux, Inc. | High-speed light sensing apparatus II |
US10739443B2 (en) | 2015-11-06 | 2020-08-11 | Artilux, Inc. | High-speed light sensing apparatus II |
US10741598B2 (en) | 2015-11-06 | 2020-08-11 | Atrilux, Inc. | High-speed light sensing apparatus II |
CN106200905B (zh) * | 2016-06-27 | 2019-03-29 | 联想(北京)有限公司 | 信息处理方法及电子设备 |
EP3481661A4 (en) | 2016-07-05 | 2020-03-11 | Nauto, Inc. | AUTOMATIC DRIVER IDENTIFICATION SYSTEM AND METHOD |
JP6799063B2 (ja) * | 2016-07-20 | 2020-12-09 | 富士フイルム株式会社 | 注目位置認識装置、撮像装置、表示装置、注目位置認識方法及びプログラム |
CN105954992B (zh) * | 2016-07-22 | 2018-10-30 | 京东方科技集团股份有限公司 | 显示系统和显示方法 |
GB2552511A (en) * | 2016-07-26 | 2018-01-31 | Canon Kk | Dynamic parametrization of video content analytics systems |
US10417495B1 (en) * | 2016-08-08 | 2019-09-17 | Google Llc | Systems and methods for determining biometric information |
EP3497405B1 (en) | 2016-08-09 | 2022-06-15 | Nauto, Inc. | System and method for precision localization and mapping |
US10733460B2 (en) | 2016-09-14 | 2020-08-04 | Nauto, Inc. | Systems and methods for safe route determination |
JP6587254B2 (ja) * | 2016-09-16 | 2019-10-09 | 株式会社東海理化電機製作所 | 輝度制御装置、輝度制御システム及び輝度制御方法 |
EP3305176A1 (en) * | 2016-10-04 | 2018-04-11 | Essilor International | Method for determining a geometrical parameter of an eye of a subject |
US11361003B2 (en) * | 2016-10-26 | 2022-06-14 | salesforcecom, inc. | Data clustering and visualization with determined group number |
EP3535646A4 (en) * | 2016-11-07 | 2020-08-12 | Nauto, Inc. | SYSTEM AND METHOD FOR DETERMINING DRIVER DISTRACTION |
JP7076447B2 (ja) * | 2016-11-24 | 2022-05-27 | ユニヴァーシティ オブ ワシントン | ヘッドマウントディスプレイのための光照射野キャプチャおよびレンダリング |
EP3523777A4 (en) * | 2016-12-06 | 2019-11-13 | SZ DJI Technology Co., Ltd. | SYSTEM AND METHOD FOR CONFIGURING A WIDE ANGLE IMAGE |
DE102016224886B3 (de) * | 2016-12-13 | 2018-05-30 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren und Vorrichtung zur Ermittlung der Schnittkanten von zwei sich überlappenden Bildaufnahmen einer Oberfläche |
WO2018121878A1 (en) * | 2016-12-30 | 2018-07-05 | Tobii Ab | Eye/gaze tracking system and method |
US10282592B2 (en) * | 2017-01-12 | 2019-05-07 | Icatch Technology Inc. | Face detecting method and face detecting system |
DE102017103721B4 (de) * | 2017-02-23 | 2022-07-21 | Karl Storz Se & Co. Kg | Vorrichtung zur Erfassung eines Stereobilds mit einer rotierbaren Blickrichtungseinrichtung |
KR101880751B1 (ko) * | 2017-03-21 | 2018-07-20 | 주식회사 모픽 | 무안경 입체영상시청을 위해 사용자 단말과 렌티큘러 렌즈 간 정렬 오차를 줄이기 위한 방법 및 이를 수행하는 사용자 단말 |
JP7003455B2 (ja) * | 2017-06-15 | 2022-01-20 | オムロン株式会社 | テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム |
US10430695B2 (en) | 2017-06-16 | 2019-10-01 | Nauto, Inc. | System and method for contextualized vehicle operation determination |
US10453150B2 (en) | 2017-06-16 | 2019-10-22 | Nauto, Inc. | System and method for adverse vehicle event determination |
EP3420887A1 (en) | 2017-06-30 | 2019-01-02 | Essilor International | Method for determining the position of the eye rotation center of the eye of a subject, and associated device |
EP3430973A1 (en) * | 2017-07-19 | 2019-01-23 | Sony Corporation | Mobile system and method |
JP2019017800A (ja) * | 2017-07-19 | 2019-02-07 | 富士通株式会社 | コンピュータプログラム、情報処理装置及び情報処理方法 |
KR101963392B1 (ko) * | 2017-08-16 | 2019-03-28 | 한국과학기술연구원 | 무안경식 3차원 영상표시장치의 동적 최대 시역 형성 방법 |
US11250589B2 (en) * | 2017-08-25 | 2022-02-15 | Chris Hsinlai Liu | General monocular machine vision system and method for identifying locations of target elements |
US10460458B1 (en) * | 2017-09-14 | 2019-10-29 | United States Of America As Represented By The Secretary Of The Air Force | Method for registration of partially-overlapped aerial imagery using a reduced search space methodology with hybrid similarity measures |
CN107818305B (zh) * | 2017-10-31 | 2020-09-22 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备和计算机可读存储介质 |
EP3486834A1 (en) * | 2017-11-16 | 2019-05-22 | Smart Eye AB | Detection of a pose of an eye |
CN108024056B (zh) * | 2017-11-30 | 2019-10-29 | Oppo广东移动通信有限公司 | 基于双摄像头的成像方法和装置 |
KR102444666B1 (ko) * | 2017-12-20 | 2022-09-19 | 현대자동차주식회사 | 차량용 3차원 입체 영상의 제어 방법 및 장치 |
CN108334810B (zh) * | 2017-12-25 | 2020-12-11 | 北京七鑫易维信息技术有限公司 | 视线追踪设备中确定参数的方法和装置 |
JP7109193B2 (ja) | 2018-01-05 | 2022-07-29 | ラピスセミコンダクタ株式会社 | 操作判定装置及び操作判定方法 |
CN108875526B (zh) * | 2018-01-05 | 2020-12-25 | 北京旷视科技有限公司 | 视线检测的方法、装置、系统及计算机存储介质 |
US10853674B2 (en) | 2018-01-23 | 2020-12-01 | Toyota Research Institute, Inc. | Vehicle systems and methods for determining a gaze target based on a virtual eye position |
US10817068B2 (en) * | 2018-01-23 | 2020-10-27 | Toyota Research Institute, Inc. | Vehicle systems and methods for determining target based on selecting a virtual eye position or a pointing direction |
US10706300B2 (en) * | 2018-01-23 | 2020-07-07 | Toyota Research Institute, Inc. | Vehicle systems and methods for determining a target based on a virtual eye position and a pointing direction |
TWI788246B (zh) | 2018-02-23 | 2022-12-21 | 美商光程研創股份有限公司 | 光偵測裝置 |
US11105928B2 (en) | 2018-02-23 | 2021-08-31 | Artilux, Inc. | Light-sensing apparatus and light-sensing method thereof |
WO2019169031A1 (en) | 2018-02-27 | 2019-09-06 | Nauto, Inc. | Method for determining driving policy |
US11675428B2 (en) * | 2018-03-29 | 2023-06-13 | Tobii Ab | Determining a gaze direction using depth information |
TWI758599B (zh) | 2018-04-08 | 2022-03-21 | 美商光程研創股份有限公司 | 光偵測裝置 |
CN108667686B (zh) * | 2018-04-11 | 2021-10-22 | 国电南瑞科技股份有限公司 | 一种网络报文时延测量的可信度评估方法 |
KR20190118965A (ko) * | 2018-04-11 | 2019-10-21 | 주식회사 비주얼캠프 | 시선 추적 시스템 및 방법 |
WO2019199035A1 (ko) * | 2018-04-11 | 2019-10-17 | 주식회사 비주얼캠프 | 시선 추적 시스템 및 방법 |
US10854770B2 (en) | 2018-05-07 | 2020-12-01 | Artilux, Inc. | Avalanche photo-transistor |
US10969877B2 (en) | 2018-05-08 | 2021-04-06 | Artilux, Inc. | Display apparatus |
CN108876733B (zh) * | 2018-05-30 | 2021-11-09 | 上海联影医疗科技股份有限公司 | 一种图像增强方法、装置、设备和存储介质 |
US10410372B1 (en) * | 2018-06-14 | 2019-09-10 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer-readable media for utilizing radial distortion to estimate a pose configuration |
US10803618B2 (en) * | 2018-06-28 | 2020-10-13 | Intel Corporation | Multiple subject attention tracking |
CN109213031A (zh) * | 2018-08-13 | 2019-01-15 | 祝爱莲 | 窗体加固控制平台 |
KR102521408B1 (ko) * | 2018-08-27 | 2023-04-14 | 삼성전자주식회사 | 인포그래픽을 제공하기 위한 전자 장치 및 그에 관한 방법 |
CA3110980A1 (en) * | 2018-08-30 | 2020-03-05 | Splashlight Holding Llc | Technologies for enabling analytics of computing events based on augmented canonicalization of classified images |
CN109376595B (zh) * | 2018-09-14 | 2023-06-23 | 杭州宇泛智能科技有限公司 | 基于人眼注意力的单目rgb摄像头活体检测方法及系统 |
JP6934001B2 (ja) * | 2018-09-27 | 2021-09-08 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、プログラムおよび記録媒体 |
JP7099925B2 (ja) * | 2018-09-27 | 2022-07-12 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、プログラムおよび記録媒体 |
CN110966923B (zh) * | 2018-09-29 | 2021-08-31 | 深圳市掌网科技股份有限公司 | 室内三维扫描与危险排除系统 |
US11144779B2 (en) * | 2018-10-16 | 2021-10-12 | International Business Machines Corporation | Real-time micro air-quality indexing |
CN109492120B (zh) * | 2018-10-31 | 2020-07-03 | 四川大学 | 模型训练方法、检索方法、装置、电子设备及存储介质 |
JP7001042B2 (ja) * | 2018-11-08 | 2022-01-19 | 日本電信電話株式会社 | 眼情報推定装置、眼情報推定方法、プログラム |
CN111479104A (zh) * | 2018-12-21 | 2020-07-31 | 托比股份公司 | 用于计算视线会聚距离的方法 |
US11113842B2 (en) * | 2018-12-24 | 2021-09-07 | Samsung Electronics Co., Ltd. | Method and apparatus with gaze estimation |
CN109784226B (zh) * | 2018-12-28 | 2020-12-15 | 深圳云天励飞技术有限公司 | 人脸抓拍方法及相关装置 |
US11049289B2 (en) * | 2019-01-10 | 2021-06-29 | General Electric Company | Systems and methods to semi-automatically segment a 3D medical image using a real-time edge-aware brush |
US10825137B2 (en) * | 2019-01-15 | 2020-11-03 | Datalogic IP Tech, S.r.l. | Systems and methods for pre-localization of regions of interest for optical character recognition, and devices therefor |
KR102653252B1 (ko) * | 2019-02-21 | 2024-04-01 | 삼성전자 주식회사 | 외부 객체의 정보에 기반하여 시각화된 인공 지능 서비스를 제공하는 전자 장치 및 전자 장치의 동작 방법 |
US11068052B2 (en) * | 2019-03-15 | 2021-07-20 | Microsoft Technology Licensing, Llc | Holographic image generated based on eye position |
DE102019107853B4 (de) * | 2019-03-27 | 2020-11-19 | Schölly Fiberoptic GmbH | Verfahren zur Inbetriebnahme einer Kamerasteuerungseinheit (CCU) |
US11644897B2 (en) | 2019-04-01 | 2023-05-09 | Evolution Optiks Limited | User tracking system using user feature location and method, and digital display device and digital image rendering system and method using same |
WO2020201999A2 (en) | 2019-04-01 | 2020-10-08 | Evolution Optiks Limited | Pupil tracking system and method, and digital display device and digital image rendering system and method using same |
US20210011550A1 (en) * | 2019-06-14 | 2021-01-14 | Tobii Ab | Machine learning based gaze estimation with confidence |
CN110718067A (zh) * | 2019-09-23 | 2020-01-21 | 浙江大华技术股份有限公司 | 违规行为告警方法及相关装置 |
US11080892B2 (en) * | 2019-10-07 | 2021-08-03 | The Boeing Company | Computer-implemented methods and system for localizing an object |
US11688199B2 (en) * | 2019-11-13 | 2023-06-27 | Samsung Electronics Co., Ltd. | Method and apparatus for face detection using adaptive threshold |
CN113208591B (zh) * | 2020-01-21 | 2023-01-06 | 魔门塔(苏州)科技有限公司 | 一种眼睛开闭距离的确定方法及装置 |
JP7355213B2 (ja) * | 2020-02-28 | 2023-10-03 | 日本電気株式会社 | 画像取得装置、画像取得方法および画像処理装置 |
CN113448428B (zh) * | 2020-03-24 | 2023-04-25 | 中移(成都)信息通信科技有限公司 | 一种视线焦点的预测方法、装置、设备及计算机存储介质 |
US10949986B1 (en) | 2020-05-12 | 2021-03-16 | Proprio, Inc. | Methods and systems for imaging a scene, such as a medical scene, and tracking objects within the scene |
CN111768433B (zh) * | 2020-06-30 | 2024-05-24 | 杭州海康威视数字技术股份有限公司 | 一种移动目标追踪的实现方法、装置及电子设备 |
US11676255B2 (en) * | 2020-08-14 | 2023-06-13 | Optos Plc | Image correction for ophthalmic images |
CN111985384B (zh) * | 2020-08-14 | 2024-09-24 | 深圳地平线机器人科技有限公司 | 获取脸部关键点的3d坐标及3d脸部模型的方法和装置 |
US20240019990A1 (en) * | 2020-09-04 | 2024-01-18 | Telefonaktiebolaget Lm Ericsson (Publ) | A Computer Software Module Arrangement, a Circuitry Arrangement, and Arrangement and a Method for Improved User Interface |
US10909167B1 (en) * | 2020-09-17 | 2021-02-02 | Pure Memories Ltd | Systems and methods for organizing an image gallery |
CN112633313B (zh) * | 2020-10-13 | 2021-12-03 | 北京匠数科技有限公司 | 一种网络终端的不良信息识别方法及局域网终端设备 |
CN112255882A (zh) * | 2020-10-23 | 2021-01-22 | 泉芯集成电路制造(济南)有限公司 | 集成电路版图微缩方法 |
CN112650461B (zh) * | 2020-12-15 | 2021-07-13 | 广州舒勇五金制品有限公司 | 一种基于相对位置的展示系统 |
US20220198731A1 (en) * | 2020-12-23 | 2022-06-23 | Facebook Technologies, Llc | Pixel-aligned volumetric avatars |
US12095975B2 (en) | 2020-12-23 | 2024-09-17 | Meta Platforms Technologies, Llc | Reverse pass-through glasses for augmented reality and virtual reality devices |
US11417024B2 (en) | 2021-01-14 | 2022-08-16 | Momentick Ltd. | Systems and methods for hue based encoding of a digital image |
KR20220115001A (ko) * | 2021-02-09 | 2022-08-17 | 현대모비스 주식회사 | 스마트 디바이스 스위블을 이용한 차량 제어 장치 및 그 방법 |
US20220270116A1 (en) * | 2021-02-24 | 2022-08-25 | Neil Fleischer | Methods to identify critical customer experience incidents using remotely captured eye-tracking recording combined with automatic facial emotion detection via mobile phone or webcams. |
WO2022259499A1 (ja) * | 2021-06-11 | 2022-12-15 | 三菱電機株式会社 | 視線検出装置 |
JP2022189536A (ja) * | 2021-06-11 | 2022-12-22 | キヤノン株式会社 | 撮像装置および方法 |
US11914915B2 (en) * | 2021-07-30 | 2024-02-27 | Taiwan Semiconductor Manufacturing Company, Ltd. | Near eye display apparatus |
TWI782709B (zh) * | 2021-09-16 | 2022-11-01 | 財團法人金屬工業研究發展中心 | 手術機械臂控制系統以及手術機械臂控制方法 |
CN114387442A (zh) * | 2022-01-12 | 2022-04-22 | 南京农业大学 | 一种多维空间中的直线、平面和超平面的快速检测方法 |
US11887151B2 (en) * | 2022-02-14 | 2024-01-30 | Korea Advanced Institute Of Science And Technology | Method and apparatus for providing advertisement disclosure for identifying advertisements in 3-dimensional space |
US12106479B2 (en) * | 2022-03-22 | 2024-10-01 | T-Jet Meds Corporation Limited | Ultrasound image recognition system and data output module |
CN114794992B (zh) * | 2022-06-07 | 2024-01-09 | 深圳甲壳虫智能有限公司 | 充电座、机器人的回充方法和扫地机器人 |
CN115936037B (zh) * | 2023-02-22 | 2023-05-30 | 青岛创新奇智科技集团股份有限公司 | 二维码的解码方法及装置 |
CN116523831B (zh) * | 2023-03-13 | 2023-09-19 | 深圳市柯达科电子科技有限公司 | 一种曲面背光源的组装成型工艺控制方法 |
CN116109643B (zh) * | 2023-04-13 | 2023-08-04 | 深圳市明源云科技有限公司 | 市场布局数据采集方法、设备及计算机可读存储介质 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3069654A (en) | 1960-03-25 | 1962-12-18 | Paul V C Hough | Method and means for recognizing complex patterns |
JP3163215B2 (ja) * | 1994-03-07 | 2001-05-08 | 日本電信電話株式会社 | 直線抽出ハフ変換画像処理装置 |
JP4675492B2 (ja) * | 2001-03-22 | 2011-04-20 | 本田技研工業株式会社 | 顔画像を使用した個人認証装置 |
JP4128001B2 (ja) * | 2001-11-19 | 2008-07-30 | グローリー株式会社 | 歪み画像の対応付け方法、装置およびプログラム |
JP4275345B2 (ja) * | 2002-01-30 | 2009-06-10 | 株式会社日立製作所 | パターン検査方法及びパターン検査装置 |
CN2586213Y (zh) * | 2002-12-24 | 2003-11-12 | 合肥工业大学 | 实时实现Hough变换的光学装置 |
US7164807B2 (en) | 2003-04-24 | 2007-01-16 | Eastman Kodak Company | Method and system for automatically reducing aliasing artifacts |
JP4324417B2 (ja) * | 2003-07-18 | 2009-09-02 | 富士重工業株式会社 | 画像処理装置および画像処理方法 |
JP4604190B2 (ja) * | 2004-02-17 | 2010-12-22 | 国立大学法人静岡大学 | 距離イメージセンサを用いた視線検出装置 |
DE102004046617A1 (de) | 2004-09-22 | 2006-04-06 | Eldith Gmbh | Vorrichtung und Verfahren zur berührungslosen Bestimmung der Blickrichtung |
US8995715B2 (en) * | 2010-10-26 | 2015-03-31 | Fotonation Limited | Face or other object detection including template matching |
JP4682372B2 (ja) * | 2005-03-31 | 2011-05-11 | 株式会社国際電気通信基礎技術研究所 | 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の検出方法を実行させるためのプログラム |
US7406212B2 (en) | 2005-06-02 | 2008-07-29 | Motorola, Inc. | Method and system for parallel processing of Hough transform computations |
CA2622365A1 (en) * | 2005-09-16 | 2007-09-13 | Imotions-Emotion Technology A/S | System and method for determining human emotion by analyzing eye properties |
DE102005047160B4 (de) * | 2005-09-30 | 2007-06-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung, Verfahren und Computerprogramm zum Ermitteln einer Information über eine Form und/oder eine Lage einer Ellipse in einem graphischen Bild |
KR100820639B1 (ko) * | 2006-07-25 | 2008-04-10 | 한국과학기술연구원 | 시선 기반 3차원 인터랙션 시스템 및 방법 그리고 3차원시선 추적 시스템 및 방법 |
US8180159B2 (en) * | 2007-06-06 | 2012-05-15 | Sharp Kabushiki Kaisha | Image processing apparatus, image forming apparatus, image processing system, and image processing method |
JP5558081B2 (ja) * | 2009-11-24 | 2014-07-23 | 株式会社エヌテック | 画像形成状態検査方法、画像形成状態検査装置及び画像形成状態検査用プログラム |
US8670019B2 (en) * | 2011-04-28 | 2014-03-11 | Cisco Technology, Inc. | System and method for providing enhanced eye gaze in a video conferencing environment |
JP2013024910A (ja) * | 2011-07-15 | 2013-02-04 | Canon Inc | 観察用光学機器 |
US9323325B2 (en) * | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US20130085893A1 (en) | 2011-09-30 | 2013-04-04 | Ebay Inc. | Acquisition and use of query images with image feature data |
CN103297767B (zh) * | 2012-02-28 | 2016-03-16 | 三星电子(中国)研发中心 | 一种适用于多核嵌入式平台的jpeg图像解码方法及解码器 |
US9308439B2 (en) * | 2012-04-10 | 2016-04-12 | Bally Gaming, Inc. | Controlling three-dimensional presentation of wagering game content |
CN102662476B (zh) * | 2012-04-20 | 2015-01-21 | 天津大学 | 一种视线估计方法 |
US11093702B2 (en) * | 2012-06-22 | 2021-08-17 | Microsoft Technology Licensing, Llc | Checking and/or completion for data grids |
EP2709060B1 (en) * | 2012-09-17 | 2020-02-26 | Apple Inc. | Method and an apparatus for determining a gaze point on a three-dimensional object |
CN103019507B (zh) * | 2012-11-16 | 2015-03-25 | 福州瑞芯微电子有限公司 | 一种基于人脸跟踪改变视点角度显示三维图形的方法 |
CN103136525B (zh) * | 2013-02-28 | 2016-01-20 | 中国科学院光电技术研究所 | 一种利用广义Hough变换的异型扩展目标高精度定位方法 |
JP6269662B2 (ja) | 2013-05-08 | 2018-01-31 | コニカミノルタ株式会社 | 発光パターンを有する有機エレクトロルミネッセンス素子の製造方法 |
KR20150006993A (ko) * | 2013-07-10 | 2015-01-20 | 삼성전자주식회사 | 디스플레이 장치 및 이의 디스플레이 방법 |
US9619884B2 (en) | 2013-10-03 | 2017-04-11 | Amlogic Co., Limited | 2D to 3D image conversion device and method |
KR101991496B1 (ko) | 2014-02-04 | 2019-06-20 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 허프 프로세서 |
CN106456148B (zh) * | 2014-03-19 | 2020-06-12 | 直观外科手术操作公司 | 使用眼球凝视跟踪的医疗装置、系统和方法 |
US9607428B2 (en) | 2015-06-30 | 2017-03-28 | Ariadne's Thread (Usa), Inc. | Variable resolution virtual reality display system |
-
2015
- 2015-01-30 KR KR1020167024301A patent/KR101991496B1/ko active IP Right Grant
- 2015-01-30 WO PCT/EP2015/052009 patent/WO2015117906A1/de active Application Filing
- 2015-01-30 WO PCT/EP2015/052011 patent/WO2015117907A2/de active Application Filing
- 2015-01-30 EP EP15701823.5A patent/EP3103059A1/de not_active Withdrawn
- 2015-01-30 CN CN201580018519.5A patent/CN106258010B/zh not_active Expired - Fee Related
- 2015-01-30 JP JP2016550180A patent/JP6248208B2/ja not_active Expired - Fee Related
- 2015-01-30 JP JP2016550234A patent/JP6268303B2/ja not_active Expired - Fee Related
- 2015-01-30 CN CN201580014214.7A patent/CN106133750B/zh not_active Expired - Fee Related
- 2015-01-30 WO PCT/EP2015/052001 patent/WO2015117904A1/de active Application Filing
- 2015-01-30 WO PCT/EP2015/052004 patent/WO2015117905A1/de active Application Filing
- 2015-01-30 CN CN201580014261.1A patent/CN106104573A/zh active Pending
- 2015-01-30 EP EP15702739.2A patent/EP3103060A1/de not_active Withdrawn
- 2015-01-30 KR KR1020167024546A patent/KR101858491B1/ko active IP Right Grant
- 2015-01-30 JP JP2016550235A patent/JP6483715B2/ja not_active Expired - Fee Related
- 2015-01-30 EP EP15701822.7A patent/EP3103058A1/de not_active Ceased
- 2015-01-30 EP EP21203252.8A patent/EP3968288A2/de not_active Withdrawn
-
2016
- 2016-07-28 US US15/221,847 patent/US10192135B2/en not_active Expired - Fee Related
- 2016-08-04 US US15/228,826 patent/US10592768B2/en not_active Expired - Fee Related
- 2016-08-04 US US15/228,844 patent/US10074031B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017514193A (ja) | 2017-06-01 |
WO2015117904A1 (de) | 2015-08-13 |
EP3103058A1 (de) | 2016-12-14 |
US20160335475A1 (en) | 2016-11-17 |
KR20160119176A (ko) | 2016-10-12 |
WO2015117905A1 (de) | 2015-08-13 |
JP6483715B2 (ja) | 2019-03-13 |
EP3103059A1 (de) | 2016-12-14 |
CN106133750B (zh) | 2020-08-28 |
CN106258010A (zh) | 2016-12-28 |
KR101858491B1 (ko) | 2018-05-16 |
US20160342856A1 (en) | 2016-11-24 |
WO2015117906A1 (de) | 2015-08-13 |
US10592768B2 (en) | 2020-03-17 |
WO2015117907A3 (de) | 2015-10-01 |
EP3103060A1 (de) | 2016-12-14 |
US20170032214A1 (en) | 2017-02-02 |
WO2015117907A2 (de) | 2015-08-13 |
CN106258010B (zh) | 2019-11-22 |
KR20160119146A (ko) | 2016-10-12 |
JP6248208B2 (ja) | 2017-12-13 |
CN106104573A (zh) | 2016-11-09 |
US10192135B2 (en) | 2019-01-29 |
JP2017508207A (ja) | 2017-03-23 |
US10074031B2 (en) | 2018-09-11 |
KR101991496B1 (ko) | 2019-06-20 |
EP3968288A2 (de) | 2022-03-16 |
JP2017509967A (ja) | 2017-04-06 |
CN106133750A (zh) | 2016-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6268303B2 (ja) | 2d画像分析装置 | |
US12067689B2 (en) | Systems and methods for determining the scale of human anatomy from images | |
CN109716268B (zh) | 眼部和头部跟踪 | |
CN107852533B (zh) | 三维内容生成装置及其三维内容生成方法 | |
EP3101624B1 (en) | Image processing method and image processing device | |
CN107111753B (zh) | 用于注视跟踪模型的注视检测偏移 | |
EP3407255A1 (en) | Eye tracking method, electronic device, and non-transitory computer readable storage medium | |
US20130182079A1 (en) | Motion capture using cross-sections of an object | |
Fuhl et al. | Ways of improving the precision of eye tracking data: Controlling the influence of dirt and dust on pupil detection | |
US20130182897A1 (en) | Systems and methods for capturing motion in three-dimensional space | |
EP4383193A1 (en) | Line-of-sight direction tracking method and apparatus | |
KR20140125713A (ko) | 카메라 어레이에 기반하여 시선을 추적하는 방법 및 장치 | |
KR20170056860A (ko) | 이미지 생성 방법 및 장치 | |
JP2008198193A (ja) | 顔認証システム、方法及びプログラム | |
KR101272811B1 (ko) | 인터페이스 시스템 및 방법 | |
JP2016532217A (ja) | グリントにより眼を検出する方法および装置 | |
Changwani et al. | Low-cost eye tracking for foveated rendering using machine learning | |
KR101348903B1 (ko) | 시선 추적용 기하광학에 기반한 각막 반경 측정 알고리즘을 이용한 각막 반경 측정 장치 및 방법 | |
Wolski et al. | Cross spread pupil tracking technique | |
Zhao | Stereo imaging and obstacle detection methods for vehicle guidance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6268303 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |