JP6248208B2 - 視線方向を決定するための3d画像分析装置 - Google Patents

視線方向を決定するための3d画像分析装置 Download PDF

Info

Publication number
JP6248208B2
JP6248208B2 JP2016550180A JP2016550180A JP6248208B2 JP 6248208 B2 JP6248208 B2 JP 6248208B2 JP 2016550180 A JP2016550180 A JP 2016550180A JP 2016550180 A JP2016550180 A JP 2016550180A JP 6248208 B2 JP6248208 B2 JP 6248208B2
Authority
JP
Japan
Prior art keywords
image
pattern
line
additional
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016550180A
Other languages
English (en)
Other versions
JP2017514193A (ja
Inventor
クレンツァー,ダニエル
ヘス,アルプレヒト
ケタイ,アンドレス
Original Assignee
フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン filed Critical フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Publication of JP2017514193A publication Critical patent/JP2017514193A/ja
Application granted granted Critical
Publication of JP6248208B2 publication Critical patent/JP6248208B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • G06F17/145Square transforms, e.g. Hadamard, Walsh, Haar, Hough, Slant transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/955Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20008Globally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Description

本発明の実施形態は、3D空間内でユーザーによる校正の必要なく視線方向(Blickrichtung)(即ち、方向ベクトル)又は目視線(Blickgeraden)(位置ベクトル及び方向ベクトルからなる)を決定するための3D画像分析装置に関し、そのユーザーの視線方向が本装置により決定されるべきものである。さらなる実施形態は、アライメント及び/又は視線方向を認識するための3D画像分析装置を有する画像分析システムと、アライメント及び/又は視線方向を認識するための対応する方法とに関する。
人間の視線を自動的に決定するために、様々なカテゴリーのシステムがある。1つの一般的なカテゴリーはビデオベースのシステムであり、そのシステムは1つ以上のカメラを用いて人間の眼を記録し、それから視線方向を決定するためにこれらビデオの記録をオンライン又はオフラインで分析する。
視線方向のビデオベースの決定のためのシステムは、概して使用前に及びある場合には追加的に使用中に(例えば、カメラの検出ゾーンを離れる場合、又はユーザーとシステムとの間の位置の変化が起こった場合に)、ユーザーの視線方向を決定できるようにするため、各ユーザーに対して校正手順の実行を要求する。さらに、これらシステムの幾つかは、視線方向の決定を実行するために、カメラと照明との相互の非常に特異でかつ所定の配置を必要とするか、又はユーザーに対するカメラの非常に特異な配置とユーザー位置についての事前の知識(例えば特許文献1に開示されているような)と、を必要とする。
したがって、改良された概念についての必要性が生じる。
ドイツ特許DE102004046617A1 ドイツ特許DE102005047160B4
Steffen Markert: gaze direction determination of the human eye in real time(学位論文) Andrew T. Duchowski: Eye Tracking Methodology: Theory and Practice Johannes Katzmann: A real time implementation for the ellipsis Hough transformation (学位論文) Christian Holland-Nell: Implementation of a pupil detection algorithm based on the Hough transformation for circles (学位論文) Christian Kueblbeck, Andreas Ernst: Face detection and tracking in video sequences using the modified census transformation Paul Viola, Michael Jones: Robust Real-time Object Detection
1つの目的は、効率的でかつ信頼性のある方向認識、例えば視線方向認識を可能とすることである。
この目的は、独立請求項によって達成される。さらなる実施形態は従属請求項で定義される。
本発明の実施形態は、視線方向、目視線(例えば視線方向ベクトルと位置ベクトルとを含み、位置ベクトルは例えば瞳孔中点を示し、その瞳孔中点から視線方向ベクトルが開始する)、又は視点を決定するための3D画像分析装置を創造することであり、3D画像分析装置は、第1画像に基づいて決定された画像データの少なくとも1つの第1セットと、第1画像又は追加の画像に基づいて決定された情報の追加セットとを受信するよう構成され、第1画像は第1視覚から第1画像平面への3次元オブジェクト(例えば瞳孔、虹彩、又は楕円のパターン)の表示から得られるパターンを含み、追加セットはまた追加の視覚から追加の画像平面への同じ3次元オブジェクトの表示から得られるパターンを持つ画像を含むか、又は追加セットは3次元オブジェクトの少なくとも1つの点と第1画像平面との間の(相対的)関係を表す情報を含む。3D画像分析装置は、位置計算部とアライメント計算部セットアップとを含む。位置計算部は、第1セット、追加画像に基づいて決定された追加セット、及び第1画像と追加画像との視覚間の幾何学的関係に基づいて、3次元空間内のパターンの位置を計算するよう構成されるか、又は第1セットと第1画像において少なくとも2つの特性的特徴の相互間の統計的に評価された関係とに基づいて、3次元空間内のパターンの位置を計算するよう構成されるか、又は第1セットと3次元オブジェクトの少なくとも1つの点及び第1画像平面の間の位置関係とに基づいて、3次元空間内のパターンの位置を計算するよう構成される。アライメント計算部は、1画像あたり2つの可能な3D視線ベクトルを計算し、これら可能な3D視線ベクトルから、3次元空間におけるパターンがそれに従って位置合わせされる3D視線ベクトルを決定するよう構成され、その場合、計算及び決定が第1セットと追加セットと前記パターンの計算された位置とに基づいている。
つまり、本発明の要旨は、−上述の位置計算部によって前記パターンの決定された位置に基づいて−例えば空間内での瞳孔のアライメント(つまり、視線方向)のような空間内でのオブジェクトのアライメント、及び/又は目視線(視線方向ベクトル及び位置ベクトルからなり、位置ベクトルは例えば瞳孔中点を示し、かつ視線方向ベクトルが開始する点を示す)は、例えば第1視覚からの画像データの少なくとも1つのセット、追加的情報、及び/又は(追加の視覚からの)画像データの追加セットに基づいて、決定されうるということが認識されてきた、という事実である。アライメントの決定は位置計算部によって実行され、位置計算部は、第1ステップにおいてパターンの位置を決定する。その場合、パターンのこの特異位置から開始する、前記パターンが位置合わせされ得るような2つの可能な3D視線ベクトルが存在する。よって、これら2つの可能な3D視線ベクトルが決定され、その結果、例えばパターンの光学的歪みがパターンの基本的形状と比較されることができ、またその比較から、パターンが画像の光学面に対してどの程度傾いているかが決定される(画像データの第1セット参照)。傾斜している場合に楕円として示される(丸い)瞳孔の実例から開始すれば、光学面に相対して瞳孔の2つの可能な傾斜度(Verkippungswinkel)が存在し、その瞳孔が瞳孔の楕円形状表示(ellipsenfoermigen Darstellung)をもたらすことが明らかになる。それ故、アライメント計算部は、画像データの追加セットに基づいて、又は画像情報の第1セットに基づいて取得される追加的情報に基づいて3D視線ベクトルを決定し、その追加的情報は理論的に可能な傾斜度及び/又は現実の3D視線ベクトルに対応し、つまり現実の視線方向に対応している。
よって、(3D位置計算と仮想の投影平面とを使用することによって)、瞳孔とカメラとの距離の事前の知識なくとも、又は(例えば瞳孔中点による)カメラの光軸の厳密な位置決めがなくとも、好ましくは視線方向ベクトル及び/又は目視線(探索パターン及び方向ベクトルからなる)が決定され得る。
実施形態によれば、適用可能な3D視線ベクトルの決定及び/又は選択は、画像データの(追加の視覚からの)追加セットについての2つの追加の可能な3D視線ベクトルが決定されるように実行され、その場合、画像データの第1セットからの3D視線ベクトルは画像データの追加セットからの3D視線ベクトルと対応し、それ故、その視線ベクトルは現実の3D視線ベクトルである。これとは代替的に、さらなる実施形態によれば、画像データの第1セットは、例えば第1画像において示された眼の強膜の何個のピクセルが2つの可能な3D視線ベクトル(瞳孔中点から開始する)によって走査されるかという事実に関して、分析されることもできる。その場合、強膜のより少数のピクセルを走査する3D視線ベクトルが選択される。強膜の分析の代わりに、3D視線ベクトルであって、(瞳孔中点から開始する)そのベクトルの画像の中への投影に沿う、瞳孔中点と眼の開口部の端部との間の距離がより短くなる3D視線ベクトルが、選択されるようにすることも可能であろう。
さらなる実施形態によれば、顔の2つの顔特性(例えば鼻と眼)間の距離のような統計的に決定された関係が、パターンにおける一点(例えば瞳孔又は虹彩中心)の3D位置を計算するために考慮され得る。これら統計的関係は事前に決定され、メモリ内に格納される。
さらなる実施形態によれば、上述のパターンにおける一点の3D位置の決定は、統計的に決定された値を使用する場合に限らない。3D位置は、顔特性(例えば鼻や眼)の3D位置又は上述のパターンの3D位置を提供する上流側計算部の結果に基づいて、決定され得る。
さらなる実施形態によれば、可能な3D視線ベクトルからの現実の3D視線ベクトルの選択は、パターン(例えば瞳孔又は虹彩中心)の3D位置に基づき、かつ顔特性(例えば眼の端部、口の端部)の上述の3D位置にも基づいて、実行され得る。
さらなる実施形態によれば、アライメント計算は次のような方法で実行される。即ち、光学レンズを含む現実の第1投影平面の光軸回りの回転により、第1仮想投影平面が第1画像のために計算され、その場合、第1仮想投影平面に対して直交すると定義された第1仮想光軸が、認識されたパターンの中点を通過するように計算される。好ましくは、さらなる実施形態によれば、光学レンズを含む現実の第2投影平面の光軸回りの回転により、第2仮想投影平面が追加画像のために計算され、その場合、第2仮想投影平面に対して直交すると定義された第2仮想光軸が、エッジパターンの中点を通過するように計算される。次に、上述の仮想投影平面を使用することにより、第1と第2の画像とに基づいて、2つの可能な3D視線ベクトルをそれぞれ計算することが可能になり、そのうちのそれぞれ1つが、(理想的には正確に、実際には多少のずれをもって)現実の3D視線ベクトルに対応する。
さらなる実施形態によれば、3D視線ベクトルは1組の方程式によって表すことができ、そこでは各方程式が、3D視線ベクトルに対する個々の軸および個々の仮想投影平面の幾何学的関係を表現している。第1仮想投影平面に関しては、第1セットの画像データに基づいて3D視線ベクトルが第1方程式によって表すことができ、その場合、第1方程式の2つの解が可能である。第2セットの画像データに基づく第2方程式は、第2仮想投影平面に関して、3D視線ベクトルについての2つの(更なる)解をもたらす。現実の3D視線ベクトルは、それぞれ第1方程式の1つの解ベクトルと第2方程式の1つの解ベクトルとから測定された平均値によって計算され得る。これら2つのベクトルは、それらの差が両方の方程式の解ベクトルからの他の組合せの間の差より小さいという事実によって定義されるため、結果的にこのシステムは、第1と第2の方程式を含む方程式から1つの明確な解をもたらすことになる。上述の第1方程式の解ベクトルは、第2方程式の上述の解ベクトルに対して・10%の誤差をもって等しい。
さらなる実施形態によれば、3D画像分析装置は、例えば選択的適応型データプロセッサを含む処理ユニット内に実装され得る。
さらなる実施形態によれば、3D画像分析装置は、瞳孔をトラッキングするための画像分析システムの一部であり得る。そのような画像分析システムは、典型的には少なくとも1つのカメラのための少なくとも1つのハフ経路(Hough path)を含むか、又は好ましくは少なくとも2つのカメラのための2つのハフ経路を含む。さらに、全てのハフ経路は1つの前処理装置と共に、1つのハフ変換ユニットとを含み得る。このハフ変換ユニットに対して追加的に、収集されたパターンを分析し、かつ1セットの画像データを出力するためのユニットを含み得る。
さらなる実施形態によれば、視線方向又は目視線を決定するための方法が達成される。この方法は、第1画像に基づいて決定された画像データの少なくとも第1セットと、第1画像又は追加の画像に基づいて決定された情報の追加セットとを受け取るステップを含み、第1画像は第1画像平面における第1視覚からの3次元オブジェクトのパターンを表しており、前記追加セットはあるパターンを持つ追加の画像を含み、そのパターンは追加の視覚からの追加の画像平面における同じ3次元オブジェクトの表示からもたらされたものであり、又は3次元オブジェクトの少なくとも1点と第1画像平面との間の関係を表す情報を含む。この方法はさらに、第1セットと、追加画像に基づいて決定された追加セットと、第1および追加の画像の視覚間の幾何学的関係とに基づいて、3次元空間における前記パターンの位置を計算するか、第1セットと、第1画像における少なくとも2つの特性的特徴の相互間の統計的に決定された関係とに基づいて、3次元空間における前記パターンの位置を計算するか、又は、第1セットと、3次元オブジェクトの少なくとも1点と第1画像平面との間の位置関係とに基づいて、3次元空間における前記パターンの位置を計算するかのステップを含む。第3ステップでは、3D視線ベクトルが計算され、そのベクトルに沿って、前記パターンが3次元空間内で位置合わせされる。その計算は画像データの第1セットと、情報の追加セットと、パターンの計算された位置とに基づいて、実行される。
さらなる実施形態によれば、この方法はコンピュータによって実行され得る。その限りにおいて、さらなる実施形態は、上述の方法を実行するプログラムコードを有するコンピュータ読み取り可能なデジタル記憶媒体に関する。
以下に、本発明の実施形態について添付の図面に基づいて説明する。
本発明の一実施形態に従う3D分析装置の概略ブロック図である。 本発明の一実施形態に従う、前処理部とハフ変換ユニットとを有するハフプロセッサの概略ブロック図を示す。 一実施形態に従う、前処理部の概略ブロック図を示す。 直線(部分)の検出用のハフコアの概略図を示す。 一実施形態に従うハフ変換ユニットの可能な実装例の概略ブロック図を示す。 一実施形態に従う減速行列の単一セルを示す。 一実施形態に従うハフ変換ユニットの他の実装例の概略ブロック図を示す。 一実施形態に従うハフ変換ユニットの他の実装例の概略ブロック図を示す。 一実施形態に従うハフ変換ユニットの他の実装例の概略ブロック図を示す。 一実施形態に従うハフ変換ユニットの他の実装例の概略ブロック図を示す。 2つの画像処理部と1つの後処理ユニットとを有し、画像処理部の各々が1つのハフプロセッサを含む、一実施形態に従うステレオカメラ組立体の概略図を示す。 図5aのユニットにより可能な視点検出の説明と、モノスコピックの場合の視点検出の説明のための眼の例示的な図である。 追加的な実施形態及び/又は態様を説明するための更なる図である。 さらに追加的な実施形態及び/又は態様を説明するための更なる図である。 オリジナル画像と縮小画像とを示す図である。 センサス変換後の画像と分類後の擬似カラー画像とを示す図である。 光学システムと関連する投影平面の概略図である。 光学システムと関連する投影平面の概略図である。 光学システムと関連する投影平面の概略図である。 楕円およびその説明において後述するパラメータの概略図である。 楕円のパラメータに基づく3D空間における円のアライメントの計算を説明するための、3D空間における円を一平面の楕円として表現した場合の概略図である。 ハフ変換ユニットの背景知識を説明する図である。 ハフ変換ユニットの背景知識を説明する図である。 ハフ変換ユニットの背景知識を説明する図である。 ハフ変換ユニットの背景知識を説明する図である。 ハフ変換ユニットの背景知識を説明する図である。 ハフ変換ユニットの背景知識を説明する図である。 ハフ変換ユニットの背景知識を説明する図である。 ハフ変換ユニットの背景知識を説明する図である。 ハフ変換ユニットの背景知識を説明する図である。
以下に本発明の実施形態について、図を用いて詳細に説明する。同一の構成要素には同一の参照符号が用いられ、その説明は相互に適用可能であり、及び/又は変更可能であることに注目すべきである。
図1は、位置計算部404とアライメント計算部408とを有する3D画像分析装置400を示す。3D画像分析装置400は、画像データの少なくとも1セットに基づいて、好ましくは画像データの第1セットと第2セットとに基づいて、3D空間における視線方向(よって、3D視線方向)を決定するために構成されている。同様に決定された目視線上の点(例えば3D空間における瞳孔又は虹彩中心)と一緒に、この点および上述の視線方向から、3Dの目視線がもたらされ、この目視線は3Dの視点の計算のための基礎としても使用され得る。
この決定のための基本的方法は、3つの基本ステップを含む。第1のステップは、第1画像802a(図8a参照)に基づいて決定された画像データの少なくとも1つの第1セットと、第1画像802a又は追加の画像802bに基づいて決定された情報の追加セットとを受け取るステップである。その場合、第1画像802aは、第1画像平面の第1視覚からの3次元オブジェクト806a(図8b参照)のパターン804aを表している。追加セットは、典型的には追加の画像802bを含む。
さらなる実施形態では、追加セットは代替的に、1つ以上の以下の情報(具体的な画像データに代えて)を含むことができる。すなわち、3次元オブジェクト806aの点PMPと第1画像平面802との位置関係、顔又は眼における複数の特徴点間の位置関係、センサに対する顔又は眼の特徴点の位置関係、顔の位置とアライメントなどである。
次のステップでは、前記第1セットと、追加セットと、第1と第2の画像802a、802bの視覚間の幾何学的関係とに基づいて、3次元空間におけるパターン806aの位置が計算される。代替的に、3次元空間におけるパターン806aの位置の計算は、前記第1セットと、第1画像802aにおける少なくとも2つの特性的特徴の相互間の統計的に評価された関係とに基づいて、計算され得る。このユニット作動の最終ステップは、3D視線ベクトルであって、それに従ってパターン804a、804bが3次元空間内において位置合わせされる3D視線ベクトルを計算することに関連している。この計算は、前記第1セットと第2セットとに基づいて行われる。
この視線方向計算のための詳細な計算の実例について、図8a〜図8eを用いて説明する。
瞳孔中点の計算
上述したように、カメラレンズ808a及び808bにより画像センサ802a及び802bの上に円形の瞳孔804a,804bを描写することにより、楕円形状の瞳孔の投影がそれぞれもたらされる(図8a参照)。瞳孔の中心はセンサ802a及び802bの両方の上にあり、また、それぞれのカメラ画像の中では、常に楕円の中点EMP K1及びEMP K2として描かれている。従って、これら2個の楕円中点EMP K1及びEMP K2のステレオ後方投影(stereoskopische Rueckprojektion)に基づいて、3Dの瞳孔中点が対物レンズモデルによって決定され得る。その場合の任意選択的な要件は、理想的に時間同期するピクチャであり、それにより両方のカメラから取り出された描写場面が同一となり、よって、瞳孔中点が同一の位置に集められたようになる。
最初に、各カメラについて、楕円中点の後方投影ビームRSが計算されなければならず、そのビームは、オブジェクトと光学システム(図8a)のそのオブジェクト側(H1)の交点との間の交差ビームに沿って延びる。
[数1]
Figure 0006248208
この後方投影ビームは数式(A1)により定義される。その式は開始点RS0及び標準化された方向ベクトル
Figure 0006248208
により構成され、使用される対物レンズモデル(図8b)を、対物レンズの2つの主要点H1及びH2から、及びセンサ平面内の楕円中心EMPから、数式(A2)及び(A3)によりもたらす。このため、全ての3個の点(H1,H2,HMP)は、アイトラッカー配位システム(Eyetracker-Koordinatensystem) の中で使用可能でなくてはならない。
[数2]
Figure 0006248208
[数3]
Figure 0006248208
主要点は、対物レンズ及びカメラのパラメータ(図8b)から、次式によって直接的に計算され得る。
[数4]
Figure 0006248208
及び
[数5]
Figure 0006248208
ここで、K0はカメラセンサ平面の中点であり、
Figure 0006248208
はカメラセンサ平面の法線ベクトルである。カメラ配位システムにおける3Dの楕円中心は、以前に決定された楕円中心パラメータxm及びymから計算されることができ、次式により提供される。
[数6]
Figure 0006248208
ここで、Pimageはカメラ画像のピクセル内の解像度であり、Soffsetは画像の読出しを開始するセンサ上の位置であり、Sresはセンサの解像度であり、SPxGrはセンサのピクセルサイズである。
探索される瞳孔中点は、理想的な場合、2つの後方投影ビームRSK1及びRSK2の交点である。しかし、現実的に決定されたモデルパラメータと楕円中点を用いると、最小の測定誤差の場合、3D空間内で直線の交点が得られないことがある。この場合、交差せず平行に延びてもいない2つの直線は、幾何学においてねじれの位置にある線と呼ばれる。後方投影の場合、ねじれの位置にある2つの線がそれぞれ瞳孔中点のごく近傍を通過することが推定され得る。従って、瞳孔中点は、2つの直線の間の半分の線上の互いに最短距離となる位置にある。
ねじれの位置にある2つの線の最短距離は、それら2つの直線に対して垂直となる連結線により示される。両方の後方投影ビーム上に垂直に立つ線の方向ベクトル
Figure 0006248208
は、数式(A4)に従って、その方向ベクトルの交差積(Kreuzprodukt)として計算され得る。
[数7]
Figure 0006248208
後方投影ビームの間の最短の連結線の位置は、数式(A5)により定義される。RSK1(s)、RSK2(t)及び
Figure 0006248208
を使用することで、ある数式系がもたらされ、そこからs,t及びuが計算され得る。
[数8]
Figure 0006248208
後方投影ビームの間の線の半分にある探索される瞳孔中点PMPは、s及びuのために計算された値を使用した後で、数式(A6)から結果的にもたらされる。
[数9]
Figure 0006248208
計算された瞳孔中点の正確さの指標として、追加的に、後方投影ビームの間の最短距離dRSが計算され得る。モデルパラメータ及び楕円パラメータがより正確であればあるほど、dRSは小さくなる。
[数10]
Figure 0006248208
計算された瞳孔中点は、アイトラッカーにより決定されるべき眼の視線を決定する2つのパラメータの1つである。更に、これは後段で説明する視線方向ベクトル
Figure 0006248208
の計算に必要となる。
瞳孔中点を計算するこの方法の長所は、カメラから眼までの距離がシステム内にしっかりと蓄積されている必要がない点である。この点は、例えば特許文献2の特許明細書の中に記載された方法では必要とされている。
視線方向ベクトルの計算
決定されるべき視線方向ベクトル
Figure 0006248208
は、円形の瞳孔表面の法線ベクトルに対応し、よって、3D空間で特定される瞳孔のアライメントに基づく。カメラセンサ上の瞳孔の2つの楕円形状の投影の各々について決定され得る楕円パラメータから、瞳孔の位置及びアライメントが決定され得る。これにより、2つの半軸の長さと、投影された楕円の回転角度とは、カメラ位置に対する瞳孔及び/又は視線方向のアライメントについて特徴的となる。
楕円パラメータ、及び、アイトラッキングシステムの中にしっかりと蓄積されたカメラと眼の間の距離から視線方向を計算する1つの手法は、例えば特許文献2の特許明細書の中に記載されている。図8eに示すように、この手法は平行投影を想定し、その場合、センサの法線とセンサに投影された瞳孔の中点とにより定義される直線は、瞳孔中点を通過する。このために、カメラと眼との間の距離は事前に既知でなくてはならず、アイトラッキングシステムの中にしっかりと蓄積されている必要がある。
実際のオブジェクトの映像の挙動を記述する、この手法で提示されたカメラの対物レンズのモデルを用いて、画像センサに対するオブジェクトの透視投影(perspektivische Projektion)が生まれる。これにより、瞳孔中点の計算が実行でき、カメラから眼までの距離は事前に既知である必要がなくなる。このことは、上述の特許明細書と比較した場合の本質的な改善点の1つを構成する。しかし、透視投影に起因して、センサ上に表示される瞳孔の楕円の形状は、平行投影とは対照的な結果をもたらす。これは、瞳孔のセンサ表面に対する傾きだけに起因するものではない。カメラの対物レンズの光軸からの瞳孔中点の偏位δも同様に、図8bに示すように、瞳孔投影の形状に対し、またそこから決定される楕円パラメータに対し、影響を与える。
図8bのスケッチとは対照的に、数百ミリメートルを有する瞳孔とカメラとの間の距離は、2mmから8mmの間の瞳孔半径と比べて非常に大きい。従って、光軸に対する瞳孔の傾きから発生する、理想的な楕円形からの瞳孔投影のずれは、非常に小さく、省略可能である。
視線方向ベクトル
Figure 0006248208
を計算できるようにするため、楕円パラメータに対する角度δの影響は排除されるべきであり、その結果、瞳孔投影の形状だけが瞳孔のアライメントによる影響を受ける。瞳孔中点PMPがカメラシステムの光軸内に直に存在すれば、これは常に既定となる。つまり、仮想のカメラシステムvKであって、その光軸が図8cに示すように予め計算された瞳孔中点PMPを直接的に通過するカメラシステムの、センサ上の瞳孔投影を計算することにより、角度δの影響を排除できる。
そのような仮想のカメラシステム804a'(図8cのvK)の位置及びアライメントは、オリジナルカメラシステム804a(図8bのK)のパラメータから、そのオブジェクト側の主要点H1回りの回転により計算できる。つまり、これは同時に、仮想のカメラシステム804a'のオブジェクト側の主要点vH1に対応する。従って、描写されたオブジェクトの交差ビームの方向ベクトルは、オリジナルカメラシステム内のそれらと同様に、仮想の光学システム808c’の前と後とに存在する。視線方向ベクトルを決定するための全ての更なる計算は、アイトラッカー配位システム内で行われる。
仮想のカメラvKの標準化された法線ベクトル
Figure 0006248208
は、次式により取得される:
[数11]
Figure 0006248208
更なる手順のために、アイトラッカー配位システムのx軸(vKθ)回り、y軸(vKφ)回り、及びz軸(vKψ)回りの回転角度を計算することが必要となる。これ角度は、ベクトル
Figure 0006248208
を取得するために、アイトラッカー配位システムのz方向の単位ベクトルが、アイトラッカー配位システムの複数の軸回りに回転されるべき角度である。軸vKθ、vKφ、及びvKψ回りの、アイトラッカー配位システムのx方向の単位ベクトルの回転と、y方向の単位ベクトルの回転とにより、ベクトルvKx及び
Figure 0006248208
が計算でき、それらはアイトラッカー配位システムにおける仮想のセンサのx軸及びy軸を示す。
仮想のカメラシステム804’(図8c)の位置を取得するために、その位置ベクトル及び/又は座標原点vK0、即ち同時に画像センサの中点が、次式(A9)により、それが瞳孔中点PMPの交差ビーム内にあるように、計算されなければならない。
[数12]
Figure 0006248208
この目的で必要になる、主要点の間の距離d、及び主平面2とセンサ平面との間の距離bが、既知又は例えば試験的設定により決定される必要がある。
更に、画像側の主要点の位置は、次式(A10)からもたらされる。
[数13]
Figure 0006248208
仮想のセンサ804’上の瞳孔投影を計算するために、まず、予め決定されたセンサ上のオリジナル位置における楕円のエッジ点RP3Dが必要となる。これらは、カメラ画像内の楕円Eのエッジ点RP2Dからもたらされ、その場合、図8dに対応して、Eaは楕円の短い半軸、Ebは楕円Exmの長い半軸、Eymは楕円の中点座標、Eαは楕円の回転角度である。アイトラッカー配位システム内の1つの点RP3Dの位置は、楕円EとセンサSとカメラKとのパラメータから次式(A11)〜(A14)により計算されることができ、ここで、ωは図8dの楕円の外周上のエッジ点RP2Dの位置を示す。
[数14]
Figure 0006248208
[数15]
Figure 0006248208
[数16]
Figure 0006248208
[数17]
Figure 0006248208
瞳孔エッジ点をセンサ上の楕円エッジ点RP3Dとして表示するオリジナルカメラシステム内の1つの交差ビームKSの方向は、同じ瞳孔エッジ点を仮想センサ上の楕円エッジ点RP3Dとして表示する、仮想のカメラシステム内の交差ビームvKSの方向と等しい。図8bと図8c内の楕円エッジ点の交差ビームがこの態様を表している。つまり、2つのビームKSとvKSは、次式(A15)からもたらされる同じ方向ベクトルを有する。仮想のセンサ側の交差ビームvKSの位置ベクトルvKS0については、vKS0=vH2が常に適用可能である。
[数18]
Figure 0006248208
仮想の交差ビームと、仮想カメラvKのx−y平面に対応する仮想のセンサ平面とは、次式(A16)において等式化され、そこで、s2とt2とを解くことで、それらの交点が取得できる。これらにより、仮想のカメラの画像内のピクセル座標における楕円エッジ点が次式(A17)により計算され得る。
[数19]
Figure 0006248208
[数20]
Figure 0006248208
次に、複数の仮想のエッジ点vRP2Dから、仮想の楕円vEのパラメータが、楕円フィティング、例えばFitzgibbonらによるアルゴリズムである「楕円の直接最小二乗当てはめ(Direct least square fitting of ellipses)」により計算され得る。このため、少なくとも6個の仮想のエッジ点vRP2Dが必要となり、それらは上述した数式(A11)内で上述の経路で複数のωを使用することにより、計算され得る。
このようにして決定された仮想の楕円vEの形状は、瞳孔のアライメントに依存する。更に、その中点は常に仮想のセンサの中心にあり、カメラの法線
Figure 0006248208
に対応するセンサの法線とともに、光軸に沿って瞳孔中点PMPを通過して走る直線を形成する。つまり、特許文献2の特許明細書で提示された手法に基づいて、次に視線方向を計算するための要件を満足している。従って、この手法を用いると、瞳孔中点が実際のカメラシステムの光軸からずれて存在する場合、上述した仮想のカメラシステムを使用して視線方向を決定することが可能となり、そのような場合とは実際のアプリケーションにおいてほぼ当てはまる。
図8eに示すように、予め計算された仮想の楕円vEは、仮想の主平面1の中に含まれている。vEの中点は仮想センサの中心にあり、つまり光軸内にあるので、3Dの楕円中点vE’MPは仮想の主要点1に対応する。同時に、それは仮想の主平面1における瞳孔中点PMPの垂直足点である。以下では、楕円vEの軸比と回転角度だけが使用される。これらはvEのパラメータを形成し、主平面1に関して変更なしで使用可能である。なぜなら、それらが言及する2Dのセンサ平面のx軸及びy軸のアライメントは、3Dのセンサ平面に対応し、よってまた、主平面1のアライメントにも対応するからである。
カメラ画像内の瞳孔806aの各ピクチャは、その瞳孔の2つの異なるアライメントによりもたらされ得る。図8eに示すように、瞳孔の形状を評価する間に、2つの可能な直線的視線と仮想の主平面1との2つの仮想の交点vSが、各カメラの結果からもたらされる。図8eの幾何学比に対応して、それら2つの可能な視線方向
Figure 0006248208
は、以下のように決定され得る。
既知の瞳孔中点と楕円中点vE’MPとの間の距離Aは、次の通りである。
[数21]
Figure 0006248208
そこから、rが次式A19を用いて決定され得る。
[数22]
Figure 0006248208
vH1からvS1及びvS2へと位置合わせされる方向ベクトル
Figure 0006248208
は、次式に対して同様に計算され、
[数23]
Figure 0006248208
次式のvKθ、vKφ、vKψ及びvKαに基づいている。
[数24]
Figure 0006248208
[数25]
Figure 0006248208
次に、両方の仮想の交点vS1とvS2とが決定され、そこから、可能な視線方向
Figure 0006248208
が決定され得る。
[数26]
Figure 0006248208
[数27]
Figure 0006248208
[数28]
Figure 0006248208
[数29]
Figure 0006248208
実際の視線方向を決定するために、カメラ1の可能な視線方向
Figure 0006248208
と、カメラ2の可能な視線方向
Figure 0006248208
とが必要となる。これら4個のベクトルのうち、各カメラのそれぞれ1つは実際の視線方向を示している。よって、これら2つの標準化されたベクトルは理想的には同一である。それらを識別するために、可能な4個の全ての組合せについて、それぞれに選択された可能な視線方向ベクトルの差が、1つのカメラのベクトルから、及び他のカメラのベクトルから形成される。最小の差を有する組合せが探索ベクトルを含む。平均化されると、これらの結果は決定されるべき視線方向ベクトル
Figure 0006248208
をもたらす。平均化するとき、ほぼ同時に捕捉された画像は、両方のカメラが同じ瞳孔位置と同じアライメント、よって同じ視線方向を収集したと想定されるべきである。
計算された視線方向の精度の尺度として、追加的に、実際の視線方向を示す2つの平均化されたベクトル
Figure 0006248208
の間の角度wdiffが計算され得る。wdiffが小さければ小さいほど、それまで計算に使用されたモデルパラメータ及び楕円中点が正確であったことになる。
[数30]
Figure 0006248208
瞳孔の通常位置
Figure 0006248208
がアイトラッカー配位システムのz軸に平行な位置)に対する視点θBWとΦBWとは、以下の式により計算され得る。
[数31]
Figure 0006248208
及び
[数32]
Figure 0006248208
眼の光軸から及び/又は瞳孔の法線からの、システム上の視線方向のずれが考慮されるべき場合には、決定された視点θBWとΦBWとに対して対応する角度が加算され得る。よって、新たな視線方向ベクトルは、新たな視点θBW’とΦBW’と
Figure 0006248208
から、次式によって計算されるべきである。
[数33]
Figure 0006248208
(数式A6から瞳孔中点PMPに加えて)視線ベクトル
Figure 0006248208
が既知になると、3Dの画像分析器によって決定されるべき目視線(LoS)の第2パラメータが既知となる。これは以下の数式から導出され得る。
[数34]
Figure 0006248208
上述した方法の実装は、プラットフォームに依存するものでなく、従って、上述した方法は、異なるハードウェアプラットフォーム上、例えばPC上でも実行され得る。
図2aは、前処理部102とハフ変換ユニット104とを有するハフプロセッサ100を示す。前処理部102は、第1信号処理ステージを構成し、ハフ変換ユニット104に対して情報的に接続されている。ハフ変換ユニット104は遅延フィルタ106を有し、その遅延フィルタ106は、少なくとも1つの、しかし好ましくは複数の遅延要素108a,108b,108c,110a,110b,110cを含み得る。遅延フィルタ106の遅延要素108a〜108c及び110a〜110cは、典型的にはコラム(列)108及び110とライン(行)a〜cにおける行列として配置され、相互に信号接続されている。図2aの実施形態によれば、遅延要素108a〜108c及び/又は110a〜110cの少なくとも1つは、調節可能な遅延時間を有しており、ここでは「+/−」の符号を用いて示されている。遅延要素108a〜108c及び110a〜110cを活性化するため、及び/又はそれらを制御するため、別の制御ロジック及び/又は制御レジスタ(図示せず)が設けられてもよい。この制御ロジックは、個々の遅延要素108a〜108c及び/又は110a〜110cの遅延時間を、任意選択的な切換え可能要素109a〜109c及び/又は111a〜111cを介して制御し、それら切換え可能要素は、例えばマルチプレクサ及びバイパスを含み得る。ハフ変換ユニット104は、個々の遅延要素108a〜108c及び110a〜110cの初期コンフィグレーションのための追加的なコンフィグレーションレジスタ(図示せず)を備えてもよい。
前処理部102の目的は、個々のサンプル112a,112b,112cを、それらがハフ変換ユニット104によって効率的に処理され得るような方法で処理することである。この目的のために、前処理部102は、画像データ及び/又は複数のサンプル112a,112b,112cを受信し、例えば回転形式及び/又は反転形式のような前処理を実行して、ハフ変換ユニット104に対して複数のバージョン(112a及び112a'を参照)を出力する。その出力は、ハフ変換ユニット104が単一のハフコア106を有する場合には直列的に発生可能であり、又は、複数のハフコアが準備された場合には並列的にも発生可能である。つまり、この実装例によれば、画像のn個のバージョンが、完全に並列的、準並列的(即ち、一部分だけ並列的)又は直列的に出力されかつ処理されることになる。探索パターン又はハフコアコンフィグレーションを有する複数の類似パターン(上昇又は下降する直線)を検出するという目的を果たす、前処理部102内の前処理について、以下に第1サンプル112aを用いて説明する。
このサンプルは、例えば約90°回転されて、回転済みバージョン112a'が取得されてもよい。このような回転の手順は参照符号114で示す。その場合、回転は約90°で行うことができるが、更に約180°もしくは約270°、又は一般的に約360°/nでも行うことができる。その場合、下流側のハフ変換(ハフ変換ユニット104参照)に依存して、90°回転だけを実行することが非常に効率的となり得ることに留意されたい。これらのサブ態様については、図2を参照して説明する。更にまた、画像112aは反転されて、反転済みバージョン112a''が取得されてもよい。このような反転の手順は、参照符号116で示す。この反転116は、メモリの後方読み出しに対応する。反転済みバージョン112a''に基づき、又は回転済みバージョン112a'に基づき、手順114又は116を実行することで、第4のバージョンが回転かつ反転されたバージョン112a'''として取得されてもよい。反転116に基づいて、後述するような同じハフコアコンフィグレーションを有する2つの類似パターン(例えば右方向に開口された半円及び左方向に開口された半円)が検出される。
ハフ変換ユニット104は、前処理部102により提供されたバージョン112a若しくは112a'(又は112a''若しくは112a''')の中で、所定の探索パターン、例えば楕円又は楕円のセグメント、円又は円のセグメント、直線又は直線のセグメントなどを検出するよう構成されている。このため、所定の探索パターンに対応してフィルタ装置が構成される。それぞれのコンフィグレーションに依存して、遅延要素108a〜108c又は110a〜110cの幾つかが活性化され、又は迂回される。そのため、検査されるべき画像112a又は112a'のフィルムストリップを変換ユニット104へと適用する際に、遅延要素108a〜108cによって幾つかのピクセルが選択的に遅延され、このことは中間格納に対応し、他のピクセルは直接的に次のコラム110へと送られる。この手順に起因して、曲線的又は傾斜した幾何学形状は「直線化」される。ロードされた画像データ112a又は112a'に依存し、及び/又は、より正確には画像112a又は112a'の適用された線の画像構造に依存して、コラム108又は110の1つにおいて高いコラム合計(Spaltensumme)が発生する一方で、他のコラムにおけるコラム合計はより低くなる。コラム合計はコラム合計出力108x又は110xを介して出力される。その場合、ここでは任意選択的に、各コラム108又は110のコラム合計を達成する加算要素(図示せず)が設けられてもよい。コラム合計のうちの1つの最大値を用いて、探索画像構造又は探索画像構造のセグメントの存在、又は少なくとも探索構造との関連する一致度の存在が推定され得る。つまり、処理ステップ毎に、フィルムストリップがピクセル毎又はコラム108若しくは110毎に更に動かされ、その結果、開始ヒストグラムによる各処理ステップを用いて、探索構造の1つが検出されるか否か、又は、探索構造の存在確率が対応するように高いか否か、が認識可能となる。換言すれば、コラム108又は110のそれぞれのコラム合計が閾値を超えたということは、探索画像構造のセグメントを検出したことを示し、その場合、各コラム108又は110は、探索パターン又は探索パターンの特性(例えば直線の角度又は円の半径)に関連していることを意味する。ここで注意すべきは、それぞれの構造について、それぞれのコラム110のそれぞれの遅延要素110a,110b,110cが決定的であるだけでなく、特に、後続の遅延要素110a,110b,110cとの組合せにおける先行の遅延要素108a,108b,108cも決定的ということである。現状技術に対応して、そのような構造又は遅延要素の活性化もしくは迂回は、先験的に予め決定されている。
可変遅延要素108a〜108c又は110a〜110c(遅延要素)を介して、探索特性(例えば半径又は傾きが動作中に調節され得る。個々のコラム108と110とは互いに接続されているので、遅延要素108a〜108c又は110a〜110cの1つの遅延時間を調節している間に、フィルタ106の全体的なフィルタ特性の変化が発生する。ハフ変換ユニット104のフィルタ106のフィルタ特性の柔軟な調節により、変換コア106をそのランタイム期間中に調節可能であり、それにより、例えば小さな瞳孔及び大きな瞳孔についての例えば動的な画像コンテンツを、同じハフコア106を用いて収集及び追跡計測し得る。図3cには、遅延時間がどのように調節され得るかに関する正確な実装例について言及されている。ハフプロセッサ100又は変換ユニット104が高い柔軟性を持ち得るようにするため、好ましくは全ての遅延要素108a,108b,108c,110a,110b及び/又は110c(又はこれら要素の少なくとも1つ)が、可変又は離散的に切換え可能な遅延時間を用いて実行され、その結果、動作中に、検出されるべき異なるパターン間で、又は検出されるべきパターンの異なる特性間で切換え可能となる。
更なる実施形態によれば、図示されたハフコア104のサイズは(動作中又は事前に)設定可能であり、そのため、追加的なハフセルが活性化又は不活性化され得る。
更なる実施形態によれば、変換ユニット104は、変換ユニット104を調節するための手段、又はより正確には、個々の遅延要素108a〜108c及び110a〜110cを調節するための手段、例えばコントローラ(図示せず)へと接続されることができる。そのコントローラは、例えば下流側の処理ユニット内に配置されてもよく、パターンが認識されない場合、又はその認識が十分でない場合(画像コンテンツと探索パターンとの一致度が低い場合)に、フィルタ106の遅延特性を調整するよう構成されてもよい。このコントローラに関しては、図5aを参照しながら説明する。
上述した実施形態の長所は、それらが容易かつ柔軟に実現でき、特にFPGA(プログラム可能ゲートアレイ)上に実装できるということである。その背景には、上述した並列ハフ変換が、回帰なしで進行すること、及び言わば完全に並列化されていることがある。従って、更なる実施形態は、少なくともハフ変換ユニット104及び/又は前処理部102を有するFPGAに関する。上述のデバイスをFPGA、例えばXILINX Spartan 3A DSPに実装することで、例えば640×480の解像度を有する60FPSの非常に高いフレームレートが、96MHzの周波数を使用して達成され得る。なぜなら、複数のコラム108と110とを有する上述した構造104により、並列処理又はいわゆる並列ハフ変換が可能となるからである。
ここで注意すべきは、前述および後述の実施形態に関し、「視線方向」又は「視線ベクトル」は主に眼の光軸を意味するということである。眼の光軸(optische Achse)は眼の視軸(Sehachse)とは区別されるべきではあるが、しかし、これらの軸同士は典型的には相互依存するものであり、眼の光軸が視軸の推定としての役割を担うことも可能である。よって、眼の光軸からの修正角度を含むことで、視軸の方向または方向ベクトルを計算でき、これは眼の現実の視軸のアライメントの明らかに一層良好な推定となる、
図2a及び2bは、フレーム112a,112b,112cを有するビデオデータストリーム112の前処理を行う前処理部102を示す。その前処理部102は、サンプル112を、二値エッジ画像として、又はグラデーション画像としても受信し、それに基づいて回転114又は反転116を実行して、4個のバージョン112a,112a',112a'',112a'''を得るよう構成されている。その背景として、典型的に、ハフ変換ユニットによって実行されるような並列ハフ変換は、画像112aの2個又は4個の個別に前処理され例えば約90°シフトされたバージョンに基づいていることが挙げられる。図2bに示すように、初めに(112aから112a'へ)90°の回転が行われ、その後、2つのバージョン112aと112a’とが水平に(112aから112a''へ、及び112a'から112a'''へ)反転される。反転116及び/又は回転114を実行するために、前処理部は、対応する実施形態において、受信された画像データ112を蓄積する役割を担う内部又は外部のストレージを有する。
前処理部102の回転114及び/又は反転116の処理は、下流側のハフ変換と、並列ハフコアの数(並列化の程度)と、それらのコンフィグレーションとに依存し、その様子は特に図2cを参照しながら説明する。ここで、前処理部102は、以下の3つの場合の1つに対応した下流側のハフ変換ユニット104の並列化の程度に応じて、前処理済みのビデオストリームを出力126を介して出力するよう構成されてもよい。
100%並列化:4つのビデオデータストリームの同時出力、即ち、非回転かつ非反転の1つのバージョン112aと、約90°回転された1つのバージョン112a'と、それぞれ反転されたバージョン112a''及び112a'''の出力。
50%並列化:2つのビデオデータストリームの出力、即ち、第1ステップで非回転バージョン112aと約90°回転バージョン112a'とを出力し、第2ステップでそれぞれに反転されたバージョン112a''と112a'''とを出力。
25%並列化:1つのビデオデータストリームの個別出力、即ち、非回転バージョン112aと、約90°回転バージョン112a'と、反転バージョン112a''と、反転されかつ回転されたバージョン112a'''とのシーケンシャルな出力。
上述のバージョンに対して代替的に、第1バージョンに基づいて、回転だけによる3個の更なるバージョン、即ち例えば約90°、180°及び270°の回転によるバージョンが達成されることも想定可能であろうし、ハフ変換はこれらバージョンに基づいて実行される。
更なる実施形態によれば、前処理部102は、例えばアップサンプリングのような更なる画像処理ステップを実行するよう構成されてもよい。加えて、前処理部がグラデーション画像を生成することも可能であろう。グラデーション画像の生成が画像の前処理の一部となるような場合には、グレー値画像(初期画像)がFPGAにおいて回転されることも可能であろう。
図2cは、例えば2個の並列31×31ハフコアのための2個のハフコアコンフィグレーション128及び130を示し、それらは直線又は直線部分を認識するよう構成されている。更に、どの角度セグメントにおいて検出が可能かを示すため、単位円132が適用されている。ここでの注意は、ハフコアコンフィグレーション128及び130は、白点が遅延要素を示していると、それぞれ理解されるべきことである。ハフコアコンフィグレーション128は、いわゆるタイプ1のハフコアに相当し、ハフコアコンフィグレーション120は、いわゆるタイプ2のハフコアに相当する。2つのハフコアコンフィグレーション128と130とを比較すれば分かるように、一方は他方の逆を構成している。第1のハフコアコンフィグレーション128を用いて、3π/4とπ/2の間のセグメント1における直線が検出され得る。他方、3π/2と5π/4の間のセグメント(セグメント2)における直線はハフコアコンフィグレーション130によって検出可能である。更なるセグメントにおける検出を有効化するため、上述したように、ハフコアコンフィグレーション128及び130がそれぞれの画像の回転されたバージョンに対して適用される。結果的に、ハフコアコンフィグレーション128によってπ/4とゼロの間のセグメント1rが、ハフコアコンフィグレーション130によってπと3π/4の間のセグメント2rが収集され得る。
代替的に、ただ1つのハフコア(例えばタイプ1のハフコア)だけを使用する場合、上述の直線アライメントのバージョンを収集するために、画像の回転を約90°で一回、約180°で一回、270°で一回行うことが有益であり得る。他方、柔軟性に起因して、ハフコアのコンフィグレーションの期間中に、単一のハフコアタイプが使用されることができ、ハフコアが動作中にリコンフィグレーションされ、又は、それに関連して、ハフコアが逆のタイプに対応するような方法で個々の遅延要素がスイッチオン又はオフされ得る。つまり、換言すれば、(50%並列化操作における)前処理部102と単一のハフコア及び単一の画像回転を有する構成可能なハフ変換ユニット104とを使用する場合に、全体的な機能を表現することができ、そうでない場合では、2つの並列ハフコアによってカバーされ得る。このように、それぞれのハフコアコンフィグレーション又はハフコアタイプの選択は、前処理部102によって実行される前処理に依存することが明らかとなる。
図3aは、m個のコラム108,110,138,140,141,143とn個のラインa,b,c,d,e,fとを有し、m×n個のセルが形成されている、ハフコア104を示す。このフィルタのコラム108,110,138,140,141,143は、探索構造の特異な特性、例えば特異なカーブ又は直線セグメントの特異な傾きを表す。
各セルは、遅延時間に関して調節可能な1つの遅延要素を含み、この実施形態においては、バイパスを有する個別に切換え可能な遅延要素が設けられるという事実により、調節機能が実現される。以下に図3bを参照しながら、全てのセルの構造を代表例として説明する。図3bのセル(108a)は、遅延要素142と、例えばマルチプレクサのような遠隔制御可能なスイッチ144と、バイパス146とを含む。遠隔制御可能なスイッチ144によって、ライン信号は遅延要素142を介して伝送され得るか、又は遅延無しで交点148へと導かれ得る。交点148は、一方ではコラム(例えば108)のための合計要素(Summenelement) 150に接続されており、他方では、この交点148を介して次のセル(例えば110a)が接続されている。
マルチプレクサ144は、いわゆるコンフィグレーションレジスタ160(図3a参照)を介して構成される。ここで注意すべきは、この参照符号160が、マルチプレクサ144に直接的に連結されているコンフィグレーションレジスタ160の一部分に関連しているだけということである。コンフィグレーションレジスタ160の構成要素は、マルチプレクサ144を制御するよう構成されており、第1情報入力160aを介して、例えばFPGA内部BRAM163に記憶されているコンフィグレーション行列に由来するコンフィグレーション情報を受信する。このコンフィグレーション情報はコラム毎のビットストリングであってもよく、複数(変換期間中を含む)の構成された遅延セル(142+144)のコンフィグレーションに関係する。従って、コンフィグレーション情報は出力160bを介して更に伝送され得る。リコンフィグレーションは動作中のどの時点においても不可能であるため、コンフィグレーションレジスタ160又はコンフィグレーションレジスタ160のセルは、追加の信号入力160cを介していわゆる有効化信号を受信し、その信号によりリコンフィグレーションが開始される。この背景には、ハフコアのリコンフィグレーションが、遅延要素の個数又は特にコラムのサイズに依存する所定の時間を必要とするという事実がある。その場合、各コラム要素に対してクロックサイクルが関連付けられ、BRAM163又はコンフィグレーション論理部160に起因して、少数のクロックサイクルの待ち時間が発生する。リコンフィグレーションのための全体の待ち時間は、ビデオベースの画像処理にとっては典型的には無視できる。この実施形態において、CMOSセンサで記録されたビデオデータストリームは、水平及び垂直のブランキングを有すると想定される。その場合、水平ブランキング又は水平ブランキング時間をリコンフィグレーションのために使用できる。そのため、FPGA内に実装されたハフコア構造のサイズが、ハフコアコンフィグレーションのための最大サイズを予め決定することになる。例えば、小さなコンフィグレーションが使用される場合、これらは垂直方向に中心合わせされ、ハフコア構造のコラム1に対して水平方向に位置合わせされる。ハフコア構造の使用されていない要素は、活性化された遅延要素によって全て占められる。
個々の遅延要素(142+144)を用いてこのような方法で処理されたデータストリームの評価は、コラム毎に行われる。そのため、コラム毎に合計されて、合計の極大値が検出され、この値が認識された探索構造を表現している。コラム108,110,138,140,141及び143毎の合計はある値を決定する役割を担い、その値はそれぞれのコラムに割り当てられた構造の特性の1つについて、探索構造との一致度を表すものである。コラム合計の極大値を決定するために、コラム108,110,138,140,141又は143毎に、いわゆる比較部108v,110v,138v,140v,141v又は143vが設けられ、それぞれの合計要素150へと接続されている。任意ではあるが、異なるコラム108,110,138,140,141又は143の個々の比較部108v,110v,138v,140v,141v,143vの間に、追加の遅延要素153が設けられてもよく、前記比較部は隣接するコラムのコラム合計同士を比較する。詳細には、フィルタを通過する間に、探索パターンの特性に対して最高の一致度を有するコラム108,110,138又は140が常にフィルタから選出される。コラム合計の極大値を検出している間に、探索構造の存在が推定され得る。つまり、比較の結果が、その中で極大値が認識され、又は探索構造の特性が発見されたコラム番号(可能であればコラム合計=一致度を含む)であり、例えばコラム138である。好ましくは、その結果はいわゆる多次元ハフ空間を含み、その多次元ハフ空間は、探索構造の全ての関連するパラメータ、例えばパターンの種類(例えば直線又は半円)、パターンの一致度、構造の特性(曲線セグメントについてはカーブの強度又は直線セグメントについては傾き及び長さ)、及び探索パターンの位置や向き(Orientierung) などを含む。換言すれば、ハフ空間内の各点について、対応する構造のグレー値が画像セグメント内に追加されることを意味する。結果として、最大値(複数)が形成され、それらによってハフ空間内の探索構造が容易に位置決めされ、画像セグメントへと戻され得る。
図3bのハフコアセルは、任意選択的なパイプライン遅延要素162(パイプライン遅延)を有することができ、この要素162は例えばセルの出力に配置されて、遅延要素142による遅延信号とバイパス146による非遅延信号とを遅延させるよう構成されている。
図1を参照しながら示したように、そのようなセルはまた、可変性を有する1つの遅延要素、又は切換え及び迂回される複数の遅延要素を含むことができ、その結果、遅延時間が複数段階において調節可能となり得る。図3bに示すハフコアセルの構成を超える更なる構成も、代替的に想定可能であろう。
以下に、上述したデバイスの画像処理システム1000内への適用例を、図5aを参照しながら説明する。図5aは、前処理部102とハフ変換ユニット104とを含む、FPGA構成の画像プロセッサ10aを示す。画像プロセッサ10a内には、前処理部102の前に入力ステージ12が更に設けられてもよく、入力ステージ12は、カメラ14aからの画像データ又は画像サンプルを受信するよう構成されている。このため、入力ステージ12は、例えば画像取り込みインターフェイス12aと、セグメンテーション及びエッジ検出部12bと、カメラ制御手段12cとを含み得る。カメラ制御手段12cは、画像インターフェイス12a及びカメラ14aに接続されており、強度及び/又は照度のようなファクタタを制御する役割を担う。
画像プロセッサ10aは、いわゆるハフ特徴抽出部16を更に備え、このハフ特徴抽出部16は、ハフ変換ユニット104により出力されかつパターン認識についての全ての関連情報を含む多次元ハフ空間を分析し、その分析結果に基づいて、全てのハフ特徴のコンパイルを出力するよう構成されている。詳しくは、ハフ特徴空間の平滑化、即ちローカルフィルタを用いた空間的平滑化又はハフ空間の間引き(Ausduennung)(パターン認識と無関係な情報の拒絶)がここで行われる。その間引きは、パターンの種類及び構造の特性を考慮して、ハフ確率空間内の非最大値が削除されるように実行される。更にまた、その間引きのために閾値を定義することもでき、それにより、例えば最小もしくは最大のカーブ、又は最小もしくは最大の傾きなどのような、例えば最小限又は最大限に許容され得る構造の特性を予め決定できるようになる。閾値ベースの拒絶により、ハフ確率空間におけるノイズ抑制も可能になる。
オリジナル画像セグメント内の残りの全ての点のパラメータの分析的な再変換は、例えば以下のハフ特徴からもたらされる。即ち、曲線的構造について、位置(x及びy座標)、出現確率、どの方向に円弧が開口しているかを示す半径及び角度が伝送され得る。直線については、位置(x及びy座標)、出現確率、直線の傾きを示す角度、及び代表的な直線セグメントの長さのようなパラメータが決定され得る。この間引きされたハフ空間は、ハフ特徴抽出部16により、又は全体的には画像プロセッサ10aにより出力され、後処理ユニット18における処理へと送られる。
更なる実施形態は、画像処理システム内に3D画像分析部400(図5a)を含み、更に、上流側の画像プロセッサ10a(図5a)又は上流側のハフプロセッサを含み、その場合、ハフプロセッサと、特に楕円として表示される瞳孔または虹彩の検出のための後処理ユニット18の構成要素とは、調節される。
ハフプロセッサの後処理ユニットは、例えば組込型プロセッサとして実現されてもよく、そのアプリケーションに応じて、以下に例示的に説明するような異なるサブユニットを含んでもよい。後処理ユニット18(図5a)は、ハフ特徴ポスト幾何学形状変換部202を含み得る。この幾何学形状変換部202は、ハフ特徴抽出部により出力された1つ以上の所定の探索パターンを分析し、幾何学形状を説明するパラメータを出力するよう構成されている。つまり、幾何学形状変換部202は、例えば、検出されたハフ特徴に基づいて、例えば楕円(瞳孔)又は円についての第1直径、第2直径、中点のシフト及び位置などの、幾何学パラメータを出力するよう構成されてもよい。好ましい一実施形態によれば、幾何学形状変換部202は、3〜4個のハフ特徴(例えば曲線)によって瞳孔を検出しかつ選択する役割を担う。よって、例えば探索構造又はハフ特徴との一致度、ハフ特徴又は検出されるべき所定のパターンのカーブ、ハフ特徴の位置及び向きなどの基準が含まれている。選択されたハフ特徴の組合せがアレンジされ、その場合、第1に、取得されたハフ特徴の合計に従うアレンジメントが行われ、第2に、探索構造との一致度に従うアレンジメントが行われる。そのアレンジメントの後で、この点におけるハフ特徴の組合せが選択され、そこから、カメラ画像内の瞳孔を最も近似して表す楕円がフィットされる。
更に、後処理ユニット18(図5a)は任意選択的なコントローラ204を含み、そのコントローラ204は、画像プロセッサ10a(制御チャネル206参照)に対し、又はより詳細にはハフ変換ユニット104に対して制御信号を返すよう形成されており、その制御信号に基づいて、フィルタ106のフィルタ特性が調節可能となる。フィルタコア106の動的な調節のために、コントローラ204は、典型的には幾何学形状変換部202と接続されて、認識された幾何学形状の幾何学パラメータを分析し、更に、幾何学形状のより正確な認識が可能となるような方法で、定義された境界内でハフコアをトラッキングする。この手順は連続的な手順であり、例えば、最後のハフコアコンフィグレーション(最後に使用されたハフコアのサイズ)から出発して、認識202が不十分な結果を提供すると直ちにトラッキングされる。このように、上述した瞳孔又は楕円の検出の実例に対し、コントローラは、例えば記録されるべきオブジェクトとカメラ14aとの間の距離に依存する楕円サイズを、対象となる人がカメラ14aに近づく場合に調節できる。このとき、フィルタ特性の制御は、最後の調節と楕円の幾何学パラメータとに基づいて行われる。
更なる実施形態によれば、後処理ユニット18は選択的適応型データ処理部300を有してもよい。そのデータ処理部の目的は、データ列内の孤立値(Ausreisser)及び外れ値(Aussetzer)を後処理して、例えばデータ列の平滑化を実行することである。従って、選択的適応型データ処理部300は、幾何学形状変換部202により出力される値の複数のセットを受信するよう構成されており、その場合、各セットがそれぞれのサンプルに割り当てられる。データ処理部300のフィルタ処理部は、複数のセットに基づいて次のように値の選択を実行するが、その方法は、妥当でないセットのデータ値(例えば孤立値又は外れ値)が、内部的に決定されたデータ値(交換値)によって交換され、残りのセットのデータ値は交換されずに更に使用される。より詳細には、(孤立値又は外れ値を含まない)妥当なセットのデータ値は伝送され、(孤立値又は外れ値を含む)妥当でないセットのデータ値は、妥当なセットのデータ値、例えば先行するデータ値又は複数の以前のデータ値の平均値、によって交換される。そのため、伝送された値と恐らく交換値とから結果として得られるデータ列は、連続的に平滑化されたものとなる。つまり、(例えば決定された楕円中点座標の)データ列の適応型時間平滑化は、例えば指数平滑法の原理に従って行われ、その場合、(例えば瞳孔検出中の誤った検出による)平滑化されるべきデータ列の孤立値及び外れ値が、平滑化済みデータの変動をもたらすことがない。詳細には、データ処理部は、新たに受信されたセットのデータ値が下記のような基準の範囲内に当てはまらない場合、そのセットのデータ値にわたって平滑化を実行してもよい。
− セットの追加的な値の1つにより定量化される、探索構造との関連する一致度によれば、それがデータ列の外れ値となる。
− 例えば現実のオブジェクトのサイズが以前のオブジェクトから余りに強く外れている場合など、関連するサイズパラメータ又は幾何学パラメータによれば、それが外れ値となる。
− 現実のデータ値(例えば現実の位置の値)が閾値の間にない場合、現実のデータ値と以前のデータ値に基づいて決定されていた閾値との比較に従えば、それが外れ値となる。これを説明する実例は、例えば、オブジェクトの現実の位置座標(セットのデータ値)が選択的適応型データ処理部により事前に決定された位置座標から余りに強く外れている場合である。
上述の基準の1つが満たされた場合は、次に、現実の値を平滑化するために、以前の値が出力されるか又は少なくとも考慮される。平滑化期間中の遅延をできるだけ小さくする目的で、任意ではあるが、現実の値は過去の値よりも強く評価される。つまり、指数平滑化を適用する場合、現実の値が以下の式によって決定され得る。
現実に平滑化された値=現実の値×平滑化係数+最後の平滑化された値×(1−平滑化係数)
平滑化係数は、定義された境界内で、平滑化されるべきデータの傾向に対して動的に調節され、例えば比較的一定した値動向の低減、又は、上昇もしくは降下する値動向の増強が行われる。平滑化されるべき幾何学パラメータ(楕円パラメータ)に関して長期的に大きな急上昇が発生した場合、データ処理部と、平滑化された値動向は、この新たな値に対して順応する。一般的に、選択的適応型データ処理部300はまた、例えば初期化の期間中にパラメータによって構成され得る。その場合、これらのパラメータを介して、平滑化の挙動、例えば外れ値の最大期間又は最大平滑化ファクタなどが決定される。
このように、選択的適応型データ処理部300、又は全体的には後処理ユニット18は、認識されるべきパターンの位置及び幾何学形状の高度な正確性を有する妥当な値を出力してもよい。このため、後処理ユニットはインターフェイス18aを有し、任意ではあるが、このインターフェイスを介して外部の制御コマンドを受信することもできる。より多くのデータ列が平滑化されるべき場合には、各データ列について別個の選択的適応型データ処理部を使用するか、又は、データ値のセット毎に異なるデータ列が処理できるような方法で選択的適応型データ処理部を調節することも想定し得る。
以下に、選択的適応型データ処理部300の上述した特徴を、具体的な実施形態を用いて全体的に説明する。データ処理部300は、例えば2つ以上の入力と1つの出力とを有してもよい。(データ値を受信する)入力の1つは、処理されるべきデータ列のために設けられている。出力は、選択されたデータに基づく平滑化された列である。その選択のために、更なる入力(データ値のより正確な査定のために追加的な値が受信される)が考慮されるか、及び/又はデータ列そのものがより正確に査定される。データ処理部300内での処理の間に、データ列の変化が生じ、その場合、データ列内における孤立値の扱いと外れ値の扱いとが区別される。
孤立値:選択の間に、孤立値は(処理されるべきデータ列内で)アレンジされ、他の(内部的に決定された)値によって交換される。
外れ値:処理されるべきデータ列の品質の査定のために、1つ以上の更なる入力信号(追加的な値)が考慮される。その査定は1つ以上の閾値を用いて行われ、その場合、データは「高い」及び「低い」品質に分類される。低い品質を持つデータは外れ値と査定されて、他の(内部的に決定された)値によって交換される。
次のステップでは、例えばデータ列の平滑化(例えば時間列の指数平滑化)が行われる。その平滑化のために、外れ値及び孤立値の調節済みのデータ列が考慮される。その平滑化は、可変(適応型)の係数により行われてもよい。平滑化係数は、処理されるべきデータのレベル差に対して調節される。
更なる実施形態によれば、後処理ユニット18は、例えば3D画像分析部400としての画像分析部を含み得る。3D画像分析部400の場合、後処理ユニット18とともに、画像処理部10b及びカメラ14bからなる更なる画像収集ユニットを備え得る。このように、2つのカメラ14a及び14bと、画像処理部10a及び10bとは、1つのステレオカメラ機構を確立し、その場合、好ましくは画像処理部10bは画像処理部10aと同一である。
基本的な実施形態に対応する3D画像分析部400は、第1画像(カメラ14a参照)に基づいて決定された少なくとも1セットの画像データを受信し、かつ、第2画像(カメラ14b参照)に基づいて決定された第2セットの画像データを受信するよう構成され、その場合、第1及び第2の画像が1つのパターンを異なる視覚から表現しており、さらに3D画像分析部400は、このパターンに基づいて1つの視点又は3D視線ベクトル(3D-Blick vektor)を計算するよう構成されている。このため、3D画像分析部400は位置計算部404とアライメント計算部408とを含む。位置計算部404は、第1のセット、第2のセット、及び、視覚同士の間又は第1カメラ14aと第2カメラ14bとの間の幾何学的関係に基づいて、3次元空間内におけるパターンの位置を計算するよう構成されている。アライメント計算部408は、3D視線ベクトル、例えば視線方向を計算するよう構成されており、認識されたパターンはその視線ベクトルに従って3次元空間内で位置合わせされ、視線ベクトルの計算は、第1のセット、第2のセット及び計算された位置(位置計算部404参照)に基づいて行われる。
更なる実施形態はまた、カメラの画像データと、パターン(例えば瞳孔または虹彩の中点)の位置の計算のため及び現実の視線方向ベクトルの選択のために役立つ情報の追加セット(例えば顔または眼の中の特徴的な点の相対的または絶対的な位置)とを用いて、作動してもよい。
このため、例えばコンフィグレーションファイル内に、位置パラメータ、光学的パラメータ(カメラ14a,14b参照)など全てのモデルパラメータを記憶した、いわゆる3Dカメラシステムモデルが考慮されてもよい。
以下に、瞳孔認識の実例に基づいて、3D画像分析部400の全体的な機能について説明する。3D画像分析部400内に記憶又はロードされたモデルは、カメラユニットに関するデータ、即ちカメラセンサ(例えばピクセルサイズ、センササイズ及び解像度)及び使用される対物レンズに関するデータ(例えば焦点距離及び対物レンズ歪み)と、認識されるべきオブジェクトのデータ又は特性(例えば眼の特性)と、更なる関連オブジェクトに関するデータ(例えばシステム1000を入力デバイスとして使用する場合のディスプレイ)とを含む。
3D位置計算部404は、眼の位置又は瞳孔中点を、2個又は複数のカメラ画像(14a,14b参照)に基づいて三角形分割により計算する。このため、位置計算部404には、画像処理部10a及び10b、幾何学的変換部202及び選択的適応型データ処理部300の処理の連鎖を介して、2個のカメラ画像(14a,14b参照)内の1つの点の2D座標が提供される。提供された2D座標から、両方のカメラ10a及び10bについて、3D点をセンサ上の2D点として表現した光線が、3Dカメラモデルを用いて特に光学的パラメータを考慮して、計算される。互いの距離が最短となる2つの直線の点(理想的な場合には直線同士の交点)が、探索される3D点の位置であると推定される。この3D位置は、モデルパラメータに関連して提供された2D座標の精度を記述している誤差尺度と一緒に、インターフェイス18aを介して結果として出力されるか、又は、視線方向計算部408へと伝送される。
3D空間内の位置に基づいて、視線方向計算部408は、瞳孔の2つの楕円形状の投影からカメラセンサまでの視線方向を、校正なくかつ眼とカメラシステムとの間の距離を知ることなく決定できる。このため、視線方向計算部408は、画像センサの3D位置パラメータの他に、幾何学的分析部202により決定された楕円パラメータと、位置計算部404により決定された位置とを使用する。瞳孔の中点の3D位置及び画像センサの位置から、現実のカメラユニットの回転により、光軸が3Dの瞳孔中点を通過する仮想のカメラユニットが計算される。次に、それぞれ現実のセンサ上への瞳孔の投影から、2つの仮想の楕円がもたらされるように、仮想のセンサ上への瞳孔の投影が計算される。2つの仮想画像センサ上の仮想の楕円のパラメータから、画像センサ毎に、それぞれの仮想のセンサ平面に対して任意に平行な平面上の眼の2つの視点が計算され得る。4個の視点と3Dの瞳孔中点とにより、4個の視線方向ベクトル、つまり、カメラ毎にそれぞれ2個のベクトルが計算され得る。これら4個の可能な視線方向ベクトルのうち、常に、1つのカメラの正に1つのベクトルが、他のカメラの1つのベクトルと略同一となる。両方の同一ベクトルは眼の探索される視線方向を示し、その視線方向はインターフェイス18aを介して視線方向計算部404により出力される。
この3D計算の特別な長所は、3D視線方向の検出が非接触であり、3Dの眼の位置の決定のための校正が不要であり、その計算はカメラに対する眼の位置についての知識に依存せず、かつ瞳孔サイズに関する情報を必要としないことである。3D空間モデルを考慮しながら3Dの眼の位置及び3D視線方向を分析的に決定することで、3D空間内における(1を超える)任意のカメラ個数及び任意のカメラ位置が可能となる。短い待ち時間と同時に高いフレームレートにより、上述のシステム1000のリアルタイム機能が可能となる。更に、任意であって必須ではないが、連続的な結果間の時間差が一定となるように、いわゆる時間レジームが固定されてもよい。これは例えば、セキュリティ的に厳しいアプリケーションであって、その結果が固定の時間帯において有効でなくてはならないアプリケーションにおいて好適であり、またそれはFPGAを計算に活用することで達成され得る。
代替的な変形例において、視線方向の決定はまた、単一のカメラだけを使用して実行することもできる。このため、以下に図5を参照しながら説明するように、一方ではカメラの画像データ及び可能性として追加情報の1セットに基づいて3D瞳孔中点を計算することが必要であり、他方では、図5bを参照しながら後段で説明するように、カメラ毎に計算され得る2つの可能性のある視線方向ベクトルから現実の視線方向ベクトルが選択されなければならない。
3D瞳孔中点の決定方法は、幾つかの可能性がある。その1つは、第1カメラ画像内の特徴点同士の間の関係の評価に基づいている。その場合、上述したようにカメラの光学システムを考慮した第1カメラ画像内の瞳孔中点に基づいて、3D瞳孔中点を通過する直線が計算される。しかしまだこの時点で、この直線上のどこに、探索される瞳孔中点が発見されるのかについては未知である。このため、カメラとそのカメラの正に主要点1(図8aにおけるH1 K1)との間の距離が必要になる。もし第1カメラ画像内の(例えば瞳孔中点のような)少なくとも2つの特性的特徴が決定され、かつそれらの相互の距離が、例えば大人数のグループを介する統計的に評価された値として既知となれば、この情報は推定され得る。次に、カメラと3D瞳孔中点との間の距離は、特性的特徴間の(例えばピクセルにおける)距離と、特徴間の(例えばピクセルにおける)距離の統計値としての既知の値との関係を決定することで、推定され得る。
3D瞳孔中点を取得するための更なる変形例では、瞳孔中点の位置または瞳孔中点とカメラとの距離が、3D画像分析部に対し、(例えば3D顔検出のための上流側のモジュールであって、その3D顔検出に従って顔の特徴点や眼の領域の位置が3D空間内で決定されるモジュールにより)情報の第2セットの中で提供される。
現実の視線方向ベクトルを決定する目的で、上述したような校正不要の視線計測方法を含む、「3D画像分析部」に関する説明においては、これまでは異なる視覚からの少なくとも2個のカメラ画像が必要とされてきた。視線方向の計算に関し、カメラ画像毎に正に2つの可能な視線方向ベクトルが決定される位置が存在し、その場合、それぞれ第2のベクトルが、カメラと瞳孔中点との間の交差線における第1のベクトルの反映に対応する。他のカメラ画像から結果としてもたらされる両方のベクトルの中から、正に1つのベクトルが、第1カメラ画像からの計算されたベクトルに略対応する。これらの対応するベクトルは、決定されるべき視線方向を示す。
1つのカメラを用いても校正不要のアイトラッキングを実行できるようにするため、現実の視線方向ベクトル(以下では「vb」と記す)が、カメラ画像から決定される2つの可能な視線方向ベクトル(以下では「v1」及び「v2」と記す)から選択されなければならない。
このプロセスは、図5bを参照しながら例示的に説明する。図5bは、瞳孔と画像に投影された2つの可能な視線方向v1及びv2とを有する眼球の可視部分(緑の枠)の説明を示す。
視線方向「vb」を選択するためには、複数の可能性があり、それらは現実の視線方向ベクトルを選択するために個別または組み合わせで実行されてもよい。典型的には、正確な3D視線ベクトルは、2つの可能な3D視線ベクトルから選択され、その場合、例えば一実施形態によれば、ただ1つのカメラ画像(+追加的情報)だけが使用される。それらの可能性の幾つかを以下に説明する(この列挙は最終的ではない)が、その場合、v1及びv2(図5a参照)は、この選択の時点で既に決定済みであると想定されている。
第1の可能性によれば、強膜(虹彩の周囲の白い真皮組織)に基づく評価がカメラ画像内で行われ得る。(瞳孔中点から出発して無限に長い)2つのビームが定義され、1つはv1の方向であり、もう1つはv2の方向である。両方のビームは眼のカメラ画像へと投影され、そこで瞳孔中点から画像エッジへとそれぞれ延びる。強膜への帰属度が低いピクセルを歪ませるビームは、現実の視線方向ベクトルvbに属する。強膜のピクセルはそのグレー値が、隣接する虹彩のピクセル又は瞼のピクセルとは異なっている。捕捉された眼が属する顔がカメラから余りにそらされている場合(つまり、カメラの光軸と顔平面に対して直角に伸びるベクトルとの間の角度が大き過ぎた場合)、この方法は限界に達する。
第2の可能性によれば、瞳孔中点の位置の評価は、眼が開いている間に行われる。眼球の可視部分内又は眼が開いている間の瞳孔中点の位置は、現実の視線方向ベクトルの選択に使用されてもよい。そのための1つの可能性は、(瞳孔中点から出発して無限に長い)2つのビームを定義することであり、1つのビームはv1の方向であり、1つのビームはv2の方向である。両方のビームは眼のカメラ画像内へと投影され、そこで瞳孔中点から画像エッジへとそれぞれ延びる。カメラ画像内の両方のビームに沿って、瞳孔中点と眼の開口部のエッジ(図5bでは緑で示す)との距離がそれぞれ決定される。より短い距離を有するビームが、現実の視線方向ベクトルに帰属する。捕捉された眼が属する顔がカメラから余りにそらされている場合(つまり、カメラの光軸と顔平面に対して直角に伸びるベクトルとの間の角度が大き過ぎた場合)、この方法は限界に達する。
第3の可能性によれば、瞳孔中点の位置の評価は、基準瞳孔中点に対して行われ得る。眼球の可視部分内又は眼が開いている間にカメラ画像において決定された瞳孔中点の位置は、基準瞳孔中点と一緒に、現実の視線方向ベクトルを選択するために使用されてもよい。このための1つの可能性は、(瞳孔中点から出発して無限に長い)2つのビームを定義することであり、1つのビームはv1の方向であり、1つのビームはv2の方向である。両方のビームは眼のカメラ画像に投影され、そこで瞳孔中点から画像のエッジへとそれぞれ延びる。画像記録に使用されるカメラの方向(より正確にはカメラの第1主要点の方向)を眼が直視する場合、眼が開いている間の基準瞳孔中点は、瞳孔中点に対応する。カメラ画像内へと投影されたビームであって、その画像内で基準瞳孔中点に対するより大きな距離を有するビームは、現実の方向ベクトルに帰属する。基準瞳孔中点を決定するために複数の可能性があり、そのうちの幾つかを以下に説明する。
可能性1(アプリケーションの特異な場合):
カメラセンサ中心の方向を眼が直接的に見る場合、基準瞳孔中点は、決定された瞳孔中点から決められる。これは、仮想のセンサ平面(視線方向計算に関する説明参照)上の瞳孔輪郭が円を特徴付ける場合に行われる。
可能性2(アプリケーションの一般的な場合):
基準瞳孔中点の位置の粗い推定として、眼の開口部の表面の焦点が使用され得る。顔が横たわる平面がカメラのセンサ平面と平行でない場合、この推定方法は限界に達する。(例えば事前に実行された頭部位置の決定及びアライメントなどにより)カメラセンサ平面に対する顔面の傾きが既知であり、推定された基準瞳孔中点の位置の修正にその傾きが使用される場合、この限界は補償され得る。この方法は更に、3D瞳孔中点と仮想センサの光軸との間の距離が、3D瞳孔中点とカメラとの間の距離よりもかなり短いことを必要とする。
可能性3(アプリケーションの一般的な場合):
眼の中点の3D位置が使用可能である場合、3Dの眼の中点と仮想センサの中点との間の直線、及び、眼球の表面とその直線との交点が決定され得る。カメラ画像内へと変換されたこの交点の位置から、基準瞳孔中点が分かる。
ハフプロセッサの使用に関する更なる実施形態によれば、FPGA10a及び10bの代わりに、ASIC(特定用途向けチップ)が使用されることができ、特にそれは多数でも低いユニットコストで実現され得る。要約すれば、ハフプロセッサ10a及び10bの実装には依存せずに、高効率処理及び関連する低い内部クロック要件に起因して、低エネルギー消費が達成可能となると云える。
これらの特徴にもかかわらず、ここで使用されるハフプロセッサ又はハフプロセッサ上で実行される方法は、非常にロバストであり、失敗の影響を受けにくい。ここで注目すべきは、図2aに示すハフプロセッサ100は、特に図5に関して示したような種々の特徴との種々の組合せの中で使用されてもよい。
図2aに示すハフプロセッサの適用例として、例えば自動車部門における(又は一般的にセキュリティ関連の人間−機械インターフェイスのための)運転支援システムとしての、瞬間的居眠り警報システム又は疲労検出器などが挙げられる。その場合、(例えば瞳孔のカバリングを眼のまばたきの程度の尺度とする)眼の評価により、かつ視点及び焦点を考慮して、特異な疲労パターンが検出され得る。更に、ハフプロセッサは、入力デバイス又は技術的デバイスの入力インターフェイスに関連して使用され得る。その場合、眼の位置及び視線方向は入力パラメータとして使用される。詳細な適用例として、例えば特定の焦点領域を強調しながらスクリーンコンテンツを眺めているときの、ユーザーの分析又はサポートが挙げられ得る。そのような適用例は、介護の分野で、コンピュータゲームで、視線方向を含めることによる3D視覚化の最適化に関し、市場及びメディア展開に関し、又は、特殊な眼科的診断及び治療に関して、存在し得る。
上段でも説明したように、上述した方法の実装はプラットフォームに依存せず、その結果、上述の方法はまた、他のハードウェアプラットフォーム、例えばPC上でも実行できる。よって、更なる実施形態は、前処理部を使用して、それぞれが1つの画像を有する大多数のサンプルを処理するステップであって、その場合、それぞれのサンプルの画像が回転及び/又は反転され、各サンプルについてそれぞれのサンプルの画像の大多数のバージョンを出力するステップと、ハフ変換ユニットを使用して、多数のバージョンに基づいて多数のサンプル内で所定のパターンを収集するステップであって、そのハフ変換ユニットが選択された所定のパターンのセットに依存しているフィルタ特性を持つ遅延フィルタを有するステップと、を含むハフ変換の方法に関する。
調節可能な特性に関連する上述の説明の中では、常にフィルタ特性に言及していたが、ここでは、更なる実施形態によれば、調節可能な特性は高速2D相関に関する後処理の特性(カーブ又は歪み特性)に関連してもよいことに注意すべきである。この実装については、図4a〜図4dを参照しながら説明する。
図4aは高速2D相関の処理連鎖1000を示す。2D相関のこの処理連鎖は、少なくとも、2Dカーブのための機能ブロック1105と、結合のための機能ブロック1110とを含む。2Dカーブに関する手順は、図4bに示される。図4bは、テンプレートにおける例示的なコンパイルを示す。図4cと図4dとの組合せにより、この処理連鎖1000に基づいてハフ特徴がどのように抽出されるかが自明となる。図4cは、楕円1115を認識するための、(この場合には例えば異なる傾きを有する複数の直線に関し)n個のテンプレートとのピクセル毎の相関を例示的に示す。図4dは、ピクセル毎の相関の結果を示し、その場合、典型的にはn個の結果画像を介して1つの最大探索が行われる。結果として得られる各画像はピクセル毎に1つのハフ特徴を含む。以下に、このハフ処理について、全般的に説明する。
調節可能な特性を有する遅延フィルタを用いる構成(並列FPGA構造のために最適化された構成)とは対照的に、ここで説明するハフ処理は、PCベースの構成を特に想定したものであるが、その処理の一部分が他の手法によって置き換え可能となり得る。
これまでのところ、事実として、遅延フィルタの略全てのコラムは、探索構造(例えば異なる傾きの直線セグメントなど)を表現していた。フィルタを通過することで、最高合計値を有するコラム番号が決定的となる。その場合、そのコラム番号は探索構造の特性を表し、合計値はその探索構造との一致度を示す。
PCベースの構成に関し、遅延フィルタは高速2D相関によって置き換えられる。以前の遅延フィルタは、特定パターンの特性の位置n内のサイズに従って形成されることになる。このn個の特性はストレージ内にテンプレートとして記憶される。次に、前処理済み画像(例えば二値エッジ画像又はグラデーション画像)が、ピクセル毎に通過する。各ピクセル位置において、それぞれ、全ての記憶されたテンプレートとすぐ下方にある画像コンテンツ(後処理特性に対応する)とが同期される(即ち、(テンプレートのサイズにおける)ピクセル位置の環境が評価される)。この手順は、デジタル画像処理における相関として言及される。つまり、各テンプレートについて、すぐ下方にある画像コンテンツとの相関値(即ち一致度)が取得される。つまり、一致度が以前の遅延フィルタからのコラム合計に対応する。ここで、(ピクセル毎に)最高相関値を有するテンプレートについての決定がなされ、そのテンプレート番号が記憶される(テンプレート番号は探索構造の特性、例えば直線セグメントの傾きを記述する)。
このように、ピクセル毎に、相関値とテンプレート番号とが取得される。それにより、ハフ特徴は、これまで説明した通り完全に記述され得る。
ここで注意すべきは、個々のテンプレートと画像コンテンツとの相関付けが、局所的領域で実行されてもよく、周波数領域で実行されてもよいことである。これは、第1に、初期画像がn個の全てのテンプレートとそれぞれ相関されることを意味する。N個の結果的な画像が取得される。これらの結果的な画像が(立方体状に)1つずつ重ね置かれた場合、ピクセル毎の最高相関値が(全ての平面を介して)探索されるであろう。その場合、個々の平面は、立方体における個々のテンプレートを表す。結果として、個々の画像が再度取得され、その画像はピクセル毎に1つの相関尺度及び1つのテンプレート番号−つまり、ピクセル毎に1つのハフ特徴を含む。
上述した態様は常に「瞳孔の認識」との関係で説明してきたが、上述した態様はまた、更なるアプリケーションにも使用可能である。ここで、例えば「瞬間的居眠りに対する警報システム」のアプリケーションについて、以下に詳細に説明する。
瞬間的居眠りに対する警報システムは、少なくとも画像収集ユニットと、照明ユニットと、処理ユニットと、音響的及び/又は光学的信号化ユニットとから構成される。ユーザーにより記録された画像の評価によって、そのデバイスは、ユーザーの瞬間的居眠りの開始、又は疲労もしくは注意散漫を認識でき、そのユーザーに警告することができる。
このシステムは、例えばCMOS画像センサが使用され、場面が赤外線領域で照明されているという形態で展開されてもよい。この形態には、そのデバイスが環境光から独立して作動し、特にユーザーの眼を眩ませないという長所がある。処理ユニットとして組込型処理システムが使用され、そのシステムは、直下の操作システム上でソフトウェアコードを実行する。信号化ユニットは、例えばマルチ周波数型ブザー及びRGB−LEDから構成されてもよい。
記録された画像の評価は、第1処理段階において、顔及び眼の検出と眼の分析とが分類部によって実行される、という事実上の形式で行われ得る。この処理段階は、顔のアライメント、眼の位置及び瞬目反射(Lidschlussgrad)の程度についての第1の指示を提供する。
これに基づき、次のステップにおいて、モデルベースの眼の精密な分析が実行され得る。そこで使用される眼のモデルは、例えば瞳孔及び/又は虹彩の位置、瞳孔及び/又は虹彩のサイズ、瞼の記述及び眼のエッジ点などで構成され得る。その場合、各時点においてこれらの構成要素の幾つかが見つけられかつ評価されれば十分である。個々の構成要素はまた、複数の画像を介してトラッキングされることもでき、それら構成要素が全ての画像内において再度完全に探索される必要はない。
ハフ特徴は、顔の検出、眼の検出又は眼の分析もしくは眼の精密な分析を実行するために使用できる。2D画像分析は、顔の検出、眼の検出もしくは眼の分析に使用できる。顔の検出もしくは眼の検出もしくは眼の分析の期間中、決定された結果値、中間値、又は値動向を平滑化するために、上述の適応型選択的データ処理部が使用されてもよい。
瞬目反射の程度、及び/又は眼の精密な分析結果の経時的な評価は、ユーザーの瞬間的居眠り、疲労又は注意散漫を判定するために使用され得る。加えて、3D画像分析部に関連して上述したような校正不要の視線方向決定もまた、ユーザーの瞬間的居眠り、疲労又は注意散漫の判定のための更に良好な結果を得るために使用され得る。これらの結果を安定化させるために、適応型選択的データ処理部が使用されてもよい。
一実施形態によれば、初期画像の段階のハフプロセッサは、カメラ制御のためのユニットを含み得る。
一実施形態によれば、特定の視線方向に基づいて、いわゆる視点(目視線と更なる平面との交点)が、例えばPC制御のために決定され得る。
既に説明したように、上述の方法の実装はプラットフォームから独立しており、よって、上述の方法はまた、例えばPCなど他のハードウェアプラットフォーム上でも実行され得る。
これまで幾つかの態様をデバイスに関して説明してきたが、これらの態様はまたそれぞれの方法の説明でもあることは明らかあり、その場合、デバイスのブロック又は構成要素はそれぞれの方法ステップ又は方法ステップの特徴としても理解されるべきである。同様に、これまで方法ステップの関係で、又は方法ステップとして説明された態様はまた、それぞれのデバイスのそれぞれのブロック、又は詳細もしくは特徴の説明でもある。方法ステップの幾つか又は全部は、例えばマイクロプロセッサ、プログラム可能なコンピュータの装置、又は電子スイッチとして、(ハードウェア装置を使用して)ある装置により実行されてもよい。幾つかの実施形態では、最も重要な方法ステップの幾つか又はそれ以上がそのような装置によって実行されてもよい。
特定の実装要件にもよるが、本発明の実施形態は、ハードウェア又はソフトウエアにおいて構成可能である。この構成は、電子的に読み取り可能な制御信号がその中に格納され、本発明の各方法が実行されるようにプログラム可能なコンピュータシステムと協働する、例えばフレキシブルディスク,DVD,ブルーレイディスク,CD,ROM,PROM,EPROM,EEPROM又はフラッシュメモリ、ハードディスク、又は他のいかなる電磁的もしくは光学的ストレージなどのデジタル記憶媒体を使用して実行され得る。その場合、デジタル記憶媒体はコンピュータ読み取り可能であり得る。
本発明に従う幾つかの実施形態は、上述した方法の1つを実行するようプログラム可能なコンピュータシステムと協働可能で、電子的に読み取り可能な制御信号を有するデータキャリアを含む。
一般的に、本発明の実施例は、プログラムコードを有するコンピュータプログラム製品として構成することができ、そのプログラムコードは当該コンピュータプログラム製品がコンピュータ上で作動するときに、本発明の方法の一つを実行するよう作動可能である。
そのプログラムコードは、例えば機械読み取り可能なキャリアに格納されていても良い。
本発明の他の実施形態は、上述した方法の1つを実行するためのコンピュータプログラムを含み、そのコンピュータプログラムは機械読み取り可能なキャリアに格納されている。
換言すれば、本発明方法の一実施形態は、そのコンピュータプログラムがコンピュータ上で作動するときに、上述した方法の1つを実行するためのプログラムコードを有するコンピュータプログラムである。
本発明に従う方法の更なる実施形態は、本明細書に記載された方法の1つを実行するためのコンピュータプログラムが記録された、データキャリア(又はデジタル記憶媒体またはコンピュータ読取り可能な媒体)である。
本発明の他の実施形態は、上述した方法の1つを実行するためのコンピュータプログラムを構成するデータストリーム又は信号列である。そのデータストリーム又は信号列は、例えばインターネットのようなデータ通信接続を介して伝送されるよう構成されても良い。
他の実施形態は、上述した方法の1つを実行するように構成又は適応された、例えばコンピュータ又はプログラム可能な論理要素のような処理ユニットを含む。
他の実施形態は、上述した方法の1つを実行するためのコンピュータプログラムがインストールされたコンピュータを含む。
本発明に従う更なる実施形態は、上述した方法の少なくとも1つを実行するためのコンピュータプログラムを受信者へと伝送するよう設計されたデバイス又はシステムを含む。その伝送は電子的又は光学的に行われ得る。受信者はコンピュータ、モバイルデバイス、ストレージデバイス又は類似のデバイスであり得る。そのデバイス又はシステムは、例えばコンピュータプログラムの受信者への伝送のためのファイルサーバーを含み得る。
幾つかの実施形態においては、(例えばプログラム可能ゲートアレイ:FPGAのような)プログラム可能な論理要素が、上述した方法の幾つか又は全ての機能を実行するために使用されても良い。幾つかの実施形態では、プログラム可能ゲートアレイが、上述した方法の1つを実行するためにマイクロプロセッサと協働しても良い。一般的に、幾つかの実施形態に関し、それらの方法は任意のハードウェアデバイスによって実行される。これはコンピュータプロセッサ(CPU)としてユニバーサル的に適用可能なハードウェアであってもよく、又は、例えばASICのように方法に関しハードウェア特定型であってもよい。
以下に、上述した発明又は発明の態様について、更なる2つの観点から説明する。換言すれば以下の通りである。
統合型アイトラッカー(視線計測器)
統合型アイトラッカーは、FPGA最適化済みアルゴリズムのコンパイルを含み、それらアルゴリズムは、カメラライブ画像から並列ハフ変換により(楕円)特徴(ハフ特徴)を抽出し、そこから視線方向を計算するのに適している。抽出された特徴を評価することで、瞳孔の楕円が決定され得る。ある位置を有する複数のカメラを使用し、アライメントが互いに既知である場合、瞳孔中点の3D位置と3D視線方向及び瞳孔の直径が決定され得る。その計算には、カメラ画像内の楕円の位置と形状が考慮される。それぞれのユーザーにとってシステムの校正は必要でなく、カメラと分析される眼との間の距離の知識も必要でない。
使用される画像処理アルゴリズムは、特に、FPGA(プログラム可能ゲートアレイ)上での処理に対して最適化されているという特徴を持つ。そのアルゴリズムは、FPGAにおいて一定のリフレッシュレートと最小の待ち時間と最小の資源消費とを有する非常に高速の画像処理を可能にする。つまり、これらのモジュールは、時間的、待ち時間的及びセキュリティ的に厳しいアプリケーション(例えば運転支援システム)、医学診断システム(例えば視野計)、更には、人間−機械インターフェイス(例えばモバイルデバイス)などであって、小型の構造を要件とするアプリケーションを想定して設計されている。
課題
−複数の(ライブ)カメラ画像内における3D空間内での3Dの眼の位置及び3D視線方向のロバストな検出、及び瞳孔サイズの検出
−非常に短い反応時間(又は処理時間)
−小型の構造
−統合された解決策による(PCから独立した)自律機能
現状技術
−アイトラッカーシステム
・Steffen Markert: gaze direction determination of the human eye in real time(非特許文献1及び特許文献2)
・Andrew T. Duchowski: Eye Tracking Methodology:Theory and Practice(非特許文献2)
−並列ハフ変換
・Johannes Katzmann: A real time implementation for the ellipsis Hough transformation(非特許文献3及び特許文献1)
・Christian Holland-Nell: Implementation of a pupil detection algorithm based on the Hough transformation for circles(非特許文献4及び特許文献1)
現状技術の欠点
−アイトラッカーシステム
○欠点
・アイトラッカーシステムは一般的に、使用前に(複雑な)校正を必要とする。
・Markertによるシステム(特許文献2)は、校正不要であるが、以下のような所定の要件の下でしか作動しない。
1.カメラと瞳孔中点との間の距離が既知であり、ファイルされていること
2.3D瞳孔中点がカメラの光軸の範囲内ある場合にだけその方法が作動する
・全体的な処理はPCハードウェアに対して最適化されている。よって、それによる欠点(処理の期間中では固定の時間レジームが可能でないこと)も免れない。
・アルゴリズムが非常に高い資源消費を有するため、効率的なシステムが必要となる。
・結果が有効になるまでに長期の処理時間、よって長期の遅延時間が発生する(評価されるべき画像サイズに部分的に依存する)。
−並列ハフ変換
○欠点
・二値エッジ画像だけが伝送され得る。
・変換はある画像座標に関連する二値結果を提供するだけである(構造の位置は既知となったが、ヒット確率及び更なる構造特徴は未知である)。
・動作中に変換コアの柔軟な調節ができず、よって、動的な画像コンテンツ(例えば小さな瞳孔と大きな瞳孔などの)動的な画像コンテンツに対しては適性不十分である。
・動作中に変換コアを他の構造へとリコンフィグレーションすることは不可能である。よって、オブジェクト認識への適性は限定的である。
構成
全体的なシステムは、同一の眼が表示されている2個以上のカメラ画像から、多次元ハフ特徴のリストをそれぞれ決定し、それらに基づいて瞳孔楕円の位置及び形状をそれぞれ計算する。これら2個の楕円パラメータから、また、カメラの互いの位置及びアライメントのみから、瞳孔中点の3D位置と3D視線方向及び瞳孔直径とが完全に校正不要で決定され得る。ハードウェアのプラットフォームとして、少なくとも2つの画像センサの組合せと、FPGA及び/又は下流側のマイクロプロセッサシステムが(PCIを強制的に必要とせずに)使用される。「ハフ処理」、「並列ハフ変換」、「ハフ特徴抽出部」、「楕円変換部へのハフ特徴」、「コアサイズ制御」、「時間的スマート平滑化フィルタ」、「3Dカメラシステムモデル」、「3D位置計算」及び「3D視線方向計算」は、統合型アイトラッカーの個々の機能モジュールに関係する。それらは統合型アイトラッカーの一連の画像処理ライン内に以下のように当てはまる。
図6は、統合型アイトラッカーにおける個々の機能モジュールのブロック図を示す。そのブロック図は、統合型アイトラッカーの個々の処理ステージを示す。以下に、モジュールの詳細な説明を提示する。
「ハフ前処理」
○機能
・「並列ハフ変換」モジュールのためのビデオストリームのアップサンプリング。特に、「並列ハフ変換」モジュールの並列化の程度に従う、変換されるべき画像の画像回転及びアップサンプリングによる。
○入力
・二値エッジ画像又はグラデーション画像
○出力
・後続のモジュールの並列化の程度に従い、入力からアップサンプリングされたピクセルデータを有する1つ以上のビデオストリーム
○詳細な説明
・並列ハフ変換は、その原理に基づき、画像コンテンツに対し、それぞれ約90°歪まされた4つの主方向から適用され得る。
・このため、前処理の中で約90°の画像回転が行われる。
・回転された画像と回転されていない画像とが水平方向に反転されているという事実から、(ストレージ内にファイルされた画像行列の逆読み出しにより)残りの2つの方向がカバーされる。
・モジュールの並列化の程度に従い、以下の3つの場合が出力用にもたらされる。
・・100%並列化:4個のビデオデータストリームの同時出力。即ち、約90°回転済み、回転なし、及びそれぞれの反転済みの同時出力。
・・50%並列化:2個のビデオデータストリームの出力。即ち、約90°回転済み及び回転なしの出力と、それぞれの反転済みバージョンの出力とが、シーケンシャルに行われる。
・・25%並列化:1個のビデオデータストリームの出力。即ち、約90°回転済み、回転なし、及びそれぞれの反転済みバージョンが、シーケンシャルに出力される。
「並列ハフ変換」
○機能
・簡素なパターン(異なるサイズ及び傾きを有する直線と、異なる半径及び向きを有する曲線)と、二値エッジ又はグラデーション画像内におけるそれらの出現確率との並列認識
○入力
・並列ハフ変換のためのアップサンプリング済みのエッジ画像又はグラデーション画像(「ハフ前処理」モジュールの出力)
○出力
・探索構造の全ての関連パラメータを含む多次元ハフ空間
○詳細な説明
・ピクセルデータについての定義された「通過方向」を有し、以下の特徴によって特性付けされる、複素遅延ベースのローカルフィルタによる入力の処理。
・・遅延要素から成る可変サイズを有するフィルタコア
・・探索構造へのフィルタの適応型調節のために、動作中に遅延要素がスイッチオン及びオフされ得る
・・フィルタの各コラムは探索構造(曲線又は直線の傾き)の特定の特性を表す
・・フィルタコラムを介する合計は、各コラムによって表された構造の特性についての出現確率を提供する
・・フィルタを通過するとき、探索パターンの特性についての最高の出現確率を有するコラムが常に出力される
・各画像ピクセルについて、フィルタは、ハフ空間内の以下のような情報を含む1つの点を提供する:
・・パターンの種類(例えば直線又は半円)
・・パターンについての出現確率
・・構造の特性(カーブの強度又は直線については傾き及び長さ)
・・画像内の構造の位置及び向き
・変換結果として多次元画像がもたらされ、これは以下においてはハフ空間と称される。
「ハフ特徴抽出部」
○機能
・パターン認識のための関連情報を含むハフ空間からの特徴の抽出
○入力
・多次元ハフ空間(「並列ハフ変換」モジュールの出力)
○出力
・パターン認識のための関連情報を含むハフ特徴のリスト
○詳細な説明
・ハフ特徴空間の平滑化(ローカルフィルタリングを用いた空間的修正)
・修正された「非最大抑圧」によるハフ空間の「間引き」(パターン認識と無関係な情報の抑制)
・・パターンの種類と構造の特性を考慮した、処理に無関係な点(ハフ確率空間内の「非最大」)の削除
・・以下の適切な閾値を用いたハフ空間点の更なる間引き
・・○ハフ確率空間における閾値によるノイズ抑制
・・○構造の最小及び最大の許容可能な特性のための区間の指示(例えば曲線構造については最小/最大のカーブ、又は、直線については最低/最高の傾き)
・オリジナル画像スコープの結果における全ての残りの点のパラメータの分析的な再変換は、以下のハフ特徴をもたらす。
・・次のパラメータを有する曲線構造
・・○位置(x−及びy−画像座標)
・・○ハフ特徴の出現確率
・・○円弧の半径
・・○円弧がどの方向に開口しているかを示す角度
・・次のパラメータを有する直線
・・○位置(x−及びy−画像座標)
・・○ハフ特徴の出現確率
・・○直線の傾きを示す角度
・・○表された直線セグメントの長さ
「ハフ特徴を楕円変換部へ」
○機能
・画像内の瞳孔エッジ(楕円)を最高確率で記述する3〜4個のハフ特徴(曲線)の選択と楕円の決定
○入力
・カメラ画像内の全ての検出されたハフ特徴(曲線)のリスト
○出力
・瞳孔を最高確率で表している楕円のパラメータ
○詳細な説明
・全てのハフ特徴(曲線)のリストから3〜4個のハフ特徴の組合せが形成され、それらのパラメータによってハフ特徴が水平及び垂直の端点を記述し得る
・その場合、以下のような基準がハフ特徴の選択に影響を与える
・・ハフ特徴のスコア(確率)
・・ハフ特徴のカーブ
・・ハフ特徴同士の互いに対する位置及び向き
・選択されたハフ特徴の組合せは以下のようにアレンジされる
・・第1に、含まれるハフ特徴の数に従って
・・第2に、含まれるハフ特徴の組合せられた確率に従って
・アレンジングの後で、第1位のハフ特徴の組合せが選択されて、カメラ画像内の瞳孔を最も確からしく表している楕円がフィットされる。
「コアサイズ制御」
○機能
・並列ハフ変換のフィルタコア(ハフコア)の、現実の楕円サイズへの動的な調節
○入力
・最後に使用されたハフコアサイズ
・対応するカメラ画像内の瞳孔を表す楕円のパラメータ
○出力
・更新されたハフコアサイズ
○詳細な説明
・「ハフ特徴を楕円変換部へ」により計算された楕円のサイズ(半軸の長さ)に依存して、端点の検出の間にハフ変換結果の精度を向上させるためにハフコアサイズがトラッキングされる。
「時間的スマート平滑化フィルタ」
○機能
・指数平滑法の原理に従う(例えば決定された楕円中点座標の)データ列の適応型同時平滑化であり、その場合、平滑化されるべきデータ列内の外れ値又は極端な孤立値が平滑化されたデータの変動をもたらすことがない。
○入力
・モジュールの各活性化期間において、それぞれ、データ列の1つの値及び関連する品質基準(例えばフィットされた楕円の出現確率など)
○出力
・平滑化されたデータ列(例えば楕円中点座標)
○詳細な説明
・1セットのフィルタパラメータを介してフィルタを初期化することで、その挙動が決定され得る。
・以下のカテゴリーの1つに該当しない場合、現実の入力値が平滑化に使用される。
・・関連する出現確率に対応して、それがデータ列の外れ値である場合
・・関連する楕円パラメータに対応して、それがデータ列の孤立値である場合
・・○現実の楕円サイズが以前の楕円サイズと違い過ぎる場合
・・○楕円の最後の位置に対する現実の位置の差異が大き過ぎる場合
・更に、これらの基準の1つが満たされた場合、以前に決定された値が出力される。そうでない場合には、平滑化のための現在の値が考慮される。
・平滑化の間に可能な低遅延を得るために、現在の値は過去の値よりもより強く評価される:
・・現在平滑化されている値=現在値*平滑化係数+最後に平滑化された値*(1−平滑化係数)
・・平滑化係数は、定義された境界内において、平滑化されるべきデータの傾向に対して動的に調節される:
・・○データ列内におけるほぼ一定の値動向を用いた低減
・・○データ列内における増加又は減少する値動向を用いた増強
・平滑化されるべき楕円パラメータに関して長期的に大きな逸脱が発生する場合、フィルタ及び平滑化された値動向が調節される。
「3Dカメラシステムモデル」
○機能
・複数のカメラと、ユーザー(又は彼/彼女の眼)と、可能性としてスクリーンとが配置された、3D空間のモデリング
○入力
・全てのモデルのモデルパラメータ(位置パラメータ、光学的パラメータ、その他)を含むコンフィグレーションファイル
○出力
・このモデル内での計算のための統計的枠組み及び関数を提供する
○詳細な説明
・モデルの全ての構成要素の空間位置(位置及び回転角度)と、それらの幾何学的特性(例えばピクセルサイズ、センササイズ、解像度)及び光学的特性(例えば焦点距離、対物レンズ歪み)のモデリング
・モデルはこの時点で以下の構成要素を含む
・・次の構成要素を含むカメラユニット
・・○カメラセンサ
・・○対物レンズ
・・眼
・・ディスプレイ
・モデルの全ての構成要素の特性の他に、特に、以下に説明する機能、即ち(眼の位置の計算のための)「3D位置計算」と、(視線方向の計算のための)「3D視線方向計算」とが提供される。
・このモデルにより、特に(瞳孔中点及び視線方向ベクトルからなる)3Dの目視線(3D-Blickgerade)であって、人間の眼の生物学及び生理学に対応して修正されたものが計算され得る。
・任意ではあるが、(例えばディスプレイ上の)3Dモデルの他のオブジェクトのビューワの視点と、そのビューワの焦点領域もまた計算され得る。
「3D位置計算」
○機能
・2個以上のカメラによって捕捉されたある点(例えば瞳孔中点)の空間位置(3D座標)の三角形分割による計算
○入力
・2つのカメラ画像内の1つの点の2D座標
○出力
・その点の3D座標
・誤差の尺度:伝送された2D座標の精度をモデルパラメータとの組合せで記述する
○詳細な説明
・伝送された2D座標から、両方のカメラについて「3Dカメラシステムモデル」により(特に光学的パラメータを考慮して)、3D点をセンサ上の2D点として表示した光線が計算される。
・これらの光線はこのモードの3D空間における直線として記述される。
・両方の直線同士の距離が最短となる点(理想的な場合には直線の交点)が探索3D点であると推定される。
「3D視線方向計算」
○機能
・瞳孔の2個の楕円形状の投影からカメラセンサまでの視線方向を、校正なしでかつ眼とカメラシステムとの間の距離を知ることなく決定すること。
○入力
・画像センサの3D位置パラメータ
・両方の画像センサに投影された瞳孔の楕円パラメータ
・両方の画像センサ上の楕円中点の3D位置
・瞳孔中点の3D位置
○出力
・ベクトル及び角度表現における3D視線方向
○詳細な説明
・瞳孔中点の3D位置及び画像センサの位置から、現実のカメラユニットの回転により仮想のカメラユニットが計算され、その光軸は、3Dの瞳孔中点を通過する。
・次に、現実のセンサへの瞳孔の投影から、仮想のセンサへのそれぞれの瞳孔の投影が計算されて、いわゆる2個の仮想の楕円がもたらされる。
・仮想の楕円のパラメータから、両方のセンサについて、眼のそれぞれ2個の視点が、それぞれのセンサ平面に対して任意に平行な平行平面上において計算され得る。
・これら4個の視点と3Dの瞳孔中点とにより、4個の視線方向ベクトル(各カメラの結果からそれぞれ2個のベクトル)が計算され得る。
・これら4個の視線方向ベクトルのうち、あるカメラの1つのベクトルが、他のカメラの1つのベクトルと正に同一又は略同一となる。
・同一のベクトルの両方は眼の探索視線方向を示し、その視線方向が「3D視線方向計算」モジュールにより結果として提供される。
4.a)長所
−カメラに対する眼の位置の知識から独立した、3Dの眼の位置、3D視線方向及び瞳孔サイズの、非接触かつ完全に校正不要の決定。
−3Dの眼の位置と3D視線方向との(3D空間モデルを包含することによる)分析的な決定により、3D空間内におけるカメラの任意の個数(>2)及び任意のカメラ位置が可能となる。
−カメラに投影された瞳孔の計測と、それによる瞳孔サイズの正確な決定
−一連の処理において再帰がない完全に並列の処理に起因して、高いフレームレート(例えば1つのXILINX Spartan 3A DSP @ 96MHzについて60FPS @ 640x480)及び短い待ち時間
−並列FPGA構造のために開発されたFPGAハードウェア及びアルゴリズムの使用
−オブジェクト認識(ここでは瞳孔楕円の特徴)のためのロバストな特徴抽出のための(上述したFPGAハードウェアのために調節された形態における)ハフ変換の使用
−ハフ変換の結果の後処理のためのアルゴリズムはFPGAにおける並列処理に最適化されている。
−固定の時間レジーム(連続的な結果間の一定の時間差)
−1チップ上に完全に集積されていることによる最小の構造空間
−低いエネルギー消費
−FPGAからASICへの処理の直接的な変更の可能性→スケーリング効果の活用に起因して、多数でも非常に費用効率が良好な解決策
アプリケーション
−(ライブ)カメラ画像データストリーム内で、3Dの眼の位置及び3Dの視線方向が検出され、それらは以下のアプリケーションのために使用され得る。
○セキュリティ関連分野
・自動車分野における運転支援システムとして、(例えば瞳孔のカバー度をまばたきの尺度とする)眼の評価による、かつ視点及び焦点を考慮に入れた、例えば瞬間的居眠り警報システム又は疲労検出器
○人間−機械インターフェイス
・技術的デバイスのための入力インターフェイスとして(眼の位置及び視線方向は入力パラメータとして使用され得る)
・スクリーンコンテンツを眺めているときのユーザーの支援(例えば眺められている領域の強調)
・例えば
・・介護分野
・・コンピュータゲーム
・・頭部装着型デバイス用の視線方向サポートされた入力
・・視線方向を含めることによる3D可視化の最適化
○市場及びメディア展開
・例えば被験者の空間的視線方向及び視点を評価することによる、広告の魅力の評価
○眼科的診断(例えば対物視野計測)及び治療
FPGA−フェイストラッカー
本発明の一態様は、自律型(PCから独立した)システムに関し、特に、FPGA最適化されたアルゴリズムを使用し、カメラライブ画像内の顔とその(空間的)位置を検出するのに適したシステムに関する。使用されるアルゴリズムは、特に、FPGA(プログラム可能ゲートアレイ)上の処理に対して最適化されており、現存の方法と比較して、処理の中に再帰なしで処理が進むという特徴を有する。そのアルゴリズムは、FPGAにおいて一定のフレームレートと最短の待ち時間と最小の資源消費とを用いて非常に高速の画像処理を可能にする。従って、これらのモジュールは、(例えば運転支援システムなど)時間的/待ち時間的/セキュリティ的に厳しいアプリケーション、又は、小型の構造体であることを要件とする(例えばモバイルデバイス用の)人間・機械インターフェイスとしてのアプリケーションに適している。更に、第2のカメラを使用することで、画像内の特定の点に対するユーザーの空間的位置が、高度な精度を持って、校正不要かつ非接触で決定され得る。
課題
(ライブ)カメラ画像内におけるロバストでハードウェアベースの顔検出
−ステレオカメラシステムを使用した3D空間内での顔及び眼の位置の検出
−非常に短い反応時間(又は処理時間)
−小型の構造
−統合された解決策による(PCから独立した)自律機能
現状技術
−文献:
○Christian Kueblbeck, Andreas Ernst: Face detection and tracking in video sequences using the modified census transformation(非特許文献5)
○Paul Viola, Michael Jones: Robust Real-time Object Detection(非特許文献6)
現状のフェイストラッカーシステムの欠点
−全体的な処理はPCシステム(より一般的:汎用目的プロセッサ)のために最適化されており、従ってその欠点から免れない(例えば処理進行中の固定の時間レジームが可能でない(実例:画像コンテンツ、例えば背景に依存して、トラッキングにより長い時間が掛かる可能性がある))。
−シーケンシャルな処理;初期画像は異なるスケーリング段階へと(最低のスケーリング段階に到達するまで)連続的に送り込まれ、顔に関する多段階分類部を用いてそれぞれ探索される。
○どれだけ多くのスケーリング段階が計算されるべきか、又は、分類部のどれだけ多くの段階が計算されるべきかに依存して、結果が利用可能となるまで処理期間が変化する。
−高いフレームレートに到達するために、効率的なシステムが必要となる(より高いクロックレート、マルチコア−システムの環境下で)。なぜなら、PCハードウェアに対して最適化されたアルゴリズムは(特に組込型プロセッサシステムが用いられた場合)、非常に高い資源消費を必要とするから。
−検出された顔位置に基づいて、分類部は不正確な眼の位置しか提供しない(眼の位置−特に瞳孔中点−は分析的に決定(又は測定)されておらず、従って不正確性から免れない)。
−決定された顔と眼の位置は2D画像座標においてのみ利用可能であり、3Dでは利用できない。
構成
全体的なシステムは、(単一の顔だけが表示されている)1つのカメラ画像から顔の位置を決定し、この位置を使用して左右の眼の瞳孔中点の位置を決定する。互いにに対する既知のアライメントを有する2つ以上のカメラが使用される場合、これら2つの点が三次元空間のために指示され得る。決定された両方の眼の位置は、「統合型アイトラッカー」を使用するシステム内で更に処理されてもよい。「並列画像スケーラ」、「並列フェイスファインダ」、「並列眼分析器」、「並列瞳孔分析器」、「時間的スマート平滑化フィルタ」、「3Dカメラシステムモデル」及び「3D位置計算」は、全体システム(FPGAフェイストラッカー)の個々の機能モジュールに関係している。それらはFPGAフェイストラッカーの画像の一連の処理に以下のように関与する。
図7aは、FPGAフェイストラッカーにおける個々の機能モジュールのブロック図を示す。機能モジュール「3Dカメラシステムモデル」と「3D位置計算」は、フェイストラッキングには必須要件であるが、ステレオカメラシステムを用いて、空間位置の決定のために両方のカメラ上の適切な点を計算する場合に(例えば両方のカメラ画像内の2Dの顔中点の計算の間に3Dの頭部位置を決定するために)使用される。
FPGAフェイストラッカーにおけるモジュール「特徴抽出(分類)」は、フラウンホーファIIS(エルランゲン、ドイツ連邦共和国)のKueblbeck/Ernstの特徴抽出及び分類に基づいており、センサス特徴に基づいて分類された調節済み変形例を使用する。
ブロック図は、FPGAフェイストラキングシステムの個々の処理段階を示す。以下に、モジュールの詳細な説明を提示する。
・「並列画像スケーラ」
○機能
・初期画像のスケーリング段階の並列計算と、計算されたスケーリング段階の新たな画像行列内でのアレンジメントにより、後続の画像処理モジュールが全てのスケーリング段階を同時分析できるようする。
図7bは、初期画像(オリジナル画像)と並列画像スケーラの結果(縮小画像)を示す。
○入力
・オリジナル解像度における初期画像
○出力
・初期画像のより多くのスケール済み変形例を、後続のフェイストラキングモジュールのために適切なアレンジメントで含む、新たな画像行列
○詳細な説明
・初期画像の異なるスケーリング段階の並列的計算により画像ピラミッドを確立する。
・以前に計算されたスケーリング段階の目標行列内における定義されたアレンジメントを保証するため、種々の基準により、それぞれのスケーリング段階の画像座標が目標行列の画像座標システムへと変換される。
・・隣接する段階内の分析結果のクロストークを抑制するため、スケーリング段階同士間の定義された最短距離
・・画像から部分的に突出している顔の分析を保証するため、目標行列のエッジへの定義された距離
・「並列フェイスファインダ」
○機能
・1つの行列内に合体してアレンジされた複数のスケーリング段階の分類結果から顔を検出する。
図7cに示すように、分類結果(右側)は並列フェイスファインダへの入力を構成する。
○入力
・複数のスケーリング段階を含む分類された画像行列
○出力
・(複数の基準を考慮して)最高確率で顔が配置される位置
○詳細な説明
・分類結果を限定するためのノイズ抑制
・局所合計及び最大値フィルタ(lokalen Summen- und Maximunfilter)の組合せによる、スケーリング段階内の分類結果の空間的修正
・任意ではあるが全てのスケーリング段階にわたる顔サイズにおける、顔の最高出現確率についての向き
・選択されたスケーリング段階にわたる結果位置の空間的平均化
・・平均化に関与するスケーリング段階の選択は、以下の基準を考慮して行われる。
・・○観察されたスケーリング段階内の選択された顔の中点同士の差
・・○合計フィルタの最高結果の動的に決定された偏差
・・○分類結果なしのスケーリング段階の抑制
・「並列フェイスファインダ」の検出性能の閾値ベースの調節
「並列眼分析器」
○機能
・顔検出の間に、対応する顔内の眼の位置を並列に検出する(これは理想的に前面から捕捉されておらず、かつ歪んだ顔の場合に特に重要である)。
○入力
・(「並列画像スケーラ」モジュールからの)初期画像の複数のスケーリング段階を含む画像行列と、(「並列フェイスファインダ」モジュールからの)探索される顔が最高確率で配置されているそれぞれの現在の位置
○出力
・「並列フェイスファインダ」により検出された現在の顔の中の眼の位置及び関連する確率値
○詳細な説明
・ダウンスケールされた初期画像に基づき、「並列フェイスファインダ」により提供された顔領域内の眼の定義された範囲(眼の範囲)内において、各眼に対する眼の探索が以下のように行われる。
・・顔領域内の眼の経験的に決定された通常位置から眼の範囲を定義する。
・・特別に形成された相関ベースのローカルフィルタを用いて、眼の存在についての確率が眼の範囲内で決定される(この画像セグメント内の眼は、光環境を有する小さな暗い表面として簡素に記述される)
・・正確な眼の位置であって、以前に計算された確率分布における最大探索からの眼の位置の確率結果を含む
「並列瞳孔分析器」
○機能
・以前に決定された眼の位置に基づいて、検出された眼の中の瞳孔中点の位置を検出する(眼の位置の精度が向上することになり、それは瞳孔の測定や後続の評価にとって重要である)
○入力
・オリジナル解像度における初期画像と、(「並列眼分析器」又は「並列フェイスファインダ」からの)決定された眼の位置及び顔のサイズ
○出力
・評価された画像内の瞳孔の位置と、瞳孔が発見されたかどうかについてのステータス指示
○詳細な説明
・決定された眼の位置と顔のサイズに基づいて、処理されるべき画像部分が眼の周囲に認識される
・この画像行列内で画像コラムの最小値を含むベクトルと画像ラインの最小値を含むベクトルとが構築される。
・これらベクトルの中で(最小グレー値から)、以下に説明するように瞳孔中点が水平及び垂直方向において別々に検出される
・・それぞれのベクトルの最小値の検出(瞳孔内の位置として)
・・この最小値に基づいて、そのベクトル内で、正及び負の方向に、全てのベクトル要素の動的な範囲に比例的に関連する調節可能な閾値を超えた位置が決定される
・・両方のベクトル内のこれらの範囲の中点が一緒に、分析された画像内の瞳孔の中点を形成する。
「時間的スマート平滑化フィルタ」
○機能
・(例えば決定された顔座標の)データ列の適応型時間的平滑化であり、これにより、外れ値、不合理な値又は極端な孤立値が、平滑化されたデータ内で変動をもたらさなくなる。
○入力
・モジュールの各活性化期間に対し、それぞれデータ列の1つの値及び関連する品質基準(フェイストラッキングに関して:顔が発見されたフェイススコア及びダウンスケーリング段階)
○出力
・平滑化されたデータ値(例えば顔座標)
○詳細な説明
・フィルタパラメータのセットを介し、フィルタの初期化の間に、その挙動が決定され得る。
・現在の入力値は、それが以下のカテゴリーの1つに当てはまらない場合、平滑化のために使用される。
・・関連するスコアによれば、それはデータ列の外れ値である。
・・関連するダウンスケーリング段階によれば、それは不合理な値(離れ過ぎであるとダウンスケーリング段階内で決定されていた値)である。
・・平滑化に使用された最後の値に対して過大な差がある場合、それは外れ値である。
・これらの基準の1つが満足された場合、以前に決定された平滑化済み値が出力される。それ以外の場合には、現在の値が平滑化のために考慮される。
・平滑化の間のできるだけ低い遅延を達成するために、現在の値が過去の値よりもより強く評価される。
・・現時点で平滑化される値=現在値*平滑化係数+最後の平滑化された値*(1−平滑化係数)
・・平滑化係数は、平滑化されるべきデータの傾向に対し、定義された境界内において動的に調節される
・・○データ列の比較的一定した値動向の低減
・・○データ列の増加又は減少する値動向の増強
・平滑化されるべき楕円パラメータに関して長期的に大きな逸脱が発生する場合、フィルタ及び平滑化された値動向が調整される。
「3Dカメラシステムモデル」
○機能
・複数のカメラ、ユーザー(又は彼/彼女の眼)、及び可能性としてスクリーンが配置されている3D空間のモデリング
○入力
・モデルの全ての構成要素のモデルパラメータ(位置パラメータ、光学的パラメータなど)を含むコンフィグレーションファイル
○出力
・このモデル内での計算のための統計的枠組み及び関数を提供する
○詳細な説明
・モデルの全ての構成要素の空間位置(位置及び回転角度)と、それらの幾何学的特性(例えばピクセルサイズ、センササイズ、解像度)及び光学的特性(例えば焦点距離、対物レンズ歪み)のモデリング
・モデルはこの時点で以下の構成要素を含む
・・次の構成要素を含むカメラユニット
・・○カメラセンサ
・・○対物レンズ
・・眼
・・ディスプレイ
・モデルの全ての構成要素の特性の他に、特に、以下に説明する機能(眼の位置の計算のための)「3D位置計算」と、(視線方向の計算のための)「3D視線方向計算」とが提供される。
・他のアプリケーションの場合、更に以下の機能が提供される。
・・このモデルにより、特に(瞳孔中点及び視線方向ベクトルからなる)3Dの目視線であって、人間の眼の生物学及び生理学に対応して修正されたものが計算され得る。
・・任意ではあるが、(例えばディスプレイ上の)3Dモデルの他のオブジェクトへのビューワの視点と、そのビューワの焦点領域もまた計算され得る。
「3D位置計算」
○機能
・2個以上のカメラによって捕捉されたある点(例えば瞳孔中点)の空間位置(3D座標)の計算
○入力
・2つのカメラ画像内の1つの点の2D座標
○出力
・その点の3D座標
・誤差の尺度:伝送された2D座標の精度をモデルパラメータに関連して記述する
○詳細な説明
・伝送された2D座標から、両方のカメラについて「3Dカメラシステムモデル」により(特に光学的パラメータを考慮して)、3D点をセンサ上の2D点として表示した光線が計算される。
・これらの光線はこのモードの3D空間における直線として記述される。
・両方の直線同士の距離が最短となる点(理想的な場合には直線の交点)が探索3D点であると推定される。
長所
2D内の(ライブ)カメラ画像内における、及び3D空間での再計算による(3D空間モデルを含めることによる)3Dにおける、顔の位置及び眼の位置の決定
−3.で提示したアルゴリズムは、FPGAにおいてリアルタイム可能でかつ並列の処理に対して最適化されている。
−一連の処理の中に再帰がない完全に並列の処理に起因する、高いフレームレート(XILINX Spartan3A DSP @48MHzについて60FPS@640x480)と、短い待ち時間→非常に高速の画像処理及び最小遅延での結果の出力
−全体機能が1つの構成要素(GPGA)で達成できることによる最小の構造空間
−低いエネルギー消費
−固定の時間レジーム(連続的な結果間の一定の時間差)及びセキュリティ的に厳しいアプリケーションへの使用の適応性
−FPGAからASIC(特定用途向け統合型回路)への処理の直接的な変更の可能性→スケーリング効果の活用に起因して、多数でも非常に費用効率が良好な解決策
アプリケーション
−ソフトウエア解決策との比較におけるアプリケーション間の長所
○自律機能(チップ上のシステム)
○ASICへの容易な変更の可能性
○既存のシステム/スイッチ内への空間節約的な統合
−ソフトウエア解決策の分野と類似するアプリケーション分野((ライブ)カメラ画像データストリーム内で顔の位置及び対応する眼の位置が検出されて、以下のリストに記載するアプリケーションに使用される)。
○セキュリティアプリケーション
○セキュリティ関連分野
・例えば眼(まばたきの程度)の評価と眼及び頭部の動きの評価とによる、自動車分野における瞬間的居眠り警報システム
○人間−機械インターフェイス
・例えば技術的デバイスのための入力インターフェイスとして(頭部又は眼の位置を入力パラメータとして)
○視線計測
・例えば顔及び眼の位置を(「統合型アイトラッカー」との組合せにおける)視線方向決定のための事前段階として
○マーケティング
・例えば頭部及び眼のパラメータ(特に位置)を決定することによる、広告の魅力の評価
以下に、上述の態様に関する更なる背景知識について説明する。
ハフ特徴抽出
本願の以下の実施形態の目的は、並列ハフ変換に基づいて、特徴抽出のためのロバストな方法を発展させることである。このために、ハフコアは修正され、特徴抽出のための方法が提示される。その方法は、変換の結果を減少させ、それらを画像ごとの少数の「特徴ベクトル」へと作り変える。その後、新たに発展された方法は、MATLABツールボックス内に実装されて試験されている。最後に、新たに発展された方法のFPGA実装を提示する。
直線及び円のための並列ハフ変換
並列ハフ変換は種々のサイズのハフコアを使用し、それらはそれぞれのアプリケーション用のコンフィグレーション行列によって構成されなければならない。そのようなコンフィグレーション行列を確立するための数学的コンテキスト及び方法を、以下に提示する。The MATLAB alc_config_lines_curvatures.m はこれらの方法に言及し、種々のサイズの直線および半円のためのコンフィグレーション行列を確定する。
コンフィグレーション行列を確立するために、まず、曲線アレイを離散表示で種々のハフコアについて計算することが必要である。曲線アレイについての要件(確立規定Bildungsvorschriften)は既に発表されている。これらの確立規定を考慮すると、特に直線と半円はハフコアのコンフィグレーションに適している。視線方向の決定のためには、半円(又は曲線)用のコンフィグレーションを有するハフコアが使用される。完璧さを期す上で、ここでは直線(又は直線セグメント)用のコンフィグレーションも導出される。直線用の曲線のアレイを決定する数学的コンテキストが提示される。
直線用の曲線のアレイの計算のための開始点は、次式(B1)の線形直線方程式である。
[数35]
Figure 0006248208
曲線のアレイは傾きmの変化により生成され得る。このため、0°から45°の直線の傾きは同一サイズの区間へと分割される。区間の個数はハフコアサイズに依存し、ハフコアラインの数に対応する。傾きは、0〜coreheightの制御変数Ycoreを介して調整されてもよい。
[数36]
Figure 0006248208
曲線のアレイの関数値は、その値が0〜core幅を有する制御変数((B3)ではxcoreで置換されている)の変化により計算される。
[数37]
Figure 0006248208
2Dプロットにおける離散表示のために、関数値は丸め操作を受けなければならない。半円用の曲線のアレイの計算は、Katzmann 2005,(非特許文献3)の37〜38頁に記載され、図9bに示されている。
曲線のアレイの計算のための開始点は、座標フォーマット内の円方程式である。
[数38]
Figure 0006248208
M=0(円の中心がy軸上にある)、x=xcoreを使用し、曲線のアレイの関数値についてyへと変換することにより、次式(B5)になる。
[数39]
Figure 0006248208
M及びrは未知であるため、置換されなければならない。このため、図9bから(B6)及び(B7)の数学的コンテキストが導出されてもよい。
[数40]
Figure 0006248208
[数41]
Figure 0006248208
(B7)のyMへの変換により、また、yMが常に負でなければならない(図9b参照)という条件から、次式(B8)が取得される。
[数42]
Figure 0006248208
(B8)を(B5)に代入すると、次式(B9)がもたらされる。
[数43]
Figure 0006248208
図9bから、ハフコアはハブ中心合わせされており、円座標系のy軸内にあることが明らかである。変数xcoreは通常、0からcorewidth−1まで伸びており、従って、
Figure 0006248208
により修正されなければならない。
[数44]
Figure 0006248208
しかしながら、半径が欠落しているので、これは(B6)を(B7)に代入し、更なる変換により取得される。
[数45]
Figure 0006248208
[数46]
Figure 0006248208
[数47]
Figure 0006248208
曲線のアレイを生成するため、最後に、0から
Figure 0006248208
までの変数hが変更されなければならない。これは、0からcorehightまで変化する制御変数ycoreを介して行われる。
[数48]
Figure 0006248208
直線について上述したように、離散表示のためのy値は、2Dプロットにおいて丸め操作を受けなければならない。タイプ2のハフコアのための曲線のアレイは、次式(B15)により容易に決定され得る。
[数49]
Figure 0006248208
曲線のアレイに基づき、全てのハフサイズについて、直線及び円に関するそれぞれ2個のコンフィグレーション(タイプ1及びタイプ2)が決定され得る。これらのコンフィグレーションは、その場合、曲線のアレイから直接的に決定される(Katzmann 2005:非特許文献3の35〜36頁参照)。コンフィグレーション行列はゼロ又は1によって占められ得る。その場合の1は、ハフコア内の使用された遅延要素を表現している。最初に、コンフィグレーション行列は、ハフコアの次元においてゼロ値を用いて初期化される。その後、以下のステップが行われる。
1)曲線のアレイの第1曲線から開始して、第1のxインデックス番号のy値をテストする。y値がゼロよりも大きい場合、正に同じ位置(同じxインデックス)にある同じライン(同じyインデックス)内でコンフィグレーション行列の要素を1で占める。
2)曲線のアレイの全ての曲線を介して、y値を同じxインデックスで修正する。第1ステップにおいてある要素が1で占められていた場合、全てのy値から1を差し引く。第1ステップにおいてその要素が何も占められていない場合、何もしない。
3)コンフィグレーション行列の全ての要素がアプローチされる限り、ステップ1とステップ2とをパススルーする。
図9cにおいて、コンフィグレーションの手順が段階的に示されている。
最後に、ハフコアコンフィグレーションの幾つかの特殊性について述べる。直線に関するコンフィグレーションは、ハフコアの幅に依存する直線セグメントだけを常に表している。二値エッジ画像における長い直線セグメントは、任意ではあるが、複数の検出された直線セグメントから組み立てられてもよい。直線セグメントの角度(又は傾き)の解像度は、ハフコアの高さに依存する。
円に関するコンフィグレーションは、半円の頂点の周囲の円弧を常に表す。曲線のアレイの最高のyインデックス番号(最小半径)だけが、完全な半円を表す。新たなハフコアについては発展したコンフィグレーションが使用され得る。
ハフコアの修正
Holland-Nell(非特許文献4)のFPGA構成の決定的な欠点は、ハフコアの柔軟性のないコンフィグレーションである。合成に先立って遅延ラインがパラメータ化されなければならず、その後、ハードウェア構造の中に固定的に格納される(Holland-Nell(非特許文献4)の48〜49頁)。ランタイム中の変化(例えばハフコアサイズ)は全く不可能である。新たな方法は、この点においてより柔軟になることである。新たなハフコアは、−ランタイム中であっても−FPGAにおいて、完全に新たに構成可能となるべきである。これにより、複数の長所が生まれる。一方では、2つのハフコア(タイプ1及びタイプ2)が並列にファイルされる必要がなく、他方では、直線及び半円について異なるコンフィグレーションが使用されてもよいことである。更に、ハフコアサイズがランタイム中に柔軟に変更され得る。
以前のハフコア構造は遅延とバイパスとからなり、FPGA合成の前に、どの経路が使用されるべきかが決定される。以下では、この構造が、マルチプレクサと、遅延要素のコンフィグレーションのための更なるレジスタ(マルチプレクサの切換え)と、パイプライン遅延とにより拡張される。コンフィグレーションレジスタはランタイムの間に修正され得る。このようにして、異なるコンフィグレーション行列がハフコア内へと組み込まれ得る。パイプライン遅延を設定することで、FPGAにおける合成ツールは、ハフコア設計の実装の間により大きな自由度を持ち、高いクロックレートが達成できる。パイプライン遅延はFPGA構造内の時間的に厳しい経路を突破する。図9dにおいて、遅延要素の新たな設計を示す。
Katzmann(非特許文献3)及びHolland-Nell(非特許文献4)に従う以前の実装と比較して、新たなハフコアの遅延要素はもう少し複雑に構築されている。遅延要素の柔軟なコンフィグレーションのために、追加的なレジスタが必要とされ、マルチプレクサが更なる論理資源を占領する(FPGA内でLUTにおいて実装されなければならない)。パイプライン遅延は任意選択的である。遅延要素の修正とは別に、ハフコアの設計変更も実行されてきた。新たなハフコアは図9eに示されている。
以前のハフコアとは対照的に、最初に、新たな表記法が実装されるべきである。図9eの約90°回転された設計により、元は初期のヒストグラムの信号として言及されていた「ライン合計(Zeilensummen)」が、この図においては「コラム合計」として言及される。従って、ハフコアの各コラムは、曲線のアレイのあるカーブを表す。新たなハフコアは、更に、ランタイムの間に新たなコンフィグレーション行列による影響を受けることもあり得る。コンフィグレーション行列はFPGA内部のBRAM内にファイルされ、あるコンフィグレーション論理によってロードされる。これは、コンフィグレーションを、コラム毎のビットストリングとして、連結されたコンフィグレーションレジスタ内にロードする(図9d参照)。ハフコアのリコンフィグレーションは、所定の時間を必要とし、コラムの長さ(又は遅延ラインの合計)に依存する。従って、各コラム要素はあるクロックサイクルを必要とし、BRAMによる少数のタックサイクルの待ち時間とコンフィグレーション論理が追加される。リコンフィグレーションのための全体の待ち時間は不利ではあるが、ビデオベースの画像処理にとっては、それは許容され得る。通常、CMOSセンサで記録されたビデオデータストリームは水平及び垂直のブランキングを有する。よって、リコンフィグレーションは、水平ブランキング時間において問題なく行われ得る。FPGA内で実装されたハフコア構造のサイズは、ハフコアコンフィグレーションの最大の可能なサイズを予め決定する。小さなコンフィグレーションが使用される場合、これらは垂直に中心合わせされ、水平方向にはハフコア構造のコラム1において位置合わせ(図9f参照)される。ハフコア構造の使用されていない要素は、全て遅延によって占められる。小さなコンフィグレーションの正確なアライメントはx座標の修正にとって重要である(方程式(B17)〜(B19)を参照)。
ハフコアには、前もって、構成された遅延ラインを通って二値エッジ画像が供給される。各処理ステップにより、コラム合計が全体のハフコアを介して計算されて、前のコラムの合計信号とそれぞれ比較される。あるコラムがより高い合計値を提供した場合、元のコラムの合計値が上書きされる。初期信号として、新たなハフコアはコラム合計値及び関連するコラム番号を提供する。これらの値に基づいて、後に、どの構造が発見されたのか(コラム番号により表現される)、また、どれぐらいの出現確率でこれが検出されたのか(合計値により表現される)についての記述が作成され得る。ハフコアの初期信号は、ハフ空間又はアキュムレータ空間とも称される。通常のハフ変換とは対照的に、ハフ空間は画像座標系における並列ハフ変換に対して利用可能である。これは、各画像座標について、合計値及び関連するコラム番号が出力されることを意味する。眼の画像の完全な変換のために、未回転及び回転済みの画像のタイプ1及びタイプ2のそれぞれ1つのハフコアが、送られなければならない。従って、変換の後に、コラム合計及び関連するコラム番号だけでなく、ハフコアタイプ及び初期画像(未回転又は回転済み)のアライメントも使用可能である。更に、直線及び半円について、異なるハフコアサイズ及びコンフィグレーションが使用されてもよい。その場合、上述した結果の他に、曲線タイプ及びハフコアサイズも指示され得る。要約すると、新たなハフコアサイズの結果のデータセットが以下の表に示される。並列ハフ変換に関し、各画像点について、そのようなデータセットがもたらされる。
Figure 0006248208
修正されたハフコア構造を用いた並列ハフ変換により初期画像の各視点についてもたらされる結果のデータセットの概説
Katzmann(非特許文献3)及びHolland-Nell(非特許文献4)のハフコアの二値及び閾値ベースの出力とは対照的に、新たなハフコア構造はかなり初期的なデータを生成する。そのようなデータ量は取り扱いが困難であるので、結果的なデータ量を明確に低減させる特徴抽出の方法が提示される。
タイプ2のハフコア及び画像回転
並列ハフ変換に関する実施形態について、画像回転の必要性とタイプ2のハフコアの特殊性が既に紹介された。並列ハフ変換に関し、初期画像はハフコアを4回通過しなければならない。これは、直線と半円が異なる角度位置で検出され得るようにするために必要である。タイプ1のハフコアだけが使用される場合、画像は初期位置で処理され、約90°、180°及び270°の回転が行われなければならないであろう。タイプ2のハフコアを含むことで、約180°と270°の回転は省略される。未回転の初期画像がタイプ2のハフコアで処理される場合、これはタイプ1のハフコアを用いた約180°回転された初期画像の処理と対応する。それは約270°の回転と類似する。これはタイプ2のハフコアを用いた約90°回転された画像の処理で置換され得る。画像回転は通常、外部ストレージによってのみ解決されるので、FPGA構造にとって、追加的な回転の省略は肯定的な影響を与える。適用されたハードウェアに従い、所定の帯域幅(最大限可能なデータレート)だけがFPGAとストレージ要素との間で使用可能である。タイプ2のハフコアの使用については、外部ストレージ要素の帯域幅は約90°の回転によって占有されるだけである。Holland-Nell(非特許文献4)の従来の構成に関しては、タイプ1のハフコア及びタイプ2のハフコアをFPGA内にファイルすることが必要とされていた。修正されたハフコア設計を用いて、FPGA内にハフコア構造を一度ファイルし、かつタイプ1又はタイプ2のコンフィグレーションをアップロードすることも可能になった。この新たな機能により、初期画像は単一のハフコアだけを用いかつ単一の画像回転を用いるだけで完全に変換することができる。
単一のハフコアを用いた処理の間に、ハフコア内に4通りのデータレートが発生することも考慮されるべきである。60fps及びVGA解像度のビデオデータストリームに関し、ピクセルデータレートは24Mhzになる。この場合、ハフコアは96Mhzで操作されなければならないであろうし、それはSpartan3世代のFPGAにとって既に高いクロックレートを構成する。設計を最適化するために、ハフコア構造内のパイプライン遅延を用いて集約的に操作されなければならない。
特徴抽出
特徴抽出は以前のテーブルからのデータセットに対して作動する。これらのデータセットは特徴ベクトル(B16)内に要約され得る。その特徴ベクトルは以下ではハフ特徴として言及され得る。
[数50]
Figure 0006248208
特徴ベクトルはそれぞれ、検出された特徴についてのx座標及びy座標(MVx及びMVy)と、向きMV0と、カーブ強度MVKSと、頻度MVHと、ハフコアサイズMVG-1と、検出された構造の種類MVAとから構成される。特徴ベクトルの各要素の詳細な意味及び値範囲は、以下の表から導出され得る。
Figure 0006248208
ハフ特徴ベクトルの要素、それらの意味及び値範囲
Figure 0006248208
画像回転及び変換に使用されるハフコアタイプに依存した向きの計算
上記の表から、直線及び半円に関する両方の要素MV0及びMVKSが異なる意味を持つことが明らかになる。直線に関しては、向きとカーブ強度との組合せが、0°〜180°の角度における検出された直線セグメントの位置角度を形成する。従って、向きは角度範囲を示し、カーブ強度はこの範囲内の具体的な角度を表す。ハフコアが大きければ大きいほど(より正確には、より多数のハフコアコラムが使用可能であるほど)、角度分解能が微細となる。半円に関しては、向きは半円の位置角度又は半円のアライメントを表す。半円は、原則として、4個のアライメント内でのみ検出可能である。半円コンフィグレーションに関し、カーブ強度は半径を表す。
向きMV0とカーブ強度MVKSの他に、更なる特別な特徴が座標(MVxとMVy)について考慮されるべきである(図9g参照)。直線に関して座標は常に中点を表現すべきであり、半円又は曲線に関して座標は常に頂点を表現すべきである。この前提に基づき、y座標は実装されたハフコア構造に対応して修正されてもよく、変換に使用されたコンフィグレーションのサイズに依存しない(図9f参照)。ローカルフィルタと同様に、y座標は垂直に中心合わせされて示される。x座標について、ヒットを提供しハフコアコラムを介するコンテキストが確立されている(特徴ベクトルにおいて、ハフコアコラムは指示MVKSとともに蓄積されている)。ハフコアタイプ及び画像回転に依存して、3個の異なる場合についての計算規則も提示され得る。ハフコアタイプ1について、数式(B17)が、未回転及び回転済みの初期画像のためにそれぞれ言及される。タイプ2のハフコアが使用可能であれば、画像回転に依存して、数式(B18)又は数式(B19)が言及されるべきである。
[数51]
Figure 0006248208
[数52]
Figure 0006248208
[数53]
Figure 0006248208
指示「floor」により、分数の有理数が丸め操作される。FPGAにおいて、これは二値小数の単純な切り捨てに対応する。向きが決定され、ハフ特徴の座標が修正された後で、現実の特徴抽出が実行され得る。
特徴抽出のために、非最大抑圧操作との組合せにおいて3個の閾値が使用される。非最大抑圧の演算子は直線と半円とに関して異なる。閾値を介して、最小MVKSmin及び最大カーブ強度MVKSmaxが与えられ、最小頻度MVHminが決定される。非最大抑圧の演算子は、サイズ3×3のローカル演算子として見ることができる(図9h参照)。数式B(23)における非最大抑圧の演算子(nms演算子)の条件が満足し、かつ数式(B20)〜(B22)に従う閾値を超えた場合、半円(又は曲線)についての有効な特徴が常にもたらされる。
[数54]
Figure 0006248208
[数55]
Figure 0006248208
[数56]
Figure 0006248208
[数57]
Figure 0006248208
非最大抑圧操作に起因して、特徴ベクトルのハフ空間の中で、極大値を構成しないハフ特徴が抑制される。このようにして、探索構造に寄与せず、かつ後処理に無関係なハフ特徴が抑制される。特徴抽出は、予め有益に調節され得る3個の閾値を介してパラメータ化されるだけである。閾値の詳細な説明は、以下の表から導かれ得る。
Figure 0006248208
ハフ空間からハフ特徴を抽出するための3個の閾値の詳細な説明。Katzmannによる方法と比較して、パラメータは類似の関数を用いて示されている。
直線に関しては、サイズ3×3の(図9h参照)非最大抑圧の演算子が同様に推定され得る。その場合、幾つかの特殊性が考慮されるべきである。曲線とは異なり、直線セグメントに関する探索構造は、二値エッジ展開に沿って連続的に発生する複数の最大値に従って検出される訳ではない。非最大抑圧は、キャニーのエッジ検出(Canny edge detection)アルゴリズムにおける方法に基づいてもよい。ハフコアタイプ及び検出された角度範囲に従い、3つのケースが区別され得る(図9iと上記の表を組合せて参照されたい)。このようなケースの区別は、回転無しの初期画像と同様に回転された初期画像に対しても有効である。なぜなら、回転された座標の再変換は、非最大抑圧の後でのみ行われるからである。どのnms演算子が使用されるべきかは、ハフコアタイプ及び角度範囲にそれぞれ依存する。直線用のコンフィグレーションを有するハフコアにより提供される角度範囲は、角度範囲二等分線により分割される。角度範囲二等分線(又はその一部)は、ハフコアコラム(MVKShalbe)として示され得る。ハフコアサイズに依存する数学的コンテキストは方程式(B24)により記述される。ヒット(MVKS)を提供したハフコアコラムが、どの角度範囲内にハフ特徴があるかを示し、そのハフコアコラムは角度範囲二等分線と直接的に比較され得る。
[数58]
Figure 0006248208
ある演算子が選択された場合、それぞれのnms演算子に関する条件は、曲線についての非最大抑圧と同様に求められ得る(方程式(B25)〜(B27))。全ての条件が満足され、かつ追加的に、方程式(B20)〜(B22)に従う閾値を超えた場合、位置nms2,2におけるハフ特徴が推定され得る。
Figure 0006248208
ハフコアタイプ及びヒットが発生した角度範囲に依存するnms-演算子の決定
[数59]
Figure 0006248208
[数60]
Figure 0006248208
[数61]
Figure 0006248208
特徴抽出の完成は、回転されたハフ特徴のx軸及びy軸の再回転を形成する。後処理のために、これらは画像座標系において再度使用可能となるべきである。回転済みの初期画像が処理される場合、再変換は、曲線タイプとは無関係に(直線か曲線かに無関係で)常に行われるべきである。数式(B28)及び(B29)の中に、数学的コンテキストが記述される。画像幅を用いて、回転無しの初期画像の幅が表される。
[数62]
Figure 0006248208
[数63]
Figure 0006248208
特徴抽出により、並列ハフ変換の結果データを少数の点まで減少させることができる。これらは次に、特徴ベクトルとして後処理へと送られてもよい。
上述した実施形態は、単に本発明の原理の説明を示したに過ぎない。本明細書に記載した構成及び詳細について修正及び変更が可能であることは、当業者にとって明らかである。従って、本発明は、添付した特許請求の範囲によってのみ限定されるべきであり、本明細書に実施形態の説明及び解説の目的で提示した特定の詳細によって限定されるものではない。

Claims (29)

  1. 視線方向を示す3D視線ベクトルを決定するための3D画像分析装置(400)であって、この3D画像分析装置(400)は、第1画像(802a)に基づいて決定された画像データの少なくとも1つの第1セットと、前記第1画像(802a)又は追加画像(802b)に基づいて決定された情報の追加セットとを受信するよう構成され、前記第1画像(802a)は第1視覚から第1画像平面への3次元オブジェクトの表示からもたらされるパターンを含み、前記追加セットは追加視覚から追加画像平面への同じ3次元オブジェクトの表示からもたらされるパターンを持つ画像を含むか、又は前記追加セットは前記3次元オブジェクトの少なくとも1点と前記第1画像平面との間の関係を示す情報を含み、前記3D画像分析装置(400)は、
    前記第1セットと、前記追加画像(802b)に基づいて決定された追加セットと、前記第1画像(802a)及び前記追加画像(802b)の視覚間の幾何学的関係とに基づいて、3次元空間内での前記パターンの位置を計算するよう構成されるか、又は前記第1セットと、前記第1画像における少なくとも2つの特性的特徴の相互間の統計的に決定された関係とに基づいて、3次元空間内での前記パターンの位置を計算するよう構成されるか、又は前記第1セットと、前記3次元オブジェクトの少なくとも1点と前記第1画像平面との間の位置関係とに基づいて、3次元空間内での前記パターンの位置を計算するよう構成される、位置計算部(404)と、
    1画像当り2つの可能な3D視線ベクトルを計算し、これら2つの可能な3D視線ベクトルから前記3D視線ベクトルを決定するよう構成されたアライメント計算部(408)であって、前記3D視線ベクトルにしたがって前記3次元空間における前記パターン(806a)が位置合わせされ、前記計算と決定とは前記第1セットと前記追加セットとに基づき、かつ前記パターン(806a)の計算された位置とに基づいて行われる、アライメント計算部と、
    を含む3D画像分析装置。
  2. 請求項1に記載の3D画像分析装置(400)において、前記追加セットは追加画像(802b)に基づいて決定され、前記アライメント計算部(408)は、2つの追加の可能な3D視線ベクトルを計算し、この2つの追加の可能な3D視線ベクトルを比較し、この比較に基づいて前記3D視線ベクトルを決定するよう構成され、前記3D視線ベクトルに従って前記3次元空間における前記パターン(806a)が位置合わせされる、3D画像分析装置。
  3. 請求項1又は2に記載の3D画像分析装置(400)において、画像情報の前記追加セットは、前記第1画像(802a)及び/又は前記追加画像(802b)において投影によって表示された強膜から、何個のピクセルが走査されたかについての情報を含み、その投影は、前記第1画像及び/又は前記追加画像における瞳孔中点からもたらされ、かつ前記2つの可能な3D視線ベクトルの前記画像への表示からもたらされるものである、3D画像分析装置。
  4. 請求項2又は3に記載の3D画像分析装置(400)において、前記アライメント計算部(408)は、前記2つの可能な3D視線ベクトルから前記3D視線ベクトルを選択するよう構成され、前記3D視線ベクトルに従って前記3次元空間における前記パターン(806a)が位置合わせされ、この3D視線ベクトルは、瞳孔中点に基づいた前記画像への後方投影が他の3D視線ベクトルの後方投影に比べてより少ないピクセルを走査することを特徴とする、3D画像分析装置。
  5. 請求項1〜4のいずれか1項に記載の3D画像分析装置(400)において、前記アライメント計算部(408)は、前記画像の中へ投影された前記2つの可能な3D視線ベクトルに沿った、認識された瞳孔中点と認識された眼の開口部の端部との間の距離をそれぞれ決定し、前記2つの可能な3D視線ベクトルから前記3D視線ベクトルを選択するよう構成され、前記3D視線ベクトルに従って前記3次元空間における前記パターンが位置合わせされ、前記画像への前記3D視線ベクトルの投影が、前記瞳孔中点と前記眼の開口部の端部とのより短い距離を走査するような、前記3D視線ベクトルが選択される、3D画像分析装置。
  6. 請求項1〜5のいずれか1項に記載の3D画像分析装置(400)において、画像情報の前記追加セットは、基準瞳孔位置に対する前記第1画像(802a)において認識された眼内の瞳孔位置と前記2つの可能な3D視線ベクトルとの関係に関する情報を含む、3D画像分析装置。
  7. 請求項6に記載の3D画像分析装置において、前記アライメント計算部(408)は、前記眼の基準位置を決定するよう構成され、その基準位置は、顔面がカメラセンサ面に対して平行位置を持つ場合の表示された眼の開口部の表面の焦点に対応するか、又はカメラセンサ中心を直視している計算された瞳孔中点と対応しており、前記アライメント計算部(408)は、前記2つの可能な3D視線ベクトルから前記3D視線ベクトルを選択するよう構成され、前記3D視線ベクトルに従って前記3次元空間における前記パターン(806a)が位置合わせされ、前記瞳孔中点から伸びる前記画像における前記3D視線ベクトルの表示が前記基準位置に対してより大きな距離を持つような、前記3D視線ベクトルが選択される、3D画像分析装置。
  8. 請求項1乃至7のいずれか1項に記載の3D画像分析装置(400)において、前記統計的に評価された関係は、2つの特性的な顔面特徴の間の距離と、前記2つの特徴的な顔面特徴の間の比率及び/又は1つの特徴的顔面特徴と1つの画像端との間の比率とを含む、3D画像分析装置。
  9. 請求項1乃至8のいずれか1項に記載の3D画像分析装置(400)において、前記位置計算部(404)は、前記2つ以上の特性的特徴を検出し、それら特性的特徴の位置関係と事前に統計的に評価されかつ格納されたデータとを比較し、そこから前記パターンのカメラに対する距離及び/又はアライメントを決定するよう構成された、3D画像分析装置。
  10. 請求項1乃至9のいずれか1項に記載の3D画像分析装置(400)において、複数のサンプルの複数の第1セット及び追加セットを受信するよう構成された、3D画像分析装置。
  11. 請求項1乃至10のいずれか1項に記載の3D画像分析装置(400)において、前記位置計算部(404)は、複数のサンプルについて前記パターン(806a)の位置を計算するよう構成され、
    前記アライメント計算部(408)は、前記複数のサンプルについて前記パターン(806a)の前記3D視線ベクトルを決定し、前記3D視線ベクトルをトラッキングするよう構成された、3D画像分析装置。
  12. 請求項1乃至11のいずれか1項に記載の3D画像分析装置(400)において、前記パターン(806a)は瞳孔、虹彩、又は楕円である、3D画像分析装置。
  13. 請求項1乃至12のいずれか1項に記載の3D画像分析装置(400)において、前記第1セット及び追加セットは、パターン(806a)の座標、前記パターン(806a)の中点の座標、前記パターン(806a)の幾何学的パラメータ、楕円の中点の座標、前記楕円の第1直径(長軸)、前記楕円の第2直径(短軸)、及び前記楕円の軸の傾斜角度を含むグループから得られる、3D画像分析装置。
  14. 請求項1乃至13のいずれか1項に記載の3D画像分析装置(400)において、前記3D視線ベクトルは、前記パターン(806a)の中点を通り、前記パターン(806a)に属するオブジェクトの表面の法線方向に沿って延びるベクトルとして定義される、3D画像分析装置。
  15. 請求項1乃至14のいずれか1項に記載の3D画像分析装置(400)において、前記3D視線ベクトルの位置の計算は、カメラレンズの光学的パラメータ、カメラレンズの位置及びアライメント、センサピクセルサイズに関する情報及び複数のセンサピクセルの省略又は集中化に関する情報を含むグループから得られる、追加の情報に基づいている、3D画像分析装置。
  16. 請求項15に記載の3D画像分析装置(400)において、前記アライメント計算部(408)は、前記第1画像(802a)のための第1の仮想投影平面を、その第1の仮想投影平面に対して垂直であると定義された第1の仮想光軸が前記パターン(806a)の中点を通って延びるように計算し、かつ、画像情報の前記第1セットに基づいて前記第1の仮想投影平面を位置合わせするよう構成された、3D画像分析装置。
  17. 請求項15又は16に記載の3D画像分析装置(400)において、前記アライメント計算部(408)は、前記第1画像(802a)のための前記第1の仮想投影平面を、その第1の仮想投影平面に対して垂直であると定義された第1の仮想光軸が前記パターン(806a)の中点を通って延びるように計算し、前記追加画像(802b)のための第2の仮想投影平面を、その第2の仮想投影平面に対して垂直であると定義された第2の仮想光軸が前記パターンの中点を通って延びるように計算し、
    前記第1の仮想光軸は前記第1の仮想投影平面に対して垂直に前記受信されたパターン(806a)の中点を通って延び、かつ前記第2の仮想光軸は前記第2の仮想投影平面に対して垂直に前記受信されたパターン(806a)の中点を通って延びる、3D画像分析装置。
  18. 請求項17に記載の3D画像分析装置(400)において、前記第1画像(802a)及び/又は前記第2画像(802b)からの記第1及び/又は第2の仮想投影平面への変換は、前記パターン(806a)の特定位置に基づいて行われるか、及び/又はカメラレンズの光学的パラメータ、レンズ位置、センサピクセルサイズに関する情報及び複数のセンサピクセルの省略又は集中化に関する情報を含むグループから得られる、追加の情報に基づいて行われる、3D画像分析装置。
  19. 請求項17又は18に記載の3D画像分析装置(400)において、前記アライメント計算部(408)は、前記第1視覚のための第1の仮想投影平面に対する前記カメラレンズを通る第1の複数の交差ビームによって表示され、かつ第2視覚のための第2の仮想投影平面に対する前記カメラレンズを通る第2の複数の交差ビームによって表示される、前記パターン(806a)を、前記第1の仮想投影平面においては前記第1の複数の交差ビームによって、及び前記第2の仮想投影平面においては前記第2の複数の交差ビームによって、表示するよう構成されている、3D画像分析装置。
  20. 請求項19に記載の3D画像分析装置(400)において、前記パターンは変形された瞳孔、虹彩又は楕円であり、そのパターンは、少なくとも第1軸及び第2軸と、前記変形された瞳孔、虹彩又は楕円の軸の1つの傾斜角と、を含む画像データの第1セット及び第2セットによって表され得るものである、3D画像分析装置。
  21. 請求項20に記載の3D画像分析装置(400)において、前記3D視線ベクトルは1組の方程式によって表すことができ、各方程式は前記3D視線ベクトルに対する個々の第1の仮想投影平面及び個々の追加の仮想投影平面の幾何学的関係を表している、3D画像分析装置。
  22. 請求項21に記載の3D画像分析装置(400)において、前記第1の仮想投影平面に関する前記3D視線ベクトルについて、前記第1セットの画像データに基づく第1方程式によって2つの可能な解が計算可能であり、前記追加の仮想投影平面に関する前記3D視線ベクトルについて、前記追加のセットの画像データに基づいて追加の方程式によって2つの可能な解が計算可能である、3D画像分析装置。
  23. 請求項22に記載の3D画像分析装置(400)において、前記第1方程式の1つの解ベクトルと前記第2方程式の1つの解ベクトルとの差は、前記2つの方程式の解ベクトルからの他の組合せの間の差より小さく、かつそのような差の小さい2つのベクトルが選択され、前記3D視線ベクトルはそれら2つの選択されたベクトルの定格平均によって計算される、3D画像分析装置。
  24. 請求項23に記載の3D画像分析装置(400)において、前記アライメント計算部(408)は、前記第1方程式と第2方程式とを含む方程式システムによって、前記3D視線ベクトルについての明確な結果を計算するよう構成される、3D画像分析装置。
  25. 請求項1乃至24のいずれか1項に記載の3D画像分析装置(400)において、前記3D画像分析装置は1つの処理ユニットの中に実装されている、3D画像分析装置。
  26. 請求項25に記載の3D画像分析装置(400)において、前記処理ユニットは選択的適応型データプロセッサを有し、このプロセッサは複数セットの値を受信するよう構成され、各セットは個々のサンプルへ割り当てられ、
    前記プロセッサは、受信されたセットに基づいて妥当なセットを出力するよう構成され、妥当でないセットは妥当なセットによって置き換えられ、かつ妥当でないセットの値は内部的に決定された値によって置き換えられる、3D画像分析装置。
  27. 事前に検出され又はトラッキングされた瞳孔又は虹彩に基づいて、視線方向を決定するための3D画像分析システムであって、
    単眼カメラ組立体の少なくとも1つのカメラのための少なくとも1つのハフ経路、又はステレオスコピック又はマルチスコピックカメラ組立体の少なくとも2つのカメラのための少なくとも2つのハフ経路であって、各ハフ経路は以下の特徴を持つハフプロセッサを含み、
    前処理部(102)であって、それぞれ1つの画像を含む複数のサンプル(112a,112b,112c)を受信し、個々のサンプル(112a,112b,112c)の画像を回転及び/又は反転させ、各サンプル(112a,112b,112c)について個々のサンプル(112a,112b,112c)の画像の複数のバージョン(112a,112a',112a'',112a''')を出力するよう構成された前処理部(102)と、
    ハフ変換ユニット(104)であって、前記複数のバージョン(112a,112a',112a'',112a''')に基づいて、前記複数のサンプル(112a,112b,112c)内の所定の探索パターン(806a)を収集するよう構成され、このハフ変換ユニット(104)の特性は前記探索パターン(806a)に依存して調整可能である、ハフ変換ユニット(104)と、
    前記収集されたパターン(806a)を分析し、前記パターン(806a)の位置及び/又は幾何学的形状を表す1セットの画像データを出力するユニットと、
    請求項1〜27のいずれか1項に記載の3D画像分析装置(400)と、
    を含む3D画像分析システム。
  28. 視線方向を示す3D視線ベクトルを決定する方法であって、
    第1画像(802a)に基づいて決定された画像データの少なくとも1つの第1セットと、前記第1画像(802a)又は追加画像(802b)に基づいて決定された情報の追加セットとを受信するステップであって、前記第1画像(802a)は第1視覚から第1画像平面への3次元オブジェクトのパターン(806a)を表示しており、前記追加セットは前記追加画像(802b)又は前記3次元オブジェクトの少なくとも1点と前記第1画像平面との間の関係を示す情報を含む、ステップと、
    前記第1セットと、前記追加セットと、前記第1画像及び前記追加画像(802b)の視覚間の幾何学的関係とに基づいて、3次元空間内での前記パターン(806a)の位置を計算するか、又は前記第1セットと、前記第1画像(802a)における少なくとも2つの特性的特徴間の統計的に評価された関係とに基づいて、3次元空間内での前記パターン(806a)の位置を計算するか、又は前記第1セットと、前記3次元オブジェクトの少なくとも1点と前記第1画像平面との間の位置関係とに基づいて、3次元空間内での前記パターン(806a)の位置を計算するステップと、
    3D視線ベクトルであって、それに従って前記パターン(806a)が前記3次元空間において位置合わせされる3D視線ベクトルを、前記第1セットと前記追加セットとに基づいて計算するステップと、
    を含む方法。
  29. コンピュータ、組込型プロセッサ、プログラム可能な論理要素又は顧客特定型チップ上で作動するとき、請求項28に従う方法の実行のためのプログラムコードを有するコンピュータプログラム。
JP2016550180A 2014-02-04 2015-01-30 視線方向を決定するための3d画像分析装置 Active JP6248208B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102014201997.4 2014-02-04
DE102014201997 2014-02-04
PCT/EP2015/052004 WO2015117905A1 (de) 2014-02-04 2015-01-30 3d-bildanalysator zur blickrichtungsbestimmung

Publications (2)

Publication Number Publication Date
JP2017514193A JP2017514193A (ja) 2017-06-01
JP6248208B2 true JP6248208B2 (ja) 2017-12-13

Family

ID=52434840

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016550234A Expired - Fee Related JP6268303B2 (ja) 2014-02-04 2015-01-30 2d画像分析装置
JP2016550180A Active JP6248208B2 (ja) 2014-02-04 2015-01-30 視線方向を決定するための3d画像分析装置
JP2016550235A Expired - Fee Related JP6483715B2 (ja) 2014-02-04 2015-01-30 ハフプロセッサ

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016550234A Expired - Fee Related JP6268303B2 (ja) 2014-02-04 2015-01-30 2d画像分析装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2016550235A Expired - Fee Related JP6483715B2 (ja) 2014-02-04 2015-01-30 ハフプロセッサ

Country Status (6)

Country Link
US (3) US10192135B2 (ja)
EP (4) EP3968288A2 (ja)
JP (3) JP6268303B2 (ja)
KR (2) KR101991496B1 (ja)
CN (3) CN106258010B (ja)
WO (4) WO2015117904A1 (ja)

Families Citing this family (123)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150022664A1 (en) 2012-01-20 2015-01-22 Magna Electronics Inc. Vehicle vision system with positionable virtual viewpoint
US10365711B2 (en) 2012-05-17 2019-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for unified scene acquisition and pose tracking in a wearable display
CN104715227B (zh) * 2013-12-13 2020-04-03 北京三星通信技术研究有限公司 人脸关键点的定位方法和装置
JP6268303B2 (ja) * 2014-02-04 2018-01-24 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 2d画像分析装置
DE102015202846B4 (de) 2014-02-19 2020-06-25 Magna Electronics, Inc. Fahrzeugsichtsystem mit Anzeige
JP6539654B2 (ja) * 2014-06-27 2019-07-03 フォーブ インコーポレーテッド 視線検知装置
WO2016007167A1 (en) * 2014-07-11 2016-01-14 Hewlett-Packard Development Company, L.P. Corner generation in a projector display area
US11049476B2 (en) 2014-11-04 2021-06-29 The University Of North Carolina At Chapel Hill Minimal-latency tracking and display for matching real and virtual worlds in head-worn displays
KR20160094190A (ko) * 2015-01-30 2016-08-09 한국전자통신연구원 시선 추적 장치 및 방법
JP6444233B2 (ja) * 2015-03-24 2018-12-26 キヤノン株式会社 距離計測装置、距離計測方法、およびプログラム
US20160363995A1 (en) * 2015-06-12 2016-12-15 Seeing Machines Limited Circular light element for illumination of cornea in head mounted eye-tracking
CN105511093B (zh) * 2015-06-18 2018-02-09 广州优视网络科技有限公司 3d成像方法及装置
US9798950B2 (en) * 2015-07-09 2017-10-24 Olympus Corporation Feature amount generation device, feature amount generation method, and non-transitory medium saving program
TWI694604B (zh) 2015-07-23 2020-05-21 光澄科技股份有限公司 光偵測器
WO2017024121A1 (en) 2015-08-04 2017-02-09 Artilux Corporation Germanium-silicon light sensing apparatus
US10761599B2 (en) 2015-08-04 2020-09-01 Artilux, Inc. Eye gesture tracking
US10861888B2 (en) 2015-08-04 2020-12-08 Artilux, Inc. Silicon germanium imager with photodiode in trench
US10707260B2 (en) 2015-08-04 2020-07-07 Artilux, Inc. Circuit for operating a multi-gate VIS/IR photodiode
WO2017027546A1 (en) * 2015-08-10 2017-02-16 The Rocket Science Group Llc Optimizing evaluation of effectiveness for multiple versions of electronic messages
EP3783656B1 (en) 2015-08-27 2023-08-23 Artilux Inc. Wide spectrum optical sensor
JP6634765B2 (ja) * 2015-09-30 2020-01-22 株式会社ニデック 眼科装置、および眼科装置制御プログラム
EP3360023A4 (en) * 2015-10-09 2018-10-10 SZ DJI Technology Co., Ltd. Salient feature based vehicle positioning
US10886309B2 (en) 2015-11-06 2021-01-05 Artilux, Inc. High-speed light sensing apparatus II
US10418407B2 (en) 2015-11-06 2019-09-17 Artilux, Inc. High-speed light sensing apparatus III
US10739443B2 (en) 2015-11-06 2020-08-11 Artilux, Inc. High-speed light sensing apparatus II
US10254389B2 (en) 2015-11-06 2019-04-09 Artilux Corporation High-speed light sensing apparatus
US10741598B2 (en) 2015-11-06 2020-08-11 Atrilux, Inc. High-speed light sensing apparatus II
CN106200905B (zh) * 2016-06-27 2019-03-29 联想(北京)有限公司 信息处理方法及电子设备
JP2019531560A (ja) 2016-07-05 2019-10-31 ナウト, インコーポレイテッドNauto, Inc. 自動運転者識別システムおよび方法
CN109478334B (zh) * 2016-07-20 2021-04-20 富士胶片株式会社 关注位置识别装置、摄像装置、显示装置、关注位置识别方法及非暂时性有形介质
CN105954992B (zh) * 2016-07-22 2018-10-30 京东方科技集团股份有限公司 显示系统和显示方法
GB2552511A (en) * 2016-07-26 2018-01-31 Canon Kk Dynamic parametrization of video content analytics systems
US10417495B1 (en) * 2016-08-08 2019-09-17 Google Llc Systems and methods for determining biometric information
US10209081B2 (en) 2016-08-09 2019-02-19 Nauto, Inc. System and method for precision localization and mapping
US10733460B2 (en) 2016-09-14 2020-08-04 Nauto, Inc. Systems and methods for safe route determination
JP6587254B2 (ja) * 2016-09-16 2019-10-09 株式会社東海理化電機製作所 輝度制御装置、輝度制御システム及び輝度制御方法
EP3305176A1 (en) 2016-10-04 2018-04-11 Essilor International Method for determining a geometrical parameter of an eye of a subject
US11361003B2 (en) * 2016-10-26 2022-06-14 salesforcecom, inc. Data clustering and visualization with determined group number
WO2018085804A1 (en) 2016-11-07 2018-05-11 Nauto Global Limited System and method for driver distraction determination
EP3545675A4 (en) * 2016-11-24 2020-07-01 The University of Washington CAPTURE AND RESTITUTION OF LIGHT FIELD FOR HEADSETS
JP6900609B2 (ja) * 2016-12-06 2021-07-07 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 広角画像を修正するシステム及び方法
DE102016224886B3 (de) * 2016-12-13 2018-05-30 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Ermittlung der Schnittkanten von zwei sich überlappenden Bildaufnahmen einer Oberfläche
EP3563192A1 (en) * 2016-12-30 2019-11-06 Tobii AB Eye/gaze tracking system and method
US10282592B2 (en) * 2017-01-12 2019-05-07 Icatch Technology Inc. Face detecting method and face detecting system
DE102017103721B4 (de) * 2017-02-23 2022-07-21 Karl Storz Se & Co. Kg Vorrichtung zur Erfassung eines Stereobilds mit einer rotierbaren Blickrichtungseinrichtung
KR101880751B1 (ko) * 2017-03-21 2018-07-20 주식회사 모픽 무안경 입체영상시청을 위해 사용자 단말과 렌티큘러 렌즈 간 정렬 오차를 줄이기 위한 방법 및 이를 수행하는 사용자 단말
JP7003455B2 (ja) * 2017-06-15 2022-01-20 オムロン株式会社 テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム
EP3638542B1 (en) 2017-06-16 2022-01-26 Nauto, Inc. System and method for contextualized vehicle operation determination
US10453150B2 (en) 2017-06-16 2019-10-22 Nauto, Inc. System and method for adverse vehicle event determination
EP3420887A1 (en) * 2017-06-30 2019-01-02 Essilor International Method for determining the position of the eye rotation center of the eye of a subject, and associated device
JP2019017800A (ja) * 2017-07-19 2019-02-07 富士通株式会社 コンピュータプログラム、情報処理装置及び情報処理方法
EP3430973A1 (en) * 2017-07-19 2019-01-23 Sony Corporation Mobile system and method
KR101963392B1 (ko) * 2017-08-16 2019-03-28 한국과학기술연구원 무안경식 3차원 영상표시장치의 동적 최대 시역 형성 방법
SG11201907126SA (en) * 2017-08-25 2019-09-27 Maker Trading Pte Ltd A general monocular machine vision system and method for identifying locations of target elements
US10460458B1 (en) * 2017-09-14 2019-10-29 United States Of America As Represented By The Secretary Of The Air Force Method for registration of partially-overlapped aerial imagery using a reduced search space methodology with hybrid similarity measures
CN107818305B (zh) * 2017-10-31 2020-09-22 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
EP3486834A1 (en) * 2017-11-16 2019-05-22 Smart Eye AB Detection of a pose of an eye
CN108024056B (zh) * 2017-11-30 2019-10-29 Oppo广东移动通信有限公司 基于双摄像头的成像方法和装置
KR102444666B1 (ko) * 2017-12-20 2022-09-19 현대자동차주식회사 차량용 3차원 입체 영상의 제어 방법 및 장치
CN108334810B (zh) * 2017-12-25 2020-12-11 北京七鑫易维信息技术有限公司 视线追踪设备中确定参数的方法和装置
JP7109193B2 (ja) * 2018-01-05 2022-07-29 ラピスセミコンダクタ株式会社 操作判定装置及び操作判定方法
CN108875526B (zh) * 2018-01-05 2020-12-25 北京旷视科技有限公司 视线检测的方法、装置、系统及计算机存储介质
US10817068B2 (en) * 2018-01-23 2020-10-27 Toyota Research Institute, Inc. Vehicle systems and methods for determining target based on selecting a virtual eye position or a pointing direction
US10706300B2 (en) * 2018-01-23 2020-07-07 Toyota Research Institute, Inc. Vehicle systems and methods for determining a target based on a virtual eye position and a pointing direction
US10853674B2 (en) 2018-01-23 2020-12-01 Toyota Research Institute, Inc. Vehicle systems and methods for determining a gaze target based on a virtual eye position
US11105928B2 (en) 2018-02-23 2021-08-31 Artilux, Inc. Light-sensing apparatus and light-sensing method thereof
TWI788246B (zh) 2018-02-23 2022-12-21 美商光程研創股份有限公司 光偵測裝置
US11392131B2 (en) 2018-02-27 2022-07-19 Nauto, Inc. Method for determining driving policy
WO2019185150A1 (en) * 2018-03-29 2019-10-03 Tobii Ab Determining a gaze direction using depth information
TWI780007B (zh) 2018-04-08 2022-10-01 美商光程研創股份有限公司 光偵測裝置及其系統
WO2019199035A1 (ko) * 2018-04-11 2019-10-17 주식회사 비주얼캠프 시선 추적 시스템 및 방법
KR20190118965A (ko) * 2018-04-11 2019-10-21 주식회사 비주얼캠프 시선 추적 시스템 및 방법
CN108667686B (zh) * 2018-04-11 2021-10-22 国电南瑞科技股份有限公司 一种网络报文时延测量的可信度评估方法
TWI795562B (zh) 2018-05-07 2023-03-11 美商光程研創股份有限公司 雪崩式之光電晶體
US10969877B2 (en) 2018-05-08 2021-04-06 Artilux, Inc. Display apparatus
CN108876733B (zh) * 2018-05-30 2021-11-09 上海联影医疗科技股份有限公司 一种图像增强方法、装置、设备和存储介质
US10410372B1 (en) * 2018-06-14 2019-09-10 The University Of North Carolina At Chapel Hill Methods, systems, and computer-readable media for utilizing radial distortion to estimate a pose configuration
US10803618B2 (en) * 2018-06-28 2020-10-13 Intel Corporation Multiple subject attention tracking
CN109213031A (zh) * 2018-08-13 2019-01-15 祝爱莲 窗体加固控制平台
KR102521408B1 (ko) * 2018-08-27 2023-04-14 삼성전자주식회사 인포그래픽을 제공하기 위한 전자 장치 및 그에 관한 방법
EP3844726A4 (en) * 2018-08-30 2022-05-18 Splashlight Holdings LLC TECHNOLOGIES TO ENABLE COMPUTER EVENTS ANALYSIS BASED ON AUGMENTED CANONIZATION OF CLASSIFIED IMAGES
CN109376595B (zh) * 2018-09-14 2023-06-23 杭州宇泛智能科技有限公司 基于人眼注意力的单目rgb摄像头活体检测方法及系统
JP6934001B2 (ja) * 2018-09-27 2021-09-08 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP7099925B2 (ja) * 2018-09-27 2022-07-12 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
CN110966923B (zh) * 2018-09-29 2021-08-31 深圳市掌网科技股份有限公司 室内三维扫描与危险排除系统
US11144779B2 (en) 2018-10-16 2021-10-12 International Business Machines Corporation Real-time micro air-quality indexing
CN109492120B (zh) * 2018-10-31 2020-07-03 四川大学 模型训练方法、检索方法、装置、电子设备及存储介质
JP7001042B2 (ja) * 2018-11-08 2022-01-19 日本電信電話株式会社 眼情報推定装置、眼情報推定方法、プログラム
CN111479104A (zh) * 2018-12-21 2020-07-31 托比股份公司 用于计算视线会聚距离的方法
US11113842B2 (en) * 2018-12-24 2021-09-07 Samsung Electronics Co., Ltd. Method and apparatus with gaze estimation
CN109784226B (zh) * 2018-12-28 2020-12-15 深圳云天励飞技术有限公司 人脸抓拍方法及相关装置
US11049289B2 (en) * 2019-01-10 2021-06-29 General Electric Company Systems and methods to semi-automatically segment a 3D medical image using a real-time edge-aware brush
US10825137B2 (en) * 2019-01-15 2020-11-03 Datalogic IP Tech, S.r.l. Systems and methods for pre-localization of regions of interest for optical character recognition, and devices therefor
KR102653252B1 (ko) * 2019-02-21 2024-04-01 삼성전자 주식회사 외부 객체의 정보에 기반하여 시각화된 인공 지능 서비스를 제공하는 전자 장치 및 전자 장치의 동작 방법
US11068052B2 (en) * 2019-03-15 2021-07-20 Microsoft Technology Licensing, Llc Holographic image generated based on eye position
US11644897B2 (en) 2019-04-01 2023-05-09 Evolution Optiks Limited User tracking system using user feature location and method, and digital display device and digital image rendering system and method using same
WO2020201999A2 (en) 2019-04-01 2020-10-08 Evolution Optiks Limited Pupil tracking system and method, and digital display device and digital image rendering system and method using same
US20210011550A1 (en) * 2019-06-14 2021-01-14 Tobii Ab Machine learning based gaze estimation with confidence
CN110718067A (zh) * 2019-09-23 2020-01-21 浙江大华技术股份有限公司 违规行为告警方法及相关装置
US11080892B2 (en) * 2019-10-07 2021-08-03 The Boeing Company Computer-implemented methods and system for localizing an object
US11688199B2 (en) * 2019-11-13 2023-06-27 Samsung Electronics Co., Ltd. Method and apparatus for face detection using adaptive threshold
CN113208591B (zh) * 2020-01-21 2023-01-06 魔门塔(苏州)科技有限公司 一种眼睛开闭距离的确定方法及装置
US20230100016A1 (en) * 2020-02-28 2023-03-30 Nec Corporation Image acquiring device, image acquiring method, and image processing device
CN113448428B (zh) * 2020-03-24 2023-04-25 中移(成都)信息通信科技有限公司 一种视线焦点的预测方法、装置、设备及计算机存储介质
CN111768433A (zh) * 2020-06-30 2020-10-13 杭州海康威视数字技术股份有限公司 一种移动目标追踪的实现方法、装置及电子设备
CN111985384A (zh) * 2020-08-14 2020-11-24 深圳地平线机器人科技有限公司 获取脸部关键点的3d坐标及3d脸部模型的方法和装置
US11676255B2 (en) * 2020-08-14 2023-06-13 Optos Plc Image correction for ophthalmic images
US10909167B1 (en) * 2020-09-17 2021-02-02 Pure Memories Ltd Systems and methods for organizing an image gallery
CN112633313B (zh) * 2020-10-13 2021-12-03 北京匠数科技有限公司 一种网络终端的不良信息识别方法及局域网终端设备
CN112255882A (zh) * 2020-10-23 2021-01-22 泉芯集成电路制造(济南)有限公司 集成电路版图微缩方法
CN112650461B (zh) * 2020-12-15 2021-07-13 广州舒勇五金制品有限公司 一种基于相对位置的展示系统
US11417024B2 (en) 2021-01-14 2022-08-16 Momentick Ltd. Systems and methods for hue based encoding of a digital image
KR20220115001A (ko) * 2021-02-09 2022-08-17 현대모비스 주식회사 스마트 디바이스 스위블을 이용한 차량 제어 장치 및 그 방법
US20220270116A1 (en) * 2021-02-24 2022-08-25 Neil Fleischer Methods to identify critical customer experience incidents using remotely captured eye-tracking recording combined with automatic facial emotion detection via mobile phone or webcams.
JP2022189536A (ja) * 2021-06-11 2022-12-22 キヤノン株式会社 撮像装置および方法
DE112021007811T5 (de) * 2021-06-11 2024-04-18 Mitsubishi Electric Corporation Blickverfolgungsvorrichtung
US11914915B2 (en) * 2021-07-30 2024-02-27 Taiwan Semiconductor Manufacturing Company, Ltd. Near eye display apparatus
CN114387442A (zh) * 2022-01-12 2022-04-22 南京农业大学 一种多维空间中的直线、平面和超平面的快速检测方法
US11887151B2 (en) * 2022-02-14 2024-01-30 Korea Advanced Institute Of Science And Technology Method and apparatus for providing advertisement disclosure for identifying advertisements in 3-dimensional space
CN114794992B (zh) * 2022-06-07 2024-01-09 深圳甲壳虫智能有限公司 充电座、机器人的回充方法和扫地机器人
CN115936037B (zh) * 2023-02-22 2023-05-30 青岛创新奇智科技集团股份有限公司 二维码的解码方法及装置
CN116523831B (zh) * 2023-03-13 2023-09-19 深圳市柯达科电子科技有限公司 一种曲面背光源的组装成型工艺控制方法
CN116109643B (zh) * 2023-04-13 2023-08-04 深圳市明源云科技有限公司 市场布局数据采集方法、设备及计算机可读存储介质

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns
JP3163215B2 (ja) 1994-03-07 2001-05-08 日本電信電話株式会社 直線抽出ハフ変換画像処理装置
JP4675492B2 (ja) * 2001-03-22 2011-04-20 本田技研工業株式会社 顔画像を使用した個人認証装置
JP4128001B2 (ja) * 2001-11-19 2008-07-30 グローリー株式会社 歪み画像の対応付け方法、装置およびプログラム
JP4275345B2 (ja) * 2002-01-30 2009-06-10 株式会社日立製作所 パターン検査方法及びパターン検査装置
CN2586213Y (zh) * 2002-12-24 2003-11-12 合肥工业大学 实时实现Hough变换的光学装置
US7164807B2 (en) 2003-04-24 2007-01-16 Eastman Kodak Company Method and system for automatically reducing aliasing artifacts
JP4324417B2 (ja) * 2003-07-18 2009-09-02 富士重工業株式会社 画像処理装置および画像処理方法
JP4604190B2 (ja) * 2004-02-17 2010-12-22 国立大学法人静岡大学 距離イメージセンサを用いた視線検出装置
DE102004046617A1 (de) * 2004-09-22 2006-04-06 Eldith Gmbh Vorrichtung und Verfahren zur berührungslosen Bestimmung der Blickrichtung
US8995715B2 (en) * 2010-10-26 2015-03-31 Fotonation Limited Face or other object detection including template matching
JP4682372B2 (ja) * 2005-03-31 2011-05-11 株式会社国際電気通信基礎技術研究所 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の検出方法を実行させるためのプログラム
US7406212B2 (en) 2005-06-02 2008-07-29 Motorola, Inc. Method and system for parallel processing of Hough transform computations
CA2622365A1 (en) * 2005-09-16 2007-09-13 Imotions-Emotion Technology A/S System and method for determining human emotion by analyzing eye properties
DE102005047160B4 (de) * 2005-09-30 2007-06-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Ermitteln einer Information über eine Form und/oder eine Lage einer Ellipse in einem graphischen Bild
KR100820639B1 (ko) * 2006-07-25 2008-04-10 한국과학기술연구원 시선 기반 3차원 인터랙션 시스템 및 방법 그리고 3차원시선 추적 시스템 및 방법
US8180159B2 (en) * 2007-06-06 2012-05-15 Sharp Kabushiki Kaisha Image processing apparatus, image forming apparatus, image processing system, and image processing method
JP5558081B2 (ja) * 2009-11-24 2014-07-23 株式会社エヌテック 画像形成状態検査方法、画像形成状態検査装置及び画像形成状態検査用プログラム
US8670019B2 (en) * 2011-04-28 2014-03-11 Cisco Technology, Inc. System and method for providing enhanced eye gaze in a video conferencing environment
JP2013024910A (ja) * 2011-07-15 2013-02-04 Canon Inc 観察用光学機器
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US8908962B2 (en) 2011-09-30 2014-12-09 Ebay Inc. Item recommendations using image feature data
CN103297767B (zh) * 2012-02-28 2016-03-16 三星电子(中国)研发中心 一种适用于多核嵌入式平台的jpeg图像解码方法及解码器
US9308439B2 (en) * 2012-04-10 2016-04-12 Bally Gaming, Inc. Controlling three-dimensional presentation of wagering game content
CN102662476B (zh) * 2012-04-20 2015-01-21 天津大学 一种视线估计方法
US11093702B2 (en) * 2012-06-22 2021-08-17 Microsoft Technology Licensing, Llc Checking and/or completion for data grids
EP2709060B1 (en) * 2012-09-17 2020-02-26 Apple Inc. Method and an apparatus for determining a gaze point on a three-dimensional object
CN103019507B (zh) * 2012-11-16 2015-03-25 福州瑞芯微电子有限公司 一种基于人脸跟踪改变视点角度显示三维图形的方法
CN103136525B (zh) * 2013-02-28 2016-01-20 中国科学院光电技术研究所 一种利用广义Hough变换的异型扩展目标高精度定位方法
KR101789903B1 (ko) 2013-05-08 2017-10-25 코니카 미놀타 가부시키가이샤 발광 패턴을 갖는 유기 일렉트로루미네센스 소자의 제조 방법
KR20150006993A (ko) * 2013-07-10 2015-01-20 삼성전자주식회사 디스플레이 장치 및 이의 디스플레이 방법
US9619884B2 (en) 2013-10-03 2017-04-11 Amlogic Co., Limited 2D to 3D image conversion device and method
JP6268303B2 (ja) 2014-02-04 2018-01-24 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 2d画像分析装置
KR102585602B1 (ko) * 2014-03-19 2023-10-10 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 눈 시선 추적을 사용하는 의료 디바이스, 시스템, 및 방법
US9607428B2 (en) 2015-06-30 2017-03-28 Ariadne's Thread (Usa), Inc. Variable resolution virtual reality display system

Also Published As

Publication number Publication date
JP6483715B2 (ja) 2019-03-13
WO2015117904A1 (de) 2015-08-13
EP3103059A1 (de) 2016-12-14
US10192135B2 (en) 2019-01-29
CN106104573A (zh) 2016-11-09
KR20160119176A (ko) 2016-10-12
WO2015117905A1 (de) 2015-08-13
JP2017509967A (ja) 2017-04-06
CN106133750B (zh) 2020-08-28
CN106258010A (zh) 2016-12-28
EP3103058A1 (de) 2016-12-14
WO2015117906A1 (de) 2015-08-13
US20160335475A1 (en) 2016-11-17
KR20160119146A (ko) 2016-10-12
JP2017514193A (ja) 2017-06-01
EP3103060A1 (de) 2016-12-14
US10074031B2 (en) 2018-09-11
WO2015117907A2 (de) 2015-08-13
JP2017508207A (ja) 2017-03-23
KR101858491B1 (ko) 2018-05-16
US10592768B2 (en) 2020-03-17
CN106258010B (zh) 2019-11-22
JP6268303B2 (ja) 2018-01-24
EP3968288A2 (de) 2022-03-16
KR101991496B1 (ko) 2019-06-20
US20170032214A1 (en) 2017-02-02
US20160342856A1 (en) 2016-11-24
CN106133750A (zh) 2016-11-16
WO2015117907A3 (de) 2015-10-01

Similar Documents

Publication Publication Date Title
JP6248208B2 (ja) 視線方向を決定するための3d画像分析装置
US11495002B2 (en) Systems and methods for determining the scale of human anatomy from images
CN109716268B (zh) 眼部和头部跟踪
CN107852533B (zh) 三维内容生成装置及其三维内容生成方法
CN113168733B (zh) 一种眼镜虚拟试戴系统和方法
EP3101624B1 (en) Image processing method and image processing device
CN107111753B (zh) 用于注视跟踪模型的注视检测偏移
US20130182079A1 (en) Motion capture using cross-sections of an object
CN110447029B (zh) 用于提供镜架镜圈模型的方法、计算装置、和计算机程序
US20140313308A1 (en) Apparatus and method for tracking gaze based on camera array
US20150029322A1 (en) Method and computations for calculating an optical axis vector of an imaged eye
KR20140125713A (ko) 카메라 어레이에 기반하여 시선을 추적하는 방법 및 장치
US20220301217A1 (en) Eye tracking latency enhancements
CN111160136B (zh) 一种标准化3d信息采集测量方法及系统
KR101272811B1 (ko) 인터페이스 시스템 및 방법
TWI433049B (zh) 眼鏡虛擬試戴互動服務系統與方法
EP4227731A1 (en) Method and mobile device for determining a visual point of a person
Wolski et al. Cross spread pupil tracking technique
CN109196851A (zh) 基于光流的自动聚焦

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171120

R150 Certificate of patent or registration of utility model

Ref document number: 6248208

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250