JP2009505247A - 複数の観察者の眼のトラッキングとリアルタイム検出のための方法と回路配置 - Google Patents

複数の観察者の眼のトラッキングとリアルタイム検出のための方法と回路配置 Download PDF

Info

Publication number
JP2009505247A
JP2009505247A JP2008526370A JP2008526370A JP2009505247A JP 2009505247 A JP2009505247 A JP 2009505247A JP 2008526370 A JP2008526370 A JP 2008526370A JP 2008526370 A JP2008526370 A JP 2008526370A JP 2009505247 A JP2009505247 A JP 2009505247A
Authority
JP
Japan
Prior art keywords
eye
instance
face
finder
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008526370A
Other languages
English (en)
Other versions
JP5054008B2 (ja
Inventor
アレクサンダー シュワルツナー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SeeReal Technologies GmbH
Original Assignee
SeeReal Technologies GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SeeReal Technologies GmbH filed Critical SeeReal Technologies GmbH
Publication of JP2009505247A publication Critical patent/JP2009505247A/ja
Application granted granted Critical
Publication of JP5054008B2 publication Critical patent/JP5054008B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2226/00Electro-optic or electronic components relating to digital holography
    • G03H2226/05Means for tracking the observer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Abstract

本発明は、リアルタイムで複数のユーザの眼の位置を非接触で認識しトラッキングするための方法及び回路配置に関する。入力データは、一連のディジタルビデオフレームを含んでいる。前記方法は、顔を検査するために用いられるフェイス・ファインダ・インスタンスと眼領域を検査するために用いられる用いられるアイ・ファインダ・インスタンスと眼の参照ポイントを認識しトラッキングするために用いられるアイ・トラッカ・インスタンスとを組み合わせるステップを含んでいる。本発明の目的は、階層的なインスタンスの手段内で眼の位置を目標に変換することであり、そのことにより、成功裡にビデオフレームVF全体から出力され、処理されるデータセットを限定する。その結果、目標顔領域(GZ)と後続の目標眼領域(AZ)を形成する。また、1つのインスタンス若しくはインスタンスの集合は、各々の演算器において実行され、並行して処理される。

Description

本発明は、リアルタイムモードにおいて、複数の観察者の眼の位置若しくは瞳のトラッキングと非接触検出のための方法及び回路配置に関する。
入力データは、1つ若しくは複数のイメージセンサによって取得される一続きのディジタルビデオフレームの形式でのイメージ材料を含んでいる。
複数の観察者の眼の参照ポイントは、眼鏡やヘッドギアやスポット(spots)のような付加的で補助的ないかなる手段をも必要とせずに決定される。
静止したアプリケーションと対象的に、例えば、運転手やパイロットのモニタリングは、動きの範囲にあり、特に、領域深度が極めて限られほぼ静的である。本発明は、広い目標領域における眼の位置を検出することができ、速い観察者の動きに対処する。また、0.5mから3.5mまでの間の比較的広範囲での深度座標を決定する。
効率的で正確な眼のリアルタイムの検出の実現は、主なヒューマン・マシン・インタフェースである。本発明の主な分野は、自動立体ディスプレイ(autostereoscopic displays)のユーザの眼の位置をトラッキングし、検出する装置である。そのような装置は、観察者に偏向眼鏡のようないなかなる補助手段をも必要とせずに立体イメージの印象を与える。更に、本発明は、人や顔や視線方向の領域におけるビデオホログラフィやその実装等も含んでいる。
自動立体ディスプレイは、いわゆるトラッキング装置によってトラッキングされる表現であるが、複数の観察者に広範囲の視野領域における大きな可動性を提供する。眼のトラッキングとエラーのない(error-free)検出のために、眼の位置若しくは瞳は、イメージ提示の分野における重要なヒューマン・マシン・インタフェースでもある。
安全でエラーのないように機能するトラッキング装置は、通常、観察者によって気付かれることがない。多くのアプリケーションにおいて、しかしながら、トラッキングシステムのエラーが、望まない副作用を引き起こし、例えば、3Dの分野において、誤った復元若しくはクロストークを引き起こす。トラッキング装置は、高精度で、信頼性があり、正確であることが要求される。そのシステムは、適切な効率性と正確性を有し、全ての主な動きを正確にトラッキングでき、観察者に3次元において可能な限り自由に移動させることができる。
幾つかのタイプの非接触型トラッキングシステムが商業的に用いられている。単純なモデルは、一般的に、標準的なオペレーティングシステム用の基本的なアプリケーションソフトウェアであることを特徴とし、標準化されたハードウェア及びソフトウェアのインタフェースを有する。
特許文献1の「様々な光の条件下におけるリアルタイムの目の検出およびトラッキング(Real-time eye detection and tracking under various light conditions)」(Zhiwei Zhu Qiang Ji)には、主に、眼の位置の検出ステップと眼のトラッキングステップとを含む非接触型のリアルタイムな眼の検出方法が記載されている。その眼の位置の検出ステップは、アクティブ・イルミネーションとパターン認識の方法の組み合わせを含んでいる。眼のトラッキングが行われた後に初めて観察者の眼が検出された後のステップは、幾つかのアルゴリズムと技術との組み合わせ及び統合を含んでいる。幾つかの手段の組み合わせ及び統合であるにも関わらず、3次元における頭の主な不意の動きが、リアルタイムにトラッキングされないことと、位置データの提供とイメージの取得との間で、遅延によってリアルタイム処理が妨げられることが、今尚、問題として存在する。このことは、特に、好ましくない周囲の条件での深度次元(depth dimension)における眼の位置の検出に当てはまる。
車両においては、例えば、運転手の顔は、常に、計器パネルに対して予測できる距離の範囲内に位置している。更には、垂直方向にも水平方向にも、小さな動きの変化が存在しているだけである。特に、一般的に、唯一、一つのカメラが用いられたとしても、深度位置は十分な精度で推定することができるように、深度次元での実際の動きの範囲は極めて狭い。
国際公開第03/079902A1号パンフレット
本発明の目的は、短い計算時間を提供する一方で、視野空間の3次元全ての広範囲を提供することである。前述した従来技術と対照的に、3次元全てにおいて眼を検出することが必要であるので、深度次元を含んでいる。深度範囲は、好ましくは、0.5mから少なくとも3.5mまでの広範囲を含む。深度を決定するために、一方、独立に配置された多数のカメラは、幾つかの点から目標領域のイメージを取得することができることが要求される。更には、5、6mまでの距離においての眼の検出は、良い解像度を得るカメラを必要とする。そのようなことは、カメラ毎、ビデオフレーム毎に膨大な量のデータを生じる。
膨大なデータのリアルタイム処理の問題は、検出されるべき幾人かの観察者がいる場合に、より重大となる。特に、極めて計算集約型処理のステップは、照明効果や、反射や、単眼鏡のレンズによって識別することが難しい観察者を検出することができるように、要求される。経験が示すところによると、部分的に隠された若しくは、少しずれて立った3、4人の検出は、しばしば、大規模で時間を消費する計算の試みによって達成される。しかしながら、すぐに容易に検出される度合いが最も少なく、多くの計算によって検出され得るのみの観察者に対して要求される計算努力は、他の観察者のリアルタイムでのトラッキングにマイナスとなってはならない。
眼の位置の検出を伴う問題は、入力ビデオフレームがもはやリアルタイムモードで処理されないという事実を導く。人間毎、フレーム毎の最大に受諾できる計算時間は、単眼鏡やイヤホーンが眼を覆った場合や、観察者がカメラから突然、目を背けたり、一瞬の間であるが、程度を超える場合がある。
従来技術の不利点を認識すると、本発明の目的は、全ての3次元において、観察者が頭を大きく、突然に動かした場合に、複数の観察者の眼の位置を検出させる方法を提供することである。その方法は、広い目標領域において眼の位置を検出し、突然の観察者の動きを補償し、広範囲において深度座標を決定する。更に、エラー量を最小化する一方で、イメージの取得、即ちビデオフレームの読み込みと、結果出力、即ち、眼の位置の提供との間の応答時間は、継続して低下する。更に、その方法は、高解像度カメラが用いられたとしても、リアルタイムモードにおけるエラーのない(error-free)結果を達成することができる。
その方法は、複数の観察者の眼の参照ポイントのトラッキングとリアルタイム検出のために用いられる。入力データは、カメラのような1つか若しくは幾つかのイメージセンサによって取得された一連のディジタルビデオフレームの形式でのイメージデータを含んでいる。眼の参照ポイントとは、瞳の位置、及び、眼の角との少なくともいずれかである。
その方法は、顔を検出するためのフェイス・ファインダ・インスタンス(instance)と、階層的に下位になる眼の領域を検出するためのアイ・ファインダ・インスタンスと、眼の参照ポイントを検出しトラッキングするためのアイ・トラッカ・インスタンスとの協調動作を含む。アイ・トラッカ・インスタンスは、階層的にアイ・ファインダ・インスタンスに対して下位になる。
本発明は、眼の位置の発見が、総ビデオイメージで開始した検索領域を次第に低減していくことを目的とするように階層的に組織化されて実現されている。リアルタイムな動きは、アイ・ファインダ・インスタンス若しくはアイ・トラッカ・インスタンス用に低減された目標(target)顔領域へのフェイス・ファインダ用の総ビデオフレームで開始され、検索領域のインタリーブ(interleave)と、階層的に序序に低減していくことによって達成される。更に、それらのインスタンス又はインスタンスの集合はそれぞれのケースにおいて、並行して別個のプロセスを実行する一方で、専用の演算器において実行される。
フェイス・ファインダ・インスタンスは、各観察者の頭や顔の位置を総ビデオフレームの領域において検索する。そのインスタンスは、総ビデオフレームのデータから決定される。そのビデオフレームのデータは、各目標顔領域を表し、顔単位での極めて小さいデータであるが、アイ・ファインダ・インスタンスに限られた領域を提供する。
アイ・ファインダ・インスタンスは、フェイス・ファインダに対して階層的に下位である。提供された目標顔領域のデータから、アイ・ファインダ・インスタンスは、大きく低減されたデータ量のみを処理することを要求される。このデータにおいて、そのインスタンスは、眼若しくは眼の位置を決定し、目標顔領域よりも更に低いデータ量を、目標の眼の領域として再度決定する。この限られた検索領域のみが、次の階層的に下位であるアイ・トラッカ・インスタンスに提供される。
その後、アイ・トラッカ・インスタンスは、高速で、眼の検索領域の大きく低減されたデータ量において、求められている眼の参照ポイントを決定する。階層的に検索領域を縮小していき、データ量を低減していくことによって、アイ・トラッカ・インスタンスは、効率的に迅速に機能する。
本発明によると、処理の総遅延時間の低減のために、フェイス・ファインダ・インスタンスと、アイ・ファインダ・インスタンス/アイ・トラッカ・インスタンスは、別個の並行したプロセスで、相互に独立して実行される。
専用の演算器に対して、それらのインスタンスやインスタンスの集合を割り当てることによる並列化は、多数の実施例で実施され得る。
本発明に特に好ましい実施例において、1つのフェイス・ファインダ・インスタンスが、専用の演算器において、各カメラ用に実行される。その後、フェイス・ファインダ・インスタンスによって検出された各観察者に対して、専用の演算器が、アイ・ファインダ・インスタンスを実現するために割り当てられる。もし、フェイス・ファインダ・インスタンスが新たな顔を検出した場合には、アイ・トラッカ・インスタンスとアイ・ファインダ・インスタンスは、直ちに、指示されるか又は初期化される。そして、それらのインスタンスは、専用に特に割り当てられた演算器において実行されるであろう。顔の検出について直ちに行うトラッキングは、少しの間に失われた顔を認識するが、再検出する。
本発明の主な利点は、フェイス・ファインダがもはや妨げられず、また、遅延しないことである。というのも、下位のインスタンスが、専用の演算器で実行されるからである。このフェイス・ファインダ・インスタンスは、全ての他の計算リソースを維持する一方で、現在のビデオフレームのデータで、顔を検索し続ける。中間の部分的な検索結果は、既に決定されているが、更なる処理若しくは分配のためにコントロール・インスタンスに送信される。又は、アイ・トラッカ・インスタンス/アイ・ファインダ・インスタンスによって提供された部分的な結果が、コントロール・インスタンスによって受信され、その結果、ポジティブな制御ループにおいて、目標顔領域を推定することができる。
そのようなインスタンスの迅速な実現は、方法における応答時間を継続して削減し、リアルタイムな動きのための最初の基準を形成する。
リアルタイムな動きは、更に、階層的で段階的な低減と検索領域のインタリーブによって更にサポートされる。また、リアルタイムな動きは、アイ・ファインダ・インスタンス又はアイ・トラッカ・インスタンス用に低減された目標顔領域に対するフェイス・ファインダ・インスタンス用の総ビデオフレームで開始する。
最終的に、本発明によると、リアルタイムな動きは、専用の演算器における別個のプロセスと並行してそのようなインスタンス又はインスタンスの集合を実行することによって、更にサポートされ保証される。インスタンスの並行性については、更なるオプションが可能である。上記で述べたように、フェイス・ファインダ・インスタンスとアイ・ファインダ・インスタンス/アイ・トラッカ・インスタンスは、専用の演算器において実行され得る。更には、フェイス・ファインダ・インスタンス/アイ・ファインダ・インスタンスとアイ・トラッカ・インスタンスは、専用の演算器において実行され得る。アイ・ファインダ・インスタンスを専用の演算器において実行することも可能であろう。しかしながら、このことは、比較的に計算時間を殆ど要しないインスタンスであり、好ましくは、計算集約型のフェイス・ファインダ・インスタンス又はアイ・トラッカ・インスタンスによって用いられる演算器の1つに対して割り当てられるようにする。
インスタンスのプロセスとインスタンス間のデータ交換との両方は、好ましくは、コントロール・インスタンスによってモニタされる。特に、インスタンスは、専用の演算器上のアイ・ファインダ・インスタンス/アイ・トラッカ・インスタンス用に検出された顔若しくは目標顔領域の割り当てを制御する。データ交換は、主に、検索領域、インスタンスの部分的で最終的な結果の交換、外部インタフェースに対する結果として生じる眼の参照ポイントの転送を割り当てることによるインスタンスの再初期化を含んでいる。
例えば、コントロール・インスタンスは、既にトラッキングされた顔に対応するアイ・ファインダ・インスタンスとアイ・トラッカ・インスタンスを更新し、再初期化する。コントロール・インスタンスは、選択し、照合し、発見された目標顔領域と目標眼領域の確信を評価する。対応する評価パラメータは、コントロール・インスタンスによって用いられ、プロセスの過程でインスタンスによって決定され、最適なインスタンスのプロセス制御と有効な演算器の割り当てを実現する。
本発明に係る方法は、観察者が全ての3次元において、頭を大きく唐突に動かした場合においてさえ、リアルタイムに複数の観察者の眼の位置を検出することができる。更に証明されることには、その方法による結果は、高解像度カメラのデータ量を伴うリアルタイムモードでの結果を実現することができる。
図1は、方法におけるインスタンスのインターリーブされ、低減された検索領域を示している。ステレオ赤外線カメラ等の複数のイメージセンサの一連のディジタルビデオフレームとしてのイメージ材料が、入力データとして取得される。図1は、座標システムによって定義され、概略的にビデオフレームVF全体の一部を示している。
第1のフェイス・ファインダ・インスタンスは、ビデオフレームVF全体のデータを解析し、ビデオフレーム全体において、観察者の顔を検出する。図1において、2つの顔のデータが示されている。第1の顔(左)は、明らかにカメラの近くに位置している。一方、第2の顔(右)は、カメラに対してより離れて位置している。
フェイス・ファインダ・インスタンスは、各検出された顔のために、ビデオフレームVF全体のデータから、目標顔領域GZに対応する低減されたデータ領域を決定する。インデックスが、図の左に示された第1の顔に関連付けられている。決定された目標顔領域GZが、後段のアイ・ファインダ・インスタンス用に低減された検索領域を形成する。アイ・ファインダ・インスタンスは、検索領域において眼の位置を決定し、結果として、目標顔領域GZのデータ量を低減し、更に、目標眼領域AZに対応するより低減されたデータ量を取得する。
眼の位置を伴う目標眼領域AZのデータは、後段のアイ・トラッカ・インスタンスET用の入力データである。そのことにより、現在のビデオフレームでの目標眼領域AZにおいて、また、既に決定された動きの連続に従って、後続のビデオフレームでのトラッキングされた目標眼領域AZにおいて、結果として出力されるべき眼の参照ポイントが検出される。
過去のビデオフレームの参照ポイントの情報は、観察者の動きに従って、トラッキングし目標眼領域AZを更新し、現在及び後続のビデオフレームでの領域を推定するために用いられる。もし、観察者が深度次元において移動した場合には、イメージ内容は、付加的に、サイズが変更される必要があるかもしれない。
図に示されるように、目標眼領域は、いくつかの離れた部分を含む場合がある。図に更に示されるように、これらの目標領域は不規則であり、好ましくは凸形状であるが、観察者の頭と視線方向の位置に依存する。単純な実施形態において、それらの領域は、楕円や円や長方形のようなパラメータ化された幾何学的な表面のリストによって現される。
図2は、最後の実施形態に基づいており、インスタンスの並列化のフローチャートを示している。図は、フェイス・ファインダ・インスタンスFFとアイ・ファインダ・インスタンスEFとアイ・トラッカ・インスタンスETの階層的構造と、専用演算器R1〜R2への割り当てを示している。
3つの演算器R1〜R3が本実施形態において用いられる。第1の演算器R1は、フェイス・ファインダ・インスタンスFFに対して専ら用いられる。このインスタンスは、ビデオフレームのデータにおいて、第1の観察者の顔を検出し、目標顔領域GZを決定する。そして、専用演算器は、直ちに目標顔領域に割り当てられ、その結果、アイ・ファインダ・インスタンスを、その後に、アイ・トラッカ・インスタンスを実行する。
図は、目標顔領域GZと後段のインスタンスに対する目標眼領域AZのような低減された目標領域のそれぞれのデータの流れを示す。アイ・トラッカ・インスタンスETは、より高レベルのコントロール・インスタンス(不図示)若しくは外部インタフェースに、眼の参照ポイントのデータを提供する。また、同時に、従前のビデオフレームにおいて検出された参照ポイントの情報は、目標眼領域AZをトラッキングするため、また、観察者が移動した場合に後続のフレーム用に推定するために用いられる。現在の目標眼領域のデータと、従前のフレームの領域のデータとは両方とも、図に示されるように、アイ・トラッカ・インスタンスによって用いられる。
第2の観察者が検出され、同様にトラッキングされる。もし、演算器よりも観察者の方が多い場合には、アイ・ファインダ/アイ・トラッカ・インスタンスは、好ましくは各観察者毎に(又は、言い換えると、各目標顔領域毎に)実行される。その結果、複数の独立した別個のプロセスが実行され、必然的に、複数のプロセスは、共通の演算器において実行される。
図3は、回路配置と本方法における並列化と、階層的に構成されたインスタンスの並列化のフローチャートを示しており、異なった位置の複数のカメラのイメージデータを用いている。眼の検出とトラッキングのために、各カメラは、上記の実施例に従う方法に基づいている。各カメラは、図1及び図2に示されるようにインスタンスの並列化に割り当てられている。
左のシステムは、第1の演算器R1において実行されたフェイス・ファインダ・インスタンスFFを用いて、第1の観察者の目標顔領域GZ1−Lを、左のイメージデータVFL(video frame left)に基づいて検出する。対応するアイ・ファインダ・インスタンスEFとアイ・トラッカ・インスタンスETは、演算器R2において実行される。回路配置については、これらの演算器は、一般的にCPUやDSPによって構成される。
演算器R3の第2のインスタンスの集合は、第2の観察者に対して割り当てられている。図に示される他のインスタンスと演算器は、VFR(video frame right)で表示され、インデックスRによって識別されており、右のイメージと、対応するインスタンス若しくは回路配置のエレメントに関連付けられている。
実行されたコントロールユニットは、図に示されていないが、個別のプロセスを制御し、かつ、プロセス間のデータ交換を纏める役割を果たしている。データ交換は、特に、観察者に関連付けられた演算器間において進められる。インスタンスえば、左のイメージの既に有効である情報は、許容可能な誤差を伴って、右のイメージにおける位置を推定し決定するために用いられる。右のイメージの内容は、実質的に、左のイメージと異なっていない。部分的な結果の変換は、左のイメージにおける眼のx−yピクセル位置に基づいて可能である。それは、従前の深度計算とカメラパラメータにおいて決定されたような観察者の距離である。例えば、左の半分のイメージにおいて発見された目標眼領域AZ1−Lのデータは、右の半分のイメージAZ1−R用の入力パラメータとして定義され、必要に応じて、変換される。そして、左のプロセスに用いられたアルゴリズムやパラメータよりも、他のアルゴリズム若しくは他の制御パラメータを用いることが可能である。
本計算において必要とされる情報は、主に、カメラの解像度及びピクセルピッチと、対物鏡の焦点距離と、対物鏡とカメラのイメージ間の距離と、カメラの距離及び方向とを含んでいる。
回路配置は、主に、通信機能や、プログラマブル・ロジック・モジュール、プロセッサ、ROMやRAMを含んでいる。演算器は、好ましくは、最適化のみされて意図された目的、特に上述のインスタンス用に構成される。更に、好ましい実施形態において、回路配置は、補助プロセスを実行するための専用演算器を付加的に含んでいる。それは、例えば、サイズの変更やガンマ補正といったものである。
以下の図面は、本発明に係る方法の実施形態を示し、自動立体ディスプレイ用のトラッキング装置とともに用いられる。
フェイス・ファインダ、アイ・ファインダとアイ・トラッカ・インスタンスのインタリーブされ、低減された検索領域の概要を示す図である。 本発明に係る方法の階層的に構成されたインスタンスの平行化を示すフローチャートである。 本発明に係る方法の階層的に構成されたインスタンスの並行化を示すフローチャートと、回路配置の概要を示す図である。

Claims (15)

  1. 少なくとも1つのイメージセンサによって取得され、ビデオフレーム(VF)のイメージデータにおいて、複数の観察者の眼の参照ポイントの位置(EP1、・・・、EPn)を検出してトラッキングする方法であって、
    前記ビデオフレーム全体から、各顔用の目標顔領域(GZ)として、はるかに小さなサブ領域を抽出し、前記目標顔領域(GZ)の情報を少なくとも1つの後段のアイ・ファインダ・インスタンス(EF)に送信する、ビデオフレーム(VF)における顔の位置を検出するためのフェイス・ファインダ・インスタンス(FF)と、
    各目標顔領域(GZ)から、目標眼領域(AZ)として、はるかに小さなサブ領域を抽出し、前記目標眼領域の情報を少なくとも1つの後段のアイ・トラッカ・インスタンス(ET)に送信する、眼の位置を検出するための前記アイ・ファインダ・インスタンス(EF)と、
    現在の前記ビデオフレームと後続の前記ビデオフレームでの前記目標眼領域(AZ)において、眼の参照ポイントの位置(EP1、・・・、EPn)を定義し、トラッキング装置のための情報を生成する、前記眼の位置をトラッキングするための前記アイ・トラッカ・インスタンス(ET)とを備え、
    1つのインスタンス又はインスタンスの集合が、専用の演算器において並行して処理されることを特徴とする方法。
  2. 前記参照ポイントの位置(EP1、・・・、EPn)の座標は、水平及び垂直の位置である、請求項1に記載の方法。
  3. 前記眼の深度座標は、複数のイメージセンサの2次元参照ポイントの位置(EP1、・・・、EPn)に基づいて決定される、請求項2に記載の方法。
  4. フェイス・ファインダ・インスタンスとアイ・ファインダ/アイ・トラッカ・インスタンスの組み合わせ、若しくは、フェイス・ファインダ/アイ・ファインダ・インスタンスの組み合わせとアイ・トラッカ・インスタンスは、それぞれ専用の演算器において処理される、請求項3に記載の方法。
  5. 各検出された顔用に、アイ・ファインダ・インスタンスとアイ・トラッカ・インスタンスは初期化され、少なくとも1つの専用の演算器において処理される、請求項3に記載の方法。
  6. 評価順序は、前記観察者と、結果として生じる前記目標眼領域との少なくともいずれかに対して割り当てられ、前記順序は、前記演算器の割り当てのために用いられる、請求項3に記載の方法。
  7. 1つ若しくは幾つかのフェイス・ファインダ・インスタンスは恒久的に実行され、前記各割り当てられたアイ・ファインダ/アイ・トラッカ・インスタンスを再初期化する、請求項3に記載の方法。
  8. 前記フェイス・ファインダ・インスタンスによって発見された目標顔領域は、既にトラッキングされた顔と、新たに検出された顔とのどちらに起因するかを判定し、前記アイ・トラッカ・インスタンス若しくはアイ・ファインダ/アイ・トラッカ・インスタンスを、該当する演算器に割り当てて初期化し、全ての前記インスタンスの実行を同期させる、請求項1に記載の方法。
  9. イメージデータが複数のイメージセンサによって取得され、アイ・ファインダ・インスタンス、アイ・トラッカ・インスタンス、若しくは、アイ・ファインダ/アイ・トラッカ・インスタンスの組み合わせが、専用の演算器において観察者毎若しくはイメージセンサ毎に実行され、部分的な結果及び最終的な結果の少なくともいずれかが、観察者に各々関連付けられた前記それぞれのインスタンスの間で交換され処理される、請求項1乃至8のいずれか1項に記載の方法。
  10. 前記イメージセンサのパラメータと同様に、前記観察者の位置と前記イメージセンサの位置とを知り、イメージセンサの前記インスタンスの部分的な結果及び最終的な結果の少なくともいずれかが、他のイメージセンサの前記インスタンス用に変換され、奥行きに適用される、請求項9に記載の方法。
  11. 前記眼の参照ポイントの位置(EP1、・・・、EPn)は、瞳の位置、及び、前記眼の角の位置の少なくともいずれかである、請求項1に記載の方法。
  12. フェイス・ファインダ・インスタンス(FF)、アイ・ファインダ・インスタンス(EF)、アイ・トラッカ・インスタンス(ET)を備える複数の通信演算器(R1、・・・、Rn)で、ビデオフレーム(VF)のイメージデータにおいて、複数の観察者の眼の参照ポイントの位置(EP1、・・・、EPn)を検出しトラッキングするための回路配置であって、
    前記フェイス・ファインダ・インスタンス(FF)は、ビデオフレーム(VF)において前記顔の位置を検出するように動作し、前記ビデオフレーム全体から、各顔用の目標顔領域(GZ)として、はるかに小さなサブ領域を抽出し、前記目標顔領域(GZ)の情報を少なくとも1つの後段の前記アイ・ファインダ・インスタンス(EF)に送信し、
    眼の位置を検出するための前記アイ・ファインダ・インスタンス(EF)は、各目標顔領域(GZ)から目標眼領域(AZ)として、はるかに小さなサブ領域を抽出し、前記目標眼領域(AZ)の情報を少なくとも1つの後段の前記アイ・トラッカ・インスタンス(ET)に送信し、
    前記眼の位置をトラッキングするための前記アイ・トラッカ・インスタンス(ET)は、現在の前記ビデオフレームと後続の前記ビデオフレームでの前記目標眼領域(AZ)において眼の参照ポイントの位置(EP1、・・・、EPn)を定義し、トラッキング装置用の情報を生成し、
    1つのインスタンス又はインスタンスの集合が、専用の演算器において並行して処理される回路配置。
  13. スケーリング、ガンマ補正、明度制御のような前記イメージデータの前記スケーリング若しくは補正のための別個の演算手段を備える、請求項12に記載の回路配置。
  14. 少なくとも2つのイメージセンサから判定された前記参照ポイント(EP1、・・・、EPn)から前記深度座標を計算する演算手段を備える、請求項12に記載の回路配置。
  15. 演算器が例えば、CPU、DSP等である、請求項12に記載の回路配置。
JP2008526370A 2005-08-17 2006-08-16 複数の観察者の眼のトラッキングとリアルタイム検出のための方法と回路 Active JP5054008B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102005040598.3 2005-08-17
DE102005040598 2005-08-17
PCT/DE2006/001437 WO2007019842A2 (de) 2005-08-17 2006-08-16 Verfahren und schaltungsanordnung zum erkennen und verfolgen von augen mehrerer betrachter in echtzeit

Publications (2)

Publication Number Publication Date
JP2009505247A true JP2009505247A (ja) 2009-02-05
JP5054008B2 JP5054008B2 (ja) 2012-10-24

Family

ID=37654754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008526370A Active JP5054008B2 (ja) 2005-08-17 2006-08-16 複数の観察者の眼のトラッキングとリアルタイム検出のための方法と回路

Country Status (10)

Country Link
US (1) US7950802B2 (ja)
EP (1) EP1915874A2 (ja)
JP (1) JP5054008B2 (ja)
KR (1) KR101278430B1 (ja)
CN (1) CN101243693B (ja)
BR (1) BRPI0616547A2 (ja)
CA (1) CA2619155A1 (ja)
DE (1) DE112006002752A5 (ja)
RU (1) RU2408162C2 (ja)
WO (1) WO2007019842A2 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4420056B2 (ja) * 2007-04-20 2010-02-24 ソニー株式会社 画像処理装置と画像処理方法および画像処理プログラム、並びに再生情報生成装置と再生情報生成方法及び再生情報生成プログラム
DE102007025069B4 (de) * 2007-05-21 2018-05-24 Seereal Technologies S.A. Holographisches Rekonstruktionssystem
DE102007056528B3 (de) * 2007-11-16 2009-04-02 Seereal Technologies S.A. Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren
USD666663S1 (en) 2008-10-20 2012-09-04 X6D Limited 3D glasses
USRE45394E1 (en) 2008-10-20 2015-03-03 X6D Limited 3D glasses
USD603445S1 (en) 2009-03-13 2009-11-03 X6D Limited 3D glasses
USD624952S1 (en) 2008-10-20 2010-10-05 X6D Ltd. 3D glasses
US8542326B2 (en) 2008-11-17 2013-09-24 X6D Limited 3D shutter glasses for use with LCD displays
CA2684513A1 (en) 2008-11-17 2010-05-17 X6D Limited Improved performance 3d glasses
USD646451S1 (en) 2009-03-30 2011-10-04 X6D Limited Cart for 3D glasses
US8314832B2 (en) * 2009-04-01 2012-11-20 Microsoft Corporation Systems and methods for generating stereoscopic images
WO2010118292A1 (en) 2009-04-09 2010-10-14 Dynavox Systems, Llc Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods
USD650956S1 (en) 2009-05-13 2011-12-20 X6D Limited Cart for 3D glasses
USD672804S1 (en) 2009-05-13 2012-12-18 X6D Limited 3D glasses
EP2275020B1 (en) * 2009-07-16 2018-02-21 Tobii AB Eye detection system and method using sequential data flow
JP2011064894A (ja) * 2009-09-16 2011-03-31 Fujifilm Corp 立体画像表示装置
USD692941S1 (en) 2009-11-16 2013-11-05 X6D Limited 3D glasses
USD671590S1 (en) 2010-09-10 2012-11-27 X6D Limited 3D glasses
USD669522S1 (en) 2010-08-27 2012-10-23 X6D Limited 3D glasses
USD662965S1 (en) 2010-02-04 2012-07-03 X6D Limited 3D glasses
USD664183S1 (en) 2010-08-27 2012-07-24 X6D Limited 3D glasses
US9235754B2 (en) 2011-03-28 2016-01-12 Nec Corporation Person tracking device, person tracking method, and non-transitory computer readable medium storing person tracking program
EP2748797B1 (en) * 2011-09-28 2015-03-04 Koninklijke Philips N.V. Object distance determination from image
USD711959S1 (en) 2012-08-10 2014-08-26 X6D Limited Glasses for amblyopia treatment
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
KR102175853B1 (ko) * 2013-02-22 2020-11-06 삼성전자주식회사 동작 제어 방법 및 그 전자 장치
RU2530660C1 (ru) * 2013-02-26 2014-10-10 Владимир Николаевич Антипов Способ выявления диапазона условий восприятия глубины образов плоскостных изображений
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
RU2541922C2 (ru) * 2013-05-14 2015-02-20 Федеральное государственное бюджетное учреждение "Национальный исследовательский центр "Курчатовский институт" Способ и устройство определения направленности взгляда
KR102093455B1 (ko) * 2013-10-04 2020-03-25 한국전자통신연구원 하이브리드 카메라에 기초한 동공 추적을 이용한 홀로그램 표시 장치 및 방법
TWI522257B (zh) * 2014-07-09 2016-02-21 原相科技股份有限公司 車用安全系統及其運作方法
CN104661012B (zh) * 2014-11-28 2017-12-01 深圳市魔眼科技有限公司 个人全息三维显示方法及设备
CN104581126A (zh) * 2014-12-16 2015-04-29 青岛歌尔声学科技有限公司 一种头戴显示设备的画面显示处理方法和处理装置
CN107837089B (zh) * 2017-12-05 2018-11-23 清华大学 一种基于脑电波的视频卡顿极限值测量方法
US10951875B2 (en) 2018-07-03 2021-03-16 Raxium, Inc. Display processing circuitry
US10930183B2 (en) 2018-11-22 2021-02-23 Electronics And Telecommunications Research Institute Hologram content generation apparatus, integrated hologram content control system having the same, and method for operating the hologram content generation apparatus
US11619825B2 (en) 2019-04-10 2023-04-04 Electronics And Telecommunications Research Institute Method and apparatus for displaying binocular hologram image
JP2023500234A (ja) 2019-11-01 2023-01-05 ラキシウム インコーポレイテッド 眼追跡器を組み込む明視野ディスプレイと、眼追跡情報を使用して明視野ディスプレイのためのビューを生成するための方法
US11699242B2 (en) 2020-02-25 2023-07-11 Electronics And Telecommunications Research Institute System and method for digital hologram synthesis and process using deep learning
US11532122B2 (en) 2020-03-05 2022-12-20 Electronics And Telecommunications Research Institute Method and apparatus for processing holographic image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08147477A (ja) * 1994-09-20 1996-06-07 Fujitsu Ltd 局所領域画像追跡装置
JPH08272973A (ja) * 1995-03-31 1996-10-18 Hitachi Ltd 顔面特徴抽出を行なうイメージ処理
JPH08272948A (ja) * 1995-03-31 1996-10-18 Hitachi Ltd 顔面イメージ処理方法及び装置
JP2005099953A (ja) * 2003-09-22 2005-04-14 Fuji Xerox Co Ltd 画像処理装置、それを備えるオブジェクト追跡システム、画像処理方法及び画像処理プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5912980A (en) * 1995-07-13 1999-06-15 Hunke; H. Martin Target acquisition and tracking
US5867587A (en) * 1997-05-19 1999-02-02 Northrop Grumman Corporation Impaired operator detection and warning system employing eyeblink analysis
GB2363273A (en) * 2000-06-09 2001-12-12 Secr Defence Computation time reduction for three dimensional displays
US6873714B2 (en) * 2002-02-19 2005-03-29 Delphi Technologies, Inc. Auto calibration and personalization of eye tracking system using larger field of view imager with higher resolution
CN1225375C (zh) * 2003-07-02 2005-11-02 北京交通大学 基于多特征融合的困倦驾驶检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08147477A (ja) * 1994-09-20 1996-06-07 Fujitsu Ltd 局所領域画像追跡装置
JPH08272973A (ja) * 1995-03-31 1996-10-18 Hitachi Ltd 顔面特徴抽出を行なうイメージ処理
JPH08272948A (ja) * 1995-03-31 1996-10-18 Hitachi Ltd 顔面イメージ処理方法及び装置
JP2005099953A (ja) * 2003-09-22 2005-04-14 Fuji Xerox Co Ltd 画像処理装置、それを備えるオブジェクト追跡システム、画像処理方法及び画像処理プログラム

Also Published As

Publication number Publication date
WO2007019842A3 (de) 2007-11-29
EP1915874A2 (de) 2008-04-30
CN101243693A (zh) 2008-08-13
RU2408162C2 (ru) 2010-12-27
KR20080047392A (ko) 2008-05-28
DE112006002752A5 (de) 2008-08-28
CN101243693B (zh) 2013-07-31
US7950802B2 (en) 2011-05-31
US20080231805A1 (en) 2008-09-25
RU2008110044A (ru) 2009-09-27
WO2007019842A2 (de) 2007-02-22
BRPI0616547A2 (pt) 2011-06-21
JP5054008B2 (ja) 2012-10-24
CA2619155A1 (en) 2007-02-22
KR101278430B1 (ko) 2013-06-24

Similar Documents

Publication Publication Date Title
JP5054008B2 (ja) 複数の観察者の眼のトラッキングとリアルタイム検出のための方法と回路
CN110310329B (zh) 操作显示设备的方法、信息处理系统及非暂时性存储介质
KR101930657B1 (ko) 몰입식 및 대화식 멀티미디어 생성을 위한 시스템 및 방법
CN108369742B (zh) 使用传感器融合的经优化对象扫描
JP6747504B2 (ja) 情報処理装置、情報処理方法、及びプログラム
EP3195595B1 (en) Technologies for adjusting a perspective of a captured image for display
CN106415445B (zh) 用于观看者关注区域估计的技术
US8587563B2 (en) Touch system and positioning method therefor
JP6583734B2 (ja) 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム
EP2309454B1 (en) Apparatus and method for detecting motion
US10928930B2 (en) Transparent display device and control method using the same
US10630890B2 (en) Three-dimensional measurement method and three-dimensional measurement device using the same
US10937192B2 (en) Resolving incorrect distributed simultaneous localization and mapping (SLAM) data in edge cloud architectures
US11043004B2 (en) Resolving region-of-interest (ROI) overlaps for distributed simultaneous localization and mapping (SLAM) in edge cloud architectures
EP3779959A1 (en) Information processing device, information processing method, and program
US20200211275A1 (en) Information processing device, information processing method, and recording medium
Andiel et al. Eye tracking for autostereoscopic displays using web cams
KR102093455B1 (ko) 하이브리드 카메라에 기초한 동공 추적을 이용한 홀로그램 표시 장치 및 방법
WO2022226432A1 (en) Hand gesture detection methods and systems with hand prediction
US11144194B2 (en) Interactive stereoscopic display and interactive sensing method for the same
CN112114659A (zh) 用于确定用户的精细的注视点的方法和系统
Hopf et al. Multi-user eye tracking suitable for 3D display applications
CN111754543A (zh) 图像处理方法、装置及系统
US11941171B1 (en) Eye gaze tracking method, apparatus and system
US20220413295A1 (en) Electronic device and method for controlling electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20101210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120717

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120726

R150 Certificate of patent or registration of utility model

Ref document number: 5054008

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150803

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250