JP2005521146A - さまざまな光線条件下におけるリアルタイムの目の検知および追跡 - Google Patents

さまざまな光線条件下におけるリアルタイムの目の検知および追跡 Download PDF

Info

Publication number
JP2005521146A
JP2005521146A JP2003577739A JP2003577739A JP2005521146A JP 2005521146 A JP2005521146 A JP 2005521146A JP 2003577739 A JP2003577739 A JP 2003577739A JP 2003577739 A JP2003577739 A JP 2003577739A JP 2005521146 A JP2005521146 A JP 2005521146A
Authority
JP
Japan
Prior art keywords
pupil
image
eye
analysis
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003577739A
Other languages
English (en)
Other versions
JP4464686B2 (ja
Inventor
キクオ フジムラ
ツウェイ ツゥ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2005521146A publication Critical patent/JP2005521146A/ja
Application granted granted Critical
Publication of JP4464686B2 publication Critical patent/JP4464686B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Educational Technology (AREA)
  • Pathology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

対象物の邪魔にならないリアルタイムの目の検知及び追跡用のシステムと方法が開示される。対象物の差分画像を発生する能動的照射解析を用いて対象者の目が検知される。差分画像において、明るい瞳孔の効果によって対象物の瞳孔の外観が強調される。差分画像から瞳孔の候補のセットを識別するために、コンポーネント解析が使用される。さまざまな光照射条件の下で起こり得るバックグラウンド雑音から対象物の目を識別するために、外観準拠の解析が瞳孔の候補に適用される。対象物の目が検知された後、リアルタイムで目の動きを検知するために、多段の追跡処理が開示される。さらに、外部からの照射干渉を低減する画像取得装置のような装置の特徴が開示される。

Description

本発明は、一般に人間と機械の相互作用に関するものであり、特にリアルタイムの目の検知と追跡に関する。
コンピュータを用いた視覚技術はヒューマンマシーンインターフェースに対して有効なツールを提供する。人の目の位置及び/又は目の動きのコンピュータによる判定を利用した多くの適用例がある。一適用例としては、運転者の目が開いて道路を見ているかを判定できる自動車がある。もし運転者が眠り込んだ場合、自動車搭載のコンピュータが適切に作動して安全な運転環境に復帰させることができる。
目の動きを検知する従来の方法の一例として、対象となる人に装置を取り付ける方法が使用されている。そのような方法としては、例えば、顎サポート、頭部搭載カメラ、あるいはセンサ又はカメラを基準として顔の位置を制約するための特殊な装置がある。装置を取り付ける方法では利用者に受け入れられるかが問題点となる。一般に、利用者はコンピュータとインターフェースさせるために、不自然な装置あるいは厄介な装置が適用されることを嫌う。
その他の従来の方式では装置を取り付けない技術が用いられている。このタイプの典型的な目の検出と追跡に関する技術は、独立した二つのカテゴリー、即ち能動的赤外線(IR)照射方法と外観準拠の方法に分類される。能動的IR技術では、発光ダイオード(LED)のようなIR照射器を用いて対象物の顔を照射する。外的照明条件によっては、瞳孔は顔の他の部分より明るく見える。能動的IR方法では、弁別的なIR照射を用いて瞳孔と顔のその他の部分間の高いコントラストを検知する。
この技術の問題点は、精度が瞳孔のサイズと明るさに依存し、多くの場合顔の向き、外部からの照射干渉および対象物のカメラまでの距離の関数であることである。この技術に付随するもう一つの問題は、異なった顔の向き及び距離によって良質な瞳孔の差分画像を撮ることは更に難しくなるので、対象物がカメラの近くにあることが必要になることである。従って、能動的IR手法を強固なものとするには、照明条件の安定性と対象物がカメラの近くにあることが必要になる。
典型的な外観準拠の方法では、顔のその他の部分とは異なって見える目の強度(又は色)分布に基づいて対象物の目を検出する。外観の相違を利用して、目は検知され追跡される。この方法は、異なった顔の向き、異なった照射条件下での、異なった対象物の目を示す訓練用データを大量に集めることが必要である。従来の外観準拠の方法は、特殊な照明を必要としないが、起こり得るすべての目の外観を列挙するための膨大な訓練データを必要とする。この理由は、異なる照明、顔の向きあるいは対象物の眼鏡によって、目の外観は劇的に変化するからである。
対象物に装置の取り付けが不要で利用者に受け入れられる目の動きの検出および追跡をするための技術が必要とされる。更に、光線と対象物の方向が変化する条件下でも確実に目の動きを検出し追跡する技術が必要とされる。
発明の要約
本発明の一実施例によって、さまざまな照明条件下でリアルタイムの目の検知と追跡が提供される。さまざまな照明条件には強力な非赤外光(例えば、従来の蛍光室内灯)が含まれる。確実な目の検知と動きの追跡を実行するために、能動的赤外方式と外観準拠の方法が結合されている。対象物の目は対象物の差分画像を発生させる能動的な照射解析を用いて検知される。差分画像においては、明るい瞳孔の効果が対象物の瞳孔の外観を強調する。
本発明の一実施例では、対象物の顔の画像は、対象物の顔の明るい瞳孔および暗い瞳孔の画像を発生する能動的赤外(IR)照射器を使用して得られる。IR照射器に画像の信号対雑音比を改善する帯域通過フィルタが取り込まれれば有利である。帯域通過フィルタはIR照射器のノミナルな波長と通過帯域に適合させることが可能である。
本発明の他の実施例では、差分画像から瞳孔の候補のセットを識別するためにコンポーネント解析が用いられる。コンポーネント解析には、瞳孔の候補を顔の他の特徴やバックグラウンド雑音から分離するために、サイズ、形状あるいはその他の表面形状をパラメータとして取り込むことができる。外観準拠の解析は、画像の中の対象物の目の位置を識別または確認するために、瞳孔の候補に適用することができる。サポートベクターマシンの特徴であるパターン分類及び/又は認識方法のような外観準拠の技術が、目の外観に基づいた対象物の瞳孔の動きの検知及び追跡に使用できる。
本発明の他の実施例では、フレームからフレームへの目の動きをリアルタイムで検知するために多段追跡処理が用いられる。追跡プロセスの第1段では、第1フレームから第2フレームへの対象物の目の位置を追跡するために、従来のカルマンフィルタリング技術が使用される。第1段の追跡が不成功の場合は、第1フレームから第2フレームへの対象物の目の動きを予測するために、暗い瞳孔画像上で平均シフト手法が第2段の追跡に用いられる。
実施形態の詳細な説明
発明の更なる特徴と、特質及び多岐にわたる利点については、付随する図面と以下の詳細な説明によって明確になる。
付随する図面は本発明の実施例を示し、説明とともに本発明の原理を説明する。
いくつかの発明の実施例が示された添付図面を参照して、本発明のさらに十分な説明を以下に述べる。本発明は多くの異なった形態で実施することが可能で、ここに示される実施例に限定されると解釈されるべきではない。これらの実施例は、これらの開示が充分且つ完全で、当業者に対して発明を十分に伝えるために提供されるのである。
A.システム概観
本発明の一つの実施例において、強い非赤外光のようなさまざまな光線条件下で目の検知と追跡を実施するために、能動的赤外(IR)照射および外観準拠の技術が使用される。能動的IR照射は明るい瞳孔の効果を得るために対象物の顔を明るくするために用いられる。明るい瞳孔の効果および目の外観(例えば、目のパターンに基づいた統計的分布)が対象物の瞳孔を検知して追跡するために用いられる。対象物の目の外観に基づいて、パターン分類認識(例えば、サポートベクターマシン)と目標物追跡(例えば、平均シフト処理)が瞳孔の検知と目の動きの追跡のために用いられる。
本発明の処理、特徴及び機能は適切な計算装置において実行するプログラム命令によって具現される。例として、計算装置はエンタープライズサーバ、アプリケーションサーバ、ワークステーション、パーソナルコンピュータ、ネットワークコンピュータ、ネットワーク装置、パーソナルデジタル補助装置、ゲームコンソール、テレビジョン、セットトップボックス、構内オートメーション設備、ポイントオブセール端末、自動車、パーソナル通信装置(例えば、セルラーハンドセット)を含む。
プログラム命令はコンピュータが読取可能な媒体またはストレージボリュームに配信される。コンピュータが読取可能なストレージボリュームは、パブリックネットワーク、プライベートネットワーク又はインターネット経由で利用可能である。プログラム命令としては、相応しい形式であれば、ソースコード、オブジェクトコードあるいはスクリプティングコードのいずれもが可能である。
B.画像取得
能動的照射解析及び外観準拠の解析は対象物の顔のIR画像または連続したIR画像を利用する。一般には、対象物の顔がIR光線で照射され、カメラによってその照射された顔の画像を撮る。図1Aは本発明に基づいた赤外照射器の第1の形態を示す図面である。図示の実施例には、アウターリング105、インナーリング110およびカメラ115が含まれる。アウターリング105は複数のIR発光ダイオード(LEDs)を含む。インナーリング110も複数のIR LEDsを含む。アウターリング105はカメラ115の光軸から離して配置されるが、インナーリング110はカメラ115のレンズの光軸の近傍に配置される。具体的には、インナーリング110は明るい瞳孔画像を発生させるためにカメラ115のレンズの光軸に十分に近い位置に配置される。アウターリング105は明るい瞳孔画像とほぼ同じ画像特性(例えば、コントラスト及び/又は明るさ)を持った暗い瞳孔画像を発生させるために、カメラ115のレンズの光軸から十分離して配置される。カメラ115のレンズは通常対象物の顔面上に焦点を結ぶ。平均焦点距離あるいは対象物のカメラからの距離が適用例に従って調整されることは、当業者であれば理解に難くないであろう。例えば、自動車へ適用した場合には、ダッシュボードに搭載された照射器から2から6フィートの範囲に運転者の顔が位置することになるだろう。本発明の一つの実施例として、カメラ115に対象物の画像のサイズを設定あるいは再設定するための対物レンズを装備することもできる。
以下に更に詳述されるように、アウターリング105は対象物の暗い瞳孔画像を発生させるためにカメラ115の光軸から離して配置されている。インナーリング110は明るい瞳孔画像を発生させるためにカメラ115の光軸近傍あるいはオンアクシスに配置される。本発明の実施例では、対象物の目を検知し追跡するために暗い瞳孔画像と明るい瞳孔画像を使用する。
本発明の一実施例によれば、アウターリング105とインナーリング110のIR
LEDsは、消費電力32mW、波長帯域40nm幅においてノミナル波長880nmで動作する。カメラ115は、IR LEDsのノミナル波長に適合するように選択された、約880nmの最大スペクトル感度を持つ。カメラ115は、約10nm幅の波長通過域を持った光学帯域通過フィルタを含む。本発明のこの実施例では、フィルタを用いない時と比較して、光学帯域通過フィルタによって信号対雑音比を20倍上げることが出来る。第1の形態の赤外照射器の利点は画像の質が改善されることである。画像の質は後段の画像処理技術の精度またはローバスト性に影響を及ぼす。
図1Bは本発明による第2の形態の赤外照射器を示す図面である。図示の実施例はアウターLEDs150、インナーLEDs155、カメラ160を含む。アウターLEDs150とインナーLEDs155はカメラ160に対して三角形の状態で配置されている。図1Aに示した実施例と同様に、アウターLEDs150は暗い瞳孔像を発生させるためにカメラ160の光軸に合わされていない。インナーLEDs155は明るい瞳孔画像を発生させるためにカメラ160の光軸に合わされている。具体的には、インナーLEDs155は明るい瞳孔画像を発生させるためにカメラ160のレンズの光軸に十分近く配置される。アウターLEDs150は明るい瞳孔画像とほぼ同じ画像特性(例えば,コントラスト及び/又は明るさ)を持った暗い瞳孔画像を発生させるために、カメラ160のレンズの光軸から十分に離して配置される。
図ではアウターLEDs150及びインナーLEDs155のそれぞれに3個のLEDsが含まれているが、当業者であればLEDsの数を増減することは想到するに難くない。LEDsを追加した一例が図1Aに示されている。図1Bの配置例では、アウターLEDs150とインナーLEDs155は、図1Aに示された配置例よりも少ないLEDsで対象物を一様に照射するため、カメラ160の周りに対称に配置されている。より少ないLEDsを用いることの利点には、経費の節減と照射器の設置面積を全体として小さく実現できることが含まれる。
当業者であれば、本発明の一実施形態において、独国テルトウのセンソモトリック インスツルメンツ ゲーエムベーハー(SensoMotoric Instruments GmbH of Teltow)から入手可能なもののような従来のIR照射器が使用できることは理解するに難くない。ここで説明される処理、特徴あるいは機能は、上記の説明と図1A及び図1Bに基づいたIR照射器によって実現されるが、本発明の実施例はある特定のIR照射器にも画像機器にも必ずしも依存するものではない。
C.目の検知および追跡
図2は本発明の一実施例による目の検知および追跡を示すフローチャートである。図2に示された処理は全体の機能フローチャートを示す。図2に示されたステップの詳細を以下に示す。一般に、図示の処理には目の検知と目の追跡の2つの段階が含まれる。本発明の一実施例では、目の検知段階には能動的照射と外観準拠の処理が含まれる。目の追跡段階には2つの追跡レベルが含まれる。第1の追跡段階では目の動きを追跡するために差分画像を用いる。第1の追跡レベルで目の発見が出来ない場合は、第2の追跡レベルが実行される。第2の追跡レベルでは、目の動きを追跡するために暗い瞳孔画像が解析される。第2の追跡レベルが失敗した場合には、処理は目の検知段階から再スタートする。
より具体的には、図示の処理は目の検知210の実行で処理を開始する。対象物の目が発見されない場合215、目の検知210が繰り返される。当業者であれば、対象物の目が発見されない場合215に、カメラの焦点のようなパラメータが調整され得ることを理解するに難くない。対象物の目が発見された場合215、差分画像で目を追跡230するために処理は継続される。差分画像追跡230が成功した場合235、処理は差分画像における目の追跡230に戻る。
差分画像追跡230が不成功の場合235、処理は暗い瞳孔画像での目の追跡240を引き続き実行する。暗い瞳孔画像の追跡240が成功の場合245は、処理は差分画像での目の追跡230へ戻る。暗い瞳孔画像の追跡240が不成功の場合245は、処理は目の検知210から再び開始される。
本発明の一実施例において、ステップ235および245で成功した場合には、前の画像またはフレームから目が成功裏に追跡されているかを判定するために、サポートベクターマシン精度解析が用いられる。精度が所定の閾値(例えば、95%の精度)を満たさなければ、追跡結果は不成功とみなされる。複数の連続する画像のそれぞれに対して目の追跡を実行するために必要なシステムリソース(例えば、プロセッサー時間またはメモリー)の使用をバランスさせながら正確な結果を得ることが出来る点で、2段階追跡処理は利点を有している。
図3は本発明の一実施例による目の追跡のさらなる詳細を示すフローチャートである。目の検知処理210は能動的照射解析310と外観準拠の解析350を含む。図3に示された本発明の実施例では、能動的照射解析310は外観準拠の解析350に先立って実行される。本発明の他の一実施例によれば、外観準拠の解析350は能動的照射解析310の前、あるいは同時に実行することが可能である。図示の形態の利点の一つは、能動的照射解析310の出力が、一般に処理の遅い又はプロセッサー集約タスクである外観準拠の解析350の範囲を絞るために利用できることである。外観準拠の解析350を完了後、目の検知処理210は呼び出し処理へ戻る380。
1.瞳孔検知
図4は本発明の一実施例による能動的照射解析を示すフローチャートである。本発明の一実施例において、カメラ115/160はインターレースフレームを撮像する。インターレースフレームは奇数フィールドと偶数フィールドを含む。1秒間に30フレームのフレームレートの画像シーケンスにおいて、全体で1秒間に30フレームを発生させるためにインターレースされた1秒間にそれぞれ60フレームの偶数と奇数のフィールドがある。本発明の一実施例において、図1Aおよび図1Bの能動的照射器はカメラ115/160の偶数および奇数のフィールドと同期されることが可能である。一例として、カメラ115が偶数フィールドをスキャンしている時、インナーリング110はターンオンされアウターリング105はターンオフされる。奇数フィールドがスキャンされる時は、アウターリング105がターンオンされインナーリング110がターンオフされる。
能動的照射解析310の処理は、オンアクシスの照射器を用いた偶数フィールドの取得405とオフアクシス照射器を用いた奇数フィールドの取得410を開始する。カメラ115/160はインターレース複合信号を出力する。複合信号は次にデインターレースされる415。デインターレース415はフレームを偶数と奇数のフレームに分離する。偶数フィールドにはオンアクシスの照射器が用いられるので、対象物の瞳孔は奇数フィールドにおけるよりも格段に明るく見える。
バックグラウンドを消去し外部からの光照射を軽減するために差分画像が計算される420。個々の画像フレームに対して、差分画像は偶数フィールドから差し引かれた奇数フィールドからなる。閾値化によってグレースケール画像を減らして黒色および白色画像にする。差分画像はバックグラウンドノイズを更に減少させるために閾値化できる。従来の閾値化処理は所定の閾値より低い強度のピクセルを除外することを含む。当業者であれば、所定の閾値を例えば差分画像における瞳孔の平均強度に従って調整できることを理解するに難くない。差分画像の一例を図8に示す。
差分画像は瞳孔ブロブ及び/又はノイズブロブを含む。ブロブは類似の特性(例えば、色及び/又は強度)を共有する隣接のピクセル(又は画像コンポーネント)の集まりである。当業者であれば、ブロブは無定形の形状を取り、隣接するピクセル同士は接している必要が無いことに気づくであろう。能動的照射解析310の1つの目的はブロブから瞳孔の候補を識別することである。瞳孔の候補は次の外観準拠の解析350によって確認される。
まず、差分画像においてそれぞれのブロブは瞳孔の潜在的候補としてマークがつけられる425。図9は図8の差分画像において識別されたブロブの一例を示す。図9において正方形又は長方形の箱は瞳孔の潜在的候補を示すブロブを図示している。
瞳孔の候補を識別するために、連結されたコンポーネント解析が、マークされたブロブの各々に対して実施される430。連結されたコンポーネント解析の一つの形態では、ブロブのサイズ及び/又は形状に基づいて対象物の瞳孔が識別される。瞳孔は通常楕円状のブロブとして出現し、それぞれのブロブの形状を抽出した上で、以降の考慮からいくつかのブロブを除外するために、従来の楕円フィッティングを用いることが出来る。従来の楕円フィッティングの一例が、アンドルー ダブリュー フィッツギボン他「ア バイヤーズ ガイド トゥ コニック フィッティング」プロシーディングズ オブ ザ フィフス ブリティッシュ マシン ビジョン コンファランス、英国バーミンガム、513−522頁(Andrew W. Fitzgibbon, et al., "A Buyers Guide to Conic Fitting," Proceedings of the 5th British Machine Vision Conference, Birmingham, England, pp. 513-522)に示されている。この内容の全てが本願で参照され取り込まれている。
当業者であれば瞳孔の候補を識別するために、または差分画像におけるノイズブロブを減らすために他の技術が使えることを理解するに難くない。例えば、大きなサイズのブロブまたは長軸対短軸比の大きなブロブは瞳孔でないことが多く、以降の考慮から除外できる。更に、対象物の瞳孔のサイズ及び/又は形状はカメラ115/160からの対象物の距離の関数である。この距離を決定することによって、対象物の瞳孔としては小さすぎるまたは大きすぎるブロブは以降の考慮から除外できる。
図10はコンポーネント解析430の結果の一例を示す。図10において、ブロブのうち以降の考慮に取り込まれるものは丸で表示されている。能動的照射解析310が1セットの瞳孔の候補を識別した後、制御は呼び出し処理に戻る435。本発明の一実施例において、能動的照射解析310は次の外観準拠の解析350の範囲を絞るために用いられる。
2.瞳孔確認
図5は本発明の一実施例による外観準拠の解析を示すフローチャートである。本発明の実施例では、能動的照射解析310によって得られた瞳孔の候補を確認するための外観準拠の解析350を実行するために、サポートベクターマシン(SVM)が用いられる。当業者であれば、他のパターンマッチング技術、例えばニューラルネットワークに基づいた方法が使用できることを予想するに難くない。
本発明のパターマッチングへのSVMの適用を当業者が理解できるようにSVMの理論的枠組みについて以下に簡略に説明する。SVMについての更なる詳細は、シー コルテス他「サポートベクター ネットワークス」1995年版マシーン ラーニング第20巻273−297頁(C. Cortes et al., "Support-vector networks," Machine Learning, vol. 20, pp. 273-297, 1995)に示されている。この内容の全てが本願で参照され取り込まれている。
2クラスのパターン認識に対して、標本に基づく先見的学習タスクは以下の式(1)および(2)で表される。1セットの関数fαを仮定すれば:
Λは索引セットでl個の標本のセットである。
ここでxiはN次元の特徴ベクトル、yiはクラスを表し−1と+1の2つの値しか取らず、それぞれが未知確率分布P(x、y)から発生される。求めたいのは式(3)で定義されるようなリスクに対して取り得る最小値を与える特定の関数fα*である。当業者であれば式(3)の関数が誤差(または精度)を数学的に定義していることを理解するに難くない。以下に示す表1は精度を含めた実験結果の一例を示す。
SVM手法の目的は、非線形関数gを用いて入力データXをより高次元の空間Zにマッピングすることによって、超平面D(X)=(wX+w0)を分離することにある。最大マージンでのデータポイントは最適な超平面を定義するのでサポートベクターと呼ばれる。一つの実行形態として、SVM手法は最適な超平面を得るために訓練データを必要とする。瞳孔の認識及び/又は確認のための訓練セットの使用について以下に詳細に説明する。
図5に示された外観準拠の解析は差分画像で識別された瞳孔の候補位置を取得すること505から始まる。本発明の一実施例において、能動的照射解析310は差分画像内の瞳孔の候補の位置を含む座標値リストを出力する。これらの位置は暗い瞳孔の画像に適用され、ポジティブな訓練セットとネガティブな訓練セットが暗い瞳孔の画像から分離される510。本発明の一実施例では、2020のピクセル画像がそれぞれの座標値ごとに暗い瞳孔の画像から取り込まれる。取り込まれた画像は従来のヒストグラム均等化及び正規化を用いた前処理によって訓練前の[0、1]の範囲とされる。図11はポジティブな訓練セット1105とネガティブな訓練セット1110の一例を示す。ポジティブな訓練セット1105は異なる凝視、異なる開き具合、異なる対象物と眼鏡の有無からなる目の画像を含む。ネガティブな訓練セットは目以外の画像(即ち、鼻、頬等)を含む。
SVMはポジティブ訓練セット1105及びネガティブ訓練セット1110を使用して訓練され、パターンマッチングが第1の対象物に対して実行される520。当業者であれば限定されたラベルつきの訓練セット(例えばポジティブ及びネガティブ訓練セット1105及び1110)だけに頼る学習機械が高い学習精度を実現しないであろうことを想像するに難くない。高精度を実現するために、SVMがラベル付与を失敗した第1の対象物のデータにラベル付与をすることによって、SVMは再度訓練される。即ち、鼻部分を含む画像を対象物の目と誤って識別した場合、誤ったラベルを付与された画像は正しい訓練グループ(この例ではネガティブなセット)に配置される。
次に、パターンマッチングが第2の対象物に対して実行される530。SVMが第2の対象物の目の識別に失敗した場合535、再訓練525が追加の対象物からのデータを用いて繰り返される。実験においては、成功裏に結果を得るために6個の対象物を基に用意された目のデータが用いられた。成功裏に得られた結果とは所定のSVM精度(例えば95%)を達成したものである。処理が成功であれば535、制御は呼び出し処理へ戻る540。
実験において、ポジティブ画像558とネガティブ画像560を含む訓練セットを発生させた。当業者であればSVMパラメータ(例えば、学習カーネル)が精度を最大にするように変えられることを想到するに難くない。表1は1757の候補画像を用いてさまざまなパラメータ設定をしたケースの3タイプのSVMカーネルに対する実験結果を示す。このケースでは、最良の精度はシグマが3のガウスSVMカーネルで達成された95.5037%であった。
3.目の追跡
初期フレームまたはカメラ115/160の画像から目が検出された210後、瞳孔はリアルタイムでフレームごとに追跡される。図6は本発明の一実施例による差分画像における目の追跡の更なる詳細を示すフローチャートである。上記のように追跡処理は2レベルの追跡からなる。図6に示された処理は第1のレベルを示す。差分画像での目の追跡230には対象物の第2の画像に対する能動的照射解析310の繰り返しが含まれる。第2の画像は撮像された画像シーケンスのもう一つのフレーム、またはリアルタイムのフレーム撮像に相当する。前の画像で目が存在した限定領域において目の位置を追跡するために、従来のカルマンフィルタ解析が実行される320。カルマンフィルタは次のフレームにおける移動特徴点の位置と不確定性を予想する。即ち、次のフレームにおいてある確度で特徴を確実に見つけるために、以降の解析でどこを捜すか、次のフレームでどのくらいの領域がサーチされるべきかを予想する。従来のカルマンフィルタリング技術は、キュー ジ他「リアル タイム ヴィジュアル キューズ エクストラクション フォー モニタリング ドライバー ビジランス」プロシーディングズ オブ インターナショナル ワークショップ オン コンピュータ ビジョン システムズ、2001年7月(Q. Ji, et al., "Real time visual cues extraction for monitoring driver vigilance," Proceedings of International Workshop on Computer Vision Systems, July 2001)に示されている。その内容の全てが本願で参照されて取り込まれている。
カルマンフィルタリング処理が差分画像において目の移動の追跡に失敗した場合230、第2のレベルの追跡が実行される。図7に示された処理はこの第2のレベルの手法の実施例を説明している。一般に、前のフレームで目の位置を特定した後、前のフレームで検出された目に基づいて目の目標モデルが構築される。現在のフレームの目の位置は、前のフレームの目の位置を初期位置として平均シフト繰返し逐次近似法を用いて予測され、現在の画像において強度分布の点で目標モデルに最も良く合う位置を捜す。
具体的に述べると、図7は平均シフト追跡手法を用いた暗い瞳孔画像における目の追跡の更なる詳細を示すフローチャートである。
次に、重み{wii=1nが式(4)によってそれぞれのピクセルに対して得られる710。ここで、gは重要度の高いピクセル位置には大きな値を割付ける重み関数で、uiはi番目のピクセルの強度である。従来の平均シフト手法はデー コマニシュ他「リアルタイム トラッキング オブ ノンリジッド オブジェクツ ユージング ミーンシフト」プロシーディングズ オブ IEEE コンファランス オン コンピュータ ビジョン アンド パターン レコグニション、ヒルトン ヘッド アイランド、サウスカロライナ、2000年(D. Comaniciu, et al., "Real-time tracking of non-rigid objects using mean-shift," Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Hilton Head Island, South Carolina, 2000)に示されている。この内容の全てが参照されて本願に取り込まれている。
現在のフレームにおける目標の新しい位置は式(5)の平均シフトベクトルに基づいて計算される715。式(5)でXiはi番目のピクセル位置の座標である。
前に予想された目標位置と現在の目標位置の間の変化が所定の閾値よりも大きい場合は、現在のフレームにおける目標の新しい位置を計算するステップ715が反復的に繰り返されて処理が行われる。変化が所定の閾値より小さい場合720は呼び出し処理へ戻る725。本発明の別の実施例では、相関係数がある値を満足するか或は超えるまで現在の目の画像と目標の目の画像の間で従来の相互相関が計算される。
さまざまな光線条件下(それらは説明を目的とし限定するものではない)でリアルタイムの目の検知と追跡の実施例を説明したが、上記の教示を考慮すれば当業者による部分的改造および変更は可能である。従って、付属の請求項および均等物によって定義される発明の範囲及び精神内にある本発明に特定の開示実施例に対して、変更が加えられる可能性があることに理解が払われるべきである。
図1Aは本発明による赤外照射器の第1の形態を示す図である。 図1Bは本発明による赤外照射器の第2の形態を示す図である。 図2は本発明の一つの実施例による目の検知及び追跡の処理を示すフローチャートである。 図3は本発明の一つの実施例による能動的な目の検知の更に詳細な処理を示すフローチャートである。 図4は本発明の一つの実施例による照射解析を説明するフローチャートである。 図5は本発明の一つの実施例による外観準拠の解析を説明するフローチャートである。 図6は本発明の一つの実施例による差分画像の目を追跡する際の詳細を示すフローチャートである。 図7は本発明の一つの実施例による暗い瞳孔画像の目を追跡する際の詳細を示すフローチャートである。 図8は本発明の一つの実施例による差分画像を説明する図である。 図9は本発明の一つの実施例による図8の差分画像で識別されたブロブを示す図である。 図10は本発明の一つの実施例による図8の差分画像の瞳孔の候補を示す図である。 図11は本発明の一つの実施例によるポジティブ及びネガティブな訓練セットの画像例を示す図である。

Claims (31)

  1. 対象物の目を検知する方法であって、
    能動的照射解析を用いて前記対象物の差分画像を発生するステップと、
    前記差分画像から瞳孔の候補のセットを識別するステップと、
    前記瞳孔の候補の中から前記対象物の目を識別するために前記瞳孔の候補のセットを用いて外観準拠の解析を実行するステップとからなる方法。
  2. 前記発生ステップは、オンアクシスの照射器を用いて第1の画像を取得するステップと、オフアクシスの照射器を用いて第2の画像を取得するステップからなることを特徴とする請求項1の方法。
  3. 前記第1の画像はビデオ信号の偶数フィールド及び奇数フィールドの1つからなることを特徴とする請求項2の方法。
  4. 前記第2の画像はビデオ信号の偶数フィールド及び奇数フィールドの1つからなることを特徴とする請求項2の方法。
  5. 前記オンアクシスの照射器及びオフアクシス照射器の少なくとも1つが波長領域約40nm幅の赤外発光体からなることを特徴とする請求項2の方法。
  6. 前記識別ステップは、
    瞳孔の候補になり得る少なくとも1つのブロブを識別するために、所定の閾値より低い強度のピクセルを前記差分画像から除外するステップと、
    前記瞳孔の候補のセットを発生するために前記少なくとも1つのブロブに対してコンポーネント解析を実行するステップとからなることを特徴とする請求項1の方法。
  7. 前記コンポーネント解析は前記少なくとも1つのブロブのサイズ及び形状の少なくとも1つによって、非瞳孔ブロブを瞳孔ブロブから分離することを特徴とする請求項6の方法。
  8. 前記解析実行ステップは、
    ポジティブ及びネガティブな画像を有する訓練セットを用いてサポートベクターマシンを訓練するステップと、
    第1の対象物に対してパターンマッチングを実行するステップとからなることを特徴とする請求項1の方法。
  9. 前記第1の対象物に対して実行された前記パターンマッチングに対応して前記サポートベクターマシンを再訓練するステップと、第2の対象物にパターンマッチングを実行するステップとを更に含む請求項8の方法。
  10. 所定の目の識別精度が達成されるまで前記再訓練ステップと前記第2の対象物にパターンマッチングを実行するステップとを繰り返すステップを更に含む請求項9の方法。
  11. 能動的照射を用いて前記対象物の第2の差分画像を発生するステップと、目の動きを識別するために前記第2の差分画像に対してカルマンフィルタリングを実行するステップとを更に含む請求項1の方法。
  12. 前記目の動きの識別の成功を決定するステップと、前記目の動きの識別に失敗した場合に暗い瞳孔の画像追跡を実行するステップとを更に含む請求項11の方法。
  13. 前記暗い瞳孔の画像追跡ステップは、
    第1フレームで前記目の動きの目標位置を初期化するステップと、
    前記目標位置のそれぞれのピクセルに対して重み付けするステップと、
    第2のフレームで前記目の動きの予測位置を計算するステップとを更に含むことを特徴とする請求項12の方法。
  14. 前記第1フレームの前記目標位置と前記第2フレームの前記予測位置との間の変化が所定の閾値より小さいか決定するステップを更に含む請求項13の方法。
  15. 前記変化が前記閾値を越える場合、前記第2フレームの前記予測位置の計算を繰り返すステップを更に含む請求項14の方法。
  16. 対象物の目を識別する方法で、
    能動的照射解析を用いて前記対象物の差分画像を発生するステップと、
    瞳孔の候補になり得る少なくとも1つのブロブを識別するために、前記差分画像から所定の閾値より低い強度のピクセルを除外するステップと、
    瞳孔の候補のセットを発生するために前記少なくとも1つのブロブに対してコンポーネント解析を実施するステップと、
    前記瞳孔の候補の中から前記対象物の目を識別するために、ポジティブ及びネガティブな画像を含む訓練セットと共にサポートベクターマシンを用いて前記瞳孔の候補に対してパターンマッチングを実行するステップとからなる方法。
  17. 対象物の目を検知するシステムで、
    能動的照射解析を用いて前記対象物の差分画像を発生する手段と、
    前記差分画像から瞳孔の候補のセットを識別する手段と、
    前記瞳孔の候補の中から前記対象物の目を識別するために前記瞳孔の候補のセットを用いて外観準拠の解析を実行する手段とからなるシステム。
  18. 前記発生手段はオンアクシスの照射器を用いて第1の画像を取得する手段と、オフアクシスの照射器を用いて第2の画像を取得する手段とからなることを特徴とする請求項17のシステム。
  19. 前記第1の画像はビデオ信号の偶数フィールド及び奇数フィールドのうちの1つからなることを特徴とする請求項18のシステム。
  20. 前記第2の画像はビデオ信号の偶数フィールド及び奇数フィールドのうちの1つからなることを特徴とする請求項18のシステム。
  21. 前記オンアクシスの照射器及びオフアクシスの照射器のうちの少なくとも1つが波長領域約40nm幅の赤外発光体からなることを特徴とする請求項18のシステム。
  22. 前記識別手段は、
    瞳孔の候補になり得る少なくとも1つのブロブを識別するために、所定の閾値より低い強度のピクセルを前記差分画像から除外する手段と、
    前記瞳孔の候補のセットを発生するために前記少なくとも1つのブロブに対してコンポーネント解析を実施する手段とからなることを特徴とする請求項17のシステム。
  23. 前記コンポーネント解析は前記少なくとも1つのブロブのサイズ及び形状のうちの少なくとも1つによって、非瞳孔ブロブを瞳孔ブロブから分離することを特徴とする請求項22のシステム。
  24. 前記解析実行手段は、
    ポジティブ及びネガティブな画像を有する訓練セットを用いてサポートベクターマシンを訓練する手段と、
    第1の対象物に対してパターンマッチングを実行する手段とからなることを特徴とする請求項17のシステム。
  25. 前記第1の対象物に対して実行された前記パターンマッチングに対応して前記サポートベクターマシンを再訓練する手段と、第2の対象物にパターンマッチングを実行する手段とを更に含む請求項24のシステム。
  26. 所定の目の識別精度が達成されるまで前記再訓練と前記第2の対象物に対するパターンマッチングを繰り返す手段を更に含む請求項25のシステム。
  27. 能動的照射を用いて前記対象物の第2の差分画像を発生する手段と、目の動きを識別するために前記第2の差分画像に対してカルマンフィルタリングを実行する手段とを更に含む請求項17のシステム。
  28. 前記目の動きの識別の成功を決定する手段と、前記目の動きの識別が失敗した場合に暗い瞳孔の画像追跡を実行する手段とを更に含む請求項27のシステム。
  29. 前記暗い瞳孔の画像追跡手段は、
    第1フレームにおいて前記目の動きの目標位置を初期化する手段と、
    前記目標位置のそれぞれのピクセルに対して重み付けする手段と、
    第2のフレームにおいて前記目の動きの予測位置を計算する手段とを更に含むことを特徴とする請求項28のシステム。
  30. 前記第1フレームにおける前記目標位置と前記第2フレームにおける前記予測位置の間の変化が所定の閾値より小さいか決定する手段を更に含む請求項29のシステム。
  31. 前記変化が前記閾値を越える場合前記第2フレームにおける前記予測位置の計算を繰り返す手段を更に含む請求項30のシステム。
JP2003577739A 2002-03-26 2003-03-26 さまざまな光線条件下におけるリアルタイムの目の検知および追跡 Expired - Fee Related JP4464686B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US36787802P 2002-03-26 2002-03-26
US10/396,285 US7206435B2 (en) 2002-03-26 2003-03-24 Real-time eye detection and tracking under various light conditions
PCT/JP2003/003739 WO2003079902A1 (en) 2002-03-26 2003-03-26 Real-time eye detection and tracking under various light conditions

Publications (2)

Publication Number Publication Date
JP2005521146A true JP2005521146A (ja) 2005-07-14
JP4464686B2 JP4464686B2 (ja) 2010-05-19

Family

ID=28457188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003577739A Expired - Fee Related JP4464686B2 (ja) 2002-03-26 2003-03-26 さまざまな光線条件下におけるリアルタイムの目の検知および追跡

Country Status (6)

Country Link
US (1) US7206435B2 (ja)
EP (1) EP1487341B1 (ja)
JP (1) JP4464686B2 (ja)
AT (1) ATE509567T1 (ja)
AU (1) AU2003219552A1 (ja)
WO (1) WO2003079902A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006167256A (ja) * 2004-12-17 2006-06-29 National Univ Corp Shizuoka Univ 瞳孔検出装置
JP2008125619A (ja) * 2006-11-17 2008-06-05 National Univ Corp Shizuoka Univ 瞳孔検出装置及び瞳孔検出方法
JP2008276328A (ja) * 2007-04-25 2008-11-13 Denso Corp 顔画像撮像装置
JP2015501416A (ja) * 2011-09-28 2015-01-15 コーニンクレッカ フィリップス エヌ ヴェ 画像からの物体距離決定
JP2018045437A (ja) * 2016-09-14 2018-03-22 株式会社デンソーアイティーラボラトリ 虹彩検出装置、虹彩検出方法、およびプログラム

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE39539E1 (en) 1996-08-19 2007-04-03 Torch William C System and method for monitoring eye movement
US7305108B2 (en) * 2001-11-08 2007-12-04 Pelco Security identification system
US20040057622A1 (en) * 2002-09-25 2004-03-25 Bradski Gary R. Method, apparatus and system for using 360-degree view cameras to identify facial features
SE524003C2 (sv) * 2002-11-21 2004-06-15 Tobii Technology Ab Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel
GB2395853A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Association of metadata derived from facial images
US8292433B2 (en) 2003-03-21 2012-10-23 Queen's University At Kingston Method and apparatus for communication between humans and devices
US7762665B2 (en) 2003-03-21 2010-07-27 Queen's University At Kingston Method and apparatus for communication between humans and devices
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US20050047647A1 (en) * 2003-06-10 2005-03-03 Ueli Rutishauser System and method for attentional selection
US20050100191A1 (en) * 2003-11-11 2005-05-12 Harbach Andrew P. Imaging system and method for monitoring an eye
KR100580630B1 (ko) * 2003-11-19 2006-05-16 삼성전자주식회사 적외선을 이용한 사람 식별 장치 및 방법
KR101108634B1 (ko) 2004-01-06 2012-01-31 소니 주식회사 화상 처리 장치 및 화상 처리 방법 및 기록 매체
US7336806B2 (en) * 2004-03-22 2008-02-26 Microsoft Corporation Iris-based biometric identification
US20110077548A1 (en) * 2004-04-01 2011-03-31 Torch William C Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US10039445B1 (en) 2004-04-01 2018-08-07 Google Llc Biosensors, communicators, and controllers monitoring eye movement and methods for using them
KR100552709B1 (ko) * 2004-05-21 2006-02-20 삼성전자주식회사 눈검출 장치 및 방법
EP1602322A1 (en) * 2004-06-02 2005-12-07 SensoMotoric Instruments GmbH Method and apparatus for eye tracking latency reduction
KR100601963B1 (ko) * 2004-08-23 2006-07-14 삼성전자주식회사 시선을 이용한 인증 장치 및 그 방법
KR100664956B1 (ko) * 2004-11-24 2007-01-04 삼성전자주식회사 눈 검출 방법 및 장치
US20060204052A1 (en) * 2005-03-11 2006-09-14 Fuji Photo Film Co., Ltd. Method, apparatus, and program for detecting red eye
US20060279745A1 (en) * 2005-06-13 2006-12-14 Wenstrand John S Color imaging system for locating retroreflectors
US20060291697A1 (en) * 2005-06-21 2006-12-28 Trw Automotive U.S. Llc Method and apparatus for detecting the presence of an occupant within a vehicle
EP1913555B1 (en) * 2005-08-04 2018-05-23 Philips Lighting Holding B.V. Apparatus for monitoring a person having an interest to an object, and method thereof
US7580545B2 (en) * 2005-10-03 2009-08-25 Avago Technologies General Ip (Singapore) Pte. Ltd. Method and system for determining gaze direction in a pupil detection system
US8066375B2 (en) 2005-10-10 2011-11-29 Tobii Technology Ab Eye tracker having an extended span of operating distances
US8260008B2 (en) 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
US8077914B1 (en) 2006-08-07 2011-12-13 Arkady Kaplan Optical tracking apparatus using six degrees of freedom
FR2905586B1 (fr) * 2006-09-28 2009-04-17 Siemens Vdo Automotive Sas "procede de localisation des pupilles"
JP4356733B2 (ja) * 2006-11-09 2009-11-04 アイシン精機株式会社 車載用画像処理装置とその制御方法
EP1978394A1 (en) * 2007-04-06 2008-10-08 Global Bionic Optics Pty Ltd. Optical system for increasing depth of field
US8218811B2 (en) 2007-09-28 2012-07-10 Uti Limited Partnership Method and system for video interaction based on motion swarms
DE102007056528B3 (de) * 2007-11-16 2009-04-02 Seereal Technologies S.A. Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren
US20090245594A1 (en) * 2008-03-31 2009-10-01 General Electric Company Iris imaging and iris-based identification
CN101278839B (zh) * 2008-05-22 2010-10-13 曹宇 夜间驾驶跟踪方法
EP2332122A4 (en) * 2008-10-02 2013-11-20 Univ Western Ontario SYSTEM AND METHOD FOR IMAGE PROCESSING
US8774498B2 (en) * 2009-01-28 2014-07-08 Xerox Corporation Modeling images as sets of weighted features
EP2238889B1 (en) 2009-04-01 2011-10-12 Tobii Technology AB Adaptive camera and illuminator eyetracker
WO2010118292A1 (en) * 2009-04-09 2010-10-14 Dynavox Systems, Llc Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
BR112012012635A2 (pt) 2009-12-18 2016-07-12 Honda Motor Co Ltd sistema e método para fornecer alerta de aviso de acidente em veículo
US8890946B2 (en) * 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
TWI447658B (zh) * 2010-03-24 2014-08-01 Ind Tech Res Inst 人臉影像擷取方法與裝置
US8452372B2 (en) * 2010-10-13 2013-05-28 Gholam Peyman System for laser coagulation of the retina from a remote location
US10456209B2 (en) 2010-10-13 2019-10-29 Gholam A. Peyman Remote laser treatment system with dynamic imaging
US9510974B1 (en) 2010-10-13 2016-12-06 Gholam A. Peyman Laser coagulation of an eye structure or a body surface from a remote location
US9037217B1 (en) 2010-10-13 2015-05-19 Gholam A. Peyman Laser coagulation of an eye structure or a body surface from a remote location
US9931171B1 (en) 2010-10-13 2018-04-03 Gholam A. Peyman Laser treatment of an eye structure or a body surface from a remote location
US8903468B2 (en) 2010-10-13 2014-12-02 Gholam Peyman Laser coagulation of an eye structure from a remote location
US11309081B2 (en) 2010-10-13 2022-04-19 Gholam A. Peyman Telemedicine system with dynamic imaging
WO2012078636A1 (en) 2010-12-07 2012-06-14 University Of Iowa Research Foundation Optimal, user-friendly, object background separation
US20150379708A1 (en) * 2010-12-07 2015-12-31 University Of Iowa Research Foundation Methods and systems for vessel bifurcation detection
JP5603258B2 (ja) 2011-01-13 2014-10-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 検出装置及び検出方法
CA2825169A1 (en) 2011-01-20 2012-07-26 University Of Iowa Research Foundation Automated determination of arteriovenous ratio in images of blood vessels
US8911087B2 (en) 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
US8885877B2 (en) 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
WO2013111140A2 (en) * 2012-01-26 2013-08-01 Umoove Services Ltd. Eye tracking
KR101977638B1 (ko) * 2012-02-29 2019-05-14 삼성전자주식회사 영상 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말
JP2013215549A (ja) 2012-03-16 2013-10-24 Fujitsu Ltd 画像処理装置、画像処理プログラムおよび画像処理方法
WO2013165614A1 (en) 2012-05-04 2013-11-07 University Of Iowa Research Foundation Automated assessment of glaucoma loss from optical coherence tomography
WO2013168171A1 (en) 2012-05-10 2013-11-14 Umoove Services Ltd. Method for gesture-based operation control
KR101979669B1 (ko) * 2012-07-13 2019-05-17 삼성전자주식회사 이미지 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말
US9612656B2 (en) * 2012-11-27 2017-04-04 Facebook, Inc. Systems and methods of eye tracking control on mobile device
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US10572774B2 (en) * 2012-12-06 2020-02-25 Toyota Motor Engineering & Manufacturing North America. Inc. Methods and robots for adjusting object detection parameters, object recognition parameters, or both object detection parameters and object recognition parameters
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US10360672B2 (en) 2013-03-15 2019-07-23 University Of Iowa Research Foundation Automated separation of binary overlapping trees
US20140313308A1 (en) * 2013-04-19 2014-10-23 Samsung Electronics Co., Ltd. Apparatus and method for tracking gaze based on camera array
JP6304999B2 (ja) * 2013-10-09 2018-04-04 アイシン精機株式会社 顔検出装置、方法およびプログラム
CN104224204B (zh) * 2013-12-24 2016-09-07 烟台通用照明有限公司 一种基于红外检测技术的驾驶员疲劳检测系统
WO2015131009A1 (en) * 2014-02-28 2015-09-03 The Johns Hopkins University Eye alignment monitor and method
US10410355B2 (en) 2014-03-21 2019-09-10 U.S. Department Of Veterans Affairs Methods and systems for image analysis using non-euclidean deformed graphs
US9361519B2 (en) * 2014-03-28 2016-06-07 Intel Corporation Computational array camera with dynamic illumination for eye tracking
US10708550B2 (en) 2014-04-08 2020-07-07 Udisense Inc. Monitoring camera and mount
US9953247B2 (en) * 2015-01-29 2018-04-24 Samsung Electronics Co., Ltd. Method and apparatus for determining eye position information
US9961258B2 (en) 2015-02-23 2018-05-01 Facebook, Inc. Illumination system synchronized with image sensor
US10115194B2 (en) 2015-04-06 2018-10-30 IDx, LLC Systems and methods for feature detection in retinal images
JP2017144086A (ja) * 2016-02-18 2017-08-24 ソニー株式会社 画像処理装置および方法、並びにプログラム
USD854074S1 (en) 2016-05-10 2019-07-16 Udisense Inc. Wall-assisted floor-mount for a monitoring camera
KR20190039109A (ko) * 2016-07-15 2019-04-10 게이트 사이언티픽 인코포레이티드 폐쇄 환경의 무선 감지 특성 및 그 장치
KR20180062647A (ko) * 2016-12-01 2018-06-11 삼성전자주식회사 눈 검출 방법 및 장치
US10166996B2 (en) * 2017-02-09 2019-01-01 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for adaptively communicating notices in a vehicle
CN109325394B (zh) * 2017-08-01 2022-06-21 苹果公司 确定稀疏图案照明与密集图案照明
USD855684S1 (en) 2017-08-06 2019-08-06 Udisense Inc. Wall mount for a monitoring camera
CN107679448B (zh) * 2017-08-17 2018-09-25 平安科技(深圳)有限公司 眼球动作分析方法、装置及存储介质
US10956737B1 (en) 2017-10-24 2021-03-23 Wells Fargo Bank, N.A. System and apparatus for improved eye tracking using a mobile device
KR102495359B1 (ko) 2017-10-27 2023-02-02 삼성전자주식회사 객체 트래킹 방법 및 장치
EP3713487A4 (en) 2017-11-22 2021-07-21 UdiSense Inc. BREATHING MONITOR
US11222221B2 (en) * 2018-02-22 2022-01-11 Nec Corporation Spoofing detection apparatus, spoofing detection method, and computer-readable recording medium
AU2019208212A1 (en) 2018-07-27 2020-02-13 Welch Allyn, Inc. Vision screening device and methods
US10866635B2 (en) 2018-09-13 2020-12-15 Toyota Research Institute, Inc. Systems and methods for capturing training data for a gaze estimation model
KR102608471B1 (ko) * 2018-11-06 2023-12-01 삼성전자주식회사 눈 추적 방법 및 장치
CN109684915B (zh) * 2018-11-12 2021-01-01 温州医科大学 瞳孔跟踪图像处理方法
USD900430S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle blanket
USD900431S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle blanket with decorative pattern
USD900428S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle band
USD900429S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle band with decorative pattern
SE543455C2 (en) * 2019-06-28 2021-02-23 Tobii Ab Method and system for 3d cornea position estimation
KR20210073135A (ko) * 2019-12-10 2021-06-18 삼성전자주식회사 눈 복원 기반의 눈 추적 방법 및 장치
EP3893090B1 (en) * 2020-04-09 2022-06-01 Irisbond Crowdbonding, S.L. Method for eye gaze tracking
EP4165460A4 (en) 2020-06-12 2023-12-06 University of Washington VIEW EYE TRACKING CLOSE TO THE EYES
AU2023281965A1 (en) * 2022-06-02 2024-05-23 Alcon Inc. Eye tracker with hardware filtering and software sorting

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6714665B1 (en) * 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
JP3376207B2 (ja) 1996-03-13 2003-02-10 株式会社東芝 視線検出装置及びその方法
JP2917953B2 (ja) 1997-02-05 1999-07-12 日本電気株式会社 視点位置検出装置
US6421463B1 (en) * 1998-04-01 2002-07-16 Massachusetts Institute Of Technology Trainable system to search for objects in images
US6539100B1 (en) * 1999-01-27 2003-03-25 International Business Machines Corporation Method and apparatus for associating pupils with subjects
JP3812298B2 (ja) 2000-06-26 2006-08-23 日産自動車株式会社 眼の状態検出装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006167256A (ja) * 2004-12-17 2006-06-29 National Univ Corp Shizuoka Univ 瞳孔検出装置
JP2008125619A (ja) * 2006-11-17 2008-06-05 National Univ Corp Shizuoka Univ 瞳孔検出装置及び瞳孔検出方法
JP2008276328A (ja) * 2007-04-25 2008-11-13 Denso Corp 顔画像撮像装置
JP2015501416A (ja) * 2011-09-28 2015-01-15 コーニンクレッカ フィリップス エヌ ヴェ 画像からの物体距離決定
JP2018045437A (ja) * 2016-09-14 2018-03-22 株式会社デンソーアイティーラボラトリ 虹彩検出装置、虹彩検出方法、およびプログラム

Also Published As

Publication number Publication date
JP4464686B2 (ja) 2010-05-19
WO2003079902A1 (en) 2003-10-02
AU2003219552A1 (en) 2003-10-08
US20040005083A1 (en) 2004-01-08
EP1487341A1 (en) 2004-12-22
EP1487341B1 (en) 2011-05-18
ATE509567T1 (de) 2011-06-15
US7206435B2 (en) 2007-04-17
EP1487341A4 (en) 2007-10-31

Similar Documents

Publication Publication Date Title
JP4464686B2 (ja) さまざまな光線条件下におけるリアルタイムの目の検知および追跡
Chakraborty et al. Review of constraints on vision‐based gesture recognition for human–computer interaction
US10861302B2 (en) Robust motion filtering for real-time video surveillance
Zhu et al. Real-time eye detection and tracking under various light conditions
JP4216668B2 (ja) 映像視覚情報を結合してリアルタイムで複数の顔を検出して追跡する顔検出・追跡システム及びその方法
Vadakkepat et al. Multimodal approach to human-face detection and tracking
US7853041B2 (en) Detecting and tracking objects in images
US20160004303A1 (en) Eye gaze tracking system and method
KR100983346B1 (ko) Ir조명을 이용한 얼굴인식 시스템 및 방법
JP5800175B2 (ja) 画像処理装置、画像処理方法、プログラム、及び電子機器
KR20110128059A (ko) 운전자 눈동자 검출을 이용한 졸음 운전 방지 방법 및 장치
Kalbkhani et al. Efficient algorithms for detection of face, eye and eye state
Liu et al. Robust real-time eye detection and tracking for rotated facial images under complex conditions
Mahmoodi et al. A face detection method based on kernel probability map
Ng et al. An effective segmentation method for iris recognition system
Wu et al. NIR-based gaze tracking with fast pupil ellipse fitting for real-time wearable eye trackers
US10474297B2 (en) Projecting a structured light pattern onto a surface and detecting and responding to interactions with the same
Xu et al. Efficient eye states detection in real-time for drowsy driving monitoring system
Dias et al. OGRE-open gestures recognition engine
Alhamazani et al. [Retracted] Using Depth Cameras for Recognition and Segmentation of Hand Gestures
Jha et al. Real Time Hand Gesture Recognition for Robotic Control
Wang et al. Image compensation for improving extraction of driver's facial features
US20240144722A1 (en) Methods and systems for adaptive binarization thresholding for pupil segmentation
Motwakel et al. Presentation Attack Detection (PAD) for Iris Recognition System on Mobile Devices-A Survey
Cai et al. Driver Fatigue Detection System Based on DM3730

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100219

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130226

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4464686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130226

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140226

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees