JP6583734B2 - 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム - Google Patents

角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム Download PDF

Info

Publication number
JP6583734B2
JP6583734B2 JP2016543883A JP2016543883A JP6583734B2 JP 6583734 B2 JP6583734 B2 JP 6583734B2 JP 2016543883 A JP2016543883 A JP 2016543883A JP 2016543883 A JP2016543883 A JP 2016543883A JP 6583734 B2 JP6583734 B2 JP 6583734B2
Authority
JP
Japan
Prior art keywords
image
pupil
corneal reflection
reflection position
corneal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016543883A
Other languages
English (en)
Other versions
JPWO2016027627A1 (ja
Inventor
嘉伸 海老澤
嘉伸 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Publication of JPWO2016027627A1 publication Critical patent/JPWO2016027627A1/ja
Application granted granted Critical
Publication of JP6583734B2 publication Critical patent/JP6583734B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Geometry (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Description

本発明の一側面は、角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラムに関する。
従来から、対象者の瞳孔を検出する技術が知られている。この技術は、よそ見運転の検出、運転者の眠気の検出、商品の興味の度合いの調査、コンピュータへのデータ入力などに応用することが可能である。
このような瞳孔検出技術に関し、下記特許文献1には、明瞳孔画像、無照明画像、および暗瞳孔画像を得た後に、画像差分処理を行うことによって瞳孔を検出する瞳孔検出方法が記載されている。この方法では、角膜反射像は、明瞳孔画像から無照明画像を差分して得られる差分画像もしくは暗瞳孔画像から無照明画像を差分して得られる差分画像から角膜反射像を検出する。これらの差分画像では、それぞれの光源による像だけが得られるので、太陽などの周囲光(外乱光)の像を除去して容易に角膜反射を検出できる。したがって、それら二つの差分画像に対して角膜反射に基づく位置補正を行った上でその差分画像同士を差分することで、瞳孔を検出することができる。
特開2008−246004号公報
しかしながら、一般には、対象者の眼を1枚ずつ撮影する間に対象者の頭部が動いてしまう。そうすると、外乱光による偽の像も移動してしまうので、単純に明瞳孔画像(もしくは暗瞳孔画像)から無照明画像を差分するだけでは、真の角膜反射と区別できない偽の像(偽の角膜反射)を除去できず、角膜反射に基づく位置補正を行うことができない。このような状況を解消するためには明瞳孔画像(もしくは暗瞳孔画像)から無照明画像を差分する際にも角膜反射に基づく位置補正を行うべきであるが、無照明画像には真の角膜反射が存在しないので、その位置補正を実施することができない。
そこで、明瞳孔画像(もしくは暗瞳孔画像)と無照明画像との位置補正を行うために無照明画像での角膜反射位置を推定することが望まれている。
本発明の一側面に係る角膜反射位置推定システムは、光源を備えるカメラを制御して対象者の眼の画像を連続的に取得する画像取得部であって、該光源からの光を用いて撮影された複数の瞳孔画像を取得した後に、該光源からの光を用いることなく撮影された一つの無照明画像を取得する該画像取得部と、複数の瞳孔画像のそれぞれに対応する角膜反射または角膜球中心の位置を基準位置として算出し、複数の該基準位置に基づいて角膜反射または角膜球中心の移動ベクトルを算出し、無照明画像における角膜反射位置を該移動ベクトルに少なくとも基づいて推定する推定部とを備える。
本発明の一側面に係る角膜反射位置推定方法は、プロセッサを備える角膜反射位置推定システムにより実行される角膜反射位置推定方法であって、光源を備えるカメラを制御して対象者の眼の画像を連続的に取得する画像取得ステップであって、該光源からの光を用いて撮影された複数の瞳孔画像を取得した後に、該光源からの光を用いることなく撮影された一つの無照明画像を取得する該画像取得ステップと、複数の瞳孔画像のそれぞれに対応する角膜反射または角膜球中心の位置を基準位置として算出し、複数の該基準位置に基づいて角膜反射または角膜球中心の移動ベクトルを算出し、無照明画像における角膜反射位置を該移動ベクトルに基づいて推定する推定ステップとを含む。
本発明の一側面に係る角膜反射位置推定プログラムは、光源を備えるカメラを制御して対象者の眼の画像を連続的に取得する画像取得部であって、該光源からの光を用いて撮影された複数の瞳孔画像を取得した後に、該光源からの光を用いることなく撮影された一つの無照明画像を取得する該画像取得部と、複数の瞳孔画像のそれぞれに対応する角膜反射または角膜球中心の位置を基準位置として算出し、複数の該基準位置に基づいて角膜反射または角膜球中心の移動ベクトルを算出し、無照明画像における角膜反射位置を該移動ベクトルに少なくとも基づいて推定する推定部としてコンピュータを機能させる。
このような側面においては、無照明画像よりも前に得られた複数の瞳孔画像に対応する複数の基準位置(角膜反射または角膜球中心の位置)が算出される。瞳孔画像は光源からの光を用いて撮影されるので、その瞳孔画像から角膜反射または角膜球中心の位置を得ることができる。そして複数の基準位置から角膜反射または角膜球中心の移動ベクトルを得ることで無照明画像を得る直前の角膜反射または角膜球中心の動きを把握できるので、その動きから、無照明画像を取得した時点の角膜反射位置を推定することができる。
本発明の一側面によれば、無照明画像での角膜反射位置を推定することができる。
第1実施形態に係る検出システムを示す斜視図である。 カメラのレンズ部分を示す平面図である。 図1に示す画像処理装置のハードウェア構成を示す図である。 図1に示す検出システムの機能構成を示すブロック図である。 角膜反射に基づく位置補正を説明するための図である。 第1実施形態における画像の取得および生成を示す図である。 瞳孔の移動を示す図である。 無照明画像における角膜反射の推定方法を示すフローチャートである。 第1実施形態に係る検出プログラムの構成を示す図である。 第2実施形態における画像の取得および生成を示す図である。 第3実施形態に係る検出システムを示す斜視図である。 (a),(b)はそれぞれ、変形例における画像の取得を示す図である。
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。以下の各実施形態では、本発明に係る角膜反射位置推定システムおよび瞳孔検出システムを検出システム1に適用する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
[第1実施形態]
<検出システムの構成>
図1〜4を用いて、実施形態に係る検出システム1の構成を説明する。検出システム1は、対象者の瞳孔を検出するコンピュータシステムであり、このシステムにより、本実施形態に係る角膜反射位置推定方法および瞳孔検出方法が実施される。対象者とは、瞳孔を検出する対象となる人であり、被験者ともいうことができる。検出システム1、角膜反射位置推定方法、および瞳孔検出方法の利用目的は何ら限定されず、例えば、よそ見運転の検出、運転者の眠気の検出、商品の興味の度合いの調査、コンピュータへのデータ入力などに検出システム1を利用することができる。
検出システム1は、1台のカメラ10と画像処理装置20とを備える。本実施形態では、検出システム1は、対象者Aが見る対象であるディスプレイ装置30をさらに備える。しかし、検出システム1の利用目的は限定されないので、対象者Aの視線の先にある物はディスプレイ装置30に限定されず、例えば自動車のフロントガラスでもあり得る。したがって、ディスプレイ装置30は検出システム1における必須の要素ではない。カメラ10は画像処理装置20と無線または有線により接続され、カメラ10と画像処理装置20との間で各種のデータまたは命令が送受信される。カメラ10に対しては予めカメラ較正が行われる。
カメラ10は対象者Aの眼およびその周辺を撮影するために用いられる。カメラ10は、対象者Aが眼鏡をかけているときの顔画像における反射光の写り込みを防止する目的で対象者Aの顔より低い位置に設けられる。水平方向に対するカメラ10の仰角は、眼の確実な検出と対象者Aの視野範囲の妨げの回避との双方を考慮して、例えば20〜35度の範囲に設定される。
本実施形態では、各カメラ10のフレームレートは240fps(Frames Per Second)であるとする。この場合には、カメラ10は約4.2ms毎に画像を取得することができる。カメラ10は、画像処理装置20からの命令に応じて対象者Aを撮像し、画像データを画像処理装置20に出力する。
カメラ10のレンズ部分を図2に模式的に示す。この図に示すように、カメラ10では、対物レンズ11が円形状の開口部12に収容され、開口部12の外側に光源13が設けられる。光源13は、対象者Aの顔に向けて照明光を照射するための機器であり、複数の発光素子13aと複数の発光素子13bとから成る。発光素子13aは、出力光の中心波長が850nmの半導体発光素子(LED)であり、開口部12の縁に沿って等間隔でリング状に配される。発光素子13bは、出力光の中心波長が940nmの半導体発光素子であり、発光素子13aの外側に等間隔でリング状に配される。したがって、カメラ10の光軸から発光素子13bまでの距離は、該光軸から発光素子13aまでの距離よりも大きい。それぞれの発光素子13a,13bは、カメラ10の光軸に沿って照明光を出射するように設けられる。なお、光源13の配置は図2に示す構成に限定されず、カメラをピンホールモデルとみなすことができれば他の配置であってもよい。
画像処理装置20は、カメラ10の制御と、対象者Aの瞳孔の検出とを実行するコンピュータである。画像処理装置20は、据置型または携帯型のパーソナルコンピュータ(PC)により構築されてもよいし、ワークステーションにより構築されてもよいし、他の種類のコンピュータにより構築されてもよい。あるいは、画像処理装置20は複数台の任意の種類のコンピュータを組み合わせて構築されてもよい。複数台のコンピュータを用いる場合には、これらのコンピュータはインターネットやイントラネットなどの通信ネットワークを介して接続される。
画像処理装置20の一般的なハードウェア構成を図3に示す。画像処理装置20は、オペレーティングシステムやアプリケーション・プログラムなどを実行するCPU(プロセッサ)101と、ROMおよびRAMで構成される主記憶部102と、ハードディスクやフラッシュメモリなどで構成される補助記憶部103と、ネットワークカードあるいは無線通信モジュールで構成される通信制御部104と、キーボードやマウスなどの入力装置105と、ディスプレイやプリンタなどの出力装置106とを備える。
後述する画像処理装置20の各機能要素は、CPU101または主記憶部102の上に所定のソフトウェアを読み込ませ、CPU101の制御の下で通信制御部104や入力装置105、出力装置106などを動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶部102または補助記憶部103内に格納される。
図4に示すように、画像処理装置20は機能的構成要素として画像取得部21および算出部22を備える。画像取得部21は、カメラ10の撮影タイミングとカメラ10の光源13の発光タイミングとを制御することで、少なくとも対象者Aの眼が写った画像データをカメラ10から取得する機能要素である。算出部22は、画像データに基づいて対象者Aの瞳孔位置を算出する機能要素である。
画像処理装置20による処理結果の出力先は何ら限定されない。例えば、画像処理装置20は処理結果を画像、図形、またはテキストでモニタに表示してもよいし、メモリやデータベースなどの記憶装置に格納してもよいし、通信ネットワーク経由で他のコンピュータシステムに送信してもよい。あるいは、画像処理装置20がその結果に基づいて更なる任意の処理を実行してもよい。
<角膜反射の推定および瞳孔の検出>
次に、図5〜8を用いて、検出システム1の動作について説明するとともに、本実施形態に係る角膜反射位置推定方法および瞳孔検出方法について説明する。
(瞳孔画像の取得)
眼に入った光は網膜で乱反射し、反射光のうち瞳孔を通り抜けた光は強い指向性をもって光源へ戻る性質がある。カメラの開口部近くにある光源が発光した時にカメラを露光させると、網膜で反射した光の一部がその開口部に入るため、瞳孔が瞳孔周辺よりも明るく写った画像を取得することができる。この画像が明瞳孔画像である。これに対して、カメラの開口部から離れた位置にある光源が発光した時にカメラを露光させると、眼から戻ってきた光はカメラの開口部にほとんど戻らないため、瞳孔が暗く写った画像を取得することができる。この画像が暗瞳孔画像である。また、透過率が高い波長の光を眼に照射すると、網膜での光の反射が多くなるので瞳孔が明るく写り、透過率が低い波長の光を眼に照射すると、網膜での光の反射が少なくなるので瞳孔が暗く写る。カメラのどの光源も点灯させることなくカメラを露光させて得られる画像が無照明画像であり、この無照明画像も瞳孔画像の一種である。
本実施形態では、透過率が高い波長の光(中心波長が850nm)を発する発光素子13aが開口部12に隣接した位置に設けられ、透過率が低い波長の光(中心波長が940nm)を発する発光素子13bが開口部12から離れた位置に設けられる。画像取得部21は、発光素子13aを点灯させて明瞳孔画像を撮影し、発光素子13bを点灯させて暗瞳孔画像を撮影し、発光素子13a,13bを点灯させることなく無照明画像を撮影する。したがって、明瞳孔画像および暗瞳孔画像は、光源13からの光を用いて撮影することで得られる瞳孔画像であり、無照明画像は、光源13からの光を用いることなく撮影することで得られる瞳孔画像である。
画像取得部21は、このようなカメラ10を制御することで明瞳孔画像、暗瞳孔画像、および無照明画像を取得し、これらの画像を算出部22に出力する。本実施形態では、画像取得部21は、「明瞳孔画像→無照明画像→暗瞳孔画像→無照明画像」の順に瞳孔画像を取得する処理を繰り返す。
(瞳孔位置の検出)
算出部22は、画像取得部21から入力された瞳孔画像に基づいて、対象者Aの片眼または両眼の瞳孔中心を求める。
i番目に得られる明瞳孔画像(または暗瞳孔画像)と(i+1)番目に得られる暗瞳孔画像(または明瞳孔画像)とが得られたとして、この2枚の瞳孔画像が得られる間に対象者Aの頭部が動かなければ、単純に明瞳孔画像および暗瞳孔画像の差を取ることで、瞳孔部分が浮かび上がった差分画像を生成することができる。しかし、それら2枚の瞳孔画像が撮影されるまでの間のわずかな時間に対象者Aの頭部が動くと、これら2画像の間で瞳孔の位置にずれが生じ、その結果、良好な差分画像を得ることができない。そこで、算出部22は、差分画像を得る前に明瞳孔画像および暗瞳孔画像に対して角膜反射に基づく位置補正(以下では単に「位置補正」という)を実行する。
図5に示すように、算出部22はi番目の画像および(i+1)番目の画像のそれぞれから検出した角膜反射点Rの位置が一致するようにi番目の画像をずらしてから(図5の矢印を参照)、2画像の差分を取る。図5の下段に示すこの差分画像から瞳孔Pを検出することができる。より具体的には、算出部22は角膜反射および瞳孔を含む領域に対して位置補正を実行して差分画像を生成する。この領域をウィンドウという。ウィンドウの設定方法は限定されないが、一例として、角膜反射の位置を中心とし、かつ瞳孔を含む小領域をウィンドウとして設定してもよい。位置補正は、角膜反射の位置を一致させるように二つのウィンドウ内の画像のうちの一方をずらす処理である。続いて、算出部22は、前の画像から輝度が大きく変化しないことを利用して、前の画像で検出された瞳孔の輝度平均を利用して、その平均輝度の半分の値を閾値として差分画像を2値化し、ラベリングを行う。続いて、算出部22は、瞳孔らしい面積、サイズ、面積比、正方形度、および瞳孔特徴量等の形状パラメータに基づいて、ラベルづけされた画素の連結成分の中から瞳孔候補を選択する。そして、算出部22は瞳孔候補の中で面積が最も大きいものを瞳孔として決定し、その瞳孔の中心座標を求める。算出部22はその瞳孔中心座標に基づいて正確な角膜反射位置も求めることができる。
しかし、明瞳孔画像および暗瞳孔画像から直接的に得られる差分画像から瞳孔を検出する方法は外乱光の影響を受けやすく、その外乱光による偽の角膜反射が差分画像上に現れてしまう。多くの場合、真の角膜反射と偽の角膜反射とを画像の特徴のみから区別するのは難しい。
この問題を解決するために、検出システム1は明瞳孔画像および暗瞳孔画像に加えて無照明画像も取得し、差分明瞳孔画像および差分暗瞳孔画像を生成する。原理的には、無照明画像を用いた差分を実行することで、太陽光などの外部光により生じる偽の角膜反射を除去して、カメラ10の光源の照明による真の角膜反射のみが写った明瞳孔画像および暗瞳孔画像(すなわち、差分明瞳孔画像および差分暗瞳孔画像)を得ることができる。したがって、その差分明瞳孔画像および差分暗瞳孔画像に対して位置補正を実行することで、瞳孔を検出するための良好な差分画像を得ることができる。
明瞳孔画像と暗瞳孔画像との間に必ず無照明画像を取得する本実施形態においては、図6の手順により差分画像が得られる。すなわち、算出部22は連続して取得した明瞳孔画像および無照明画像の差分を取ることで差分明瞳孔画像を取得し、連続して取得した暗瞳孔画像および無照明画像の差分を取ることで差分暗瞳孔画像を取得する。続いて、算出部22は連続して取得した差分明瞳孔画像および差分暗瞳孔画像の差分を取ることで差分画像を取得する。そして、算出部22はその差分画像に基づいて瞳孔中心座標を求める(瞳孔を検出する)。なお、算出部22は差分明瞳孔画像および差分暗瞳孔画像から差分画像を得る際に減算を用いてもよいし除算を用いてもよい。本明細書における「差分画像」は、減算により得られる画像だけでなく、除算により得られる除算画像も含む概念である。
しかし、本実施形態のようにカメラ10のフレームレートが240fps程度である場合には、i番目の画像を取得してから(i+1)番目の画像を取得するまでの時間差が約4.2msである。このくらいの時間差が生じると、差分明瞳孔画像を得るための明瞳孔画像および無照明画像を得る間における対象者Aの頭部の動きを無視できない場合が生ずる。例えば、振動の激しい道を自動車で走行する場合に頭部が高速に振動すると、連続する2枚の画像間で瞳孔および角膜反射の位置が大きく変わり得る。頭部の動きを考慮することなく差分明瞳孔画像を生成すると、その画像において偽の角膜反射を除去することができない。この現象は差分暗瞳孔画像についても同様に生じ得る。
このような問題を解消するためには、差分明瞳孔画像(もしくは差分暗瞳孔画像)を生成する際に明瞳孔画像(もしくは暗瞳孔画像)および無照明画像に対して位置補正を実行する必要がある。しかし、図7に示すように、無照明画像には真の角膜反射Rが存在しないので、その無照明画像と、隣接する明瞳孔画像または暗瞳孔画像との組に対して位置補正を行うことができない。そこで、算出部22は、無照明画像における真の角膜反射の位置を推定する。そして、算出部22は隣接する二つのウィンドウwに対して位置補正を実行し(すなわち、先のウィンドウw内の角膜反射が後のウィンドウw内の角膜反射と一致するように当該先のウィンドウ内の画像をずらし)、それら二つのウィンドウwから差分明瞳孔画像または差分暗瞳孔画像を得る。
(画像取得間隔が一定である場合の角膜反射位置の推定)
図6に示す、4枚の画像(明瞳孔画像→無照明画像→暗瞳孔画像→無照明画像)を取得する処理を1サイクルの処理とする。サイクルの番号を0以上の整数で表すとすると、nサイクル目では、4n番目の画像は明瞳孔画像であり、(4n+1)番目の画像は無照明画像であり、(4n+2)番目の画像は暗瞳孔画像であり、(4n+3)番目の画像は無照明画像である。
画像取得部21による瞳孔画像の取得間隔が一定である場合には、算出部22は以下に示す方法により角膜反射位置を推定する。
算出部22は4n番目の画像(明瞳孔画像)と(4n+1)番目の画像(無照明画像)とから得られる差分明瞳孔画像から角膜反射を検出することで、その明瞳孔画像における角膜反射位置X4nを得る。さらに、算出部22は(4n+2)番目の画像(暗瞳孔画像)と(4n+1)番目の画像(無照明画像)とから得られる差分暗瞳孔画像から角膜反射を検出することで、その暗瞳孔画像における角膜反射位置X4n+2を得る。なお、角膜反射位置X4n,X4n+2は前の処理で最終的に確定しているとする。本実施形態では、角膜反射位置は画像上における2次元座標(x,y)で示される。
これら二つの角膜反射位置が確定したことを前提として、算出部22は(4n+3)番目の画像(無照明画像)における角膜反射位置X4n+3を下記式(1)で示される等速度モデルにより推定する。角膜反射位置X4n+3は、カメラ10の光源が点灯した場合に発生する真の角膜反射の位置に相当する。
4n+3=X4n+2+1/2(X4n+2−X4n) …(1)
この式(1)は、(4n+3)番目の画像(無照明画像)の直前に得られた明瞳孔画像および暗瞳孔画像の間の角膜反射位置の動き(移動ベクトル(X4n+2−X4n))が当該(4n+3)番目の画像までそのまま続くと仮定して、処理対象画像における角膜反射位置を推定することを意味する。なお、本実施形態における「移動ベクトル」とは、角膜反射位置の移動の方向および量を示すベクトルである。また、本実施形態では、移動ベクトルの計算に用いる基準位置は角膜反射位置である。
無照明画像における角膜反射位置を推定する手順は図8のフローチャートで表すことができる。すなわち、画像取得部21が無照明画像を取得すると(ステップS11、画像取得ステップ)、算出部22がその無照明画像の直前に得られた明瞳孔画像および暗瞳孔画像のそれぞれにおける角膜反射位置に基づいて、角膜反射の移動ベクトルを算出する(ステップS12、推定ステップ)。そして、算出部22は無照明画像における角膜反射位置を移動ベクトルに基づいて推定する(ステップS13、推定ステップ)。このように、算出部22は無照明画像における角膜反射位置を推定する推定部として機能する。
同様に、算出部22は次の明瞳孔画像である{4(n+1)}番目の画像における角膜反射位置X4(n+1)を下記式(2)で示される等速度モデルにより推定する。
4(n+1)=X4n+2+(X4n+2−X4n) …(2)
この式(2)は、角膜反射の動き(移動ベクトル(X4n+2−X4n))が{4(n+1)}番目の画像の画像までそのまま続くと仮定して、処理対象画像における角膜反射位置を推定することを意味する。
角膜反射位置X4n+3を推定すると、算出部22は(4n+2)番目の画像(暗瞳孔画像)と(4n+3)番目の画像(無照明画像)とに対して位置補正を行って(すなわち、暗瞳孔画像を無照明画像に向けてΔX4n+2=X4n+3−X4n+2だけずらして)差分暗瞳孔画像を生成し、その差分暗瞳孔画像から角膜反射を検出する。さらに、角膜反射位置X4(n+1)を推定すると、算出部22は(4n+3)番目の画像(無照明画像)と{4(n+1)}番目の画像(明瞳孔画像)とに対して位置補正を行って(すなわち、無照明画像を明瞳孔画像に向けてΔX4n+3=X4(n+1)−X4n+3だけずらして)差分明瞳孔画像を生成し、その差分明瞳孔画像から角膜反射を検出する。そして、算出部22はその差分暗瞳孔画像および差分明瞳孔画像に対して位置補正を行って差分画像を生成し、その差分画像から瞳孔中心の座標を求める(瞳孔を検出する)。さらに、算出部22はその瞳孔中心座標に基づいて正確な角膜反射位置X4(n+1)も求め、これにより角膜反射位置X4(n+1)が確定する。
この結果、(4n+2)番目の画像(暗瞳孔画像)での角膜反射位置X4n+2と{4(n+1)}番目の画像(明瞳孔画像)での角膜反射位置X4(n+1)とが得られる。したがって、算出部22は{4(n+1)+1}番目の画像(無照明画像)における角膜反射位置X4(n+1)+1と{4(n+1)+2}番目の画像(暗瞳孔画像)における角膜反射位置X4(n+1)+2とを、下記式(3),(4)で示される等速度モデルにより推定することができる。
4(n+1)+1=X4(n+1)+1/2(X4(n+1)−X4n+2) …(3)
4(n+1)+2=X4(n+1)+(X4(n+1)−X4n+2) …(4)
角膜反射位置X4(n+1)+1を推定すると、算出部22は{4(n+1)}番目の画像(明瞳孔画像)と{4(n+1)+1}番目の画像(無照明画像)とに対して位置補正を行って差分明瞳孔画像を生成し、その差分明瞳孔画像から角膜反射を検出する。その後に角膜反射位置X4(n+1)+2を推定すると、算出部22は{4(n+1)+1}番目の画像(無照明画像)と{4(n+1)+2}番目の画像(暗瞳孔画像)とに対して位置補正を行って差分暗瞳孔画像を生成し、その差分暗瞳孔画像から角膜反射を検出する。そして、算出部22はその差分明瞳孔画像および差分暗瞳孔画像に対して位置補正を行って差分画像を生成し、その差分画像から瞳孔中心の座標を求める。また、算出部22はその瞳孔中心座標に基づいて正確な角膜反射位置X4(n+1)+2も求め、これにより角膜反射位置X4(n+1)+2が確定する。
算出部22は以上の処理を繰り返し実行することで瞳孔の位置を追跡することができる。
(画像取得間隔が一定でない場合の角膜反射位置の推定)
上記式(1)〜(4)を示した説明は画像の取得間隔が一定であることを前提とした。しかし、実際には画像の取得間隔が区々である状況が生じ得る。例えば、画像処理に多くの時間が掛かったり、画像処理装置20のマルチタスクOSが他の処理をして画像処理のタイミングが遅れたりするなどの理由により、所定のタイミングで(例えば約4.2ms間隔で)画像を取得することができず(画像の取りこぼし)、何回目かの再試行でやっと所望の画像を取得する状況が起こり得る。この場合には画像の取得間隔が変わり得る(例えば、その間隔が約8.4(=4.2×2)msになったり約12.6(=4.2×3)msになったりする)。一方、画像処理装置20がある画像を処理し終えた段階で次の画像取得命令をカメラ10に送る外部同期を採用した場合には画像の取りこぼしは起こらないが、この場合には画像処理装置20内のハードウェアの状況(例えばCPUの稼働状況)により画像の取得間隔が不規則になり得る。
このような場合を考慮して、算出部22は、個々の画像の取得時刻を計測し、その取得時刻から求まる画像の取得間隔を考慮した等速度モデルにより角膜反射位置を推定してもよい。
4n番目の画像(明瞳孔画像)を得てから(4n+1)番目の画像(無照明画像)を得るまでの時間間隔をΔt とし、その無照明画像を得てから(4n+2)番目の画像(暗瞳孔画像)を得るまでの時間間隔をΔt とする。また、その暗瞳孔画像を得てから(4n+3)番目の画像(無照明画像)を得るまでの時間間隔をΔt とし、その無照明画像を得てから4(n+1)番目の画像(明瞳孔画像)を得るまでの時間間隔をΔt とする。この時間間隔は、ある画像を取得する際の露光開始時刻と次の画像を取得する際の露光開始時刻との差であってもよいし、露光終了時刻の差でもよいし、カメラ10から画像処理装置20への画像の転送開始時刻または転送終了時刻の差でもよい。
この場合には、算出部22は下記式(5)〜(8)で示される等速度モデルを用いて、角膜反射位置X4n+3,X4(n+1),X4(n+1)+1,X4(n+1)+2を推定する。これらの式(5)〜(8)は上記式(1)〜(4)に対応する。したがって、画像の取得間隔が区々である場合にも、算出部22は偽の角膜反射が除去された差分明瞳孔画像および差分暗瞳孔画像を生成することができ、その2画像から差分画像を生成して瞳孔を検出することができる。
Figure 0006583734
Figure 0006583734
Figure 0006583734
Figure 0006583734
画像の取りこぼしが想定される場合には、上記の時間間隔Δt ,Δt ,Δt ,Δt は、ある画像を得てから次の画像を得るまでに要したフレーム数で表現されてもよい。例えば、4n番目の画像(明瞳孔画像)のフレーム番号が10であり(4n+1)番目の画像(無照明画像)のフレーム番号が13であれば、時間間隔Δt は3(=13−10)で示される。この時間間隔を、隣接する2フレームの時間間隔(カメラ10のフレームレートが240fpsであればその時間間隔は約4.2msである)にそのフレーム数を乗じた値で表現してもよいが、上記式(5)〜(8)の計算において2フレーム間の時間間隔は約分により消えるので、時間間隔Δt ,Δt ,Δt ,Δt をフレーム数で表すことができる。
なお、式(5)〜(8)において画像取得間隔が一定であるとすれば、これらの式は式(1)〜(4)に帰結する。したがって、式(1)〜(4)も式(5)〜(8)と同様に、移動ベクトルと個々の画像を取得する際の個々の時間間隔とに基づいて、無照明画像または瞳孔画像における角膜反射位置を推定することを意味する。
<検出プログラム>
次に、図9を用いて、画像処理装置20を実現するための検出プログラム(角膜反射位置推定プログラムおよび瞳孔検出プログラム)P1を説明する。
検出プログラムP1は、メインモジュールP10、画像取得モジュールP11、および算出モジュールP12を備える。
メインモジュールP10は、角膜反射位置推定機能を含む瞳孔検出機能を統括的に制御する部分である。画像取得モジュールP11および算出モジュールP12を実行することにより実現される機能はそれぞれ、上記の画像取得部21および算出部22の機能と同様である。
検出プログラムP1は、例えば、CD−ROMやDVD−ROM、半導体メモリなどの有形の記録媒体に固定的に記録された上で提供されてもよい。また、検出プログラムP1は、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。
[第2実施形態]
第1実施形態では、画像処理装置20が1サイクルで4枚の画像(明瞳孔画像→無照明画像→暗瞳孔画像→無照明画像)を取得したが、画像の取得方法はこれに限定されない。本実施形態では、画像処理装置20は図10に示すように3枚毎に明瞳孔画像(または暗瞳孔画像)を取得するように明瞳孔画像と暗瞳孔画像との間に無照明画像を取得してもよい。この場合には、算出部22は3n番目に取得した明瞳孔画像と(3n+1)番目に取得した無照明画像との差分を取ることで差分明瞳孔画像を取得し、その無照明画像と(3n+2)番目に取得した暗瞳孔画像との差分を取ることで差分暗瞳孔画像を取得する。そして、算出部22はこれらの差分明瞳孔画像および差分暗瞳孔画像の差分を取ることで差分画像を取得する。算出部22は、連続して取得した暗瞳孔画像および明瞳孔画像(例えば、(3n+2)番目に取得した暗瞳孔画像と3(n+1)番目に取得した明瞳孔画像)の差分を取ることで更なる差分画像を取得してもよい。
このように1サイクルで3枚の画像を取得する場合には、算出部22は無照明画像における角膜反射位置を以下のように推定する。
算出部22は3n番目に得た明瞳孔画像と(3n+1)番目に得た無照明画像とから得られる差分明瞳孔画像から角膜反射を検出することで、その明瞳孔画像における角膜反射位置X3nを得る。さらに、算出部22は(3n+2)番目に得た暗瞳孔画像と(3n+1)番目に得た無照明画像とから得られる差分暗瞳孔画像から角膜反射を検出することで、その暗瞳孔画像における角膜反射位置X3n+2を得る。なお、角膜反射位置X3n,X3n+2は前の処理で最終的に確定しているとする。ここで、角膜反射位置は画像上における2次元座標(x,y)で示される。算出部22は、これら二つの角膜反射位置に基づいて、3(n+1)番目に得られる明瞳孔画像における角膜反射位置X3(n+1)と、{3(n+1)+1}番目に得られる無照明画像における角膜反射位置X3(n+1)+1を下記式(9),(10)で示される等速度モデルにより推定する。
3(n+1)=X3n+2+1/2(X3n+2−X3n) …(9)
3(n+1)+1=X3n+2+(X3n+2−X3n) …(10)
これら二つの角膜反射位置を推定することで、算出部22は3(n+1)番目に得た明瞳孔画像と{3(n+1)+1}番目に得た無照明画像とに対して位置補正を行って差分明瞳孔画像を生成する。
さらに、その角膜反射位置X3(n+1)を得ることで、算出部22は{3(n+1)+2}番目に得られる暗瞳孔画像における角膜反射位置X3(n+1)+2を下記式(11)により予測することができる。
3(n+1)+2=X(3n+1)+2(X3(n+1)−X3n+2) …(11)
この結果、二つの角膜反射位置X3(n+1)+1,X3(n+1)+2が得られるので、算出部22は{3(n+1)+1}番目に得た無照明画像と{3(n+1)+2}番目に得た暗瞳孔画像とに対して位置補正を行って差分暗瞳孔画像を生成する。そして、算出部22は差分明瞳孔画像および差分暗瞳孔画像に対して位置補正と差分とを実行することで差分画像を生成し、その差分画像から瞳孔を検出する。
算出部22は以上の処理を繰り返し実行することで瞳孔を追跡することができる。
1サイクルで3枚の画像を取得する場合にも、第1実施形態と同じ理由により画像取得間隔が一定でない可能性がある。この場合には、算出部22は第1実施形態と同様に画像の取得間隔を考慮した等速度モデルにより角膜反射位置を推定する。なお、その間隔がフレーム数で表現できる場合もあることも第1実施形態と同様である。
3n番目に明瞳孔画像を得てから(3n+1)番目に無照明画像を得るまでの時間間隔をΔt とし、その無照明画像を得てから(3n+2)番目に暗瞳孔画像を得るまでの時間間隔をΔt とし、その暗瞳孔画像を得てから3(n+1)番目に明瞳孔画像を得るまでの時間間隔をΔt とする。第1実施形態と同様に、この時間間隔は露光開始時刻の差であってもよいし、露光終了時刻の差でもよいし、画像の転送開始時刻または転送終了時刻の差でもよいし、あるいは画像の取りこぼし数に基づいて表されてもよい。
算出部22は上記式(9)〜(11)に対応する下記式(12)〜(14)を用いて、角膜反射位置X3(n+1),X3(n+1)+1,X3(n+1)+2を推定する。したがって、画像の取得間隔が区々である場合にも、算出部22は偽の角膜反射が除去された差分明瞳孔画像および差分暗瞳孔画像を生成することができ、その2画像から差分画像を生成して瞳孔を検出することができる。
Figure 0006583734
Figure 0006583734
Figure 0006583734
なお、画像取得部21は1サイクルにおいて「暗瞳孔画像→無照明画像→明瞳孔画像」の順に瞳孔画像を取得してもよい。この場合にも算出部22は上記と同様の手法で無照明画像、明瞳孔画像、および暗瞳孔画像のそれぞれにおける角膜反射位置を推定することができる。
[第3実施形態]
第1および第2実施形態では画像上での座標、すなわち2次元座標に対して等速度モデルを適用したが、算出部22は3次元座標に対して等速度モデルを適用してもよい。3次元座標に対して等速度モデルを適用して角膜反射位置を推定することで、撮像平面と交差する方向に瞳孔が移動する場合にも角膜反射位置を正確に推定することができる。
ただし、3次元座標を用いる場合には、検出システム1はステレオカメラとして機能する2台のカメラ10を備える必要がある。図11に示すように、一対のカメラ10は、対象者Aの左側にある左カメラ10と、対象者Aの右側にある右カメラ10とから成る。1対のカメラ10は水平方向に沿って所定の間隔をおいて配される。
一対のカメラ10を用いる場合には、画像取得部21は二つのカメラ10の間で作動タイミングをわずかにずらし、個々のカメラ10の露光時間はそのずらし時間以下に設定される。画像取得部21は、各カメラ10の露光時間中に、対応する発光素子13aおよび発光素子13bを交互に発光させることで、一方のカメラ10の光源13からの光が他方のカメラ10の画像に影響を与えないようにする(クロストークが起こらないようにする)。そして、画像取得部21は、左カメラ10および右カメラ10のそれぞれから瞳孔画像を取得する。
算出部22は、ある一つのフェーズにおける各カメラ10,10からの瞳孔画像上での角膜反射位置を上記第1または第2実施形態での手法により求める。このときに得られる角膜反射位置は2次元座標であり、算出部22はステレオ法(ステレオマッチング)を用いてその2次元座標から3次元座標を求める。ステレオ法とは、カメラのレンズの焦点距離、画像中心、画素サイズなどの内部パラメータと、カメラの位置や姿勢等の外部パラメータとを予め計測しておき、複数台のステレオカメラで対象物を撮影したときに、画像中の点の座標を基に、内部パラメータおよび外部パラメータを用いてその点の空間上の位置を決定する方法である。3次元座標の計算に必要なこれらの内部パラメータおよび外部パラメータは、キャリブレーションデータとして予め取得されて算出部22に記憶される。ステレオ法を用いて3次元座標を求める方法そのものは周知技術であり、例えば下記の参考文献1,2でも紹介されている。
(参考文献1)国際公開第2012/077713号パンフレット
(参考文献2)国際公開第2012/020760号パンフレット
算出部22は、2台のカメラ10からの出力データを基に検出した画像座標系における角膜反射位置と、世界座標系における角膜反射位置との関係式を、キャリブレーションデータを参照しながら取得する。次に、算出部22は、2つの関係式から世界座標系における角膜反射位置の3次元座標を求める。算出部22は、対象者Aの左右の瞳孔のそれぞれについて角膜反射位置の3次元座標を求めることができる。続いて、算出部22はそれぞれの眼について、左カメラ10のレンズ中心(レンズ中心以外の点でもよい)と左カメラ10に対応する角膜反射位置とを通る直線と、右カメラ10のレンズ中心(レンズ中心以外の点でもよい)と右カメラ10に対応する角膜反射位置とを通る直線との交点の3次元座標を角膜球中心の3次元座標として設定する。
このように角膜球中心の3次元座標を取得することを前提として、図6のように1サイクルで4枚の画像(明瞳孔画像→無照明画像→暗瞳孔画像→無照明画像)を取得する処理場合の角膜反射位置の推定方法を説明する。
算出部22は4n番目の画像(明瞳孔画像)と(4n+1)番目の画像(無照明画像)とから得られる差分明瞳孔画像から角膜反射を検出する処理を左カメラ10からの画像および右カメラ10からの画像のそれぞれに対して実行する。続いて、算出部22は上記のようにステレオ法を用いてその明瞳孔画像に対応する角膜球中心座標X´4nを得る。さらに、算出部22は(4n+2)番目の画像(暗瞳孔画像)と(4n+1)番目の画像(無照明画像)とから得られる差分暗瞳孔画像から角膜反射を検出する処理を左カメラ10からの画像および右カメラ10からの画像のそれぞれに対して実行する。そして、算出部22はステレオ法を用いてその暗瞳孔画像に対応する角膜球中心座標X´4n+2を得る。上述したように、角膜球中心座標は3次元座標である。算出部22は、これら二つの角膜球中心座標に基づいて、(4n+3)番目の画像(無照明画像)における角膜球中心座標X´4n+3を下記式(15)で示される等速度モデルにより推定する。
X´4n+3=X´4n+2+1/2(X´4n+2−X´4n) …(15)
この式(15)における(X´4n+2−X´4n)は、3次元空間での角膜球中心の動きを示す移動ベクトルである。本実施形態における「移動ベクトル」は、角膜球中心の位置の移動の方向および量を示すベクトルである。また、本実施形態では、移動ベクトルの計算に用いる基準位置は、角膜球中心の位置である。
続いて、算出部22は推定した角膜球中心座標X´4n+3を撮像平面(瞳孔画像)上の2次元座標に変換する。この変換は、ピンホールモデルを用いて3次元座標を撮像平面に投影する処理であるともいえる。3次元座標X´4n+3(x,y,z)に対応する撮像平面上の2次元位置X4n+3は、カメラの焦点距離fを用いて下記式(16)で得られる。
4n+3=(x(f/z),y(f/z)) …(16)
算出部22は、左カメラ10から得られた画像と右カメラ10から得られた画像のそれぞれに対してその2次元座標への変換を実行する。
同様に、算出部22は{4(n+1)}番目の画像、すなわち次の明瞳孔画像における角膜球中心座標X´4(n+1)を下記式(17)で示される等速度モデルにより推定する。
X´4(n+1)=X´4n+2+(X´4n+2−X´4n) …(17)
そして、算出部22は推定した角膜球中心座標X´4(n+1)を上記式(16)により2次元座標X4(n+1)に変換する。
このように角膜反射位置X4n+3を推定すると、算出部22は(4n+2)番目の画像(暗瞳孔画像)と(4n+3)番目の画像(無照明画像)とに対して位置補正を行って差分暗瞳孔画像を生成し、その差分暗瞳孔画像から角膜反射を検出する。さらに、角膜反射位置X4(n+1)を推定すると、算出部22は(4n+3)番目の画像(無照明画像)と{4(n+1)}番目の画像(明瞳孔画像)とに対して位置補正を行って差分明瞳孔画像を生成し、その差分明瞳孔画像から角膜反射を検出する。そして、算出部22はその差分暗瞳孔画像および差分明瞳孔画像に対して位置補正を行って差分画像を生成し、その差分画像から瞳孔を検出し、正確な角膜反射位置X4(n+1)を求める。
この結果、左カメラ10から得られた画像と右カメラ10から得られた画像とのそれぞれについて、(4n+2)番目の画像(暗瞳孔画像)での角膜反射位置X4n+2と{4(n+1)}番目の画像(明瞳孔画像)での角膜反射位置X4(n+1)とが得られる。したがって、算出部22は、{4(n+1)+1}番目の画像(無照明画像)における角膜球中心座標X´(n+1)+1と{4(n+1)+2}番目の画像(暗瞳孔画像)における角膜球中心座標X´(n+1)+2とを下記式(18),(19)で示される等速度モデルにより推定することができる。
X´4(n+1)+1=X´(n+1)+1/2(X´(n+1)−X´4n+2) …(18)
X´4(n+1)+2=X´(n+1)+(X´(n+1)−X´4n+2) …(19)
そして、算出部22は推定したこれらの角膜球中心座標X´4(n+1)+1,X´4(n+1)+2を上記式(16)により撮像平面(瞳孔画像)上の2次元座標X4(n+1)+1,X4(n+1)+2に変換する。
角膜反射位置X4(n+1)+1を推定すると、算出部22は{4(n+1)}番目の画像(明瞳孔画像)と{4(n+1)+1}番目の画像(無照明画像)とに対して位置補正を行って差分明瞳孔画像を生成し、その差分明瞳孔画像から角膜反射を検出する。さらに、角膜反射位置X4(n+1)+2を推定すると、算出部22は{4(n+1)+1}番目の画像(無照明画像)と{4(n+1)+2}番目の画像(暗瞳孔画像)とに対して位置補正を行って差分暗瞳孔画像を生成し、その差分暗瞳孔画像から角膜反射を検出する。そして、算出部22はその差分明瞳孔画像および差分暗瞳孔画像に対して位置補正を行って差分画像を生成し、その差分画像から瞳孔を検出し、正確な角膜反射位置X4(n+1)+2を求める。
算出部22は以上の処理を繰り返し実行することで瞳孔を追跡することができる。
当然ながら、角膜球中心座標に対して等速度モデルを適用する手法は、1サイクルで3画像を取得する上記第2実施形態にも適用できる。
[第4実施形態]
第1実施形態および第2実施形態では算出部22は等速度モデルを用いて角膜反射位置を推定したが、算出部22は等加速度モデルを用いてその推定を実行してもよい。算出部22は、角膜反射位置を推定しようとする無照明画像の一つ前、二つ前、および3つ前に得た瞳孔画像(明瞳孔画像または暗瞳孔画像)における角膜反射位置を用いる。現在の画像、一つ前の画像、二つ前の画像、および三つ前の画像における角膜反射位置の2次元ベクトルをそれぞれx,x−1,x−2,x−3で表すとする。また、各ベクトルが得られた時刻をそれぞれt,t−1,t−2,t−3で表すとする。すると、現在の画像における座標と一つ前の画像における座標とから現在の速度vが求まり、一つ前の画像における座標と二つ前の画像における座標とから一つ前の速度v−1が求まり、二つ前の画像における座標と三つ前の画像における座標とから二つ前の速度v−2が求まる。これらの速度は下記式(20)〜(22)で得られる。
=(x−x−1)/(t−t−1) …(20)
−1=(x−1−x−2)/(t−1−t−2) …(21)
−2=(x−2−x−3)/(t−2−t−3) …(22)
ここで、t〜t−3はそれぞれの画像の取得時刻である。
これら三つの速度から、下記二つの加速度a,a−1が下記式(23),(24)により得られる。
=(v−v−1)/(t−t−1) …(23)
−1=(v−1−v−2)/(t−1−t−2) …(24)
ここで等加速度モデルよりa=a−1であるから、未知の値vを式(23),(24)より求めることができ、算出されたvを式(20)に代入することで、未知であったxを求めることができる。
この等加速度モデルを図6の例に適用した場合について説明する。4n番目に得た明瞳孔画像と(4n+2)番目の画像(暗瞳孔画像)において正確な角膜反射位置が得られているとすると、時刻t−3,t−2,t−1,tはそれぞれフェーズ4n,4n+2,4(n+1),4(n+1)+1に相当する。この例は、フェーズ{4(n+1)+1}の無照明画像における角膜反射位置を推定することに相当し、上記式(7)に相当する。フェーズ{4(n+1)+1}(すなわち、時刻t)における速度v4(n+1)+1とすると、式(7)は下記式(25),(26)に置き換えられる。
Figure 0006583734
Figure 0006583734
ただし、
4(n+1)=X4(n+1)−X4n+2
4n+2=X4n+2−X4n
である。
なお、現在の画像の4つ前までの画像まで考慮すれば、等加加速度モデルを用いた角膜反射位置の推定も可能である。等加速度モデルや等加加速度モデルなどのように次数を増やしたモデルは、カメラ10の単位時間当たりのフレーム数が多い場合に有効である。
当然ながら、等加速度モデルまたは等加加速度モデルを用いる手法は、1サイクルで3画像を取得する第2実施形態および角膜球中心座標を用いる第3実施形態にも適用できる。
以上説明したように、本発明の一側面に係る角膜反射位置推定システムは、光源を備えるカメラを制御して対象者の眼の画像を連続的に取得する画像取得部であって、該光源からの光を用いて撮影された複数の瞳孔画像を取得した後に、該光源からの光を用いることなく撮影された一つの無照明画像を取得する該画像取得部と、複数の瞳孔画像のそれぞれに対応する角膜反射または角膜球中心の位置を基準位置として算出し、複数の該基準位置に基づいて角膜反射または角膜球中心の移動ベクトルを算出し、無照明画像における角膜反射位置を該移動ベクトルに少なくとも基づいて推定する推定部とを備える。
本発明の一側面に係る角膜反射位置推定方法は、プロセッサを備える角膜反射位置推定システムにより実行される角膜反射位置推定方法であって、光源を備えるカメラを制御して対象者の眼の画像を連続的に取得する画像取得ステップであって、該光源からの光を用いて撮影された複数の瞳孔画像を取得した後に、該光源からの光を用いることなく撮影された一つの無照明画像を取得する該画像取得ステップと、複数の瞳孔画像のそれぞれに対応する角膜反射または角膜球中心の位置を基準位置として算出し、複数の該基準位置に基づいて角膜反射または角膜球中心の移動ベクトルを算出し、無照明画像における角膜反射位置を該移動ベクトルに基づいて推定する推定ステップとを含む。
本発明の一側面に係る角膜反射位置推定プログラムは、光源を備えるカメラを制御して対象者の眼の画像を連続的に取得する画像取得部であって、該光源からの光を用いて撮影された複数の瞳孔画像を取得した後に、該光源からの光を用いることなく撮影された一つの無照明画像を取得する該画像取得部と、複数の瞳孔画像のそれぞれに対応する角膜反射または角膜球中心の位置を基準位置として算出し、複数の該基準位置に基づいて角膜反射または角膜球中心の移動ベクトルを算出し、無照明画像における角膜反射位置を該移動ベクトルに少なくとも基づいて推定する推定部としてコンピュータを機能させる。
このような側面においては、無照明画像よりも前に得られた複数の瞳孔画像に対応する複数の基準位置(角膜反射または角膜球中心の位置)が算出される。瞳孔画像は光源からの光を用いて撮影されるので、その瞳孔画像から角膜反射または角膜球中心の位置を得ることができる。そして複数の基準位置から角膜反射または角膜球中心の移動ベクトルを得ることで無照明画像を得る直前の角膜反射または角膜球中心の動きを把握できるので、その動きから、無照明画像を取得した時点の角膜反射位置を推定することができる。
フレームレートが高い(例えば2000fps)高速度カメラを用いれば画像取得の時間差はわずか0.5msであり、明瞳孔画像、無照明画像、および暗瞳孔画像を得るのは1.5msで済む。撮影の時間間隔がこの程度であれば、その間に頭部が動いても画像間での瞳孔移動は無視することができる。しかし、高速度カメラは現状では高額であり簡単に採用することは難しい。これに対して、本実施形態で用いたフレームレートが240fpsのカメラは高速度カメラに比べて安価なのでシステムに導入しやすいが、上述したように4.2msという時間は、位置補正をしなくて済むレベルではない。そこで、本実施形態のように無照明画像を取得した時点の角膜反射位置を推定することで、明瞳孔画像もしくは暗瞳孔画像と無照明画像との位置補正が可能になる。
また、無照明画像の角膜反射位置を推定することで、明瞳孔画像もしくは暗瞳孔画像と無照明画像との位置補正を行う際に、画像のうち角膜反射位置を含むウィンドウのみを追尾しながら瞳孔を検出することができる。そのため、画像処理の負荷を全体として下げることができる。
角膜反射位置を基準位置として用いる場合には、3次元座標を考慮したりステレオ法を用いたりすることなく、無照明画像の角膜反射位置を簡易に推定することができる。一方、角膜球中心の位置を基準位置として用いる場合には、無照明画像の角膜反射位置をより正確に推定することができる。
他の側面に係る角膜反射位置推定システムでは、推定部が、移動ベクトルと、画像取得部が個々の画像を取得する際の個々の時間間隔とに基づいて、無照明画像における角膜反射位置を推定してもよい。移動ベクトルだけでなく、画像を取得する時間間隔も考慮することで、角膜反射の動きを正確に推定することができる。
他の側面に係る角膜反射位置推定システムでは、複数の瞳孔画像が二つの瞳孔画像であり、推定部が、二つの瞳孔画像のそれぞれにおける基準位置を算出し、二つの該基準位置に基づいて移動ベクトルを算出し、無照明画像における角膜反射位置を該移動ベクトルに少なくとも基づいて等速度モデルにより推定してもよい。等速度モデルを用いることで、前に得られた二つの瞳孔画像のみを用いて無照明画像での角膜反射位置を簡易に推定することができる。
他の側面に係る角膜反射位置推定システムでは、複数の瞳孔画像が三つの瞳孔画像であり、推定部が、三つの瞳孔画像のそれぞれにおける基準位置を算出し、三つの該基準位置に基づいて二つの移動ベクトルを算出し、無照明画像における角膜反射位置を該二つの移動ベクトルに少なくとも基づいて等加速度モデルにより推定してもよい。等加速度モデルを用いることで、移動ベクトルの移動の様子を詳細に推定することができるので、無照明画像での角膜反射位置を正確に推定することができる。
他の側面に係る角膜反射位置推定システムでは、画像取得部が、無照明画像を取得した後に、光源からの光を用いて撮影された一つの更なる瞳孔画像を取得し、推定部が、更なる瞳孔画像における角膜反射位置を移動ベクトルに少なくとも基づいて推定してもよい。この場合には、無照明画像での角膜反射位置だけでなくその後の瞳孔画像での角膜反射位置も推定することができる。
本発明の一側面に係る瞳孔検出システムは、上記角膜反射位置推定システムにより推定された無照明画像における角膜反射位置に基づいて瞳孔位置を算出する瞳孔算出部を備え、複数の瞳孔画像が明瞳孔画像および暗瞳孔画像のうちの一方を含み、更なる瞳孔画像が明瞳孔画像および暗瞳孔画像のうちの他方であり、瞳孔算出部が、明瞳孔画像および無照明画像からの差分明瞳孔画像の生成と、暗瞳孔画像および無照明画像からの差分暗瞳孔画像の生成とを無照明画像における角膜反射位置に基づいて実行し、該差分明瞳孔画像および該差分暗瞳孔画像から差分画像を生成し、該差分画像に基づいて瞳孔位置を算出する。
本発明の一側面に係る瞳孔検出方法は、プロセッサを備えるコンピュータシステムにより実行される瞳孔検出方法であって、上記角膜反射位置推定方法により推定された無照明画像における角膜反射位置に基づいて瞳孔位置を算出する瞳孔算出ステップを含み、画像取得ステップでは、無照明画像を取得した後に、光源からの光を用いて撮影された一つの更なる瞳孔画像を取得し、推定ステップでは、更なる瞳孔画像における角膜反射位置を移動ベクトルに少なくとも基づいて推定し、複数の瞳孔画像のうち無照明画像の直前に得られた瞳孔画像が明瞳孔画像および暗瞳孔画像のうちの一方を含み、更なる瞳孔画像が明瞳孔画像および暗瞳孔画像のうちの他方であり、瞳孔算出ステップでは、明瞳孔画像および無照明画像からの差分明瞳孔画像の生成と、暗瞳孔画像および無照明画像からの差分暗瞳孔画像の生成とを無照明画像における角膜反射位置に基づいて実行し、該差分明瞳孔画像および該差分暗瞳孔画像から差分画像を生成し、該差分画像に基づいて瞳孔位置を算出する。
本発明の一側面に係る瞳孔検出プログラムは、コンピュータを上記瞳孔検出システムとして機能させる。
このような側面においては、無照明画像における角膜反射位置も推定されるので、連続して撮影される明瞳孔画像、無照明画像、および暗瞳孔画像から精度の高い差分明瞳孔画像および差分暗瞳孔画像を生成できる。したがって、その差分明瞳孔画像および差分暗瞳孔画像から得られる差分画像も精度良く求められ、その差分画像から正確な瞳孔位置を求めることができる。
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
(視線の検出)
算出部22は、上記の手法により求めた瞳孔中心座標および角膜反射位置の相対的な位置関係からおよその視線を検出してもよい。この場合には、検出システム1は視線検出システムとしても機能する。この視線検出を厳密に実施するための方法は、例えば上記の参考文献1,2あるいは下記の参考文献3に記載されている。
(参考文献3)特開2005−185431号公報
なお、このような視線検出の機能を実現するためのモジュールを検出プログラムP1に追加することで、視線検出プログラムを作成することができる。
すなわち、本発明の一側面に係る視線検出システムは、瞳孔検出システムにより算出された瞳孔位置に基づいて視線を検出する。
本発明の一側面に係る視線検出方法は、上記瞳孔検出方法により算出された瞳孔位置に基づいて視線を検出する。
本発明の一側面に係る視線検出プログラムは、コンピュータを上記視線検出システムとして機能させる。
このような側面においては、精度良く算出された瞳孔位置に基づいて対象者の視線を正しく特定することができる。
(顔姿勢の検出)
算出部22は、上記の手法により求めた瞳孔中心座標を用いて顔姿勢を検出してもよい。この場合には、検出システム1は顔姿勢検出システムとしても機能する。顔姿勢検出の方法そのものは、例えば下記参考文献4に記載されている。
(参考文献4)特開2007−271554号公報
参考文献4に記載の手法に従う場合には、算出部22は左右の瞳孔のそれぞれについて、上記のいずれかの実施形態に基づいて角膜反射位置を推定し、その推定結果に基づいて瞳孔を検出し、瞳孔の中心座標を求める。また、算出部22は、明瞳孔画像または暗瞳孔画像を参照して左右の鼻孔中心の2次元座標を求める。そして、算出部22は左右の瞳孔中心と左右の鼻孔中心とについての2次元座標に基づいて左右の瞳孔中心の3次元座標および左右の鼻孔中心の3次元座標を算出し、対象者Aの顔姿勢(重心および顔方向ベクトル)を求める。このように、参考文献4に記載の瞳孔中心座標の計算に上記各実施形態の手法を適用することができる。
なお、このような顔姿勢検出の機能を実現するためのモジュールを検出プログラムP1に追加することで、顔姿勢検出プログラムを作成することができる。
すなわち、本発明の一側面に係る顔姿勢検出システムは、上記瞳孔検出システムにより算出された瞳孔位置と、明瞳孔画像または暗瞳孔画像を参照して算出された鼻孔位置とに基づいて顔姿勢を検出する。
また、本発明の一側面に係る顔姿勢検出方法は、上記瞳孔検出方法により算出された瞳孔位置と、明瞳孔画像または暗瞳孔画像を参照して算出された鼻孔位置とに基づいて顔姿勢を検出する。
また、本発明の一側面に係る顔姿勢検出プログラムは、コンピュータを上記顔姿勢検出システムとして機能させる。
このような側面においては、精度良く算出された瞳孔位置に基づいて対象者の顔姿勢を正しく検出することができる。
(瞳孔の追跡に失敗した場合の処理)
瞳孔を追跡している最中に対象者Aが眼を閉じた場合には画像中に瞳孔および角膜反射が写らないので、算出部22は瞳孔を検出できず、瞳孔の追跡に失敗してしまう。この場合には、算出部22は無照明画像を用いずに、明瞳孔画像および暗瞳孔画像のペアに対して位置補正をすることなく当該ペアから差分画像を生成し、その差分画像からの瞳孔検出を試みる。算出部22は瞳孔検出に成功するまでこの試行を繰り返す。そして、瞳孔検出に成功すると、今度は上記実施形態のうちのいずれかの処理、すなわち無照明画像を用いた角膜反射位置の推定を含む瞳孔検出を再開する。
すなわち、他の側面に係る瞳孔検出システムでは、瞳孔算出部が、無照明画像における角膜反射位置に基づく瞳孔位置の算出に失敗した場合には、無照明画像を用いることなく、新たに取得された明瞳孔画像および暗瞳孔画像から新たな差分画像を生成し、該新たな差分画像に基づいて瞳孔位置を算出し、新たな差分画像に基づいて瞳孔位置が得られた場合には、画像取得部および推定部による処理が実行され、瞳孔算出部が該処理に基づいて推定された新たな無照明画像における角膜反射位置に基づいて瞳孔位置を算出してもよい。
この場合には、無照明画像を用いた瞳孔位置の算出に失敗するといったん明瞳孔画像および暗瞳孔画像のみから差分画像を生成して瞳孔を検出し、その検出に成功した場合には再び無照明画像を用いて瞳孔が検出される。したがって、対象者が眼を一瞬閉じるなどしたことで、無照明画像を用いた瞳孔検出が失敗した後も、引き続き対象者の瞳孔を追跡し続けることができる。
(その他)
なお、等速度モデルに代えてカルマンフィルタを用いる場合には線形カルマンフィルタを用いればよく、等加速度モデルに代えてカルマンフィルタを用いる場合には拡張カルマンフィルタを用いればよい。
したがって、他の側面に係る角膜反射位置推定システムでは、複数の瞳孔画像が二つの瞳孔画像であり、推定部が、二つの瞳孔画像のそれぞれにおける基準位置を算出し、二つの該基準位置に基づいて移動ベクトルを算出し、無照明画像における角膜反射位置を該移動ベクトルに少なくとも基づいて等速度モデルもしくは線形カルマンフィルタにより推定してもよい。
また、他の側面に係る角膜反射位置推定システムでは、複数の瞳孔画像が三つの瞳孔画像であり、推定部が、三つの瞳孔画像のそれぞれにおける基準位置を算出し、三つの該基準位置に基づいて二つの移動ベクトルを算出し、無照明画像における角膜反射位置を該二つの移動ベクトルに少なくとも基づいて等加速度モデルもしくは拡張カルマンフィルタにより推定してもよい。
画像処理装置20は図12に示すように1サイクルで2枚の画像を取得してもよい。図12(a)は1サイクルで明瞳孔画像および無照明画像を取得する態様を示し、図12(b)は1サイクルで暗瞳孔画像および無照明画像を取得する態様を示す。画像処理装置20は、明瞳孔画像(または暗瞳孔画像)と無照明画像とを交互に取得し、上記実施形態の手法を応用して無照明画像における角膜反射位置を推定してもよい。
1…検出システム、10…カメラ、20…画像処理装置、21…画像取得部、22…算出部(推定部、瞳孔算出部)、P1…検出プログラム、P10…メインモジュール、P11…画像取得モジュール、P12…算出モジュール。

Claims (17)

  1. 光源を備えるカメラを制御して対象者の眼の画像を連続的に取得する画像取得部であって、該光源からの光を用いて撮影された複数の瞳孔画像を取得した後に、該光源からの光を用いることなく撮影された一つの無照明画像を取得する該画像取得部と、
    前記複数の瞳孔画像のそれぞれに対応する角膜反射または角膜球中心の位置を基準位置として算出し、複数の該基準位置に基づいて角膜反射または角膜球中心の移動ベクトルを算出し、前記無照明画像における角膜反射位置を該移動ベクトルに少なくとも基づいて推定する推定部と
    を備える角膜反射位置推定システム。
  2. 前記推定部が、前記移動ベクトルと、前記画像取得部が個々の画像を取得する際の個々の時間間隔とに基づいて、前記無照明画像における角膜反射位置を推定する、
    請求項1に記載の角膜反射位置推定システム。
  3. 前記複数の瞳孔画像が二つの瞳孔画像であり、
    前記推定部が、前記二つの瞳孔画像のそれぞれにおける前記基準位置を算出し、二つの該基準位置に基づいて前記移動ベクトルを算出し、前記無照明画像における角膜反射位置を該移動ベクトルに少なくとも基づいて等速度モデルもしくは線形カルマンフィルタにより推定する、
    請求項1または2に記載の角膜反射位置推定システム。
  4. 前記複数の瞳孔画像が三つの瞳孔画像であり、
    前記推定部が、前記三つの瞳孔画像のそれぞれにおける前記基準位置を算出し、三つの該基準位置に基づいて二つの移動ベクトルを算出し、前記無照明画像における角膜反射位置を該二つの移動ベクトルに少なくとも基づいて等加速度モデルもしくは拡張カルマンフィルタにより推定する、
    請求項1または2に記載の角膜反射位置推定システム。
  5. 前記画像取得部が、前記無照明画像を取得した後に、前記光源からの光を用いて撮影された一つの更なる瞳孔画像を取得し、
    前記推定部が、前記更なる瞳孔画像における角膜反射位置を前記移動ベクトルに少なくとも基づいて推定する、
    請求項1〜4のいずれか一項に記載の角膜反射位置推定システム。
  6. 請求項5に記載の角膜反射位置推定システムにより推定された前記無照明画像における角膜反射位置に基づいて瞳孔位置を算出する瞳孔算出部を備え、
    前記複数の瞳孔画像が明瞳孔画像および暗瞳孔画像のうちの一方を含み、前記更なる瞳孔画像が前記明瞳孔画像および前記暗瞳孔画像のうちの他方であり、
    前記瞳孔算出部が、前記明瞳孔画像および前記無照明画像からの差分明瞳孔画像の生成と、前記暗瞳孔画像および前記無照明画像からの差分暗瞳孔画像の生成とを前記無照明画像における角膜反射位置に基づいて実行し、該差分明瞳孔画像および該差分暗瞳孔画像から差分画像を生成し、該差分画像に基づいて前記瞳孔位置を算出する、
    瞳孔検出システム。
  7. 前記瞳孔算出部が、前記無照明画像における角膜反射位置に基づく前記瞳孔位置の算出に失敗した場合には、無照明画像を用いることなく、新たに取得された明瞳孔画像および暗瞳孔画像から新たな差分画像を生成し、該新たな差分画像に基づいて前記瞳孔位置を算出し、
    前記新たな差分画像に基づいて前記瞳孔位置が得られた場合には、前記画像取得部および前記推定部による処理が実行され、前記瞳孔算出部が該処理に基づいて推定された新たな無照明画像における角膜反射位置に基づいて瞳孔位置を算出する、
    請求項6に記載の瞳孔検出システム。
  8. 請求項6または7に記載の瞳孔検出システムにより算出された瞳孔位置に基づいて視線を検出する視線検出システム。
  9. 請求項6または7に記載の瞳孔検出システムにより算出された瞳孔位置と、前記明瞳孔画像または前記暗瞳孔画像を参照して算出された鼻孔位置とに基づいて顔姿勢を検出する顔姿勢検出システム。
  10. プロセッサを備える角膜反射位置推定システムにより実行される角膜反射位置推定方法であって、
    光源を備えるカメラを制御して対象者の眼の画像を連続的に取得する画像取得ステップであって、該光源からの光を用いて撮影された複数の瞳孔画像を取得した後に、該光源からの光を用いることなく撮影された一つの無照明画像を取得する該画像取得ステップと、
    前記複数の瞳孔画像のそれぞれに対応する角膜反射または角膜球中心の位置を基準位置として算出し、複数の該基準位置に基づいて角膜反射または角膜球中心の移動ベクトルを算出し、前記無照明画像における角膜反射位置を該移動ベクトルに基づいて推定する推定ステップと
    を含む角膜反射位置推定方法。
  11. 光源を備えるカメラを制御して対象者の眼の画像を連続的に取得する画像取得部であって、該光源からの光を用いて撮影された複数の瞳孔画像を取得した後に、該光源からの光を用いることなく撮影された一つの無照明画像を取得する該画像取得部と、
    前記複数の瞳孔画像のそれぞれに対応する角膜反射または角膜球中心の位置を基準位置として算出し、複数の該基準位置に基づいて角膜反射または角膜球中心の移動ベクトルを算出し、前記無照明画像における角膜反射位置を該移動ベクトルに少なくとも基づいて推定する推定部と
    してコンピュータを機能させるための角膜反射位置推定プログラム。
  12. プロセッサを備えるコンピュータシステムにより実行される瞳孔検出方法であって、
    請求項10に記載の角膜反射位置推定方法により推定された前記無照明画像における角膜反射位置に基づいて瞳孔位置を算出する瞳孔算出ステップを含み、
    前記画像取得ステップでは、前記無照明画像を取得した後に、前記光源からの光を用いて撮影された一つの更なる瞳孔画像を取得し、
    前記推定ステップでは、前記更なる瞳孔画像における角膜反射位置を前記移動ベクトルに少なくとも基づいて推定し、
    前記複数の瞳孔画像のうち前記無照明画像の直前に得られた瞳孔画像が明瞳孔画像および暗瞳孔画像のうちの一方を含み、前記更なる瞳孔画像が前記明瞳孔画像および前記暗瞳孔画像のうちの他方であり、
    前記瞳孔算出ステップでは、前記明瞳孔画像および前記無照明画像からの差分明瞳孔画像の生成と、前記暗瞳孔画像および前記無照明画像からの差分暗瞳孔画像の生成とを前記無照明画像における角膜反射位置に基づいて実行し、該差分明瞳孔画像および該差分暗瞳孔画像から差分画像を生成し、該差分画像に基づいて前記瞳孔位置を算出する、
    瞳孔検出方法。
  13. コンピュータを請求項6または7に記載の瞳孔検出システムとして機能させるための瞳孔検出プログラム。
  14. 請求項12に記載の瞳孔検出方法により算出された瞳孔位置に基づいて視線を検出する視線検出方法。
  15. 請求項12に記載の瞳孔検出方法により算出された瞳孔位置と、前記明瞳孔画像または前記暗瞳孔画像を参照して算出された鼻孔位置とに基づいて顔姿勢を検出する顔姿勢検出方法。
  16. コンピュータを請求項8に記載の視線検出システムとして機能させるための視線検出プログラム。
  17. コンピュータを請求項9に記載の顔姿勢検出システムとして機能させるための顔姿勢検出プログラム。
JP2016543883A 2014-08-22 2015-07-27 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム Active JP6583734B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014169508 2014-08-22
JP2014169508 2014-08-22
PCT/JP2015/071270 WO2016027627A1 (ja) 2014-08-22 2015-07-27 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム

Publications (2)

Publication Number Publication Date
JPWO2016027627A1 JPWO2016027627A1 (ja) 2017-06-08
JP6583734B2 true JP6583734B2 (ja) 2019-10-02

Family

ID=55350573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016543883A Active JP6583734B2 (ja) 2014-08-22 2015-07-27 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム

Country Status (4)

Country Link
US (1) US10417782B2 (ja)
EP (1) EP3185211B1 (ja)
JP (1) JP6583734B2 (ja)
WO (1) WO2016027627A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102466996B1 (ko) * 2016-01-06 2022-11-14 삼성전자주식회사 눈 위치 예측 방법 및 장치
WO2017154370A1 (ja) * 2016-03-09 2017-09-14 アルプス電気株式会社 視線検出装置および視線検出方法
CN107357429B (zh) * 2017-07-10 2020-04-07 京东方科技集团股份有限公司 用于确定视线的方法、设备和计算机可读存储介质
JP2019046141A (ja) 2017-09-01 2019-03-22 アルパイン株式会社 運転者監視装置、運転者監視方法、及びプログラム
EP3459436A1 (en) 2017-09-22 2019-03-27 Smart Eye AB Image acquisition with reflex reduction
CN108537111A (zh) * 2018-02-26 2018-09-14 阿里巴巴集团控股有限公司 一种活体检测的方法、装置及设备
SE543240C2 (en) * 2018-12-21 2020-10-27 Tobii Ab Classification of glints using an eye tracking system
CN112099615B (zh) * 2019-06-17 2024-02-09 北京七鑫易维科技有限公司 注视信息确定方法、装置、眼球追踪设备及存储介质
SE543455C2 (en) * 2019-06-28 2021-02-23 Tobii Ab Method and system for 3d cornea position estimation
CN112464012B (zh) * 2020-10-31 2022-06-17 浙江工业大学 可自动筛选照片的景区自动拍照系统及景区自动拍照方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4517049B2 (ja) 2003-12-25 2010-08-04 国立大学法人静岡大学 視線検出方法および視線検出装置
JP4431749B2 (ja) 2006-03-31 2010-03-17 国立大学法人静岡大学 顔姿勢検出方法
JP4452836B2 (ja) * 2006-07-31 2010-04-21 国立大学法人静岡大学 瞳孔を検出する方法及び装置
JP4842374B2 (ja) * 2007-03-28 2011-12-21 富士通株式会社 画像処理装置、画像処理方法、画像処理プログラム
JP5145555B2 (ja) 2007-03-30 2013-02-20 国立大学法人静岡大学 瞳孔検出方法
US8371693B2 (en) * 2010-03-30 2013-02-12 National University Corporation Shizuoka University Autism diagnosis support apparatus
EP2604180A4 (en) 2010-08-09 2017-07-05 National University Corporation Shizuoka University Gaze point detection method and gaze point detection device
JP5644342B2 (ja) * 2010-10-05 2014-12-24 トヨタ自動車株式会社 多気筒内燃機関の制御装置
US9329683B2 (en) * 2010-12-08 2016-05-03 National University Corporation Shizuoka University Method for detecting point of gaze and device for detecting point of gaze
JP5923180B2 (ja) 2012-11-12 2016-05-24 アルプス電気株式会社 生体情報計測装置及びそれを用いた入力装置

Also Published As

Publication number Publication date
EP3185211A4 (en) 2018-01-24
US10417782B2 (en) 2019-09-17
EP3185211A1 (en) 2017-06-28
US20170278269A1 (en) 2017-09-28
JPWO2016027627A1 (ja) 2017-06-08
EP3185211B1 (en) 2021-06-02
WO2016027627A1 (ja) 2016-02-25

Similar Documents

Publication Publication Date Title
JP6583734B2 (ja) 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム
JP7076368B2 (ja) レンジゲート式デプスカメラ部品
EP3589978B1 (en) Multi-spectrum illumination-and-sensor module for head tracking, gesture recognition and spatial mapping
JP6695503B2 (ja) 車両の運転者の状態を監視するための方法及びシステム
JP6377863B2 (ja) 反射マップ表現による奥行きマップ表現の増補
KR101506525B1 (ko) 주시점 검출 장치, 주시점 검출 방법, 개인 파라미터 산출 장치, 개인 파라미터 산출 방법, 프로그램, 및 컴퓨터 판독 가능한 기록 매체
ES2940634T3 (es) Mapeo de la dirección de la mirada
JP2020034919A (ja) 構造化光を用いた視線追跡
JP6548171B2 (ja) 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム
JP2018522348A (ja) センサーの3次元姿勢を推定する方法及びシステム
JP2018511098A (ja) 複合現実システム
US10552675B2 (en) Method and apparatus for eye detection from glints
JP6452235B2 (ja) 顔検出方法、顔検出装置、及び顔検出プログラム
US10475415B1 (en) Strobe tracking of head-mounted displays (HMDs) in virtual, augmented, and mixed reality (xR) applications
JP5001930B2 (ja) 動作認識装置及び方法
JP6870474B2 (ja) 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法
US20210012105A1 (en) Method and system for 3d cornea position estimation
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JP2017138645A (ja) 視線検出装置
JP6468755B2 (ja) 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム
JP6169446B2 (ja) 視線検出装置
Fujiyoshi et al. Inside-out camera for acquiring 3D gaze points
US20230122185A1 (en) Determining relative position and orientation of cameras using hardware
JP2022131345A (ja) 瞳孔検出装置及び瞳孔検出方法
JP2006209342A (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190822

R150 Certificate of patent or registration of utility model

Ref document number: 6583734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250