JP5538160B2 - 瞳孔検出装置及び瞳孔検出方法 - Google Patents

瞳孔検出装置及び瞳孔検出方法 Download PDF

Info

Publication number
JP5538160B2
JP5538160B2 JP2010213780A JP2010213780A JP5538160B2 JP 5538160 B2 JP5538160 B2 JP 5538160B2 JP 2010213780 A JP2010213780 A JP 2010213780A JP 2010213780 A JP2010213780 A JP 2010213780A JP 5538160 B2 JP5538160 B2 JP 5538160B2
Authority
JP
Japan
Prior art keywords
pupil
image
calculated
value
actual scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010213780A
Other languages
English (en)
Other versions
JP2012068937A (ja
Inventor
宗太郎 築澤
兼司 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2010213780A priority Critical patent/JP5538160B2/ja
Priority to PCT/JP2011/005336 priority patent/WO2012039139A1/ja
Priority to EP11826585.9A priority patent/EP2620907B1/en
Priority to CN201180045125.0A priority patent/CN103119623B/zh
Priority to US13/821,382 priority patent/US8983235B2/en
Publication of JP2012068937A publication Critical patent/JP2012068937A/ja
Application granted granted Critical
Publication of JP5538160B2 publication Critical patent/JP5538160B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness

Description

本発明は、瞳孔検出装置及び瞳孔検出方法に関する。
画像上の瞳孔を検出する場合、瞳孔部分の解像度が低すぎるために、誤検出が頻発することがある。例えば、広範囲を撮影するために撮像装置の画角が大きくなり、目領域の解像度が十分に確保できないような場合である。
画像に基づく一般的な瞳孔検出方法では、瞳孔部分の輝度が瞳孔部分の周辺の輝度よりも低いという第1の特徴、又は、瞳孔が円又は楕円形状であるという第2の特徴が利用される。しかしながら、解像度が十分確保できない場合には、画像上で瞳孔輪郭は、多角形となり、円又は楕円とならないことがある。このような状態で、上記した第2の特徴を用いて瞳孔検出を行うと、誤検出が頻発することになる。目の周辺には、まつげ、虹彩輪郭、目尻・目頭に発生する陰、又は、S/N比が悪い場合に発生するノイズ等、実際には形状が円又は楕円でないものの、画像上での輝度が瞳孔部分と同程度に低いものが、多数存在する。そして、解像度が低い場合には、このように形状は瞳孔とは異なるが、輝度が瞳孔部分と同程度に低い部分が、瞳孔として誤検出されてしまう。
このような課題に対して、次のような技術が提案されている。例えば、特許文献1に開示されている技術では、顔画像から目領域が検出され、検出された目領域に対するズーム処理が行われる。そして、瞳孔のエッジが十分観測できるだけ拡大された目領域が撮影されることにより、瞳孔の解像度が瞳孔検出に必要なだけ確保される。
また、瞳孔検出ではないが、目の一部である虹彩を検出する技術として特許文献2に開示されている技術がある。特許文献2に開示されている技術では、目領域から虹彩輪郭が予め検出され、虹彩輪郭が所定の大きさの円になるように、目領域の画像が変換される。
特開2002-282210号公報 特開2008-90483号公報
しかしながら、特許文献1に開示されている技術においては、目領域に対するズーム処理が行われる段階では検出対象である瞳孔の大きさがわからないので、そのズーム倍率を瞳孔検出のためのエッジ検出に最適な値に設定することは難しい。
このため、安定して瞳孔検出を行なうためには、瞳孔が最も小さい場合(例えば、まぶしいときの瞳孔の場合)でも、瞳孔輪郭がエッジとして検出できるだけのズーム倍率が、常に設定される必要がある。
すなわち、ズーム倍率が不十分な場合には、瞳孔が小さければ瞳孔輪郭部分のエッジの画素数が少なくなり、瞳孔検出が不安定になる。このため、瞳孔が小さい場合でも十分なエッジの画素数が確保できるように、ズーム倍率が設定される必要がある。
しかし、瞳孔が小さい場合でも十分なエッジの画素数が確保できるようなズーム倍率が設定された場合、瞳孔が大きいときには、本来必要なエッジの画素数に対して過剰なエッジ画素数が検出されてしまう。このとき、検出性能に対して必要以上の画素数が処理対象となるため、瞳孔検出処理に掛かる計算量が増加してしまう問題がある。
また、特許文献2に開示されている技術においては、目領域画像の変換時に、変換パラメータとして画像上の虹彩輪郭形状が必要となる。従って、この技術を瞳孔検出処理に適用しようとしても、瞳孔検出のために瞳孔検出結果が必要となるため、その適用は困難である。
本発明の目的は、検出対象画像が低解像度であっても瞳孔検出精度を向上することができる瞳孔検出装置及び瞳孔検出方法を提供することである。
本発明の一態様の瞳孔検出装置は、瞳孔の画像を検出する瞳孔検出装置であって、前記瞳孔を含む周辺領域の実スケール値を取得する取得手段と、瞳孔径の実スケール予測値を算出する第1の算出手段と、前記算出された実スケール予測値に基づいて、解像度のターゲット値を算出する第2の算出手段と、前記算出された解像度のターゲット値及び前記周辺領域の実スケール値に基づいて、拡大/縮小倍率を算出し、前記算出された拡大/縮小倍率に基づいて前記周辺領域の画像を正規化する正規化手段と、前記正規化された周辺領域の画像から前記瞳孔の画像を検出する検出手段と、を具備する。
本発明の一態様の瞳孔検出方法は、瞳孔の画像を検出する瞳孔検出方法であって、前記瞳孔を含む周辺領域の実スケール値を取得し、瞳孔径の実スケール予測値を算出し、前記算出された実スケール予測値に基づいて、解像度のターゲット値を算出し、前記算出された解像度のターゲット値及び前記周辺領域の実スケール値に基づいて、拡大/縮小倍率を算出し、前記算出された拡大/縮小倍率に基づいて前記周辺領域の画像を正規化し、前記正規化された周辺領域の画像から前記瞳孔の画像を検出する。
本発明によれば、検出対象画像が低解像度であっても瞳孔検出精度を向上することができる瞳孔検出装置及び瞳孔検出方法を提供することができる。
本発明の実施の形態1に係る瞳孔検出装置の構成を示すブロック図 目領域検出部の構成を示すブロック図 瞳孔検出装置の動作説明に供するフロー図 ターゲット画像である顔画像を示す図 解像度テーブルの例を示す図 本発明の実施の形態2に係る瞳孔検出装置の構成を示すブロック図 本発明の実施の形態3に係る瞳孔検出装置の構成を示すブロック図
以下、本発明の実施の形態について図面を参照して詳細に説明する。なお、実施の形態において、同一の構成要素には同一の符号を付し、その説明は重複するので省略する。
[実施の形態1]
[瞳孔検出装置の構成]
図1は、本発明の実施の形態1に係る瞳孔検出装置100の構成を示すブロック図である。瞳孔検出装置100は、例えば、自動車の車室内に設けられ、視線検出装置と接続されて使用される。この視線検出装置は、瞳孔検出装置100の検出結果に基づいて瞳孔位置を決定し、ドライバーの視線方向を検出する。以下では、特に、瞳孔検出装置100が視線検出装置に適用された場合について説明する。
図1において、瞳孔検出装置100は、目領域画像取得部101と、目領域実寸算出部102と、瞳孔状態予測部103と、実寸瞳孔径記憶部104と、必要解像度推定部105と、テーブル記憶部106と、目領域画像正規化部107と、瞳孔検出部108と、瞳孔実寸算出部109とを有する。
目領域画像取得部101は、目領域画像を取得し、目領域実寸算出部102へ出力する。
具体的には、目領域画像取得部101は、画像入力部111と、目領域検出部112とを有する。
画像入力部111は、撮像ターゲット(つまり、ここでは、人物)を撮像する。ここでは、画像入力部111は、ステレオカメラを具備し、当該ステレオカメラによってステレオ画像を取得する。このターゲット画像データは、目領域検出部112へ出力される。
画像入力部111は、例えば、車のハンドルの上、又は、ダッシュボード上など、運転席の正面に設置される。これにより、画像入力部111によって運転中の運転者の顔が撮影される。
目領域検出部112は、画像入力部111から取得されるターゲット画像から、目領域画像を検出する。
具体的には、目領域検出部112は、図2に示すように、顔検出部121と、顔部品検出部122と、目領域決定部123とを有する。
顔検出部121は、画像入力部111から取得されるターゲット画像から顔画像を検出し、検出された顔画像データを顔部品検出部122へ出力する。
顔部品検出部122は、顔検出部121から取得される顔画像データから顔部品群(つまり、口角、目尻、目頭など)を検出し、各顔部品の位置座標を顔画像データとともに目領域決定部123へ出力する。
目領域決定部123は、各顔部品の位置座標を顔部品検出部122から取得し、取得された各顔部品の位置座標に基づいて、顔画像における目領域の位置、大きさ(幅・高さ)を決定する。そして、目領域決定部123は、顔画像から目領域画像を切り出し、目領域画像とする。顔画像における目領域の位置および大きさは、目領域検出結果として、目領域画像と共に目領域実寸算出部102へ出力される。なお、目領域の位置及び大きさは、右目及び左目のそれぞれについて算出される。
図1に戻り、目領域実寸算出部102は、目領域画像取得部101から取得される目領域画像データ(実施の形態1では、ステレオ画像データ)および目領域検出結果に基づいて、目領域の実スケール値を算出する。目領域の実スケール値とは、ターゲット画像上の目領域が実際にどれだけの大きさを持つかを表す値である。目領域の実スケール値は、例えば、目領域の幅および高さとして、写っている物体(顔の目周辺部分)の実寸(例えば、幅30mm、高さ20mm)や、目領域画像上の1画素あたりの距離(例えば、1画素0.75mm)で表される。
瞳孔状態予測部103は、瞳孔径の実スケール予測値を算出する。具体的には、瞳孔状態予測部103は、実寸瞳孔径記憶部104に保持されている過去の実寸瞳孔径に基づいて、目領域画像取得部101において取得される目領域画像中の瞳孔の実寸を予測して、実スケール予測値を算出する。
実寸瞳孔径記憶部104は、瞳孔実寸算出部109から取得される瞳孔の実寸を、撮影時刻と併せて記憶する。すなわち、実寸瞳孔径記憶部104には、目領域画像取得部101によって過去に取得された瞳孔画像から導出される瞳孔径(の履歴)が保持される。
必要解像度推定部105は、瞳孔状態予測部103において算出された実スケール予測値に基づいて、解像度のターゲット値を算出する。解像度のターゲット値の算出においては、テーブル記憶部106に記憶されている解像度テーブルが用いられる。解像度テーブルでは、瞳孔径の実スケール値候補群と、各実スケール値候補において瞳孔検出に必要な画像解像度とが対応付けられている。従って、必要解像度推定部105は、解像度テーブルを用いて、瞳孔状態予測部103において算出された実スケール予測値と、当該実スケール予測値に対応する必要解像度とに基づいて、解像度のターゲット値を算出する。
テーブル記憶部106は、上記した解像度テーブルを保持する。解像度テーブルは、複数の瞳孔径と、予め実験又はシミュレーションなどによって算出された、各瞳孔径の瞳孔を安定して検出するために必要な解像度とを対応付けたテーブルである。解像度テーブルの作成は、例えば、各瞳孔径の画像を複数の解像度で撮影し、各解像度の画像の中で最も瞳孔検出結果が良い解像度を選択し、その解像度を各瞳孔径の瞳孔解像度として対応づけることにより行われる。
目領域画像正規化部107は、必要解像度推定部105において算出された解像度のターゲット値と、目領域実寸算出部102において算出された目領域の実スケール値とに基づいて、拡大/縮小倍率を算出する。具体的には、目領域画像正規化部107は、目領域実寸算出部102において算出された目領域の実スケール値と、目領域画像取得部101から取得される目領域画像に用いられている画素数とに基づいて、単位長当たりの画素数を算出し、算出された単位長当たりの画素数と必要解像度推定部105で算出された解像度のターゲット値との比を求めることにより、拡大/縮小倍率を算出する。
そして、目領域画像正規化部107は、算出された拡大/縮小倍率に基づいて、目領域画像取得部101から取得される目領域画像を正規化する。正規化された目領域画像(つまり、正規化目領域画像)は、瞳孔検出部108へ出力される。
また、目領域画像正規化部107は、正規化目領域画像における目領域の実寸値を算出し、瞳孔実寸算出部109へ出力する。
瞳孔検出部108は、目領域画像正規化部107から取得される正規化目領域画像から、瞳孔画像を検出する。検出瞳孔画像における、瞳孔中心の座標及び瞳孔径は、視線検出部(図示せず)及び瞳孔実寸算出部109へそれぞれ出力される。
瞳孔実寸算出部109は、目領域画像正規化部107から取得される正規化目領域画像における目領域の実寸値と、瞳孔検出部108から取得される瞳孔径とから、瞳孔の実寸を算出する。この実寸瞳孔径は、実寸瞳孔径記憶部104で保持される。
[瞳孔検出装置100の動作]
以上の構成を有する瞳孔検出装置100の動作について説明する。図3は、瞳孔検出装置100の動作説明に供するフロー図である。図3のフロー図には、上記した視線検出装置における処理フローも含まれている。
図3に示す処理フローは、撮影作業の開始と共にスタートする。撮影作業は、ユーザの操作によって開始されても良いし、外的な何らかの信号をトリガとして開始されても良い。
<画像取得処理>
ステップS201において、画像入力部111は、撮像ターゲット(つまり、ここでは、人物)を撮像する。これにより、ターゲット画像が取得される。
画像入力部111は、例えば、CMOSイメージセンサおよびレンズを備えたデジタルカメラである。従って、画像入力部111において撮像されたPPM(Portable Pix Map file format)形式の画像等が、画像入力部111に含まれる、図示されていない画像記憶部(例えば、PCのメモリ空間)に一時記憶された後、PPM形式のまま目領域検出部112へ出力される。
<顔画像検出処理>
ステップS202で顔検出部121は、画像入力部111から取得されるターゲット画像から顔画像を検出する。図4は、ターゲット画像である顔画像を示す図である。なお、撮像した顔画像では、例えば、画像横方向をX軸、画像縦方向をY軸とし、1画素が1座標点である。
顔領域検出処理では、例えば、ターゲット画像から、特徴となる画像の候補(つまり、特徴画像候補)を抽出し、抽出された特徴画像候補と、予め用意された顔領域を表す特徴画像とを比較することにより、類似度の高い特徴画像候補を検出する。類似度は、例えば、予め取得された平均顔のガボール特徴量と、ターゲット画像をスキャンすることにより抽出されるガボール特徴量とを照合し、両者の差分の絶対値の逆数として求められる。
この場合、顔検出部121は、図4の画像400において顔領域候補群を抽出し、抽出された顔領域候補群と予め用意されたテンプレートとを比べて、最も相関の高い顔領域候補を、顔画像401として検出する。なお、顔領域検出処理は、画像中から肌色領域を検出すること(つまり、肌色領域検出)によって行われても良いし、楕円部分を検出すること(つまり、楕円検出)により行われても良いし、統計的パターン識別手法を用いることにより行われても良い。その他、上記顔検出を行うことができる技術であれば、どのような方法が採用されても良い。
<顔部品検出処理>
ステップS203で顔部品検出部122は、顔検出部121から取得される顔画像から顔部品群(つまり、口角、目尻、目頭など)を検出し、各顔部品の位置座標を目領域決定部123へ出力する。顔部品群の探索領域は、ステップS202において特定された顔画像401である。図4には、それぞれ顔部品群402が示されている。
顔部品群検出処理では、例えば、分離度フィルタを用いて、口角、目尻、目頭などの顔部品の端点又は鼻の穴などの2次元座標が検出される。また、予め複数の顔画像と顔画像に対応する顔部品の位置との対応関係を学習器に学習させておき、顔部品検出部122は、顔画像401が入力された場合に、その対応関係に関して最も尤度が高い部分を顔部品として検出しても良い。又は、顔部品検出部122は、標準的な顔部品のテンプレートを用いて、顔画像401内から顔部品を探索しても良い。
<目領域決定処理>
ステップS204で、目領域決定部123は、顔検出部121から取得される顔画像と、顔部品検出部122から取得される顔部品群から、目の領域を決定する。
目領域決定処理では、例えば、左右それぞれの目において、目尻、目頭を含む矩形領域403を目領域として決定し、矩形の左上端点座標と、右下端点座標を、目領域検出結果として取得する。ここでは、目領域の位置、大きさを示すパラメータとして、矩形の左上端点座標と、右下端点座標とが用いられている。
<目領域実寸算出処理>
ステップS205において、目領域実寸算出部102は、目領域画像取得部101から取得される目領域画像データ(実施の形態1では、ステレオ画像データ)から、目領域の実スケール値を算出する。具体的には、目領域実寸算出部102は、目領域画像データから、画像上の特徴点間の特徴距離(画素数)pを算出する。この画像上の特徴点間の特徴距離とは、例えば、画像上の目尻と目頭との間の距離である。そして、目領域実寸算出部102は、基準距離xを特徴距離pによって乗算することにより、x/pを算出する。特徴距離pは、例えば、実空間における目尻と目頭との間の平均的な距離(例えば、28mm)である。従って、x/pは、1画素に相当する実寸値を表す。
<推定瞳孔径算出処理>
ステップS206において、瞳孔状態予測部103は、瞳孔径の実スケール予測値を算出する。
具体的には、瞳孔状態予測部103は、実寸瞳孔径記憶部104に保持されている過去の実寸瞳孔径に基づいて、目領域画像取得部101から取得される目領域画像に含まれる瞳孔の実寸を予測する。例えば、瞳孔状態予測部103は、1フレーム前の実寸瞳孔径をDt−1、2フレーム前の実寸瞳孔径をDt−2とした場合、瞳孔径の実スケール予測値Dを式(1)によって算出する。
Figure 0005538160
又は、瞳孔状態予測部103は、瞳孔径の実スケール予測値Dを式(2)によって算出しても良い。式(2)中で、Vは、ヒトの平均的な縮瞳(ここでは、瞳孔が小さくなることを表す)速度である。
Figure 0005538160
又は、瞳孔状態予測部103は、カルマンフィルタなどを用いた状態予測を行なっても良い。
<必要解像度算出処理>
ステップS207で、必要解像度推定部105は、瞳孔状態予測部103において算出された実スケール予測値に基づいて、解像度のターゲット値を算出する。解像度のターゲット値の算出には、テーブル記憶部106に記憶されている解像度テーブルが用いられる。この解像度テーブルでは、瞳孔径の実スケール値候補群と、各実スケール値候補において瞳孔検出に必要な画像解像度とが対応付けられている。
テーブル記憶部106に記憶されている解像度テーブルは、図5(a)のようにグラフ形式で保持されていても良いし、図5(b)のようにテーブル形式で保持されていても良い。解像度テーブルが有する傾向特性は、次の通りである。(1)実寸瞳孔径(つまり、実スケール値候補)が大きい程、対応する必要解像度の値は大きくなる。(2)必要解像度は、実スケール値候補に対して単調減少であり、一定値に収束する。
具体的には、必要解像度推定部105は、解像度テーブルを用いて、瞳孔状態予測部103において算出された実スケール予測値aと、当該実スケール予測値に対応する必要解像度bとに基づいて、解像度のターゲット値b/aを算出する。解像度のターゲット値b/aは、予測される瞳孔径を持つ瞳孔を安定して検出するために必要な、実寸の単位長あたりの画素数である。
<目領域画像正規化処理>
ステップS208において、目領域画像正規化部107は、必要解像度推定部105において算出された解像度のターゲット値と、目領域実寸算出部102において算出された目領域の実スケール値とに基づいて、拡大/縮小倍率を算出する。具体的には、目領域画像正規化部107は、目領域実寸算出部102で算出された目領域の実スケール値と、目領域画像取得部101から取得される目領域画像に用いられている画素数とに基づいて、単位長当たりの画素数を算出し、算出された単位長当たりの画素数と必要解像度推定部105で算出された解像度のターゲット値との比を求めることにより、拡大/縮小倍率を算出する。
そして、目領域画像正規化部107は、算出された拡大/縮小倍率に基づいて、目領域画像取得部101から取得される目領域画像を正規化する。この拡大縮小処理には、バイリニア又はバイキュービックなどの一般的に画像処理で用いられる手法が用いられる。
<瞳孔探索処理>
ステップS209において、瞳孔検出部108は、目領域画像正規化部107から取得される正規化目領域画像から、瞳孔画像を検出する。瞳孔画像における、瞳孔中心の座標及び瞳孔径は、視線検出部(図示せず)及び瞳孔実寸算出部109へそれぞれ出力される。
ステップS210において、視線検出部(図示せず)は、例えば、顔部品群402の座標から算出される顔の正面方向の向きを表す顔向きベクトルと、目尻、目頭、瞳孔中心の座標から算出される顔の正面方向に対する視線方向ベクトルから視線方向を算出する。
顔向きベクトルは、例えば、以下の手順で算出される。まず、予め取得された運転者の顔部品群の三次元座標を回転および並進させることにより変換する。そして、変換された三次元座標を、瞳孔検出に使用されたターゲット画像に投影する。そして、ステップS203において検出された顔部品群と最も一致する回転・並進パラメータを算出する。この場合、予め運転者の顔部品群の三次元座標を取得した場合に、運転者の顔が向いている方向を表すベクトルと、決定された回転パラメータによって回転したベクトルとの組みが、顔向きベクトルである。
また、視線方向ベクトルは、例えば、以下の手順で算出される。まず、予め、所定の方向を顔が向いている場合に、顔向きと同じ方向を見ている場合の運転者の顔部品群と瞳孔中心の三次元座標とを記憶する。瞳孔中心の検出は、例えば、目領域内において所定の輝度以下の画素の重心をとることにより行なわれる。次に、検出された瞳孔の三次元座標から、視線方向と反対側に所定の距離だけ移動した位置を眼球中心位置として算出する。この場合、上記所定の距離は、一般的な成人眼球の半径である12mm程度が適当であるが、上記値に限らず、任意の値を用いても良い。次に、顔向きベクトル算出において取得された顔の回転・並進パラメータを用いて、検出時の眼球中心の三次元座標が算出される。次に、眼球中心を中心とし、半径が上記所定の距離である球上に瞳孔があると想定し、検出された瞳孔中心が上記球上の何れの位置にあるか探索する。最後に、眼球中心と探索された球上の点を結ぶベクトルを視線方向として算出する。
<瞳孔実寸算出処理>
ステップS211で、瞳孔実寸算出部109は、目領域画像正規化部107から取得される正規化目領域画像における目領域の実寸値と、瞳孔検出部108から取得される瞳孔径とから、瞳孔の実寸を算出する。
瞳孔の実寸Drtは、正規化目領域画像の拡大縮小倍率をnとし、検出瞳孔の正規化目領域画像上での瞳孔径をDとしたとき、式(3)によって算出される。この実寸瞳孔径は、実寸瞳孔径記憶部104において保持される。
Figure 0005538160
<終了判定処理>
ステップS212においては、終了判定が行なわれる。終了判定は、人手による終了命令の入力によって行われても良いし、外的な何らかの信号をトリガに瞳孔検出装置100により行われても良い。
ステップS212において終了すると判定された場合に、図3の処理が終了する。
以上のように本実施の形態によれば、瞳孔検出装置100において、必要解像度推定部105が、瞳孔状態予測部103によって算出された実スケール予測値に基づいて、解像度のターゲット値を算出する。そして、目領域画像正規化部107が、必要解像度推定部105によって算出された解像度のターゲット値と、目領域実寸算出部102によって取得された目領域の実スケール値とに基づいて、拡大/縮小倍率を算出し、算出された拡大/縮小倍率に基づいて目領域の画像を正規化する。そして、瞳孔検出部108が、目領域画像正規化部107によって正規化された目領域の画像から瞳孔画像を検出する。
こうすることで、瞳孔径の実スケール予測値及び目領域の実スケール値に基づいて算出した、実体を反映した拡大/縮小倍率によって目領域画像を拡大/縮小した正規化画像を用いて瞳孔検出することができるので、検出対象画像が低解像度であっても瞳孔検出精度を向上することができる。
また、目領域画像正規化部107は、目領域の実スケール値と目領域の画像に用いられている画素数とに基づいて、単位長当たりの画素数を算出し、算出された単位長当たりの画素数と解像度のターゲット値との比を求めることにより、拡大/縮小倍率を算出する。
なお、以上の説明では、解像度のターゲット値が理想の解像度であるとすると、現状の解像度に相当する値を、目領域の実スケール値として説明した。しかしながら、本発明は、これに限定されるものではなく、瞳孔の周辺領域であって画像上で瞳孔画像と解像度が余り変わらない領域の実スケール値であれば良い。
[実施の形態2]
実施の形態2では、目領域の実スケール値が、距離センサによって求められる。
図6は、本発明の実施の形態2に係る瞳孔検出装置500の構成を示すブロック図である。図6において、瞳孔検出装置500は、目領域実寸算出部501を有する。
目領域実寸算出部501は、測距センサを具備し、当該測距センサを用いて目領域の実スケール値を直接的に検出する。測距センサは、例えば、レーザーレンジセンサ、又はTOF(Time-Of-Flight)センサなどである。
検出された目領域の実スケール値は、目領域画像正規化部107へ出力される。なお、実施の形態1と同様に、現状の解像度に相当する値は、目領域の実スケール値に限定されるものではなく、瞳孔の周辺領域であって画像上で瞳孔画像と解像度が余り変わらない領域の実スケール値であれば良い。
以上のように本実施の形態によれば、瞳孔検出装置500において、目領域実寸算出部501が、測距センサを具備し、目領域画像正規化部107が、算出された解像度のターゲット値及び測距センサで計測された目領域の実スケール値に基づいて、拡大/縮小倍率を算出し、算出された拡大/縮小倍率に基づいて目領域の画像を正規化し、瞳孔検出部108が、正規化された目領域の画像から瞳孔画像を検出する。
こうすることで、画像を用いずに目領域の実スケール値を検出することができるので、検出対象画像が低解像度であっても、より正確な目領域の実スケール値を取得することができる。この結果、より正確な目領域の実スケール値に基づいて拡大/縮小倍率を算出することができるので、瞳孔検出精度をさらに向上することができる。
[実施の形態3]
実施の形態3では、照度の平衡状態又は非平衡状態に基づいて、瞳孔径の実スケール予測値の算出方法が切り替えられる。
図7は、本発明の実施の形態3に係る瞳孔検出装置600の構成を示すブロック図である。図7において、瞳孔検出装置600は、照度センサ601と、瞳孔状態予測部602とを有する。
照度センサ601は、瞳孔検出装置600及び撮像ターゲットの周辺の照度を所定の周期で計測し、計測された照度を瞳孔状態予測部602へ順次出力する。
瞳孔状態予測部602は、照度センサ601において計測された照度の履歴に基づいて、照度が平衡状態にあるのか又は非平衡状態にあるのかを判定し、判定結果に基づいて、瞳孔径の実スケール予測値の算出方法を切り替える。
具体的には、瞳孔状態予測部602は、照度が平衡状態にあると判定した場合には、瞳孔径の実スケール予測値を、瞳孔検出部108において過去に検出された少なくとも2つの瞳孔径に基づいて算出する。すなわち、瞳孔状態予測部602は、照度が平衡状態にあると判定した場合には、上記した式(1)を用いて瞳孔径の実スケール予測値を算出する。
一方、瞳孔状態予測部602は、照度が非平衡状態にあると判定した場合には、瞳孔径の実スケール予測値を、瞳孔検出部108において過去に検出された瞳孔径及び縮瞳速度に基づいて算出する。すなわち、瞳孔状態予測部602は、照度が非平衡状態にあると判定した場合には、上記した式(2)を用いて瞳孔径の実スケール予測値を算出する。
以上のように本実施の形態によれば、瞳孔状態予測部602は、照度の計測値履歴に基づいて、照度が平衡状態にあるのか又は非平衡状態にあるのかを判定し、判定結果に基づいて、瞳孔径の実スケール予測値の算出方法を切り替える。
こうすることで、撮影環境を反映して瞳孔径の実スケール予測値を算出することができりので、検出対象画像が低解像度であっても、より正確な解像度のターゲット値を取得することができる。この結果、より正確な解像度のターゲット値に基づいて拡大/縮小倍率を算出することができるので、瞳孔検出精度をさらに向上することができる。
なお、上記各実施の形態では、本発明をハードウェアで構成する場合を例にとって説明したが、本発明はソフトウェアで実現することも可能である。
また、上記各実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
上記各実施の形態で説明した瞳孔検出装置は、パーソナルコンピュータ、OA機器、携帯電話などの情報端末、又は、自動車、飛行機、船、電車などの移動手段に搭載される情報提供装置に適用して有用である。また、監視装置、警報装置、ロボット、映像音響再生装置などにも適用することができる。
本発明の瞳孔検出装置及び瞳孔検出方法は、検出対象画像が低解像度であっても瞳孔検出精度を向上することができる。
100,500,600 瞳孔検出装置
101 目領域画像取得部
102,501 目領域実寸算出部
103,602 瞳孔状態予測部
104 実寸瞳孔径記憶部
105 必要解像度推定部
106 テーブル記憶部
107 目領域画像正規化部
108 瞳孔検出部
109 瞳孔実寸算出部
111 画像入力部
112 目領域検出部
121 顔検出部
122 顔部品検出部
123 目領域決定部
601 照度センサ

Claims (6)

  1. 瞳孔の画像を検出する瞳孔検出装置であって、
    前記瞳孔を含む周辺領域の実スケール値を取得する取得手段と、
    瞳孔径の実スケール予測値を算出する第1の算出手段と、
    前記算出された実スケール予測値に基づいて、解像度のターゲット値を算出する第2の算出手段と、
    前記算出された解像度のターゲット値及び前記周辺領域の実スケール値に基づいて、拡大/縮小倍率を算出し、前記算出された拡大/縮小倍率に基づいて前記周辺領域の画像を正規化する正規化手段と、
    前記正規化された周辺領域の画像から前記瞳孔の画像を検出する検出手段と、
    を具備し、
    前記第1の算出手段は、前記検出手段によって過去に検出された瞳孔画像から求められる瞳孔径に基づいて、前記実スケール予測値を算出する、
    する瞳孔検出装置。
  2. 前記正規化手段は、前記周辺領域の実スケール値と前記周辺領域の画像に用いられている画素数とに基づいて、単位長当たりの画素数を算出し、前記算出された単位長当たりの画素数と前記解像度のターゲット値との比を求めることにより、前記拡大/縮小倍率を算出する、
    請求項1に記載の瞳孔検出装置。
  3. 複数の瞳孔径と各瞳孔径に適した解像度とが対応付けられた解像度テーブルを記憶する記憶手段をさらに具備し、
    前記第2の算出手段は、前記解像度テーブルを用いて、前記算出された実スケール予測値に対応する解像度のターゲット値を算出する、
    求項1乃至のいずれかに記載の瞳孔検出装置。
  4. 前記取得手段は、測距センサを具備し、前記測距センサによって前記周辺領域の実スケールを計測する、
    請求項1に記載の瞳孔検出装置。
  5. 前記第1の算出手段は、照度センサで計測された照度の履歴に基づいて、照度が平衡状態にあるのか又は非平衡状態にあるのかを判定し、判定結果に基づいて、瞳孔径の実スケール予測値の算出方法を切り替える、
    請求項1に記載の瞳孔検出装置。
  6. 瞳孔の画像を検出する瞳孔検出方法であって、
    前記瞳孔を含む周辺領域の実スケール値を取得し、
    瞳孔径の実スケール予測値を算出し、
    前記算出された実スケール予測値に基づいて、解像度のターゲット値を算出し、
    前記算出された解像度のターゲット値及び前記周辺領域の実スケール値に基づいて、拡大/縮小倍率を算出し、
    前記算出された拡大/縮小倍率に基づいて前記周辺領域の画像を正規化し、
    前記正規化された周辺領域の画像から前記瞳孔の画像を検出し、
    前記実スケール予測値は、過去に検出された前記瞳孔の画像から求められる瞳孔径に基づいて算出される
    瞳孔検出方法。
JP2010213780A 2010-09-24 2010-09-24 瞳孔検出装置及び瞳孔検出方法 Active JP5538160B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010213780A JP5538160B2 (ja) 2010-09-24 2010-09-24 瞳孔検出装置及び瞳孔検出方法
PCT/JP2011/005336 WO2012039139A1 (ja) 2010-09-24 2011-09-22 瞳孔検出装置及び瞳孔検出方法
EP11826585.9A EP2620907B1 (en) 2010-09-24 2011-09-22 Pupil detection device and pupil detection method
CN201180045125.0A CN103119623B (zh) 2010-09-24 2011-09-22 瞳孔检测装置及瞳孔检测方法
US13/821,382 US8983235B2 (en) 2010-09-24 2011-09-22 Pupil detection device and pupil detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010213780A JP5538160B2 (ja) 2010-09-24 2010-09-24 瞳孔検出装置及び瞳孔検出方法

Publications (2)

Publication Number Publication Date
JP2012068937A JP2012068937A (ja) 2012-04-05
JP5538160B2 true JP5538160B2 (ja) 2014-07-02

Family

ID=45873637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010213780A Active JP5538160B2 (ja) 2010-09-24 2010-09-24 瞳孔検出装置及び瞳孔検出方法

Country Status (5)

Country Link
US (1) US8983235B2 (ja)
EP (1) EP2620907B1 (ja)
JP (1) JP5538160B2 (ja)
CN (1) CN103119623B (ja)
WO (1) WO2012039139A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101046677B1 (ko) * 2011-03-15 2011-07-06 동국대학교 산학협력단 눈 위치 추적방법 및 이를 이용한 의료용 헤드램프
JP5746937B2 (ja) 2011-09-01 2015-07-08 ルネサスエレクトロニクス株式会社 オブジェクト追跡装置
JP6375607B2 (ja) * 2013-09-30 2018-08-22 株式会社ニコン 電子機器、電子機器の制御方法、及び制御プログラム
JPWO2015075894A1 (ja) * 2013-11-19 2017-03-16 日本電気株式会社 撮像装置、瞳孔撮像装置、瞳孔径測定装置、瞳孔状態検出装置、及び瞳孔撮像方法
US9355315B2 (en) 2014-07-24 2016-05-31 Microsoft Technology Licensing, Llc Pupil detection
EP3181169A1 (en) 2015-12-14 2017-06-21 Sanofi-Aventis Deutschland GmbH Drive mechanism for an injection device
WO2017156383A1 (en) * 2016-03-10 2017-09-14 Ohio State Innovation Foundation Measurements using a single image capture device
JP6587254B2 (ja) * 2016-09-16 2019-10-09 株式会社東海理化電機製作所 輝度制御装置、輝度制御システム及び輝度制御方法
US20200027231A1 (en) * 2016-09-30 2020-01-23 Nec Corporation Information processing device, information processing method, and program storage medium
CN106419830A (zh) * 2016-11-10 2017-02-22 任秋生 一种瞳孔直径测量方法
CN109725418B (zh) 2017-10-30 2020-10-16 华为技术有限公司 显示设备、用于调整显示设备的图像呈现的方法及装置
CN108182380B (zh) * 2017-11-30 2023-06-06 天津大学 一种基于机器学习的鱼眼瞳孔智能测量方法
TWI662946B (zh) * 2018-07-02 2019-06-21 宏碁股份有限公司 瞳距運算裝置及方法
CN108986164B (zh) 2018-07-03 2021-01-26 百度在线网络技术(北京)有限公司 基于图像的位置检测方法、装置、设备及存储介质
CN109711239B (zh) * 2018-09-11 2023-04-07 重庆邮电大学 基于改进混合增量动态贝叶斯网络的视觉注意力检测方法
JP7315006B2 (ja) * 2019-08-08 2023-07-26 オムロン株式会社 モニタリング装置
KR20210073135A (ko) * 2019-12-10 2021-06-18 삼성전자주식회사 눈 복원 기반의 눈 추적 방법 및 장치
CN113405505B (zh) * 2020-03-16 2022-09-16 同方威视技术股份有限公司 基于多传感器的距离与身高的确定方法及其装置
JP6958828B1 (ja) * 2020-12-22 2021-11-02 株式会社スワローインキュベート 視距離推定方法、視距離推定装置、及び視距離推定プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3293308B2 (ja) 1994-03-10 2002-06-17 三菱電機株式会社 人物状態検出装置
US6631208B1 (en) * 1998-05-29 2003-10-07 Fuji Photo Film Co., Ltd. Image processing method
AUPQ958400A0 (en) * 2000-08-22 2000-09-14 Cmx Technologies Pty Ltd Validation of transactions
JP4729188B2 (ja) * 2001-03-27 2011-07-20 独立行政法人科学技術振興機構 視線検出装置
JP4317465B2 (ja) * 2004-02-13 2009-08-19 本田技研工業株式会社 顔識別装置、顔識別方法及び顔識別プログラム
US7876320B2 (en) * 2004-11-25 2011-01-25 Nec Corporation Face image synthesis method and face image synthesis apparatus
JP2008090483A (ja) * 2006-09-29 2008-04-17 Oki Electric Ind Co Ltd 個人認証システム及び個人認証方法
JP2009080706A (ja) * 2007-09-26 2009-04-16 Honda Motor Co Ltd 個人認証装置
JP2009282925A (ja) * 2008-05-26 2009-12-03 Sharp Corp 虹彩認証支援装置及び虹彩認証支援方法
US8624962B2 (en) * 2009-02-02 2014-01-07 Ydreams—Informatica, S.A. Ydreams Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
US7912252B2 (en) * 2009-02-06 2011-03-22 Robert Bosch Gmbh Time-of-flight sensor-assisted iris capture system and method
JP2010213780A (ja) 2009-03-13 2010-09-30 Kawasumi Lab Inc 固定具、接続部材及び医療用具

Also Published As

Publication number Publication date
EP2620907A1 (en) 2013-07-31
EP2620907A4 (en) 2014-03-05
CN103119623B (zh) 2016-07-06
CN103119623A (zh) 2013-05-22
EP2620907B1 (en) 2017-11-08
US20130170754A1 (en) 2013-07-04
JP2012068937A (ja) 2012-04-05
WO2012039139A1 (ja) 2012-03-29
US8983235B2 (en) 2015-03-17

Similar Documents

Publication Publication Date Title
JP5538160B2 (ja) 瞳孔検出装置及び瞳孔検出方法
JP5529660B2 (ja) 瞳孔検出装置及び瞳孔検出方法
JP6338595B2 (ja) モバイルデバイスベースのテキスト検出および追跡
EP2541493B1 (en) Pupil detection device and pupil detection method
WO2019042426A1 (zh) 增强现实场景的处理方法、设备及计算机存储介质
JP5661043B2 (ja) 外光映り込み判定装置、視線検出装置及び外光映り込み判定方法
JP5466610B2 (ja) 視線推定装置
EP2704056A2 (en) Image processing apparatus, image processing method
JP5001930B2 (ja) 動作認識装置及び方法
JP2005318546A (ja) 画像認識システム、画像認識方法、及び画像認識プログラム
KR102386444B1 (ko) 이미지 심도 결정 방법 및 생체 식별 방법, 회로, 디바이스, 및 매체
CN110909561A (zh) 眼睛状态检测系统及眼睛状态检测系统的操作方法
CN108369739B (zh) 物体检测装置和物体检测方法
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
JP2012226645A (ja) 画像処理装置および方法、記録媒体並びにプログラム
JP2002366958A (ja) 画像認識方法および画像認識装置
CN108734066B (zh) 一种手势图像获取设备及方法
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
US20160066150A1 (en) Dynamic Configuration of a Positioning System
JP2008026999A (ja) 障害物検出システム、及び障害物検出方法
CN106406507B (zh) 图像处理方法以及电子设备
KR101909326B1 (ko) 얼굴 모션 변화에 따른 삼각 매쉬 모델을 활용하는 사용자 인터페이스 제어 방법 및 시스템
JP2015106307A (ja) 物体検出装置
US11610385B2 (en) Information processing apparatus, control method, and non-transitory storage medium
EP3796257A1 (en) Estimation device, estimation method, and computer program product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140422

R151 Written notification of patent or utility model registration

Ref document number: 5538160

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140428

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250