JP5737399B2 - 赤目判定装置 - Google Patents

赤目判定装置 Download PDF

Info

Publication number
JP5737399B2
JP5737399B2 JP2013523726A JP2013523726A JP5737399B2 JP 5737399 B2 JP5737399 B2 JP 5737399B2 JP 2013523726 A JP2013523726 A JP 2013523726A JP 2013523726 A JP2013523726 A JP 2013523726A JP 5737399 B2 JP5737399 B2 JP 5737399B2
Authority
JP
Japan
Prior art keywords
eye
red
probability density
candidate
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013523726A
Other languages
English (en)
Other versions
JPWO2013008302A1 (ja
Inventor
清人 埴田
清人 埴田
嘉修 竹前
嘉修 竹前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of JPWO2013008302A1 publication Critical patent/JPWO2013008302A1/ja
Application granted granted Critical
Publication of JP5737399B2 publication Critical patent/JP5737399B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30216Redeye defect

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は、車両の搭乗者を撮像した画像情報から検出される赤目候補から赤目を判定する赤目判定装置に関する。
従来から、車両の衝突を事前に回避するために、車両のステアリングコラムに固定したカメラでドライバの顔を撮像し、この撮像した画像からドライバの黒目位置を検出することによりドライバの視線を検出することが行われている。
ところで、車外光量の低い夜間などは、赤目現象が生じる。このため、車外光量の小さい夜間にドライバの視線を検出するためには、画像情報からドライバの赤目を検出する必要がある。
しかしながら、一般に、黒目の検出に比べて赤目の検出は難しい。そこで、特許文献1では、赤目領域が存在する可能性の高い領域から順次画像を走査することで、ドライバの赤目を検出している。
特開2008−129664号公報
しかしながら、実際には、ドライバの顔を撮像した画像には、赤目候補となり得る画素パターンが2以上存在する場合がある。
例えば、車外光量の低い夜間は、ドライバの顔が暗いため、照明用のLED(Light Emitting Diode)を発光させて、ドライバの顔を撮像する。すると、このLED光がドライバの目や瞼などに反射して画像情報に写り込む。このとき、このLED光の画素パターンと赤目の画素パターンとが類似しているため、このLED光と本当の赤目の2つの画素領域が赤目候補として検出される。その結果、何れの赤目候補が本当の赤目であるのかを判断することができず、赤目を誤検出する可能性が生じる。
そこで、本発明は、赤目候補が複数存在しても高い確度で赤目を判定することができる赤目判定装置を提供することを課題とする。
本発明に係る赤目判定装置は、車両の搭乗者を撮像した画像情報から検出される赤目候補から赤目を判定する赤目判定装置であって、車両の運転中に取得した画像情報から黒目位置の存在確率密度の分布を学習する黒目位置存在確率密度分布学習手段と、画像情報から赤目候補を検出する赤目候補検出手段と、赤目候補検出手段が2以上の赤目候補を検出した場合に、黒目位置存在確率密度分布学習手段が学習した存在確率密度の分布において黒目位置の存在確率密度が高い方の位置にある赤目候補を赤目として判定する赤目判定手段と、を有する。
本発明に係る赤目判定装置によれば、黒目位置存在確率密度分布学習手段により、車両の運転中に取得した画像情報から黒目位置の存在確率密度の分布を学習しておくことで、黒目が存在する可能性の高い位置を把握することができる。そして、赤目候補検出手段により画像情報から複数の赤目候補が検出されると、赤目判定手段により、存在確率密度の分布において黒目位置が存在する確率密度の高い方の位置にある赤目候補を赤目として判定するため、高い確度で赤目の判定を行うことができる。なお、黒目位置の存在確率密度の分布の学習とは、黒目位置の存在確率密度の分布に、黒目位置を記録していくことを意味する。
この場合、搭乗者の顔向きの変化を検出する顔向き変化検出手段と、赤目候補検出手段が検出した各赤目候補の挙動を検出する赤目候補挙動検出手段と、を更に備え、赤目判定手段は、変化検出手段が検出した顔向きの変化と赤目候補挙動検出手段が検出した各赤目候補の挙動との関係に基づいて赤目の判定を行うことが好ましい。通常、人は、見たい方向に顔を向けるため、黒目や赤目の位置は顔向きの変化に追従して移動する。一方、画像に映り込む反射光などの位置は、顔向きの変化に追従することなく、殆ど変化しない。そこで、変化検出手段により検出される顔向きの変化と赤目候補挙動検出手段により検出される各赤目候補の挙動との関係に基づいて赤目の判定を行うことで、複数の赤目候補から赤目を高い確度で判定することができる。
また、車外光量を算出する車外光量算出手段を更に備え、黒目位置存在確率密度分布学習手段は、車外光量が高い時間帯に存在確率密度の分布を学習し、赤目判定手段は、車外光量が低い時間帯に存在確率密度の分布を用いて赤目を判定することが好ましい。車外光量が高い時間帯は赤目現象が生じないため、このような時間帯に黒目位置の存在確率密度の分布を学習することで、存在確率密度の分布の信頼性を向上することができる。そして、車外光量が低い時間帯は、車外光量が高い時間帯に学習した黒目位置の存在確率密度の分布を用いて赤目を判定するため、より高い確度で赤目を判定することができる。
本発明によれば、赤目候補が複数存在しても高い確度で赤目を判定することができる。
実施形態に係る赤目判定装置のブロック構成を示した図である。 3D顔モデルの一例を示す概要図である。 黒目位置存在確率密度分布を示した図である。 実施形態に係る赤目判定装置の赤目判定処理動作を示すフローチャートである。 画像センサが撮像した画像情報の一例である。 昼間における顔の特徴点検出処理を説明するための概要図である。 夜間における顔の特徴点検出処理を説明するための概要図である。 赤目探索領域の一例を示した該略図である。 ドライバが正面を向いたときの顔位置領域を示した図である。 ドライバが左を向いたときの顔位置領域を示した図である。 ドライバが右を向いたときの顔位置領域を示した図である。
以下、図面を参照して、本発明に係る赤目判定装置の実施の形態を説明する。なお、各図において同一又は相当する要素については同一の符号を付し、重複する説明を省略する。
本実施形態に係る赤目判定装置は、ドライバの視線を検出して運転支援制御を行う運転支援制御装置などに搭載されるものである。
図1は、実施形態に係る赤目判定装置のブロック構成を示した図である。図1に示すように、実施形態に係る赤目判定装置1は、画像センサ10と、照度センサ20と、ECU(Electronic Control Unit)30と、を備えている。
画像センサ10は、ドライバの顔を撮像するセンサである。画像センサ10としては、例えば、車両のステアリングコラムに固定されたCCDカメラ等が用いられる。画像センサ10が撮像した画像(顔画像)は、各画素の位置や色情報などを表す画像情報で構成されている。そして、画像センサ10は、撮像した画像の画像情報をECU30へ出力する。
照度センサ20は、車外光量を計測するセンサである。車外光量とは、車両の外側の光量である。このため、昼間は車外光量が高くなり、夜間は車外光量が低くなる。照度センサ20としては、例えば、車両の窓付近に固定された光電変換素子等が用いられる。そして、照度センサ20は、計測した車外光量をECU30へ出力する。
ECU30は、電子制御を行う自動車デバイスのコンピュータであり、CPU(Central Processing Unit)、ROM(Read Only Memory)やRAM(Random Access Memory)等のメモリ、及び入出力インターフェイスなどを備えて構成されている。
このECU30は、画像センサ10及び照度センサ20に接続されており、昼夜判定部31、顔特徴点検出部32、顔姿勢推定部33、黒目位置存在確率密度分布学習部34、赤目候補検出部35及び赤目判定部36を備えている。
昼夜判定部31は、車外光量の高い昼間か車外光量の低い夜間かを判定する機能を有している。昼夜判定部31は、例えば、照度センサ20から出力された車外光量や、画像センサ10から出力された画像の合計輝度などに基づいて、昼夜を判定する。
顔特徴点検出部32は、画像センサ10が撮像した画像から、ドライバの顔の特徴点を検出する機能を有している。具体的に説明すると、顔特徴点検出部32は、まず、画像センサ10が撮像した画像全体を探索範囲として、ニューラルネットワーク(Neural Network)やブースティング(Boosting)等の統計手法により顔位置を発見する。そして、顔特徴点検出部32は、この発見した顔位置を含む顔位置領域を設定し、この設定した顔位置領域から、ニューラルネットワークやブースティング等の統計手法により顔の特徴点を検出する。顔の特徴点としては、例えば、右目尻、右目頭、左目尻、左目頭、右上瞼、右下瞼、左上瞼、左下瞼、右黒目、左黒目、鼻腔中心、左右口端等が挙げられる。なお、顔の各特徴点の検出は、如何なる手法を用いてもよい。
顔姿勢推定部33は、顔特徴点検出部32が検出した顔の特徴点から、ドライバの顔姿勢(顔向き)を推定する機能を有している。具体的に説明すると、顔姿勢推定部33は、まず、顔特徴点検出部32が検出した顔の特徴点の座標位置に三次元顔モデル(3D顔モデル)をフィッティングさせる。図2は、3D顔モデルの一例を示す概要図である。図2に示すように、3D顔モデルでは、顔の上下方向に沿ったYm方向、顔の左右方向に沿ったXm方向、顔の前後方向に沿ったZm方向とし、Ym軸周りの回転をヨー、Xm軸周りの回転をピッチ、Zm軸周りの回転をロールとしている。そして、3D顔モデルは、頭部回転中心からの距離を特徴点ごとに保持したものとなる。そこで、顔姿勢推定部33は、この3D顔モデルを顔の特徴点にフィッティングさせて、最も一致するときの位置及び回転(ヨー、ピッチ、ロール)をその時点での顔姿勢とする。なお、顔姿勢の推定方法は、この手法に限られるものではなく、公知の他の手法を用いてもよい。そして、顔姿勢推定部33は、このフィッティングさせた3D顔モデルの姿勢から、ドライバの顔姿勢(顔向き)を推定する。
黒目位置存在確率密度分布学習部34は、顔特徴点検出部32が検出した黒目位置を黒目位置存在確率密度分布に記録する機能を有している。図3は、黒目位置存在確率密度分布を示した図である。図3に示すように、黒目位置存在確率密度分布は、後述する赤目探索領域において、黒目の位置が存在する確率密度を表したものである。具体的に説明すると、黒目位置存在確率密度分布学習部34は、顔特徴点検出部32が黒目を検出する度に、この検出した黒目の位置を黒目位置として黒目位置存在確率密度分布に記録する。これにより、黒目位置存在確率密度分布学習部34は、赤目探索領域において黒目が存在する確率の高い位置を学習していく。なお、黒目位置存在確率密度分布は、図示しない補助記憶装置などに記憶されている。
また、黒目位置存在確率密度分布学習部34は、黒目位置存在確率密度分布に黒目位置を記録した後に、黒目位置存在確率密度分布の平滑化処理を行う機能を有している。具体的に説明すると、顔特徴点検出部32が検出した黒目位置には、ノイズが乗っている可能性がある。そこで、黒目位置存在確率密度分布学習部34は、黒目位置存在確率密度分布に黒目位置を記録した後に、黒目位置存在確率密度分布の平滑化処理を行うことで、このようなノイズの影響を低減する。
赤目候補検出部35は、画像情報から赤目の候補となり得る1又は複数の赤目候補を検出する機能を有している。具体的に説明すると、赤目候補検出部35は、まず、顔特徴点検出部32が検出した目尻、目頭及び上下瞼の特徴点に基づいて、顔特徴点検出部32が設定した顔位置領域から、赤目探索領域を設定する。赤目探索領域は、赤目を探索する領域である。赤目探索領域は、例えば、目尻よりも外側に配置されて上下方向に延びる線分と、目頭よりも内側に配置されて上下方向に延びる線分と、上瞼よりも上側に配置されて左右方向に延びる線分と、下瞼よりも下側に配置されて左右方向に延びる線分と、により画成される矩形領域となる。そして、赤目候補検出部35は、テンプレートマッチングなどにより、赤目探索領域から赤目候補を検出し、この検出した赤目候補の中心位置を赤目候補位置として検出する。なお、赤目候補の検出方法は、この手法に限られるものではなく、公知の他の手法を用いてもよい。
赤目判定部36は、赤目候補検出部35が検出した赤目候補の赤目判定を行う機能を有している。赤目候補検出部35では、本当の赤目の他に、ドライバの目や瞼などに反射したLED光なども赤目候補として検出される。このため、赤目候補検出部35では、2以上の赤目候補が検出されることがある。そこで、赤目判定部36は、赤目候補検出部35が2以上の赤目候補を検出した場合に、何れの赤目候補が本当の赤目であるのかを判定する。
具体的に説明すると、赤目判定部36は、ドライバの顔向きの変化と赤目候補の挙動との関係に基づいて、赤目候補検出部35が検出した赤目候補の赤目判定を行う。具体的に説明すると、赤目判定部36は、顔姿勢推定部33が推定したドライバの顔向き角度を所定期間分トレースすることで、ドライバの顔向き角度の変化を検出する。このため、赤目判定部36は、顔向き変化検出手段としても機能する。なお、顔向き角度の変化の検出方法は、この手法に限られるものではなく、公知の他の手法を用いてもよい。また、赤目判定部36は、赤目候補検出部35が検出した各赤目候補位置をそれぞれ所定期間分トレースすることで、各赤目候補の挙動を検出する。赤目候補の挙動とは、赤目候補の中心位置の変化を意味する。このため、赤目判定部36は、赤目候補挙動検出手段としても機能する。なお、赤目候補の挙動の検出方法は、この手法に限られるものではなく、公知の他の手法を用いてもよい。そして、赤目判定部36は、赤目候補検出部35が2以上の赤目候補を検出した場合に、顔向き角度の変化と各赤目候補の挙動との関係に基づいて、各赤目候補の赤目判定を行う。つまり、赤目判定部36は、顔向き角度の変化に対して赤目候補の挙動が異なる赤目候補、すなわち、顔向き角度の変化に対して赤目候補の位置変化が閾値以下の赤目候補を、赤目候補から除外する。
更に、赤目判定部36は、黒目位置存在確率密度分布に基づいて、赤目候補検出部35が検出した赤目候補の赤目判定を行う。具体的に説明すると、赤目判定部36は、赤目候補検出部35が2以上の赤目候補を検出した場合に、黒目位置存在確率密度分布において黒目位置の存在確率密度が高い方の位置に存在する赤目候補を赤目として判定する。
次に、本実施形態に係る赤目判定装置1の動作について説明する。図4は、実施形態に係る赤目判定装置の赤目判定処理動作を示すフローチャートである。図4に示す処理は、ECU30の制御により行われ、例えば、イグニッションオンされたタイミングからイグニッションオフされるまでの間、所定の間隔で繰返し行われる。
図4に示すように、まず、ECU30は、画像センサ10が撮像したドライバの画像を入力する(ステップS1)。ステップS1では、画像センサ10が撮像した図5に示す画像F1を入力する。図5は、画像センサが撮像した画像の一例である。
次に、ECU30は、夜間であるか否かを判定する(ステップS2)。ステップS2では、例えば、昼夜判定部31が、照度センサ20から出力された車外光量や、画像センサ10から出力された画像などに基づいて、昼夜を判定する。照度センサ20から出力された車外光量に基づいて昼夜を判定する場合、昼夜判定部31は、まず、照度センサ20から出力された車外光量を取得する。そして、昼夜判定部31は、この車外光量が所定の閾値よりも高い場合は昼間であると判定し、この車外光量が所定の閾値以下である場合は夜間であると判定する。一方、画像センサ10から出力された画像に基づいて昼夜を判定する場合、昼夜判定部31は、まず、画像センサ10から出力された画像を取得する。そして、昼夜判定部31は、この画像を構成する各画素の合計輝度を算出し、合計輝度が所定の閾値よりも高い場合は昼間であると判定し、合計輝度が所定の閾値以下である場合は夜間であると判定する。
そして、ECU30は、昼間であると判定すると(ステップS2:NO)、ステップS3に進み、夜間であると判定すると(ステップS2:YES)、ステップS5に進む。
ステップS2において昼間であると判定したECU30は、次に、顔特徴点を検出する(ステップS3)。ステップS3では、まず、顔特徴点検出部32が、ステップS1で入力した画像F1の全体を探索範囲として、ニューラルネットワークやブースティング等の統計手法により顔位置を発見する。そして、図6に示すように、顔特徴点検出部32が、この発見した顔位置を含む顔位置領域G1を設定し、この設定した顔位置領域G1を探索範囲として、ニューラルネットワークやブースティング等の統計手法により、右目尻、右目頭、左目尻、左目頭、右上瞼、右下瞼、左上瞼、左下瞼、右黒目、左黒目、鼻腔中心、左右口端等の特徴点を検出する。そして、顔特徴点検出部32は、この検出した右黒目及び左黒目の中心位置を右目及び左目の黒目位置として検出する。図6は、昼間における顔の特徴点検出処理を説明するための概要図であり、顔位置領域G1を示している。
次に、ECU30は、黒目位置存在確率密度分布の学習を行う(ステップS4)。ステップS4では、黒目位置存在確率密度分布学習部34が、ステップS3で検出した黒目位置を、図3に示す黒目位置存在確率密度分布に記録し、黒目位置が存在する確率密度の分布を学習する。この場合、黒目位置存在確率密度分布に記録されるデータを新鮮なものとするために、一定期間内に検出された黒目位置のみを黒目位置存在確率密度分布に記録して、一定期間よりも前に検出された黒目位置の記録を黒目位置存在確率密度分布から消去することもできる。更にステップS4では、黒目位置存在確率密度分布学習部34が、黒目位置存在確率密度分布に黒目位置を記録した後に、黒目位置存在確率密度分布の平滑化処理を行う。
一方、上述したステップS2において夜間であると判定したECU30は、次に、顔特徴点を検出する(ステップS5)。ステップS5では、まず、顔特徴点検出部32が、ステップS1で入力した画像F1の全体を探索範囲として、ニューラルネットワークやブースティング等の統計手法により顔位置を発見する。そして、図7に示すように、顔特徴点検出部32が、この発見した顔位置を含む顔位置領域G1を設定し、この設定した顔位置領域G1を探索範囲として、ニューラルネットワークやブースティング等の統計手法により、右目尻、右目頭、左目尻、左目頭、右上瞼、右下瞼、左上瞼、左下瞼、鼻腔中心、左右口端等の特徴点を検出する。図7は、夜間における顔の特徴点検出処理を説明するための概要図であり、顔位置領域G1を示している。
このとき、ドライバの目には赤目現象が発生し、ドライバの瞳孔が赤目Rになっている。このため、ステップS5では、昼間のステップS3とは異なり、右黒目及び左黒目の特徴点を検出することができない。
また、車外光量の低い夜間は、ドライバの顔を撮像するために、画像センサ10に搭載されたLEDを発光する。このため、画像センサ10で撮像した画像には、ドライバの目や瞼に反射したLED光Lが映り込んでいる。
次に、ECU30は、ステップS5で検出した顔の特徴点から、ドライバの顔姿勢(顔向き)を推定する(ステップS6)。ステップS6では、まず、顔姿勢推定部33が、ステップS5で検出した顔の特徴点の座標位置に、図2に示す3D顔モデルをフィッティングさせる。そして、顔姿勢推定部33が、このフィッティングさせた3D顔モデルの姿勢から、ドライバの顔姿勢(顔向き)を推定する。
次に、ECU30は、1又は複数の赤目候補を探索する(ステップS7)。ステップS7では、まず、赤目候補検出部35が、ステップS5において設定した顔位置領域G1(図7参照)から、赤目探索領域を設定する。図8は、赤目探索領域の一例を示した該略図である。図8に示すように、赤目探索領域G2は、例えば、目尻よりも外側に配置されて上下方向に延びる線分と、目頭よりも内側に配置されて上下方向に延びる線分と、上瞼よりも上側に配置されて左右方向に延びる線分と、下瞼よりも下側に配置されて左右方向に延びる線分と、により画成される矩形領域となる。そして、赤目候補検出部35が、テンプレートマッチングなどにより、赤目探索領域G2から赤目候補Cを検出し、この検出した赤目候補Cの中心位置を赤目候補位置として検出する。
ここで、図8に示す赤目探索領域G2を見てみる。すると、赤目探索領域G2には、ドライバの目や瞼に反射したLED光Lが映り込んでいる。このLED光Lの画素パターンは、赤目Rの画素パターンと近似している。このため、赤目候補検出部35は、本当の赤目Rを赤目候補Cとして検出するとともに、このLED光Lも赤目候補Cとして検出する。その結果、ステップS7では、2つの赤目候補Cが検出される。
次に、ECU30は、ステップS7で検出された赤目候補の赤目判定を行う(ステップS8)。
ステップS8では、まず、ステップS7で2以上の赤目候補Cを検出した場合に、赤目判定部36が、ステップS6で推定したドライバの顔向き角度を所定期間分トレースすることにより、ドライバの顔向き角度の変化を検出する。また、赤目判定部36が、ステップS7で検出した各赤目候補Cの赤目候補位置をそれぞれ所定期間分トレースすることにより、各赤目候補Cの挙動を検出する。そして、赤目判定部36が、顔向き角度の変化に対して赤目候補Cの挙動が異なる赤目候補、すなわち、顔向き角度の変化に対して赤目候補位置の位置変化が閾値以下となる赤目候補を、赤目候補から除外する。
図9は、ドライバが正面を向いたときの顔位置領域を示した図である。図10は、ドライバが左を向いたときの顔位置領域を示した図である。図11は、ドライバが右を向いたときの顔位置領域を示した図である。図9に示すように、ドライバが正面を向いている場合は、赤目Rが目の中央に位置し、LED光Lが目の右下に位置している。ここで、ドライバが左側を見ようとすると、図10に示すように、ドライバの顔向きが左向きに変化するとともに、赤目Rも目の左側に移動する。しかしながら、LED光Lは、LEDとドライバの顔と画像センサ10との位置関係によって画像に映り込む位置が特定されるため、目の右下に留まったままとなる。一方、ドライバが右側を見ようとすると、図11に示すように、ドライバの顔向きが右向きに変化するとともに、赤目Rも目の右側に移動する。しかしながら、LED光Lは、LEDとドライバの顔と画像センサ10との位置関係によって画像に映り込む位置が特定されるため、目の右下に留まったままとなる。このように、赤目Rの位置は、顔向きの変化に伴い移動するが、LED光Lは顔向きの変化に関係なく所定の位置に留まる。そこで、ステップS8では、顔向き角度の変化に対して赤目候補Cの挙動が異なる赤目候補C、すなわち、顔向き角度の変化に対して赤目候補位置の位置変化が閾値以下となる赤目候補Cは、赤目Rでは無いと判断して、赤目候補Cから除外する。
次に、ステップS8では、赤目候補Cが2以上ある場合に、まず、赤目判定部36が、黒目位置存在確率密度分布を参照して、各赤目候補Cの赤目候補位置における黒目位置の存在確率密度を求める。そして、赤目判定部36が、黒目位置の存在確率密度が高い方の位置にある赤目候補Cを、赤目Rであると判定する。
以上説明したように、本実施形態に係る赤目判定装置1によれば、車両の運転中に取得した画像情報から黒目位置存在確率密度分布を学習しておくことで、黒目の存在可能性の高い位置を把握することができる。そして、画像情報から複数の赤目候補が検出されると、黒目位置存在確率密度分布において黒目位置の存在確率密度が高い方の位置にある赤目候補を赤目として判定するため、高い確度で赤目の判定を行うことができる。
また、車外光量の高い昼間に黒目位置の存在確率密度の分布を学習することで、黒目位置存在確率密度分布の信頼性を向上することができる。そして、車外光量が低い夜間は、昼間に学習した黒目位置存在確率密度分布を参照して赤目を判定するため、より高い確度で赤目を判定することができる。
また、赤目判定部36により、顔向き角度の変化に対して赤目候補位置の位置変化が閾値以下となる赤目候補を赤目候補から除外することで、LED光などを赤目候補から適切に除外することができる。
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されるものではない。例えば、上記実施形態において、赤目判定部36は、黒目位置存在確率密度分布に基づいて赤目を判定する手法と、顔向きの変化と赤目候補の挙動との関係に基づいて赤目を判定する手法と、の双方を行うものとして説明したが、何れか一方のみの手法を行うものとしてもよい。
車両の搭乗者を撮像した画像情報から検出される赤目候補から赤目を判定する赤目判定装置として利用可能である。
1…赤目判定装置、10…画像センサ、20…照度センサ、31…昼夜判定部(車外光量算出手段)、32…顔特徴点検出部、33…顔姿勢推定部、34…黒目位置存在確率密度分布学習部(黒目位置存在確率密度分布学習手段)、35…赤目候補検出部(赤目候補検出手段)、36…赤目判定部(赤目判定手段、顔向き変化検出手段、赤目候補挙動検出手段)、R…赤目、C…赤目候補、L…LED光、F1…画像、G1…顔位置領域、G2…赤目探索領域。

Claims (3)

  1. 車両の搭乗者を撮像した画像情報から検出される赤目候補から赤目を判定する赤目判定装置であって、
    前記車両の運転中に取得した前記画像情報から黒目位置の存在確率密度の分布を学習する黒目位置存在確率密度分布学習手段と、
    前記画像情報から赤目候補を検出する赤目候補検出手段と、
    前記赤目候補検出手段が2以上の赤目候補を検出した場合に、前記黒目位置存在確率密度分布学習手段が学習した前記存在確率密度の分布において黒目位置の存在確率密度が高い方の位置にある赤目候補を赤目として判定する赤目判定手段と、
    を有する、赤目判定装置。
  2. 前記搭乗者の顔向きの変化を検出する顔向き変化検出手段と、
    前記赤目候補検出手段が検出した各赤目候補の挙動を検出する赤目候補挙動検出手段と、
    を更に備え、
    前記赤目判定手段は、前記顔向き変化検出手段が検出した顔向きの変化と前記赤目候補挙動検出手段が検出した各赤目候補の挙動との関係に基づいて赤目の判定を行う、請求項1に記載の赤目判定装置。
  3. 車外光量を算出する車外光量算出手段を更に備え、
    前記黒目位置存在確率密度分布学習手段は、車外光量が高い時間帯に前記存在確率密度の分布を学習し、
    前記赤目判定手段は、車外光量が低い時間帯に前記存在確率密度の分布を用いて赤目を判定する、請求項1に記載の赤目判定装置。
JP2013523726A 2011-07-11 2011-07-11 赤目判定装置 Active JP5737399B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/065822 WO2013008302A1 (ja) 2011-07-11 2011-07-11 赤目判定装置

Publications (2)

Publication Number Publication Date
JPWO2013008302A1 JPWO2013008302A1 (ja) 2015-02-23
JP5737399B2 true JP5737399B2 (ja) 2015-06-17

Family

ID=47505621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013523726A Active JP5737399B2 (ja) 2011-07-11 2011-07-11 赤目判定装置

Country Status (4)

Country Link
US (1) US9298995B2 (ja)
JP (1) JP5737399B2 (ja)
DE (1) DE112011105445B4 (ja)
WO (1) WO2013008302A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6188453B2 (ja) * 2013-06-28 2017-08-30 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
DE102013213236A1 (de) 2013-07-05 2015-01-08 Robert Bosch Gmbh Verfahren zum Ermitteln eines Aufmerksamkeitsgrads eines Fahrzeugführers
JP6524910B2 (ja) * 2013-10-01 2019-06-05 日本電気株式会社 物体検出装置、物体検出方法および学習装置
AU2016310452B2 (en) 2015-08-21 2021-04-22 Magic Leap, Inc. Eyelid shape estimation
US10146997B2 (en) 2015-08-21 2018-12-04 Magic Leap, Inc. Eyelid shape estimation using eye pose measurement
AU2016340222B2 (en) 2015-10-16 2021-07-01 Magic Leap, Inc. Eye pose identification using eye features
US11132543B2 (en) 2016-12-28 2021-09-28 Nvidia Corporation Unconstrained appearance-based gaze estimation
JP6930842B2 (ja) * 2017-03-21 2021-09-01 株式会社トプコン 眼科装置
US10521661B2 (en) 2017-09-01 2019-12-31 Magic Leap, Inc. Detailed eye shape model for robust biometric applications

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002040545A (ja) * 2000-07-19 2002-02-06 Canon Inc カメラおよびプリント装置
US7457545B2 (en) * 2004-02-12 2008-11-25 Northrop Grumman Corporation Process for controlling a Hartmann wavefront sensor (WFS) in an adaptive optic (AO) system
US20060167670A1 (en) * 2005-01-26 2006-07-27 Deering Michael F Photon-based modeling of the human eye and visual perception
JP4549997B2 (ja) 2006-03-30 2010-09-22 富士フイルム株式会社 赤目検出装置、赤目検出方法、および赤目検出プログラム
JP4876687B2 (ja) * 2006-04-19 2012-02-15 株式会社日立製作所 注目度計測装置及び注目度計測システム
JP2008129664A (ja) * 2006-11-17 2008-06-05 Sony Corp 画像処理装置、撮影装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
US7764846B2 (en) * 2006-12-12 2010-07-27 Xerox Corporation Adaptive red eye correction
JP4895797B2 (ja) * 2006-12-26 2012-03-14 アイシン精機株式会社 瞼検出装置、瞼検出方法及びプログラム
JP4884251B2 (ja) * 2007-02-09 2012-02-29 富士フイルム株式会社 撮影装置および方法並びにプログラム
IL183385A0 (en) * 2007-05-24 2007-09-20 Yosef Cohen Security systems and methods
JP5110373B2 (ja) * 2008-03-07 2012-12-26 オムロン株式会社 測定装置および方法、撮像装置、並びに、プログラム
US8433144B2 (en) * 2008-03-27 2013-04-30 Hewlett-Packard Development Company, L.P. Systems and methods for detecting red-eye artifacts
JP4888838B2 (ja) * 2008-05-12 2012-02-29 トヨタ自動車株式会社 運転者撮像装置および運転者撮像方法
US8837785B2 (en) * 2011-03-21 2014-09-16 Apple Inc. Red-eye removal using multiple recognition channels
US8571271B2 (en) * 2011-05-26 2013-10-29 Microsoft Corporation Dual-phase red eye correction

Also Published As

Publication number Publication date
DE112011105445T5 (de) 2014-03-27
US20140133705A1 (en) 2014-05-15
JPWO2013008302A1 (ja) 2015-02-23
US9298995B2 (en) 2016-03-29
DE112011105445B4 (de) 2020-08-06
WO2013008302A1 (ja) 2013-01-17

Similar Documents

Publication Publication Date Title
JP5737399B2 (ja) 赤目判定装置
JP6695503B2 (ja) 車両の運転者の状態を監視するための方法及びシステム
JP5790762B2 (ja) 瞼検出装置
US9177202B2 (en) Red-eye detection device
JP5251800B2 (ja) 対象物追跡装置及びプログラム
JP4263737B2 (ja) 歩行者検知装置
US20150049195A1 (en) Image processing unit, object detection method, object detection program, and vehicle control system
JP7135665B2 (ja) 車両制御システム、車両の制御方法及びコンピュータプログラム
JP5737401B2 (ja) 瞼検出装置
JP2007334751A (ja) 車両周辺監視装置
US20200125861A1 (en) Road line detection device and road line detection method
JP4992823B2 (ja) 顔検出装置及び顔検出方法
WO2022161139A1 (zh) 行驶朝向检测方法、装置、计算机设备及存储介质
JP7095559B2 (ja) 区画線検出装置及び区画線検出方法
KR20170106823A (ko) 부분적인 깊이 맵에 기초하여 관심 객체를 식별하는 영상 처리 장치
JP5091897B2 (ja) 停止線検出装置
JP5760523B2 (ja) 走路推定装置及びプログラム
JP5829155B2 (ja) 歩行者検出装置及びプログラム
Satzoda et al. Vision-based front and rear surround understanding using embedded processors
JP2009044631A (ja) 物体検出装置
JP5559121B2 (ja) 対象物種別判定装置
JP5655491B2 (ja) 開眼状態検出装置
JP4847303B2 (ja) 障害物検出方法、障害物検出プログラムおよび障害物検出装置
CN113705403B (zh) 一种与全景成像系统融合的前方目标车辆碰撞预警方法
US20230177861A1 (en) Apparatus, method, and computer program for detecting hand region

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150406

R151 Written notification of patent or utility model registration

Ref document number: 5737399

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151