JP3858534B2 - Eye state detection device - Google Patents

Eye state detection device Download PDF

Info

Publication number
JP3858534B2
JP3858534B2 JP27527499A JP27527499A JP3858534B2 JP 3858534 B2 JP3858534 B2 JP 3858534B2 JP 27527499 A JP27527499 A JP 27527499A JP 27527499 A JP27527499 A JP 27527499A JP 3858534 B2 JP3858534 B2 JP 3858534B2
Authority
JP
Japan
Prior art keywords
eye
eyes
detected
state detection
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP27527499A
Other languages
Japanese (ja)
Other versions
JP2001101386A (en
Inventor
正次 大和田
雅之 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP27527499A priority Critical patent/JP3858534B2/en
Publication of JP2001101386A publication Critical patent/JP2001101386A/en
Application granted granted Critical
Publication of JP3858534B2 publication Critical patent/JP3858534B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、車両の運転者、船舶の操船者、プラント等のオペレータ等の居眠り状態や脇見状態を検出し警報することなどに供する眼の状態検出装置に関する。
【0002】
【従来の技術】
従来の画像処理によるこの種の装置には、例えば特開平6−251273号に記載されたようなものがある。これは運転者の顔画像から眼の位置を検出し、その後、眼の位置を追跡することで運転者の状態を判断している。
【0003】
【発明が解決しようとする課題】
しかしながら、上記従来の装置では、運転者が振り向く動作をし、或いはドアミラーを見るなどして顔を大きく動かし眼を追跡しきれない状態が発生したとき、再度顔画像から眼の位置を検出し、追跡するようにしなければ成らず、運転者の脇見状態など短時間での判断が必要となる状況では判断に限界があった。
【0004】
この発明は、眼を追跡しきれない状態が発生したときでも速い処理が可能な眼の状態検出装置の提供を課題とする。
【0005】
【課題を解決するための手段】
請求項1の発明は、乗員の顔画像データを出力する画像出力手段と、該画像出力手段から出力された顔画像データを処理して顔の特徴量を検出する特徴量検出手段と、前記検出された顔の特徴量に基づいて眼の位置を検出する第一の眼の位置検出手段と、前記検出された眼の位置を含む所定領域を左右の眼に対してそれぞれ一つづつ決定すると共に該所定領域に前記眼の移動に応じて該眼を追跡させる領域決定手段と、前記各所定領域の中で左右の眼の位置を検出する第二の眼の位置検出手段と、前記第二の眼の位置検出手段で検出された左右の眼の相対位置が設定範囲を超えたとき、左右の眼のうち一方の眼が眼として検出されなくなったとして、車両が振動した時に左右の眼を同時に含めることの可能な最小の大きさとして定められた大きさに前記所定領域を拡張する領域拡張手段と、前記拡張した所定領域の中で左右の眼の位置を検出する第三の眼の位置検出手段とを備えたことを特徴とする。
【0006】
請求項2の発明は、請求項1記載の眼の状態検出装置であって、前記領域拡張手段は、前記検出されている他方の眼の位置を含む所定領域を拡張することを特徴とする。
【0007】
請求項3の発明は、請求項1記載の眼の状態検出装置であって、前記領域拡張手段は、前記第一の眼の位置検出手段又は第二の眼の位置検出手段が検出する眼の位置の少なくとも一方を記憶し、該記憶した眼の位置を含む大きさに前記所定領域を拡張することを特徴とする。
【0009】
請求項の発明は、請求項1〜の何れかに記載の眼の状態検出装置であって、前記領域決定手段は、前記拡張した所定領域の中で左右の眼の相対位置が設定範囲内となったとき再び左右の所定領域を決定することを特徴とする。
【0010】
請求項の発明は、請求項記載の眼の状態検出装置であって、前記相対位置は、左右の眼の左右距離であることを特徴とする。
【0011】
請求項の発明は、請求項記載の眼の状態検出装置であって、前記相対位置は、左右の眼の上下距離であることを特徴とする。
【0012】
請求項の発明は、請求項3記載の眼の状態検出装置であって、前記領域拡張手段は、前記第二の眼の位置検出手段が検出する左右の眼の相対位置が設定範囲に設定時間あるとき、該左右の眼の位置を記憶すると共に、同相対位置が設定範囲に設定時間ないとき前記第一の眼の位置検出手段が検出する左右の眼の位置を記憶し、該記憶した眼の位置から前記所定領域を拡張することを特徴とする。
【0013】
【発明の効果】
請求項1の発明では、画像出力手段から出力された乗員の画像データを処理して特徴量検出手段により顔の特徴量を検出し、検出された顔の特徴量に基づいて第一の眼の位置検出手段により眼の位置を検出することができる。領域決定手段は、前記検出された眼の位置を含む所定領域を左右の眼に対してそれぞれ一つづつ決定すると共に眼の移動に応じて前記所定領域により眼を追跡することができる。そして、前記各所定領域の中で、第二の眼の位置検出手段により左右の眼の位置を検出することができる。
【0014】
かかる検出において、乗員が振り向く動作をし、或いはドアミラーを見るなどして顔を大きく動かし眼を追跡しきれない状態が発生したとき、第二の眼の位置検出手段で左右の眼のうち一方の眼が検出されなくなるが、領域拡張手段により前記所定領域が車両が振動した時に左右の眼を同時に含めることの可能な最小の大きさとして定められた大きさに拡張され、拡張した所定領域の中で第三の眼の位置検出手段により左右の眼の位置を検出することができる。従って、画像データの処理から再び行う必要が無くなり、早い処理を可能とし、脇見運転などにも十分対応することができる。
【0015】
請求項2の発明では、請求項1の発明の効果に加え、領域拡張手段により検出されている他方の眼の位置を含む所定領域を拡張することができ、片方の眼が消失した場合に、他方の眼の所定領域を利用することで速い処理を行わせることができる。
【0016】
請求項3の発明では、請求項1の発明の効果に加え、領域拡張手段により第一の眼の位置検出手段又は第二の眼の位置検出手段が検出する眼の位置の少なくとも一方を記憶し、該記憶した眼の位置を含む大きさに所定領域を拡張することができ、両方の眼が消失した場合でも、記憶した眼の所定領域を利用することで速い処理を行わせることができる。
【0018】
請求項の発明では、請求項1〜の何れかの発明の効果に加え、領域決定手段により、拡張した所定領域の中で左右の眼の相対位置が設定範囲内となったとき再び左右の所定領域を決定することができ、拡張した領域に比べて再びノイズの少ない範囲で眼の検出を行うことができ、迅速且つ正確な眼の検出を行うことができる。
【0019】
請求項の発明では、請求項記載の発明の効果に加え、相対位置を、左右の眼の左右距離とすることにより、乗員の顔の左右方向で眼でないものを誤って検出した場合でも所定領域を拡張し、迅速且つ正確な眼の検出を行うことができる。
【0020】
請求項の発明では、請求項4記載の発明の効果に加え、相対位置を、左右の眼の上下距離とすることにより、乗員の顔の上下方向で眼でないものを誤って検出した場合でも所定領域を拡張し、迅速且つ正確な眼の検出を行うことができる。
【0021】
請求項の発明では、請求項3の発明の効果に加え、前記領域拡張手段により、前記第二の眼の位置検出手段が検出する左右の眼の相対位置が設定範囲に設定時間あるとき、該左右の眼の位置を記憶すると共に、同相対位置が設定範囲に設定時間ないとき前記第一の眼の位置検出手段が検出する左右の眼の位置を記憶し、該記憶した眼の位置から前記所定領域を拡張することができ、簡単な処理で所定領域を拡張できると共に、確実に眼の位置を検出することができる。
【0022】
【発明の実施の形態】
本装置は、自動車の他に鉄道車両、船舶、プラントのオペレータ等の居眠り運転警報装置や脇見運転警報装置として用いることができるが、本実施例では脇見運転警報装置として自動車に適用した場合で説明する。
【0023】
図1は、本発明を適用した眼の状態検出装置の構成ブロック図にかかり、該装置は、画像入力手段CL1と、顔の特徴量検出手段CL2と、第一の眼の検出手段CL3と、領域決定手段CL4と、第二の眼の位置検出手段CL5と、領域拡張手段CL6と、第三の眼の位置検出手段CL7とを備えている。
【0024】
前記画像入力手段CL1は、乗員の顔画像を入力し画像データを出力する。前記顔の特徴量検出手段CL2は、前記画像入力手段CL1により出力された顔画像データを処理して顔の特徴量を検出する。前記第一の眼の位置検出手段CL3は、前記検出された顔の特徴量に基づいて眼の位置を検出する。前記領域決定手段CL4は、前記検出された眼の位置を含む所定領域を左右の眼に対してそれぞれ一つづつ決定すると共に該所定領域により前記眼の移動に応じて該眼を追跡する。前記第二の眼の位置検出手段CL5は、前記各所定領域の中で左右の眼の位置を検出する。
【0025】
前記領域拡張手段CL6は、前記所定領域を左右の眼を同時に含めることの可能な大きさに拡張する。前記第三の眼の位置検出手段CL7は、前記拡張した所定領域の中で左右の眼の位置を検出する。
【0026】
検出された眼の位置から、例えば基準値を用いて脇見判定などを行い、脇見運転状態などであれば、ブザーなどの警報を発する。
【0027】
図2は、本発明の一実施形態にかかる構成ブロック図である。
【0028】
同図のように、TVカメラ1が自動車のインストルメントに設置され、運転者の顔部分を正面から撮影する。TVカメラ1の入力画像は、本実施形態では、例えば横方向(X)512画素、縦方向(Y)480画素からなる。
【0029】
前記TVカメラ1で撮像された入力画像は、A−D変換器2を介して、デジタル量の入力画像データとして画像メモリ3に格納される。画像メモリ3の出力は、画像データ演算回路4に入力される。
【0030】
画像データ演算回路4は、前記入力された画像データに基づいて顔の縦方向の画素列の濃度を検出し、画素列における濃度の高まりとその変化状態によりポイントを抽出し(抽出点)、隣接する画素列の画素列方向に近接したポイントを連続して顔の横方向への連続データを抽出し、顔画像データとして出力する。
【0031】
従って、TVカメラ1、A−D変換器2、画像メモリ3、画像データ演算回路4は、本実施形態において前記画像出力手段CL1を構成している。画像データ演算回路24の出力は、顔の特徴量検出回路5に入力される。
【0032】
この顔の特徴量検出回路5は、前記顔の特徴量検出手段CL2を構成し、抽出された顔の複数の特徴量から眼を特定すると共にその座標を求める。顔の特徴量検出回路5の出力は、眼の位置検出回路6に入力される。
【0033】
眼の位置検出回路6は、前記連続データから眼の選択を行うことで眼の位置を検出し、該眼の位置から眼の位置を含む所定領域を左右の眼に対してそれぞれ1つづつ決定すると共に、該所定領域に前記眼の移動に応じて該眼を追跡させ、この眼を追跡する各所定領域内において縦方向への濃度の高まりとその変化状態からポイントを抽出し、隣接する画素列の画素列方向に近接したポイントを連続して顔の横方向への連続データを抽出し、左右の眼の位置を検出する。従って、本実施形態において、眼の位置検出回路6は前記第一の眼の位置検出手段CL3、領域決定手段CL4、第2の眼の位置検出手段CL5を構成している。
【0034】
前記眼の位置検出回路6の出力は、領域拡張回路7に入力される。領域拡張回路7は、前記領域拡張手段CL6を構成するもので、前記眼を追跡する所定領域により左右の眼のうち一方の眼が検出されなくなったとき、前記所定領域を左右の眼を同時に含めることの可能な大きさに拡張する。領域拡張回路7の出力は、眼の位置検出回路8に入力される。眼の位置検出回路8は、前記第三の眼の位置検出手段CL7を構成するもので、拡張した所定領域の中で左右の眼の位置を検出する。尚、眼の位置検出回路6,8は、1つの回路として構成することもできる。
【0035】
そして図示はしないが、眼の位置検出回路6,8によって検出された眼の位置のデータを用いて眼の状態を判定し、乗員の居眠りや脇見運転など判断し、居眠り運転や脇見運転が行われているときにはブザーなどによって警告を行うようにしている。
【0036】
次に、顔画像全体から顔の特徴量を検出し、眼の位置を特定する方法を説明する。
【0037】
図3は、前記TVカメラ1によって映し出された乗員の顔を示すもので、9は画面枠、11は乗員の顔を示している。この顔画像全体から眼の特徴量を特定することも可能であるが、検索エリアが広いと演算時間が長くなるため、本実施形態においては画面を4分割して領域を小さくし、演算時間を短くし処理を早めるようにしている。
【0038】
13は画面を4分割にし、眼をを特定するための検索エリアであり、図3の▲1▼で眼が特定できれば、ここで眼の初期検出は終了する。位置1で眼が見つからなければ▲2▼,▲3▼,▲4▼と順次検索エリアを変えていく。
【0039】
次に、図4は検索エリア13の顔の特徴量を検出する説明図である。検出エリア13には、縦方向に例えば10画素毎の画素列が設定され、画素列ごとに濃度変化の大きい点を抽出する。更に、横方向に向いている抽出点をグループ化することにより、図4の符号15,17のように特徴量としてデータ化される。そして、眼のテンプレートマッチングにより15が眼として特定される。ここでテンプレートマッチングについて図5〜図8を用いて説明する。
【0040】
図5は眼の濃度値を調べるための説明図であり、図5の領域13内に縦方向に並んでいるX,X,X,…,Xは濃度値を調べるための画素列である。この画素列X,X,X,…,X上の濃度値を図6,図7,図8に示している。
【0041】
図6は画素列X上の濃度値示している。濃度変化の大きいところに(a,a)を抽出する。図7は画素列XとXの中間位置にある画素列X上の濃度値と抽出ポイント(b,b)を示している。図8は右側の画素列X上の濃度値及び抽出ポイント(c,c)を示している。
【0042】
眼であるかどうかの判断は、両側の画素列X,Xと中央の画素列Xとの抽出ポイント間の距離Y,Y,Yの関係
<Y>Y
が成立すれば眼と判断する。
【0043】
こうして特定された片方の眼の位置から両眼を特定する。まず、図9のように、片方の眼の座標値(x1,y1)を基準に左右対称位置に他方の眼が存在するものと仮定して、横長の検索エリア19を設定する。そして、前記同様に、他方の眼に相当する位置で画素列毎に濃度変化の大きい点が抽出され、該抽出点をグループ化することにより、特徴量21としてデータ化され、他方の眼の座標値(x2,y2)が特定され、両眼の位置が検出される。そして、図10のように、両眼の座標にそれぞれ所定領域としてのウインドウ23,25を設定し、ウインドウ23,25により両眼の移動を追跡する。
【0044】
(眼のウインドウの大きさと位置の決め方)
ウインドウの大きさ
ウインドウの大きさは、図11〜図13のようにして決めている。図11はウインドウの大きさを示し、図12,図13は数人の眼の大きさを調べた横、縦の長さの統計データを示している。ここでウインドウの大きさはノイズ(顔の皺や明暗などを抽出してしまう)の低減や処理速度を落とさないためにも、可能な限り小さい領域が良い。現在の脇見検出などの処理で使っている大きさは数人の眼の大きさを調べ、それに余裕分(例えば×1.5倍)を加味した大きさにしている。数人の眼の大きさを統計的に求める方法としては、図12,図13のように、眼の縦横寸法のデータを集め、その分布の例えば95%をカバーする寸法に余裕分をみて決定する方法が考えられる。そしてこの95%をカバーする寸法、すなわち横寸法x、縦寸法yに図11のように余裕分(×1.5)をみて決定している。尚、画像処理により眼の幅や高さを推定し、縦横の大きさに余裕分を加える方法も考えられる。
【0045】
位置の決め方
図14は、例えば右眼のウインドウを位置決めする方法について示している。
【0046】
眼の座標値(x2,y2)を基準に、距離x3,y3の位置にウインドウを描く基準点Pを決め、P点から予め決めておいたウインドウの寸法x4,y4を描画し、位置を決める。x3及びy3はx4,y4の1/2で予めウインドウが眼の中心にくるような長さとしている。
【0047】
以上が顔画像から両眼の位置を特定し、両眼追跡までの過程を説明している
図15は、図2の領域拡張回路7における処理のフローチャートを示している。まず、S1では前記眼の位置検出回路6において検出されている両眼の座標値の入力を行う。次にS2においては、片眼の座標値が消えたか否かの判断を行う。この場合、両眼が追跡できていれば両眼の座標値2個が認識され、片眼しか追跡できていなければ消えていないほうの眼の座標値1個だけとなる。これら座標値の個数により片眼の座標値が消えたかどうかを判断している。片眼が消える例としては、例えばドアミラーの確認、後方の安全確認など画像から片方の眼が消えるほどの大きな動作をしたときに起こる場合がある。
【0048】
S2で片眼の座標値が消えたと判断された場合、S2’へ進み、両眼の座標値が消えたかどうかが判断される。両眼の座標値が消えたと判断された場合は、S1へ戻る。そして消えていない方の眼の座標値が確認されれば、S3において所定領域、すなわちウインドウの拡張を行う。
【0049】
図16〜図18は処理画像の経過を示している。図16は例えば右ドアミラーを見たときの顔の位置を示している。この場合、両眼追跡の各ウインドウ23,25は距離が減少して重なることがあり、ドアミラーから前方方向に視線が戻ったときに片側の眼の追跡が図17のようにできなくなる。このような場合は、図18のように所定領域としてウインドウ27を左右の眼を同時に含めることの可能な大きさに拡張する。そしてこの拡張したウインドウ27の中で、左右の眼の位置を再び検出する。ここで検索領域の大きさと位置の決め方について説明する。
【0050】
(検索領域の大きさと位置の決め方)
大きさの決め方
図19は検索領域、すなわちウインドウの大きさの決め方を示している。ウインドウ27の大きさはノイズ(顔の皺や明暗などを抽出してしまう)の低減や、処理速度を落とさないためにも小さい領域が良い。しかし小さすぎて走行中の上下左右振動で眼が領域から頻繁に出ると、眼の位置が判別できなくなる。よって、縦方向は上下振動で動く距離、横方向は両眼の距離に左右振動で動く距離に余裕分を加えた大きさとしている。例えば図19のように、横方向の大きさx11は、両眼の距離L0(L0=x1−x2)に所定の定数Kを掛けた値とする。定数Kは車両の左右振動で動く分に余裕分を含んだもので、例えばK=2.0に設定する。縦方向Y11は例えばx11の0.3掛けとして大きさを決めている
位置の決め方
片眼が消えた場合に、ウインドウの位置を設定するには、過去に両眼の位置を図9の段階で検出しており、この座標をもとに設定する。
【0051】
ここで、右眼の座標を基準にした例を示すと、右眼座標(x2,y2)から距離x10,y10の場所に描画をするときの基準点Qを作る。このQ点から(x1,y1)の寸法で描画することにより領域を設定する。この(x1,y1)はウインドウ27が両眼の中心に位置するように設定されるものであるこうしてドアミラーを見るなどして片眼が消失し、再び正面方向を向いたときに図16,図17のように片眼の追跡ができなくなっても、ウインドウを拡張することによって直ちに両眼を追跡することができる。従って、最初の画像データの取り込みから行う必要がなく、一旦片眼が消失した場合でも迅速に両眼の追跡を再開することができ、乗員の脇見運転検出などの早い処理が必要とする場合でも十分に対応することができる。
【0052】
尚、上記実施形態では、片眼が消失した場合に、過去に検出されている眼の座標値からウインドウを拡張するようにしたが、例えば、検出されている他方の眼の位置のみを基準にウインドウを拡張するようにしてもよい。
【0053】
図21は第1実施形態の変形例に係る実施形態のフローチャートを示し、図15と対応したものである。本実施形態においては、S1,S3は図15と同一であり、S4の判断において両眼の相対距離が所定範囲より大となったときにS3の所定領域の拡張を行うようにしたものである。これは例えば、図22のように、ウインドウ23が誤って眉毛を捉え、相対位置が異常となる場合の処理の例である。
【0054】
このような場合、前記同様に両眼追跡からウインドウを拡張して両眼の検出を行うものである。両眼の相対距離が所定距離より大となったときとは、例えば図23のように左右の眼の左右距離x20は異常ではないが、上下距離y20の値が明らかに大きければ、どちらかが眼でないと判断し、その後テンプレートマッチングによって眼を特定する。テンプレートマッチングについては前記同様である。
【0055】
この場合、右眼が眼と特定され、この右眼の座標値を基準に前記同様にウインドウを拡張し、両眼の検出を行うものである。また左右の眼の上下距離y20は小さいが、左右距離x20が例えば1.5倍に変化した場合にも異常と見なし、同様にテンプレートマッチングにより眼を特定し、ウインドウを拡張する。従って、何れの場合にも左右のウインドウ23,25が眼でないものを追跡している場合に、これを直ちに異常として正しい左右の眼の検出に移行することができる。しかも、この場合にも、画像データの取り込みから行う必要がなく、迅速な処理を行わせることができ、脇見運転など早い処理が必要な場合でも十分に対応することができる。
【0056】
次に、図24により、前記眼の位置検出回路8での拡張した領域での眼の検出から眼の位置検出回路6での各左右のウインドウによる眼の追跡に復帰する場合について説明する。この処理は、前記眼の位置検出回路8が行うものである。
【0057】
まず、ステップS5では、両眼に相当する眼の座標値を入力する。ステップS6では、両眼の相対距離が所定範囲内となったかどうかの判断を行い、所定範囲内となっていればステップS7において両眼に相当する座標値を基準に左右のウインドウを再び設定し、左右両眼の検出、追跡を行うようにする。従って、拡張したウインドウに比べて再びノイズの少ない範囲で眼の検出を行うことができ、迅速な眼の検出を正確に行うことができる。
【0058】
このように本発明第1実施形態では、両眼の位置を独立して検出、追跡すると共に、片眼が消失したり誤検出した場合でも、直ちにウインドウを拡張することによって両眼の有無を検出することができ、乗員が振り向いた場合や顔を大きく動かした場合などでも短時間で眼の位置を検索することができ、連続的に眼の追跡が可能となる。
【0059】
(第2実施形態)
図25は本発明の第2実施形態に係るフローチャートを示している。本実施形態における基本的な構成は、前記図2と同様である。そして、この図25のフローチャートも前記領域拡張回路7を実行するものである。従って、図15と対応するステップには同符合を付して説明し、また重複した説明は省略する。
【0060】
一方、本実施形態の図25においては、片眼の座標値が消えたあと、S8において移動前の両眼の距離が所定範囲内かつ所定時間以上続いていたかどうかの判断を行う。ここで所定範囲内とは、眼の位置検出時の座標値から両眼の距離L0(図26参照)を基準に、例えば±20%以内に入っている座標値を1000データ取り込む。この1000データの座標値の分布から眼の位置が最も存在する確率が高い座標値を計算して記憶する。1000データは時間に換算すると1ループの時間を0.1secとすると、100secとなるが、これは顔が静止しているような条件の良い場合であり、実際は顔が動いているため1000データ集まるまでには時間がかかる(例えば200sec)。できるだけ眼が滞留している条件で眼のデータが集まれば、眼の位置の精度は良くなる。
【0061】
S8において、移動前の両眼の距離が所定範囲内かつ所定時間以上続いた場合には、S9において移動する前の両眼の座標を含むように所定領域、すなわちウインドウを拡張する。次いでS10では、ウインドウ内の両眼の距離が安定しているか否かが判断される。すなわち、拡張したウインドウ内に両眼に相当するデータが検出されているかどうかを判定し、検出されていれば再びS1へ戻る。
【0062】
また前記S8において、移動前の両眼の距離が所定範囲内かつ所定時間以上続いていないと判断されたとき、又は比較的短時間しかとどまっていなかったときは、乗員が動いている可能性がある。ここで比較的短時間しかとどまっていなかった場合とは、移動前の両眼の距離L0±20%の座標値が200sec経っても 1000データに満たない場合であり、運転者の顔が動いていると推定され、ウインドウを拡張するときの基準としてふさわしくないので、この場合は初期に検索した眼の位置座標を基準とする。すなわち、S11において、初期の両眼の座標値を含むように所定領域、すなわちウインドウを拡張する。この初期の両眼の座標値は、前記眼の位置検出回路6において検出され記憶された両眼の座標値が用いられる。
【0063】
ここでは初期のデータを用いるため、顔が画面枠13の中央にあるとは限らないので、画像全体にウインドウを拡げて検索するのが理想である。しかし全体に拡げると、例えば車両内装の模様などを眼と認識するなどノイズが多くなり、また処理速度が遅くなり、顔の動きに追従できなくなる。よって、乗員が前を見ている状態で、車両の上下左右振動で眼が動く範囲をウインドウの大きさとし、これを実験的に求める。顔の大きさは運転者により変わるため、求めた基準のウインドウをベースに両眼の距離から比例計算で可変とする。
【0064】
次いでS12において、両眼の距離が安定しているか否かの判断が行われる。
【0065】
この判断は前記S10と同様である。
【0066】
図26〜図28は処理画像を示している。尚、S1,S2までの画像の入力、及び片眼の座標値が消えたあと、片方のウインドウが消えて追跡ができなくなるまでの処理画像は第1実施形態と同様であり、前記図3〜図14を参照する。尚、前記図16、17に対応する図を図27、28に示している。
【0067】
このように片方のウインドウが消失したとき、その消失する前に前方を見ていて、かつ位置が安定していたと判断されているときの両眼の座標、すなわち図26の(x10,y10)(x20,y20)を含むように図29のようにウインドウ29を拡張する。また、図30のように初期の両眼の座標、例えば33,35を用いるときは、ウインドウ31を大きめに拡張する。
【0068】
従って、乗員の顔11が反対側に大きく動いた場合でも、眼を連続的に捉えることができる。このようにして本実施形態においても第1実施形態と略同様な作用効果を奏することができる。一方、本実施形態においては、予め記憶した眼の位置を含むようにウインドウを拡張するため、両眼が消失した場合でも迅速かつ的確に眼の追跡を行うことができる。
【図面の簡単な説明】
【図1】本発明のブロック図である。
【図2】本発明の第1実施形態に係るブロック図である。
【図3】第1実施形態に係る処理画像である。
【図4】第1実施形態の処理画像である。
【図5】テンプレートマッチングの説明図である。
【図6】画素列と濃度値との説明図である。
【図7】画素列と濃度値との説明図である。
【図8】画素列と濃度列との説明図である。
【図9】第1実施形態の処理画像を示す説明図である。
【図10】第1実施形態の処理画像を示す説明図である。
【図11】ウインドウの大きさを示す説明図である。
【図12】眼の横方向の長さの統計図である。
【図13】眼の縦方向の長さの統計図である。
【図14】ウインドウの位置を決める説明図である。
【図15】第1実施形態のフローチャートである。
【図16】第1実施形態の処理画像である。
【図17】第1実施形態の処理画像である。
【図18】第1実施形態の処理画像である。
【図19】ウインドウの大きさの決め方の説明図である。
【図20】ウインドウの位置の決め方の説明図である。
【図21】第1実施形態のフローチャートである。
【図22】第1実施形態の変形例に係る実施形態の処理画像である。
【図23】左右特徴点の上下距離と左右距離との関係を示す説明図である。
【図24】第1実施形態のフローチャートである。
【図25】本発明の第2実施形態に係るフローチャートである。
【図26】第2実施形態の処理画像である。
【図27】第2実施形態の処理画像である。
【図28】第2実施形態の処理画像である。
【図29】第2実施形態の処理画像である。
【図30】第2実施形態の処理画像である。
【符号の説明】
CL1 画像出力手段
CL2 顔の特徴量検出手段
CL3 第一の眼の位置検出手段
CL4 領域決定手段
CL5 第二の眼の位置検出手段
CL6 領域拡張手段
CL7 第三の眼の位置検出手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an eye state detection device for detecting and alerting to a dozing state or a side-viewing state of a driver of a vehicle, a ship operator, an operator of a plant or the like.
[0002]
[Prior art]
An example of this type of apparatus using conventional image processing is described in Japanese Patent Laid-Open No. 6-251273. This detects the position of the eyes from the driver's face image, and then tracks the position of the eyes to determine the state of the driver.
[0003]
[Problems to be solved by the invention]
However, in the above-described conventional device, when the driver turns around or looks at the door mirror, the face moves greatly and the eye cannot be tracked, the eye position is detected again from the face image, There is a limit to the judgment in situations where it is necessary to track the situation and a judgment is required in a short time such as a driver's side-viewing condition.
[0004]
An object of the present invention is to provide an eye state detection device that can perform a fast process even when a state in which the eye cannot be tracked completely occurs.
[0005]
[Means for Solving the Problems]
  According to a first aspect of the present invention, there is provided an image output means for outputting occupant face image data, a feature amount detection means for detecting a face feature amount by processing the face image data output from the image output means, and the detection First eye position detecting means for detecting the position of the eye based on the detected facial feature amount, and a predetermined region including the detected eye position is determined for each of the left and right eyes one by one. Area determining means for tracking the eye according to movement of the eye in the predetermined area; second eye position detecting means for detecting positions of left and right eyes in the predetermined area; With eye position detection meansWhen the detected relative position of the left and right eyes exceeds the set range,One of the left and right eyesAs eyesNo longer detectedAs, The size that is defined as the smallest size that can simultaneously include the left and right eyes when the vehicle vibratesThe predetermined areaAn area expanding means for expanding and a third eye position detecting means for detecting the positions of the left and right eyes in the expanded predetermined area are provided.
[0006]
A second aspect of the present invention is the eye state detection apparatus according to the first aspect, wherein the region expanding means expands a predetermined region including the position of the other eye being detected.
[0007]
A third aspect of the invention is the eye state detection device according to the first aspect, wherein the region expanding means detects the eye position detected by the first eye position detecting means or the second eye position detecting means. At least one of the positions is stored, and the predetermined area is expanded to a size including the stored eye position.
[0009]
  Claim4The invention of claim 1 to claim 13The eye state detection device according to any one of the above, wherein the area determination unit determines the left and right predetermined areas again when the relative positions of the left and right eyes are within a set range in the expanded predetermined area. It is characterized by doing.
[0010]
  Claim5The invention of claim4The eye state detection device according to claim 1, wherein the relative position is a left-right distance between left and right eyes.
[0011]
  Claim6The invention of claim4The eye state detection device according to claim 1, wherein the relative position is a vertical distance between left and right eyes.
[0012]
  Claim7The invention according to claim 3 is the eye state detection device according to claim 3, wherein the region expanding means has a set time within which the relative positions of the left and right eyes detected by the second eye position detecting means are within a set range. , Storing the positions of the left and right eyes, storing the positions of the left and right eyes detected by the first eye position detecting means when the relative position is not within a set range, and storing the stored eye positions The predetermined area is expanded from the above.
[0013]
【The invention's effect】
According to the first aspect of the present invention, the image data of the occupant output from the image output means is processed, the face feature quantity is detected by the feature quantity detection means, and the first eye based on the detected face feature quantity is detected. The position of the eye can be detected by the position detection means. The area determining means can determine one predetermined area including the detected eye position for each of the left and right eyes, and can track the eye according to the predetermined area according to the movement of the eyes. In each of the predetermined areas, the positions of the left and right eyes can be detected by the second eye position detecting means.
[0014]
  In such detection, when a situation occurs in which the occupant turns around or looks at the door mirror and the face is moved so much that the eyes cannot be tracked, one of the left and right eyes is detected by the second eye position detection means. Eyes are not detected, but the predetermined area isWhen the vehicle vibratesPossible to include left and right eyes simultaneouslyDefined as minimum sizeThe position of the left and right eyes can be detected by the third eye position detection means in the expanded predetermined area. Therefore, it is not necessary to perform the processing again from the processing of the image data, enabling a quick processing and sufficiently supporting a side-viewing operation.
[0015]
In the invention of claim 2, in addition to the effect of the invention of claim 1, when a predetermined area including the position of the other eye detected by the area expanding means can be expanded, and one eye disappears, By using the predetermined area of the other eye, a fast process can be performed.
[0016]
In the invention of claim 3, in addition to the effect of the invention of claim 1, at least one of the eye positions detected by the first eye position detecting means or the second eye position detecting means is stored by the area expanding means. The predetermined area can be expanded to a size including the stored eye position, and even when both eyes disappear, the stored predetermined area of the eye can be used to perform fast processing.
[0018]
  Claim4In the invention of claim 1,3In addition to the effect of any one of the inventions, the region determination means can determine the left and right predetermined regions again when the relative positions of the left and right eyes are within the set range within the expanded predetermined regions. Eye detection can be performed again in a range with less noise compared to the region, and eye detection can be performed quickly and accurately.
[0019]
  Claim5In the invention of claim4In addition to the effects of the invention described above, the relative position is set to the left-right distance between the left and right eyes, so that even if a non-eye is erroneously detected in the left-right direction of the occupant's face, the predetermined area can be expanded, and quick and accurate Eye detection can be performed.
[0020]
  Claim6In the invention of claim4 descriptionIn addition to the effect of the present invention, by setting the relative position to be the vertical distance between the left and right eyes, even if a non-eye is erroneously detected in the vertical direction of the occupant's face, the predetermined area is expanded, and a quick and accurate eye Can be detected.
[0021]
  Claim7In the invention of claim 3, in addition to the effect of the invention of claim 3, when the relative position of the left and right eyes detected by the second eye position detecting means is within a set range by the area expanding means, The positions of the eyes are stored, and the positions of the left and right eyes detected by the first eye position detecting means when the relative position is not within the set range are stored, and the predetermined area is determined from the stored positions of the eyes. The predetermined area can be expanded by a simple process, and the position of the eye can be reliably detected.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
In addition to automobiles, this device can be used as a drowsy driving alarm device or an armpit driving alarm device for railway vehicles, ships, plant operators, etc., but in this embodiment, it is described when applied to an automobile as an armpit driving alarm device To do.
[0023]
FIG. 1 is a block diagram illustrating a configuration of an eye state detection apparatus to which the present invention is applied. The apparatus includes an image input unit CL1, a facial feature amount detection unit CL2, a first eye detection unit CL3, A region determining unit CL4, a second eye position detecting unit CL5, a region expanding unit CL6, and a third eye position detecting unit CL7 are provided.
[0024]
The image input means CL1 inputs an occupant's face image and outputs image data. The face feature quantity detection means CL2 detects the face feature quantity by processing the face image data output by the image input means CL1. The first eye position detecting means CL3 detects the position of the eye based on the detected facial feature amount. The region determining means CL4 determines one predetermined region including the detected eye position for each of the left and right eyes and tracks the eye according to the movement of the eye using the predetermined region. The second eye position detection means CL5 detects the positions of the left and right eyes in each of the predetermined areas.
[0025]
The area expanding means CL6 expands the predetermined area to a size capable of including left and right eyes simultaneously. The third eye position detection means CL7 detects the positions of the left and right eyes in the expanded predetermined area.
[0026]
From the detected eye position, for example, a side-by-side determination is performed using a reference value, and a warning such as a buzzer is issued if the side-by-side driving state is detected.
[0027]
FIG. 2 is a configuration block diagram according to an embodiment of the present invention.
[0028]
As shown in the figure, the TV camera 1 is installed in an automobile instrument and photographs the driver's face from the front. In the present embodiment, the input image of the TV camera 1 includes, for example, a horizontal direction (X) 512 pixels and a vertical direction (Y) 480 pixels.
[0029]
An input image captured by the TV camera 1 is stored in the image memory 3 as digital input image data via the A-D converter 2. The output of the image memory 3 is input to the image data calculation circuit 4.
[0030]
The image data calculation circuit 4 detects the density of the pixel column in the vertical direction of the face based on the input image data, extracts points based on the increase in density in the pixel column and its change state (extraction point), and adjacent Continuous data in the lateral direction of the face is extracted continuously at points close to the pixel column direction of the pixel column to be output and output as face image data.
[0031]
Therefore, the TV camera 1, the A / D converter 2, the image memory 3, and the image data calculation circuit 4 constitute the image output means CL1 in this embodiment. The output of the image data calculation circuit 24 is input to the face feature quantity detection circuit 5.
[0032]
The face feature quantity detection circuit 5 constitutes the face feature quantity detection means CL2, and specifies an eye from a plurality of extracted feature quantities of the face and obtains coordinates thereof. The output of the face feature quantity detection circuit 5 is input to the eye position detection circuit 6.
[0033]
The eye position detection circuit 6 detects an eye position by selecting an eye from the continuous data, and determines a predetermined region including the eye position from the eye position for each of the left and right eyes. In addition, the predetermined area is made to track the eye according to the movement of the eye, and in each predetermined area where the eye is tracked, a point is extracted from an increase in density in the vertical direction and a change state thereof. Continuous data in the horizontal direction of the face is extracted continuously from points close to each other in the pixel column direction, and the positions of the left and right eyes are detected. Accordingly, in the present embodiment, the eye position detection circuit 6 constitutes the first eye position detection means CL3, the region determination means CL4, and the second eye position detection means CL5.
[0034]
The output of the eye position detection circuit 6 is input to the area expansion circuit 7. The area expansion circuit 7 constitutes the area expansion means CL6. When one of the left and right eyes is not detected by the predetermined area for tracking the eyes, the predetermined area is included in the left and right eyes simultaneously. Expand to the size possible. The output of the area expansion circuit 7 is input to the eye position detection circuit 8. The eye position detection circuit 8 constitutes the third eye position detection means CL7, and detects the positions of the left and right eyes in the expanded predetermined region. The eye position detection circuits 6 and 8 may be configured as one circuit.
[0035]
Although not shown, the eye position data detected by the eye position detection circuits 6 and 8 is used to determine the state of the eye, to determine whether the occupant is asleep or to look aside, and to perform a doze or look aside. A warning is given by a buzzer etc.
[0036]
Next, a method for detecting the feature amount of the face from the entire face image and specifying the eye position will be described.
[0037]
FIG. 3 shows the occupant's face projected by the TV camera 1, wherein 9 is a screen frame and 11 is the occupant's face. Although it is possible to specify the eye feature amount from the entire face image, since the calculation time becomes long if the search area is wide, in this embodiment, the screen is divided into four areas to reduce the area, and the calculation time is reduced. The process is shortened to speed up processing.
[0038]
Reference numeral 13 denotes a search area for dividing the screen into four parts for specifying the eyes. If the eyes can be specified in (1) of FIG. 3, the initial detection of the eyes ends here. If no eye is found at position 1, (2), (3), and (4) are sequentially changed to the search area.
[0039]
Next, FIG. 4 is an explanatory diagram for detecting the facial feature quantity in the search area 13. In the detection area 13, for example, a pixel row for every 10 pixels is set in the vertical direction, and a point having a large density change is extracted for each pixel row. Further, the extracted points facing in the horizontal direction are grouped to be converted into data as feature amounts as indicated by reference numerals 15 and 17 in FIG. Then, 15 is identified as an eye by eye template matching. Here, template matching will be described with reference to FIGS.
[0040]
FIG. 5 is an explanatory diagram for examining the density value of the eye, and X arranged in the vertical direction in the region 13 of FIG.a, Xb, Xc, ..., XnIs a pixel column for examining density values. This pixel row Xa, Xb, Xc, ..., XnThe upper density values are shown in FIG. 6, FIG. 7, and FIG.
[0041]
FIG. 6 shows a pixel row XaThe upper density value is shown. Where the density change is large (a1, A2). FIG. 7 shows a pixel row XaAnd XcPixel row X in the middle position ofbUpper concentration value and extraction point (b1, B2). FIG. 8 shows the right pixel row XcUpper concentration value and extraction point (c1, C2).
[0042]
Whether or not it is an eye is determined by the pixel row X on both sidesa, XcAnd center pixel row XbDistance Y between extraction pointsa, Yb, Ycconnection of
Ya<Yb> Yc
If is established, it is determined as an eye.
[0043]
Both eyes are identified from the position of one eye thus identified. First, as shown in FIG. 9, a horizontally long search area 19 is set on the assumption that the other eye exists at a symmetrical position with reference to the coordinate value (x1, y1) of one eye. Similarly to the above, a point having a large density change is extracted for each pixel column at a position corresponding to the other eye, and the extracted point is grouped to be converted into data as a feature value 21. The coordinates of the other eye The value (x2, y2) is specified, and the position of both eyes is detected. Then, as shown in FIG. 10, windows 23 and 25 as predetermined areas are set in the coordinates of both eyes, and the movement of both eyes is tracked by the windows 23 and 25.
[0044]
(How to determine the size and position of the eye window)
Window size
The size of the window is determined as shown in FIGS. FIG. 11 shows the size of the window, and FIGS. 12 and 13 show the statistical data of the horizontal and vertical lengths obtained by examining the sizes of the eyes of several people. Here, the size of the window should be as small as possible in order to reduce noise (extract facial wrinkles, brightness and darkness) and not reduce the processing speed. The size used in the processing such as the current look-ahead detection is a size obtained by examining the size of several people's eyes and adding a margin (for example, x1.5 times). As a method for statistically obtaining the size of the eyes of several people, as shown in FIGS. 12 and 13, data on the vertical and horizontal dimensions of the eyes are collected, and the size covering, for example, 95% of the distribution is determined with a margin. A way to do this is considered. The dimension covering 95%, that is, the lateral dimension xa, Vertical dimension yaAs shown in FIG. 11, the margin is determined by looking at the margin (× 1.5). A method of estimating the eye width and height by image processing and adding a margin to the vertical and horizontal sizes is also conceivable.
[0045]
How to determine the position
FIG. 14 shows a method for positioning the right-eye window, for example.
[0046]
Based on the eye coordinate values (x2, y2), a reference point P for drawing a window is determined at positions of distances x3, y3, and predetermined window dimensions x4, y4 are drawn from the P point to determine the position. . x3 and y3 are ½ of x4 and y4, and have a length such that the window is in the center of the eye in advance.
[0047]
The above explains the process from identifying the position of both eyes from the face image to tracking both eyes.
FIG. 15 shows a flowchart of processing in the area expansion circuit 7 of FIG. First, in S1, the coordinate values of both eyes detected by the eye position detection circuit 6 are input. Next, in S2, it is determined whether or not the coordinate value of one eye has disappeared. In this case, if both eyes can be tracked, two coordinate values of both eyes are recognized, and if only one eye is tracked, only one coordinate value of the eye that has not disappeared is obtained. Whether the coordinate value of one eye has disappeared is determined based on the number of coordinate values. An example of the disappearance of one eye may occur when an operation is performed so that one eye disappears from the image, such as confirmation of a door mirror or safety confirmation at the rear.
[0048]
If it is determined in S2 that the coordinate value of one eye has disappeared, the process proceeds to S2 'to determine whether the coordinate value of both eyes has disappeared. If it is determined that the coordinate values of both eyes have disappeared, the process returns to S1. If the coordinate value of the eye that has not disappeared is confirmed, the predetermined area, that is, the window is expanded in S3.
[0049]
16 to 18 show the progress of the processed image. FIG. 16 shows the position of the face when looking at the right door mirror, for example. In this case, the binocular tracking windows 23 and 25 may overlap each other at a reduced distance, and when the line of sight returns from the door mirror in the forward direction, tracking of one eye cannot be performed as shown in FIG. In such a case, the window 27 is expanded as a predetermined area as shown in FIG. 18 to a size that allows the left and right eyes to be included simultaneously. In the expanded window 27, the positions of the left and right eyes are detected again. Here, how to determine the size and position of the search area will be described.
[0050]
(How to determine the size and position of the search area)
How to determine the size
FIG. 19 shows how to determine the size of the search area, that is, the window. The size of the window 27 is preferably a small area in order to reduce noise (extract facial wrinkles, brightness and darkness) and not to reduce the processing speed. However, if the eye frequently comes out of the area due to vertical and horizontal vibrations while traveling, the position of the eye cannot be determined. Therefore, the vertical direction is the distance moved by vertical vibration, and the horizontal direction is the distance obtained by adding a margin to the distance moved by left-right vibration to the distance of both eyes. For example, as shown in FIG. 19, the size x11 in the horizontal direction is a value obtained by multiplying a distance L0 (L0 = x1-x2) between both eyes by a predetermined constant K. The constant K includes a margin in the amount moved by the left and right vibration of the vehicle, and is set to K = 2.0, for example. The size of the vertical direction Y11 is determined, for example, by multiplying x11 by 0.3.
How to determine the position
In order to set the position of the window when one eye disappears, the position of both eyes has been detected in the past in FIG. 9 and is set based on the coordinates.
[0051]
  Here, when an example based on the coordinates of the right eye is shown, a reference point Q for drawing at a distance x10, y10 from the right eye coordinates (x2, y2) is created. From this Q point (x11, Y11) To set the area. This (x11, Y11) Is set so that the window 27 is positioned at the center of both eyes..Even if one eye disappears by looking at the door mirror in this way, and one eye cannot be traced as shown in FIGS. 16 and 17 when facing the front again, both eyes are immediately tracked by expanding the window. can do. Therefore, there is no need to start from the first image data capture, and even if one eye disappears once, tracking of both eyes can be resumed quickly, even if fast processing such as detection of a driver's side-by-side driving is required It can respond sufficiently.
[0052]
In the above embodiment, when one eye disappears, the window is expanded from the coordinate values of the eyes detected in the past. For example, only the position of the other detected eye is used as a reference. The window may be expanded.
[0053]
FIG. 21 is a flowchart of an embodiment according to a modification of the first embodiment, and corresponds to FIG. In this embodiment, S1 and S3 are the same as those in FIG. 15, and the predetermined area of S3 is expanded when the relative distance between both eyes is larger than the predetermined range in the determination of S4. . This is an example of processing when the window 23 mistakenly catches eyebrows and the relative position becomes abnormal as shown in FIG. 22, for example.
[0054]
In such a case, the binocular detection is performed by expanding the window from the binocular tracking as described above. When the relative distance between both eyes is greater than the predetermined distance, for example, as shown in FIG. 23, the left / right distance x20 of the left and right eyes is not abnormal, but if the value of the vertical distance y20 is clearly large, either It is determined that it is not an eye, and then the eye is specified by template matching. Template matching is the same as described above.
[0055]
In this case, the right eye is identified as the eye, and the window is expanded in the same manner as described above based on the coordinate value of the right eye to detect both eyes. Further, although the vertical distance y20 between the left and right eyes is small, when the left / right distance x20 changes to 1.5 times, for example, it is regarded as abnormal, and the eyes are similarly identified by template matching to expand the window. Accordingly, in any case, when the left and right windows 23 and 25 are tracking an object that is not an eye, this can be immediately regarded as abnormal and the process can proceed to detection of the right and left eyes. Moreover, in this case as well, it is not necessary to start from taking in image data, it is possible to perform a quick process, and it is possible to sufficiently cope with a case where a quick process such as a side-viewing operation is required.
[0056]
Next, with reference to FIG. 24, a case will be described in which the eye position detection circuit 8 returns to the eye tracking by the left and right windows in the eye position detection circuit 6 from the eye detection in the expanded region. This processing is performed by the eye position detection circuit 8.
[0057]
First, in step S5, eye coordinate values corresponding to both eyes are input. In step S6, it is determined whether or not the relative distance between both eyes is within a predetermined range. If the relative distance is within the predetermined range, the left and right windows are set again based on the coordinate values corresponding to both eyes in step S7. Detect and track both left and right eyes. Therefore, the eye can be detected again in a range with less noise as compared with the expanded window, and quick eye detection can be accurately performed.
[0058]
As described above, in the first embodiment of the present invention, the positions of both eyes are independently detected and tracked, and even if one eye disappears or is erroneously detected, the presence or absence of both eyes is detected by immediately expanding the window. The eye position can be searched in a short time even when the occupant turns around or moves the face greatly, and the eye can be tracked continuously.
[0059]
(Second Embodiment)
FIG. 25 shows a flowchart according to the second embodiment of the present invention. The basic configuration in this embodiment is the same as that shown in FIG. The flowchart of FIG. 25 also executes the area expansion circuit 7. Accordingly, steps corresponding to those in FIG. 15 are described with the same reference numerals, and redundant description is omitted.
[0060]
On the other hand, in FIG. 25 of the present embodiment, after the coordinate value of one eye disappears, it is determined in S8 whether or not the distance between both eyes before the movement is within a predetermined range and for a predetermined time or more. Here, “within a predetermined range” refers to taking, for example, 1000 coordinate values that are within ± 20% from the coordinate value at the time of eye position detection with reference to the distance L0 between both eyes (see FIG. 26). Coordinate values with the highest probability that the eye position exists are calculated and stored from the distribution of coordinate values of 1000 data. When 1000 data is converted into time, if the time of one loop is 0.1 sec, it becomes 100 sec. This is a case where the face is still in good condition, and since the face is actually moving, 1000 data is collected. Takes a long time (for example, 200 sec). If the eye data is collected under the condition that the eye stays as much as possible, the accuracy of the eye position is improved.
[0061]
In S8, when the distance between both eyes before the movement continues within a predetermined range and for a predetermined time or longer, the predetermined area, that is, the window is expanded to include the coordinates of both eyes before the movement in S9. Next, in S10, it is determined whether or not the distance between both eyes in the window is stable. That is, it is determined whether or not data corresponding to both eyes is detected in the expanded window, and if it is detected, the process returns to S1 again.
[0062]
In S8, if it is determined that the distance between both eyes before the movement is within a predetermined range and does not continue for a predetermined time or more, or if the distance has remained for a relatively short time, there is a possibility that the occupant is moving. is there. Here, the case of staying for a relatively short time is a case where the coordinate value of the distance L0 ± 20% of both eyes before the movement is less than 1000 data even after 200 seconds, and the driver's face is moving. Therefore, in this case, the eye position coordinates searched in the initial stage are used as a reference. That is, in S11, the predetermined area, that is, the window is expanded to include the initial coordinate values of both eyes. As the initial coordinate values of both eyes, the coordinate values of both eyes detected and stored in the eye position detection circuit 6 are used.
[0063]
Since the initial data is used here, the face is not always in the center of the screen frame 13, so it is ideal to search by expanding the window over the entire image. However, if it is expanded to the whole, for example, noise such as recognition of a vehicle interior pattern is recognized as an eye, the processing speed becomes slow, and it becomes impossible to follow the movement of the face. Therefore, the range in which the eye moves with the vertical and horizontal vibrations of the vehicle while the occupant is looking forward is set as the window size, and this is experimentally obtained. Since the size of the face changes depending on the driver, it is variable by proportional calculation from the distance of both eyes based on the obtained reference window.
[0064]
Next, in S12, it is determined whether or not the distance between both eyes is stable.
[0065]
This determination is the same as in S10.
[0066]
26 to 28 show processed images. Note that the processed image from the input of the images up to S1 and S2 and the one-eye coordinate value disappearing until one of the windows disappears and cannot be traced is the same as that in the first embodiment. Refer to FIG. FIGS. 27 and 28 are diagrams corresponding to FIGS.
[0067]
When one window disappears in this way, the coordinates of both eyes when looking forward and the position is determined to be stable before disappearing, that is, (x10, y10) ( The window 29 is expanded to include x20, y20) as shown in FIG. In addition, when the initial binocular coordinates, for example, 33 and 35, are used as shown in FIG. 30, the window 31 is expanded to a larger size.
[0068]
Therefore, even when the occupant's face 11 moves greatly to the opposite side, the eyes can be captured continuously. In this way, the present embodiment can achieve substantially the same operational effects as the first embodiment. On the other hand, in this embodiment, since the window is expanded to include the pre-stored eye position, the eye can be tracked quickly and accurately even when both eyes disappear.
[Brief description of the drawings]
FIG. 1 is a block diagram of the present invention.
FIG. 2 is a block diagram according to the first embodiment of the present invention.
FIG. 3 is a processed image according to the first embodiment.
FIG. 4 is a processed image of the first embodiment.
FIG. 5 is an explanatory diagram of template matching.
FIG. 6 is an explanatory diagram of pixel columns and density values.
FIG. 7 is an explanatory diagram of pixel columns and density values.
FIG. 8 is an explanatory diagram of a pixel column and a density column.
FIG. 9 is an explanatory diagram illustrating a processed image according to the first embodiment.
FIG. 10 is an explanatory diagram illustrating a processed image according to the first embodiment.
FIG. 11 is an explanatory diagram showing the size of a window.
FIG. 12 is a statistical diagram of the lateral length of the eye.
FIG. 13 is a statistical diagram of the length of the eye in the vertical direction.
FIG. 14 is an explanatory diagram for determining the position of a window.
FIG. 15 is a flowchart of the first embodiment.
FIG. 16 is a processed image of the first embodiment.
FIG. 17 is a processed image of the first embodiment.
FIG. 18 is a processed image of the first embodiment.
FIG. 19 is an explanatory diagram of how to determine the size of a window.
FIG. 20 is an explanatory diagram of how to determine the position of a window.
FIG. 21 is a flowchart of the first embodiment.
FIG. 22 is a processed image of an embodiment according to a modification of the first embodiment.
FIG. 23 is an explanatory diagram showing the relationship between the vertical distance and the horizontal distance of the left and right feature points.
FIG. 24 is a flowchart of the first embodiment.
FIG. 25 is a flowchart according to the second embodiment of the present invention.
FIG. 26 is a processed image of the second embodiment.
FIG. 27 is a processed image of the second embodiment.
FIG. 28 is a processed image of the second embodiment.
FIG. 29 is a processed image of the second embodiment.
FIG. 30 is a processed image of the second embodiment.
[Explanation of symbols]
CL1 image output means
CL2 facial feature amount detection means
CL3 first eye position detecting means
CL4 area determination means
CL5 second eye position detection means
CL6 area expansion means
CL7 Third eye position detection means

Claims (7)

乗員の顔画像データを出力する画像出力手段と、
該画像出力手段から出力された顔画像データを処理して顔の特徴量を検出する特徴量検出手段と、
前記検出された顔の特徴量に基づいて眼の位置を検出する第一の眼の位置検出手段と、
前記検出された眼の位置を含む所定領域を左右の眼に対してそれぞれ一つづつ決定すると共に該所定領域に前記眼の移動に応じて該眼を追跡させる領域決定手段と、
前記各所定領域の中で左右の眼の位置を検出する第二の眼の位置検出手段と、
前記第二の眼の位置検出手段で検出された左右の眼の相対位置が設定範囲を超えたとき、左右の眼のうち一方の眼が眼として検出されなくなったとして、車両が振動した時に左右の眼を同時に含めることの可能な最小の大きさとして定められた大きさに前記所定領域を拡張する領域拡張手段と、
前記拡張した所定領域の中で左右の眼の位置を検出する第三の眼の位置検出手段と
を備えたことを特徴とする眼の状態検出装置。
Image output means for outputting occupant face image data;
Feature amount detection means for processing the face image data output from the image output means to detect a face feature amount;
First eye position detecting means for detecting an eye position based on the detected facial feature amount;
Area determining means for determining one predetermined area including the detected eye position for each of the left and right eyes, and for causing the predetermined area to track the eye according to the movement of the eye;
Second eye position detecting means for detecting the positions of the left and right eyes in each of the predetermined areas;
Left and right when the relative position of said second left and right eyes detected by the position detecting means of the eye when exceeding the set range, as one eye of the left and right eyes is not detected as the eye, the vehicle is vibrated Area expanding means for expanding the predetermined area to a size determined as a minimum size capable of simultaneously including the eyes of
An eye state detecting device comprising: third eye position detecting means for detecting positions of left and right eyes in the expanded predetermined region.
請求項1記載の眼の状態検出装置であって、
前記領域拡張手段は、前記検出されている他方の眼の位置を含む所定領域を拡張する
ことを特徴とする眼の状態検出装置。
The eye state detection device according to claim 1,
The eye state detection device, wherein the region expanding means extends a predetermined region including the position of the detected other eye.
請求項1記載の眼の状態検出装置であって、
前記領域拡張手段は、前記第一の眼の位置検出手段又は第二の眼の位置検出手段が検出する眼の位置の少なくとも一方を記憶し、該記憶した眼の位置を含む大きさに前記所定領域を拡張する
ことを特徴とする眼の状態検出装置。
The eye state detection device according to claim 1,
The region expanding means stores at least one of the eye positions detected by the first eye position detecting means or the second eye position detecting means, and has a size including the stored eye position. An eye state detection device characterized by expanding an area.
請求項1〜3の何れかに記載の眼の状態検出装置であって、The eye state detection device according to any one of claims 1 to 3,
前記領域決定手段は、前記拡張した所定領域の中で左右の眼の相対位置が設定範囲内となったとき再び左右の所定領域を決定する  The area determining means determines the left and right predetermined areas again when the relative positions of the left and right eyes are within a set range in the expanded predetermined area.
ことを特徴とする眼の状態検出装置。An eye state detection device characterized by that.
請求項4記載の眼の状態検出装置であって、The eye state detection device according to claim 4,
前記相対位置は、左右の眼の左右距離であることを特徴とする眼の状態検出装置。2. The eye state detection apparatus according to claim 1, wherein the relative position is a distance between left and right eyes.
請求項4記載の眼の状態検出装置であって、The eye state detection device according to claim 4,
前記相対位置は、左右の眼の上下距離であることを特徴とする眼の状態検出装置。2. The eye state detection apparatus according to claim 1, wherein the relative position is a vertical distance between the left and right eyes.
請求項3記載の眼の状態検出装置であって、The eye state detection device according to claim 3,
前記領域拡張手段は、前記第二の眼の位置検出手段が検出する左右の眼の相対位置が設定範囲に設定時間あるとき、該左右の眼の位置を記憶すると共に、同相対位置が設定範囲に設定時間ないとき前記第一の眼の位置検出手段が検出する左右の眼の位置を記憶し、該記憶した眼の位置から前記所定領域を拡張するWhen the relative position of the left and right eyes detected by the second eye position detection unit is within a set range, the area expanding unit stores the position of the left and right eyes, and the relative position is set in the set range. The left and right eye positions detected by the first eye position detecting means are stored when the set time is not reached, and the predetermined area is expanded from the stored eye positions.
ことを特徴とする眼の状態検出装置。An eye state detection device characterized by that.
JP27527499A 1999-09-28 1999-09-28 Eye state detection device Expired - Fee Related JP3858534B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27527499A JP3858534B2 (en) 1999-09-28 1999-09-28 Eye state detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27527499A JP3858534B2 (en) 1999-09-28 1999-09-28 Eye state detection device

Publications (2)

Publication Number Publication Date
JP2001101386A JP2001101386A (en) 2001-04-13
JP3858534B2 true JP3858534B2 (en) 2006-12-13

Family

ID=17553151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27527499A Expired - Fee Related JP3858534B2 (en) 1999-09-28 1999-09-28 Eye state detection device

Country Status (1)

Country Link
JP (1) JP3858534B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7091471B2 (en) * 2004-03-15 2006-08-15 Agilent Technologies, Inc. Using eye detection for providing control and power management of electronic devices
JP4552636B2 (en) * 2004-12-08 2010-09-29 日産自動車株式会社 Driver monitor system and processing method thereof
JP2006209342A (en) * 2005-01-26 2006-08-10 Toyota Motor Corp Image processing apparatus and method
JP4992823B2 (en) * 2008-05-22 2012-08-08 トヨタ自動車株式会社 Face detection apparatus and face detection method

Also Published As

Publication number Publication date
JP2001101386A (en) 2001-04-13

Similar Documents

Publication Publication Date Title
US8050459B2 (en) System and method for detecting pedestrians
US7925441B2 (en) Vehicle periphery monitoring apparatus
WO2010058821A1 (en) Approaching object detection system
JP6805716B2 (en) Display device, display method, program
JPH0750769A (en) Backward side supervising method for vehicle
KR20140004291A (en) Forward collision warning system and forward collision warning method
JP2002314989A (en) Peripheral monitor for vehicle
JP2010079582A (en) Apparatus, method and program for detecting object
JP2994170B2 (en) Vehicle periphery monitoring device
JP2007334511A (en) Object detection device, vehicle, object detection method and program for object detection
JP2002197445A (en) Detector for abnormality in front of train utilizing optical flow
JP3858534B2 (en) Eye state detection device
JP2008065757A (en) Driving assist system
JP4887537B2 (en) Vehicle periphery monitoring device
JP6405606B2 (en) Image processing apparatus, image processing method, and image processing program
JP3984863B2 (en) Start notification device
JP5541099B2 (en) Road marking line recognition device
JP2009125518A (en) Driver&#39;s blink detection method, driver&#39;s awakening degree determination method, and device
JP5245471B2 (en) Imaging apparatus, and image processing apparatus and method
JP3226699B2 (en) Perimeter monitoring device for vehicles
JPH09142209A (en) Monitor device for vehicular peripheral circumference
WO2021084818A1 (en) Object detection device, object detection method, and object detection program
JP2001222800A (en) Side monitoring device for vehicle
JP4172284B2 (en) Vehicle periphery monitoring device
JP2010286985A (en) Apparatus and method for detecting object

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060314

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060530

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060725

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060911

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees