JP2002251617A - 鼻位置検出装置 - Google Patents

鼻位置検出装置

Info

Publication number
JP2002251617A
JP2002251617A JP2001047133A JP2001047133A JP2002251617A JP 2002251617 A JP2002251617 A JP 2002251617A JP 2001047133 A JP2001047133 A JP 2001047133A JP 2001047133 A JP2001047133 A JP 2001047133A JP 2002251617 A JP2002251617 A JP 2002251617A
Authority
JP
Japan
Prior art keywords
nose
edge
face
detected
horizontal edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001047133A
Other languages
English (en)
Inventor
Michinori Ando
道則 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2001047133A priority Critical patent/JP2002251617A/ja
Publication of JP2002251617A publication Critical patent/JP2002251617A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 眼鏡を着用したドライバが脇見をした場合で
あっても正確にドライバの鼻の位置を検出する。 【解決手段】 選択された鼻筋の下部近傍において、第
1の探索領域を設定し、第1の探索領域内で第1の横方
向エッジを検出する(ステップST106)。鼻筋と第
1の横方向エッジとに基づいて、鼻の位置が正確に検出
されたかの判定を行う(ステップST108)。ここで
は、第1の横方向エッジが検出された場合は、鼻の位置
は正確に検出されたと判定して、ステップST110に
移行する。なお、第1の横方向エッジが検出されなかっ
た場合は、鼻の位置は正確に検出されなかったと判定し
て処理を終了する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、鼻位置検出装置に
係り、特に、ドライバーの顔画像から鼻の位置を認識す
る鼻位置検出装置に関する。
【0002】
【従来の技術】特開2000−193420号公報に
は、鼻の角度や向きに影響されずに安定して眼の位置を
検出する眼の位置検出装置が記載されている。眼の位置
検出装置は、鼻筋探索領域の左側エッジと右側エッジを
抽出し、抽出した左側及び右側エッジに基づいた複数の
領域を鼻筋の候補として抽出し、抽出された鼻筋の候補
から鼻筋の候補の縦方向の長さに基づいて鼻筋を選択す
る。そして、選択された鼻筋の中点を検出し、鼻筋の中
点に基づいて眼の存在領域(眼領域)を設定して眼の位
置を検出する。
【0003】このように、眼の位置検出装置は、鼻筋候
補の中から縦方向の長さに基づいて鼻筋を選択して鼻の
位置を正確に検出し、鼻の位置に基づいて眼の位置を検
出していた。
【0004】
【発明が解決しようとする課題】しかし、上記眼の位置
検出装置は、ドライバが眼鏡を着用していた場合、眼鏡
の縦方向フレームを鼻筋と誤認して、眼の位置を正確に
検出することができない問題があった。例えば図31に
示すように、ドライバが右方向に脇見をした場合、顔画
像のほぼ中央の縦エッジは、眼鏡の縦フレームだけにな
る。したがって、上記眼の位置検出装置は、眼鏡の縦フ
レームを鼻と誤認してしまい、この結果、正確に眼の位
置を検出することができないことがあった。また、ドラ
イバが左方向に脇見をした場合も、同様に眼鏡の縦フレ
ームを鼻と誤認することがあった。
【0005】本発明は、上述した課題を解決するために
提案されたものであり、眼鏡を着用した人が右や左を向
いた場合であっても正確に鼻の位置を検出することがで
きる鼻位置検出装置を提供することを目的とする。
【0006】
【課題を解決するための手段】請求項1記載の発明は、
顔を斜め前方から撮影した画像、または斜め前方から光
を受けた顔を撮影した画像に基づいて鼻の位置を検出す
る鼻位置検出装置であって、前記画像から顔の領域を抽
出する顔領域抽出手段と、前記顔領域抽出手段により抽
出された顔の領域から各々異なるしきい値を用いて左側
エッジと右側エッジとを抽出し、抽出した左側エッジ及
び右側エッジに基づいた領域を鼻筋の候補として抽出す
る鼻筋候補抽出手段と、前記鼻筋候補抽出手段により抽
出された鼻筋の候補から鼻筋を選択する鼻筋選択手段
と、前記鼻筋選択手段により選択された鼻筋の下方側の
領域において第1の横方向エッジを検出する第1の横方
向エッジ検出手段と、前記第1の横方向エッジ検出手段
により前記第1の横方向エッジを検出できなかったとき
に、前記鼻筋選択手段により選択された鼻筋の位置は誤
認であると判定する判定手段と、を備えて構成されてい
る。
【0007】顔を斜め前方から撮影した画像、または斜
め前方から光を受けた顔を撮影した画像に基づいて眼の
位置を検出する。顔を斜め前方から撮影する場合には、
顔はいずれの方向から光を受けてもよく、斜め前方から
光を受けた顔を撮影する場合は、顔の真正面や斜め前方
等いずれの方向から撮影してもよい。これによって、鼻
筋の左側エッジと右側エッジとが異なるように撮影され
る。
【0008】顔領域抽出手段は、入力された画像から顔
の領域を抽出する。この顔の領域は、入力された顔画像
を適当な輝度しきい値により2値画像に変換し、変換さ
れた2値画像を用いて抽出することができる。
【0009】鼻筋候補抽出手段は、抽出された顔の領域
から各々異なるしきい値を用いて左側エッジと右側エッ
ジとを抽出し、抽出した左側エッジ及び右側エッジに基
づいた領域を鼻筋の候補として抽出する。
【0010】この場合、抽出された顔の領域内で、所定
の領域を鼻筋探索領域として設定して鼻筋の候補を抽出
するのが効果的である。この所定の領域は、顔の撮影方
向または顔が光を受ける方向に応じて設定することがで
き、顔に向かって斜め右前方から顔を撮影した画像、ま
たは顔に向かって斜め右前方から光を受けた顔を撮影し
た画像に基づいて眼の位置を検出する場合には、顔の領
域の向かって左側半分の領域を鼻筋探索領域として設定
することができる。また、鼻筋の候補は、左側エッジ及
び右側エッジの対を検出し、エッジの対が存在する領域
を鼻筋の候補として抽出することができる。
【0011】左側エッジと右側エッジとを抽出する際の
しきい値を異ならせたのは、顔を斜め前方から撮影して
いるか、または斜め前方から光を受けた顔を撮影してい
ることから鼻筋の左右のエッジ強度が異なるためであ
る。顔に向かって斜め右前方から顔を撮影した場合、ま
たは顔に向かって斜め右前方から光を受けた顔を撮影し
た場合には、(左側エッジに対するしきい値)<(右側
エッジに対するしきい値)になる。
【0012】鼻筋選択手段は、抽出された鼻筋の候補か
ら、例えば、候補領域の縦の長さに関する条件を用い
て、最も確からしい候補を鼻筋として選択する。条件を
満足しない場合は、鼻筋検出不可とする。候補領域の縦
の長さに関する条件を用いて抽出する場合には、適当な
しきい値より長い候補を選択し、選択した候補の中から
長さの最も長いものを鼻筋として選択する。
【0013】第1の横方向エッジ検出手段は、鼻筋選択
手段により選択された鼻筋の下方近傍の領域において、
鼻下横エッジを第1の横方向エッジとして検出する。顔
面は鼻下横エッジの部分に比べて明るいので、ここで
は、上側が白で下側が黒になっているエッジを検出すれ
ばよい。
【0014】通常の顔画像では、縦方向に鼻筋があり、
鼻筋の下側には鼻下横エッジがある。しかし、鼻筋を誤
認すると、その下側に存在するはずの第1の横方向エッ
ジを検出することができない。そこで、判定手段は、第
1の横方向エッジを検出できなかったときに、鼻筋選択
手段により選択された鼻筋の位置は誤認であると判定す
る。
【0015】請求項2記載の発明は、請求項1記載の発
明において、前記第1の横方向エッジの下方近傍の領域
であり、かつ顔の正面に対する撮影方向又は顔に当たる
光の方向に応じた方向近傍の領域において、第2の横方
向エッジを検出する第2の横方向エッジ検出手段を更に
備え、前記判定手段は、前記第2の横方向エッジ検出手
段により第2の横方向エッジが検出されたときに、前記
鼻筋選択手段により選択された鼻筋の位置は誤認である
と判定することを特徴とする。
【0016】請求項1記載の発明では、まれに、眼鏡の
横フレームを第1の横方向エッジとして誤って検出して
しまい、鼻位置を誤認することがある。そこで、このよ
うな誤認を回避するために、第1の横方向エッジの下方
近傍の領域であり、かつ顔の正面に対する撮影方向又は
顔に当たる光の方向に応じた方向近傍の領域において、
第2の横方向エッジを検出する。
【0017】ここで、顔の正面に対する撮影方向又は顔
に当たる光の方向に応じた方向とは、顔の正面に向かっ
て右側から撮影した場合又は顔の正面に向かって右側か
ら光を当てた場合は、顔の正面に対して右側の方向をい
う。一方、顔の正面に向かって左側から撮影した場合又
は顔の正面に向かって左側から光を当てた場合は、顔の
正面に対して左側の方向をいう。
【0018】実際の鼻下横エッジを第1の横方向エッジ
として検出した場合は、第2の横方向エッジを検出しよ
うとしても検出することができないはずである。しか
し、第1の横方向エッジを誤認して検出した場合は、第
2の横方向エッジを検出してしまう。そこで、判定手段
は、第2の横方向エッジが検出されたときに、鼻筋選択
手段により選択された鼻筋の位置は誤認であると判定す
る。
【0019】請求項3記載の発明は、請求項1または2
記載の発明において、前記鼻筋候補抽出手段により抽出
された鼻筋候補と前記第1の横方向エッジ検出手段によ
り検出された第1の横方向エッジとの関係に基づいて、
眼鏡フレームの有無を検出する眼鏡フレーム検出手段を
更に備え、前記判定手段は、前記眼鏡フレーム検出手段
により眼鏡フレームが検出されたときに、前記鼻筋選択
手段により選択された鼻筋の位置は誤認であると判定す
ることを特徴とする。
【0020】眼鏡レンズの縁に設けられた眼鏡フレーム
は、眼鏡レンズの形状が円形であっても多角形であって
も、細いドーナツ状に形成されている。そこで、眼鏡フ
レーム検出手段は、鼻筋候補と第1の横方向エッジの関
係が眼鏡の縦フレームと横フレームの関係に対応してい
るかを判定し、対応している場合は、検出された鼻筋候
補と第1の横方向エッジは眼鏡フレームであると判定す
る。なお、鼻筋候補と第1の横方向エッジの関係が眼鏡
の縦フレームと横フレームの関係に対応していない場合
は、検出された鼻筋の位置は正しいと判定する。
【0021】また、顔にマスクが着用されている場合
は、鼻下横エッジはマスクに隠れてしまうので、第1の
横方向エッジを検出することができない。このとき、顔
とマスクの境界を示す境界エッジを検出するのが好まし
い。
【0022】ここで、第1の横方向エッジ検出手段は、
上述したように、上側が白で下側が黒になっているエッ
ジを検出している。一方、顔はマスクに対して暗くなっ
ているので、境界エッジを検出するときは、上側が黒で
下側が白になっているエッジを検出する必要がある。
【0023】そこで、前記第1の横方向エッジ検出手段
は、第1の横方向エッジを検出することができないとき
は、エッジの勾配を切り換えて、上側が黒で下側が白に
なっている境界エッジを検出するのが好ましい。エッジ
の勾配を切り換えるのは、例えば第1の横方向エッジを
検出できなかった回数が所定の閾値を超えた場合や、顔
面下半分領域の輝度分布に対する顔面上半分領域の輝度
分布の比が所定値より高い場合が好ましい。
【0024】
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。
【0025】[第1の実施の形態]第1の実施の形態に
係る眼位置検出装置は、図1に示すように、ドライバー
の顔をドライバーの正面に向かって斜め右側から撮影又
はドライバーの正面に向かって斜め右側から光が当たる
状態で撮影するカメラ10、画像処理用のコンピュータ
11、及びコンピュータ11に接続されて抽出された2
値化画像等を表示するCRTで構成された表示装置32
によって構成されている。
【0026】画像処理用のコンピュータ11は、カメラ
10から入力された画像信号をディジタル変換するアナ
ログ−ディジタル(A/D)変換器12、CPU14、
第1の眼位置検出処理ルーチンのプログラムが記憶され
たROM16、RAM18、画像データを記憶する画像
メモリ20、輝度平均値を記憶する平均値レジスタ2
2、各種の度数分布を表すヒストグラムを記憶するヒス
トグラムメモリ24、顔領域の座標を記憶する顔領域座
標レジスタ26、鼻筋探査領域の座標を記憶する鼻筋探
査領域座標レジスタ28、表示装置32に接続された出
力ポート30、輝度平均値の差、輝度平均値の総和の値
及び0等を記憶する画像メモリ34、及びこれらを接続
するコントロールバスやデータバス等のバス36で構成
されている。そして、カメラ10から入力された画像信
号は、A/D変換器12によってディジタルの画像デー
タに変換されて画像メモリ20に記憶されている。
【0027】(メインルーチン)図2は、ROM16に
記憶された第1の眼位置検出処理ルーチンを示すフロー
チャートである。CPU14は、第1の眼位置検出ルー
チンに基づいて、ステップST100,102,・・
・,112,114の順に処理する。
【0028】(ステップST100)ステップST10
0において、画像メモリ20に記憶されている顔画像か
ら矩形状の顔領域の対角線の両端座標で表される顔領域
座標(x1 ,y1 ),(x2,y2 )を算出し、算出し
た顔領域座標を顔領域レジスタ26に記憶すると共に、
顔領域座標から鼻筋探索領域座標(x1 ,y1 ),(x
0 ,y2 )を算出し、鼻筋探索領域座標レジスタ28に
記憶する。ただし、x1 <x0 <x2 、y1 <y2 、x
0 =(x1 +x2 )/2である。
【0029】図3は、ステップST100の詳細な処理
手順を示すフローチャートである。すなわち、ステップ
ST100では、具体的にはステップST120からス
テップST134までの処理を実行する。
【0030】ステップST120において、顔画像(グ
レー画像)の各画素の輝度値を予め定められた適当なし
きい値と比較することにより、顔画像をラベル1、0が
付された2値画像に変換する。
【0031】次のステップST122では、図4に示す
ように、2値画像のラベルをXY平面上のX軸、及びY
軸へ投影したヒストグラムを求め、ステップST124
において求めたヒストグラムをヒストグラムメモリ24
に記憶する。このヒストグラムは、あるX座標を通りか
つY軸に平行な直線上に位置する画素のラベルを積算し
た値を度数とすることにより得られる。なお、Y軸につ
いても同様であり、あるY座標を通りかつX軸に平行な
直線上に位置する画素のラベルを積算した値を度数とす
ることにより得られる。
【0032】ステップST126では、図4に示すよう
に、X軸上でのヒストグラムの度数のピーク値を算出す
る。Y軸についても同様に度数のピーク値を算出する。
ステップST128では、図4に示すように、X軸上で
度数がピークの座標から、しきい値と度数とを比較しな
がら左右へ進んでいく過程で、しきい値を横切った座標
より度数が大きいX座標x1 ,x2 を顔領域座標として
抽出する。Y軸に関しても同様な方法で顔領域座標y1
,y2 を抽出する。これによって、顔領域座標(x1
,y1 ),(x2 ,y2 )が算出される。算出された
顔領域座標は、ステップST130において顔領域座標
レジスタ26に記憶される。
【0033】ステップST132において、顔領域座標
から顔の向かって左半分の領域に属する座標を鼻筋探索
領域座標(x1 ,y1 ),(x0 ,y2 )として選択
し、ステップST134において選択された鼻筋探索領
域座標が鼻筋探索領域座標レジスタ28に記憶する。
【0034】以上のように、ステップST120からス
テップST134までの処理を終了するとサブルーチン
を抜けて、図2に示すステップST102に移行する。
【0035】(ステップST102)ステップST10
2では、画像メモリ20に記憶されている顔画像上の算
出された鼻筋探索領域座標で示される領域内に対して、
各々異なるしきい値を用いて鼻筋探索領域の左側エッジ
と右側エッジとを抽出し、抽出した左側エッジ及び右側
エッジに基づいた複数の領域を鼻筋の候補として抽出す
る。
【0036】具体的には、ステップST102における
鼻筋候補抽出処理は、図5に示す左側エッジ抽出処理ル
ーチン、図6に示す右側エッジ抽出処理ルーチン、図7
に示す左右エッジの対抽出処理ルーチンをそれぞれ実行
する。
【0037】(左側エッジ抽出処理)図5は、左側エッ
ジ抽出処理ルーチンを示すフローチャートである。
【0038】左側エッジ抽出処理ルーチンでは、図8
(A)に示すように、鼻筋探索領域座標レジスタ28に
記憶されている鼻筋探索領域座標に基づき、画像メモリ
20に記憶されている顔画像上の鼻筋探索領域上で顔の
横方向に隣接して連続するように左側から右側に向かっ
て設定された1画素の矩形領域1、矩形領域2の2個の
矩形領域を2組備えた矩形のウインドウ40を用いる。
このウインドウ40は、矩形領域1及び矩形領域2から
なる1組の矩形領域を顔の横方向に1画素分左方向にず
らして構成されており、鼻筋探索領域上で1画素ずつ右
方向にずらしてスキャンすることを上から下方向に1画
素ずつずらしてスキャンすることにより左側エッジが抽
出される。
【0039】図5のステップST140では、各矩形領
域1、2内の全画素の輝度値を積算することにより輝度
積算値を各々算出する。ステップST142では、矩形
領域1内の輝度積算値の和を矩形領域1内の全画素数で
除算すると共に、矩形領域2内の輝度積算値の和を矩形
領域2内の全画素数で除算することにより、矩形領域
1、2内の輝度平均値P1,P2を算出し、輝度平均値
レジスタ22にウインドウ40の位置に応じて保存す
る。
【0040】次のステップST144では、隣接する矩
形領域1、2内の輝度平均値の差(P1−P2)の各々
と、しきい値K1とを比較し、P1−P2>K1の条件
を満足するか否かを判断する。
【0041】ステップST144で上記の条件を満足す
ると判断されたとき、すなわち隣接する矩形領域内の輝
度平均値の差が大きいことから鼻筋候補の左側エッジで
あると判断される場合には、ステップST146におい
て、顔画像が記憶されている画像メモリとは別の画像メ
モリ34へ、輝度平均値の差(P1−P2)の値を書き
込む。書き込むべき座標は、図8の矩形領域1の中で最
も上に位置する画素の座標とする。同時にステップST
148においてヒストグラムメモリ24に記憶されてい
る輝度平均値の差の度数分布を表すヒストグラムの差
(P1−P2)に対する度数を1増加する。
【0042】ステップST144において上記の条件を
満足しないと判断されたとき、すなわち隣接する矩形領
域1、2間の輝度平均値の差が小さい場合には、左側エ
ッジが存在しないと推定してステップST150におい
て、顔画像が記憶されている画像メモリとは別の画像メ
モリ34へ0を書き込む。書き込むべき座標は、図8
(A)の矩形領域1の中で最も上に位置する画素の座標
とする。同時に、ステップST152においてヒストグ
ラムメモリ24の差が0の度数を1増加する。
【0043】なお、輝度平均値の差(P1−P2)の値
及び0は、図8(A)のウインドウの中心座標に書き込
むべきであるが、この例では便宜上、左上の画素として
いる。
【0044】次のステップST154では、鼻筋探索領
域の画像全面についてステップST140〜ステップS
T152の処理が終了したか否かを判断し、処理が終了
していない場合にはウインドウを1画素ずらしてステッ
プST140に戻り、上記の処理を繰り返す。
【0045】上記の処理を、矩形のウインドウ40を1
画素ずつずらしながら、入力画像である鼻筋探索領域の
画像全体に対して行うことにより、輝度平均値の差が書
き込まれた画像及びヒストグラムが得られる。
【0046】ステップST154で鼻筋探索領域の画像
全面について処理が終了していると判断された場合は、
ステップST156においてヒストグラムメモリに記憶
されているヒストグラムに基づいて輝度平均値の差(P
1−P2)に対するしきい値K2を算出する。すなわ
ち、ヒストグラムの上位の度数から度数を積算し、積算
した値が全度数に対して所定割り合いに到達した際の差
(P1−P2)の値をしきい値K2として設定する。こ
の全度数に対する所定割り合いは、予めシミュレーショ
ン等によって設定される。
【0047】ステップST158では、各画素の輝度平
均値の差(P1−P2)としきい値K2とを比較して
(P1−P2)>K2の条件を満足するか否かを判断す
る。
【0048】上記条件を満足する画素に対してはステッ
プST160において出力するときの値を1とし、上記
条件を満足しない画素に対してはステップST162に
おいて出力するときの値を0とするようにラベリングを
行い2値化を行う。上記の2値化処理はステップST1
64で鼻筋探索領域の画像全面について処理が終了した
と判断されるまで継続される。そして、鼻筋探索領域の
画像全面について処理を行うことにより鼻筋の左側のエ
ッジに相当する白/黒エッジが抽出される。左側のエッ
ジ抽出処理による2値画像の例を図9(A)に示す。
【0049】(右側エッジ抽出処理)図6は、右側エッ
ジ抽出処理ルーチンを示すフローチャートである。
【0050】右側エッジ抽出処理ルーチンでは、図8
(B)に示すように、鼻筋探索領域座標レジスタ28に
記憶されている鼻筋探索領域座標に基づき、画像メモリ
20に記憶されている顔画像上の鼻筋探索領域上で顔の
横方向に隣接して連続するように左側から右側に向かっ
て設定された1画素の矩形領域3、及び4画素の矩形領
域4からなる2個の矩形領域を4組備えた矩形のウイン
ドウ50を用いる。このウインドウ50は、矩形領域3
及び矩形領域4からなる1組の矩形領域を顔の横方向に
順に1画素ずつ左方向にずらして構成されており、鼻筋
探索領域上で1画素ずつ右方向にずらしてスキャンする
ことを下方向に1画素ずつずらしてスキャンすることに
より右側エッジが抽出される。
【0051】右側エッジ抽出処理に使用する矩形のウイ
ンドウ50が、左側エッジ抽出処理に使用する矩形のウ
インドウ40と形状が異なるのは、ドライバーの顔をド
ライバーに向かって右斜め前方から撮影しているためで
あり、左側エッジが右側エッジに比較して弱いことから
左側エッジについては微小面積で輝度平均の差を演算し
てエッジを抽出し易くしている。
【0052】図6に示す右側エッジ抽出処理は、図5で
説明した左側エッジ抽出処理と同様であるので対応する
部分には同一符号を付して説明する。図6に示す右側エ
ッジ抽出処理では、ステップST142において矩形領
域3内の輝度積算値の和を矩形領域3内の全画素数で除
算すると共に、矩形領域4内の輝度積算値の和を矩形領
域4内の全画素数で除算することにより、矩形領域3、
4内の輝度平均値P3,P4を算出し、ステップST1
56においてヒストグラムメモリに記憶されているヒス
トグラムに基づいて輝度平均値の差(P4−P3)に対
するしきい値K3を算出する。すなわち、ヒストグラム
の上位の度数から度数を積算し、積算した値が全度数に
対して所定割り合いに到達した際の差(P4−P3)の
値をしきい値K3として設定する。この全度数に対する
所定割り合いは、予めシミュレーション等によって設定
される。
【0053】顔を斜め右方向から撮影していることから
鼻の左右のエッジ強度が異なるため、このしきい値K3
は左側エッジのしきい値K2とは異なった大きさに設定
されている。すなわち、顔を斜め右方向から撮影してい
ることから(左側エッジに対するしきい値K2)<(右
側エッジに対するしきい値K3)のように定められてい
る。
【0054】そして、鼻筋領域の画像全面について左側
エッジの場合と同様の処理を行うことにより鼻筋の右側
のエッジに相当する黒/白エッジが抽出される。右側の
エッジ抽出処理による2値画像の例を図9(B)に示
す。
【0055】(左右エッジの対抽出処理)図7は、左側
エッジの抽出結果及び左側エッジの抽出結果に対して行
う左右エッジの対抽出処理ルーチンを示すフローチャー
トである。この左右エッジの対抽出処理では、左右のエ
ッジが近接して存在する点を抽出する。
【0056】ステップST170では右側エッジ点を選
択し、ステップST172で図10に示すように、右側
のエッジ点を起点として、左方向へ適当な距離だけ水平
方向に探索していき、ステップST174で左側のエッ
ジ点が存在するか否かを判断する。左側のエッジ点が存
在すれば、ステップST176で起点とした右側エッジ
点及び右側エッジ点に対応する左側エッジ点をエッジ対
として採用する。エッジ対として採用した場合には、右
側エッジの座標をRAM等のメモリに記憶する。
【0057】一方、左側エッジ点が存在しなければ、ス
テップST178において選択した右側のエッジ点を消
去する。そして、ステップST180において右側のエ
ッジ点の全部についてステップST170〜ステップS
T178の処理を行った否かを判断し、行っていない場
合にはステップST170に戻って上記の処理を繰り返
す。
【0058】以上の結果、左右のエッジ対が存在する場
合に右側のエッジの座標を記憶し、この右側のエッジの
座標で表される領域を鼻筋候補領域として図9(C)の
例に示すように抽出して、図2に示すステップST10
4に移行する。なお、この鼻筋候補領域は通常複数個抽
出される。図11は、顔領域と抽出された鼻筋候補領域
との関係を示すものであり、図11では鼻筋候補領域
1、2の2つの候補が抽出されている。
【0059】(ステップST104)ステップST10
4では、抽出された鼻筋の候補の縦方向の長さに基づい
て鼻筋を選択する。
【0060】図12は、複数の鼻筋候補領域から鼻筋を
検出する処理手順を示すフローチャートである。すなわ
ち、ステップST104では、具体的にはステップST
200からステップST210までの処理が実行され
る。
【0061】ステップST200では、ステップST1
02で抽出された複数の鼻筋候補領域の各々に対して、
図13に示すように、各鼻筋候補領域の右上、左下の位
置座標を求める。なお、鼻筋候補領域の位置座標の算出
の詳細については後述する。
【0062】ステップST202では、抽出された鼻筋
候補領域を線分と仮定し、鼻筋候補領域の右上、左下の
位置座標から鼻筋候補領域の縦の長さを算出する。
【0063】ステップST204では、鼻筋候補領域の
縦方向の長さと予め定められたしきい値Lとを比較し、
縦方向の長さがしきい値Lを越えている場合にステップ
ST206で鼻筋候補として選択する。一方、鼻筋候補
領域の縦方向の長さがしきい値L以下の場合には鼻筋候
補として選択することなく次のステップST208に進
む。
【0064】ステップST208では、全鼻筋候補領域
についてステップST200〜ステップST206の処
理を終了したか否かを判断し、終了していない場合には
ステップST200に戻って上記の処理を繰り返し、終
了した場合にはステップST210において選択された
鼻筋候補のうち縦方向の長さが最も長い鼻筋候補を鼻筋
として選択する。例えば図11の例では、鼻筋候補領域
1が選択される。なお、鼻筋候補が選択されなかった場
合は、鼻筋を検出することができないので、処理を終了
する。
【0065】ここで、上記ステップST200の鼻筋候
補領域の位置座標算出処理ルーチンの詳細について図1
4を参照して説明する。
【0066】この鼻筋候補領域の位置座標算出処理で
は、図9(C)に例示する2値画像(鼻筋候補領域画
像)を右から左へスキャンすることを上から下ヘ順に実
行しながら、ラベルが“1”の座標、すなわち2値画像
の輝度値が1の座標を探索する。なお、2値画像を右か
ら左ヘスキャンする理由は、ラベルが“1”であり、か
つ最も右上の画素を最初に発見するためである。
【0067】ラベルが“1”である最も右上の点を発見
した後、ステップST240でその座標の画素を注目画
素としてその画素の周辺座標の画素のラベルを評価す
る。
【0068】第1番目として、図15に示すように注目
画素(i,j)が含まれるスキャンラインの次のスキャ
ンライン上の最も右側に位置するD座標のラベルを評価
する(ステップST242)。D座標のラベルが“1”
ならば、D座標へ移動して、D座標のラベルを“0”に
する(ステップST242、244)。
【0069】第2番目として、図15に示すように注目
画素の左隣に位置するC座標のラベルを評価する(ステ
ップST246)。C座標のラベルが“1”ならば、C
座標へ移動して、C座標のラベルを“0”にする(ステ
ップST246、248)。
【0070】第3番目として、図15に示すようにC座
標の下側に位置するB座標のラベルを評価する(ステッ
プST250)。B座標のラベルが“1”ならば、B座
標へ移動して、B座標のラベルを“0”にする(ステッ
プST250、252)。
【0071】第4番目として、図15に示すように注目
画素の下側に位置するA座標のラベルを評価する(ステ
ップST254)。A座標のラベルが“1”ならば、A
座標へ移動して、A座標のラベルを“0”にする(ステ
ップST254、256)。
【0072】第5番目として、図15に示すようにC座
標の左隣に位置するE座標のラベルを評価する(ステッ
プST258)。E座標のラベルが“1”ならば、E座
標のラベルを“0”にする(ステップST258、26
0)。
【0073】第6番目として、図15に示すようにE座
標の左隣に位置するF座標のラベルを評価する(ステッ
プST262)。F座標のラベルが“1”ならば、F座
標のラベルを“0”にする(ステップST262、26
4)。
【0074】ステップST266で座標の移動があった
か否かを判断し、座標の移動があれば、ステップST2
42へ戻って移動した座標で上記ステップST242〜
ステップST264の処理を繰り返す。一方、ステップ
ST266で移動がないと判断されたならば、A,B,
C,Dの全座標のラベルが“0”なので、ラベルの探索
はその座標点で終了し、右上、左下の座標をレジスタに
書き込む。
【0075】鼻筋候補領域画像全面について右上に位置
する注目画素を出発点として左下まで行うことにより、
鼻筋候補領域の位置座標が算出される。
【0076】(ステップST106)ステップST10
6において、選択された鼻筋の下部近傍において、図1
6に示すように第1の探索領域を設定する。そして、第
1の探索領域内で鼻下横エッジを第1の横方向エッジと
して検出して、ステップST108に移行する。
【0077】(ステップST108)ステップST10
8において、鼻筋と第1の横方向エッジとに基づいて、
鼻の位置が正確に検出されたかの判定を行う。ここで
は、第1の横方向エッジが検出された場合は、鼻の位置
は正確に検出されたと判定して、ステップST110に
移行する。なお、第1の横方向エッジが検出されなかっ
た場合は、鼻の位置は正確に検出されなかったと判定し
て処理を終了する。
【0078】なお、鼻下横エッジでなくて口のエッジを
第1の横方向エッジとして検出した場合でも、鼻の位置
を正確に検出したと判定する。この理由は、鼻下横エッ
ジと口のエッジはX座標に関してはほぼ同じでありY座
標のみ異なることから、鼻筋と口のエッジを一組と考え
ても、鼻筋の位置は正確に検出することができるからで
ある。
【0079】(ステップST110)ステップST11
0において、鼻筋の中点を算出する。具体的には図17
に示すように、選択された鼻筋を示す領域の右上、左下
の位置座標を結んだ直線の中点座標を演算して、ステッ
プST112に移行する。
【0080】(ステップST112)ステップST11
2において、ステップST110で演算された中点座標
を鼻筋の中心点であると仮定して、この中点座標から眼
が存在すると予想される眼の存在領域(眼領域)を設定
する。眼領域は、顔の統計的情報に基づいて決定された
鼻と眼との位置関係に基づいて設定される。
【0081】この鼻と眼との位置関係は、図18に示す
ように、中心座標(鼻筋中点)が右下角に位置するL1
×L3の矩形とこの矩形から右方向に距離L2だけ離れ
たL1×L3の矩形とで表され、各矩形の中に眼が存在
すると仮定される。そして、顔領域のサイズを算出し、
この顔領域のサイズに応じてL1、L2、L3の長さを
変化させて眼領域を設定する。例えば、顔領域の縦の長
さに比例させてL1の長さを変化させる。また、顔領域
の横の長さに比例させてL2、L3の長さを変化させ
る。なお、顔領域の縦及び横の長さの各々に比例させて
L1、L2、L3の長さを各々変化させてもよい。
【0082】(ステップST114)ステップST11
4において、設定された眼領域から眼の位置を検出す
る。具体的には、図19に示す処理を実行する。ここ
で、図19は、ステップST114の詳細な処理手順を
示すフローチャートである。
【0083】ステップST220では、設定された眼領
域に対応する画像データを画像メモリ20から読み込
み、ステップST222で設定された眼領域の輝度値の
度数分布を表すヒストグラムを算出する。ステップST
224では、算出されたヒストグラム上で度数のピーク
を検出する。
【0084】ステップST226では、図20に示すよ
うに、ヒストグラム上で度数のピークから左へ進んでい
き、最初に現れた度数の谷を検出し、この谷の輝度値を
しきい値として設定する。ステップST228では、前
記眼領域の各画素の輝度値としきい値とを比較し、輝度
がしきい値を越える画素に対してはステップST230
において出力するときの値を1とし、輝度がしきい値以
下の画素に対してはステップST232において出力す
るときの値を0とし、2値化を行う。上記の2値化処理
はステップST234で眼領域全面について処理が終了
したと判断されるまで継続される。そして、眼領域全面
について処理を行うことにより眼領域の画像が2値画像
に変換される。このときの眼領域の原画と眼領域の2値
画像の例を図21(A),(B)に示す。
【0085】次に、ステップST236において眼領域
の2値画像に最小値フィルタ処理を実行すると、図21
(C)に示すように黒領域が検出され、検出された黒領
域の中で、眼領域のほぼ中央に位置する黒領域を、眼の
領域として選択する。
【0086】以上のように、本実施の形態に係る眼位置
検出装置は、鼻筋だけでなく鼻筋に対応する鼻下横エッ
ジを検出することにより鼻の位置を正確に検出し、鼻の
位置を用いて眼の位置を正確に検出することができる。
これにより、眼鏡を着用したドライバが脇見をした場合
であっても、眼鏡の縦フレームを鼻筋と誤認することが
なくなり、眼の位置の検出精度をより向上させることが
できる。
【0087】[第2の実施の形態]つぎに、本発明の第
2の実施の形態について説明する。なお、第1の実施の
形態と同一の部位や同一の処理については同一の符号を
付し、詳細な説明は省略する。
【0088】第2の実施の形態に係る眼位置検出装置
は、第1の実施の形態と同様に、図1に示すように構成
されている。ここで、カメラ10は、ドライバーの顔を
ドライバーの正面に向かって斜め右側から撮影し、又は
ドライバーの正面に向かって斜め右側から光が当たる状
態で撮影している。また、ROM16には、第2の眼位
置検出処理ルーチンのプログラムが記憶されている。
【0089】図22は、第2の眼位置検出処理ルーチン
を示すフローチャートである。CPU14は、第2の眼
位置検出ルーチンに基づいて、第1の眼位置検出処理ル
ーチンと同様のステップST100,ST102,ST
104,ST106を処理した後、ステップST107
に移行する。
【0090】ステップST107において、第1の横方
向エッジの右下近傍の方向に第2の探索領域を設定し、
第2の探索領域内で第2の横方向エッジを検出して、ス
テップST109に移行する。
【0091】ステップST109において、第2の探索
領域内で第2の横方向エッジが検出された場合は、ステ
ップST106で検出された第1の横方向エッジは誤認
である、すなわち鼻下横エッジではないと判定する。一
方、第2の探索領域内で第2の横方向エッジが検出され
なかった場合は、第1の横方向エッジは本来の鼻下横エ
ッジであり、鼻の位置を正確に検出することができたと
判定して、ステップST110に移行する。そして、ス
テップST110,ST112,ST114について
は、第1の眼位置検出処理ルーチンと同様に処理して、
眼の位置を検出するする。
【0092】例えば図23に示すように、ドライバーが
左に脇見をした場合、眼鏡の縦フレームを鼻筋として誤
認し、さらに眼鏡の横フレームを第1の横エッジと誤認
することがある。しかし、ステップST107におい
て、第2の探索領域で実際の鼻下横エッジを第2の横方
向エッジとして検出する。この結果、ステップST10
9において、ステップST104で選択した鼻筋及びス
テップST106で検出した第1の横方向エッジは誤認
であると判定することができる。
【0093】一方、例えば図24に示すように、ドライ
バーが正面を見ている場合、ステップST107におい
て、第2の横方向エッジを検出することができない。こ
の結果、ステップST109において、第1の横方向エ
ッジは実際の鼻下横エッジであるので、鼻の位置を正確
に検出したと判定することができる。
【0094】なお、例えば図31に示すように、ドライ
バーが右に脇見をした場合、眼鏡の縦フレームを鼻筋と
誤認したとしても第1の横方向エッジを検出することが
できないので、第1の実施の形態と同様に、鼻位置の誤
認を判定することができる。
【0095】以上のように、第2の実施の形態に係る眼
位置検出装置は、第1の実施の形態でドライバーの鼻位
置の誤認が生じるような場合であっても、第2の横方向
エッジを検出することによって鼻の位置の誤認がないか
を確認し、この結果、眼の位置の検出精度をより向上さ
せることができる。
【0096】なお、第1の探索領域に対する第2の探索
領域の方向は、ドライバーに対するカメラ10の位置、
ドライバーに当たる光の方向によって異なる。例えば本
実施の形態では、カメラ10はドライバーの顔をドライ
バーの正面に向かって斜め右側から撮影し又はドライバ
ーの正面に向かって斜め右側から光が当たる状態で撮影
しているので、第2の探索領域は、第1の探索領域に対
して右下近傍の方向に設定している。これに対して、カ
メラ10がドライバーの顔をドライバーの正面に向かっ
て斜め左側から撮影し又はドライバーの正面に向かって
斜め左側から光が当たる状態で撮影する場合では、第2
の探索領域は、第1の探索領域に対して左下近傍の方向
に設定するのが好ましい。
【0097】[第3の実施の形態]つぎに、本発明の第
3の実施の形態について説明する。なお、第1の実施の
形態と同一の部位や同一の処理については同一の符号を
付し、詳細な説明は省略する。
【0098】第3の実施の形態に係る眼位置検出装置
は、第1の実施の形態と同様に、図1に示すように構成
されている。ここで、ドライバーに対するカメラ10の
位置や、ドライバーに当たる光の方向も第1の実施の形
態と同様である。また、ROM16には、第3の眼位置
検出処理ルーチンのプログラムが記憶されている。
【0099】図25は、第3の眼位置検出処理ルーチン
を示すフローチャートである。CPU14は、第3の眼
位置検出ルーチンに基づいて、第1の眼位置検出処理ル
ーチンと同様のステップST100,ST102,ST
104,ST106を処理した後、ステップST300
に移行する。
【0100】ステップST300において、第1の横方
向エッジの近傍の位置に、図26に示すように、横方向
に細長い長方形状の眼鏡フレーム候補領域を設定して、
ステップST302に移行する。
【0101】ステップST302において、ステップS
T102で抽出した鼻筋候補(ステップST104で選
択した鼻筋を除くのが好ましい。)、ステップST10
6で検出した第1の横方向エッジ、及び眼鏡フレーム候
補領域の関係に基づいて、鼻筋の位置が正しいかを判定
する。
【0102】ここでは、鼻筋候補、眼鏡フレーム候補領
域、第1の横方向エッジがそれぞれ連結するかを判定
し、連結しないときはステップST104で選択された
鼻筋の位置は正しいと判定して、図25に示すステップ
ST110に移行する。
【0103】一方、図26に示すように、鼻筋候補、眼
鏡フレーム候補領域、第1の横方向エッジがそれぞれ連
結するときは、連結された横方向の長さが所定の閾値よ
り長いかを判定し、所定値より長いときは眼鏡フレーム
候補領域によって連結された鼻筋候補及び第1の横方向
エッジは眼鏡フレームであるので、鼻の位置を正しく検
出できなかったと判定する。
【0104】また、連結された横方向の長さが所定の閾
値より長くないときは、第1の横方向エッジは実際の鼻
下横エッジであるので、鼻の位置が正確に検出されたと
判定して、図25に示すステップST110に移行す
る。
【0105】そして、第1の眼位置検出処理ルーチンと
同様にステップST110,ST112,ST114を
処理して、ドライバの眼の位置を検出する。
【0106】以上のように、第3の実施の形態に係る眼
位置検出装置は、眼鏡フレーム候補領域を設定すること
によって鼻筋候補と第1の横方向エッジとが眼鏡フレー
ムであるかを判定することができるので、鼻位置の誤認
を防止して、眼の位置を正確に検出することができる。
【0107】なお、本実施の形態では、眼鏡フレーム候
補領域を設定することによって、鼻筋候補と第1の横方
向エッジが眼鏡フレームであるかを判定していたが、本
発明はこれに限定されるものではない。すなわち、鼻筋
候補と第1の横方向エッジとの関係に基づいて、眼鏡フ
レームであるかを判定することができればよい。
【0108】[第4の実施の形態]つぎに、本発明の第
4の実施の形態について説明する。なお、第1の実施の
形態と同一の部位や同一の処理については同一の符号を
付し、詳細な説明は省略する。
【0109】第4の実施の形態に係る眼位置検出装置
は、第1の実施の形態と同様に図1に示すように構成さ
れ、ドライバーがマスクを着用した場合でも鼻位置及び
眼位置を検出する。ここで、ROM16には、第4の眼
位置検出処理ルーチンのプログラムが記憶されている。
【0110】図27は、第4の眼位置検出処理ルーチン
を示すフローチャートである。CPU14は、第4の眼
位置検出ルーチンに基づいて、第1の眼位置検出処理ル
ーチンと同様のステップST100,ST102,ST
104を処理した後、ステップST105に移行する。
【0111】ステップST105において、上述したス
テップST106と同様に第1の横方向エッジを検出す
る。しかし、例えば図28に示すように、ドライバーが
マスクを着用している場合、鼻下横エッジである第1の
横方向エッジを検出することができないので、顔とマス
クの境界を示す境界エッジを検出する。
【0112】ここで、顔面は鼻下横エッジの部分に比べ
て明るいので、第1の横方向エッジの上側は下側に比べ
て明るくなっている。一方、顔はマスクに比べて暗いの
で、境界エッジの上側は下側に比べて暗くなっている。
したがって、第1の横方向エッジを検出する場合は、上
側が白で下側が黒になっているエッジを検出している
が、境界エッジを検出する場合は、上側が黒で下側が黒
になっているエッジを検出する必要がある。すなわち、
第1の横方向エッジと境界エッジは、抽出すべきエッジ
の上側と下側で白黒が逆(エッジの勾配が逆)になって
いる。そこで、ステップST105では、具体的には第
1又は第2のエッジ勾配切換ルーチンを実行する。
【0113】(第1のエッジ勾配切換ルーチン)図29
は、第1のエッジ勾配切換ルーチンを示すフローチャー
トである。
【0114】ステップST311において、ステップS
T106と同様に第1の横方向エッジを検出してステッ
プST312に移行する。なお、第1の横方向エッジを
検出できなかった場合もステップST312に移行す
る。
【0115】ステップST312において、第1の横方
向エッジを検出したかを判定し、検出したときはサブル
ーチンを抜けて、図27に示すステップST108に移
行する。一方、第1の横方向エッジを検出しなかったと
きはステップST313に移行する。
【0116】ステップST313において、ステップS
T311で第1の横方向エッジを検出することができな
かった回数、つまり第1の横方向エッジを検出するため
にリトライした回数を計測して、ステップST314に
移行する。
【0117】ステップST314において、第1の横方
向エッジを検出することができなかった回数が所定の閾
値を超えたかを判定し、所定の閾値を超えていないとき
はステップST311に戻って、第1の横方向エッジの
検出をリトライする。一方、第1の横方向エッジを検出
することができなかった回数が所定の閾値を超えたとき
はステップST315に移行する。
【0118】ステップST315において、上側が黒で
あり下側が白であるエッジを検出するようにエッジの勾
配を切り換えて、ステップST316に移行する。そし
て、ステップST316において、境界エッジを検出し
てサブルーチンを抜ける。
【0119】なお、境界エッジを検出することができな
かった場合は、再びエッジ勾配を切り換えてステップS
T311に戻り、再び第1の横方向エッジを検出するの
が好ましい。第1の横方向エッジを検出できないのは、
ドライバーがマスクを着用している場合だけでなく、他
の原因(例えば鼻下横エッジが画像内に入っていないこ
と等)の可能性もある。このように、ドライバーの顔の
位置が変われば第1の横方向エッジを検出できることも
あるので、境界エッジを検出することができなかった場
合は、再びエッジ勾配を切り換えるのが好ましい。
【0120】(第2のエッジ勾配切換ルーチン)図30
は、第2のエッジ勾配切換ルーチンを示すフローチャー
トである。第2のエッジ勾配切換ルーチンは、ドライバ
の顔の輝度分布に基づいてマスクの有無を判定してい
る。
【0121】ステップST321において、ステップS
T106と同様に第1の横方向エッジを検出してステッ
プST322に移行する。なお、第1の横方向エッジを
検出できなかった場合もステップST322に移行す
る。
【0122】ステップST322において、第1の横方
向エッジを検出したかを判定し、検出したときはサブル
ーチンを抜けて、図27に示すステップST108に移
行する。一方、第1の横方向エッジを検出しなかったと
きはステップST323に移行する。
【0123】ステップST323において、ドライバの
顔領域の輝度分布を計算し、さらに、顔領域の上半分の
輝度平均値Yuに対する顔領域の下半分の輝度平均値Yd
の比である輝度平均値比Yd/Yuを算出して、ステップ
ST324に移行する。なお、顔領域の上半分と下半分
の分割については、予め設定された所定の位置で分割し
てもよいし、鼻筋の切れている下側の位置で分割しても
よい。
【0124】ステップST324において、輝度平均値
比Yd/Yuが所定の閾値を超えたかを判定し、所定の閾
値を超えたと判定したときは、ステップST325に移
行し、所定の閾値を超えていないと判定したときはステ
ップST321に戻る。
【0125】ステップST325において、顔領域の下
半分の輝度分布が高く、ドライバがマスクを着用してい
ると考えられるので、上側が黒であり下側が白であるエ
ッジを検出するようにエッジの勾配を切り換えて、ステ
ップST326に移行する。そして、ステップST32
6において、境界エッジを検出してサブルーチンを抜け
る。
【0126】なお、境界エッジを検出することができな
かった場合は、第1のエッジ勾配切換ルーチンと同様
に、再度エッジ勾配を切り換えてステップST131に
戻り、第1の横方向エッジを検出してもよい。
【0127】そして、上述した第1又は第2のエッジ勾
配切換ルーチンを抜けると、図27に示すステップST
108に移行し、第1の眼位置検出処理ルーチンと同様
にステップST108,ST110,ST112,ST
114を処理して、ドライバの眼の位置を検出する。
【0128】以上のように、第4の実施の形態に係る眼
位置検出装置は、第1の横方向エッジを検出できなかっ
た場合は、エッジの勾配を切り換えて境界エッジを検出
することにより鼻の位置を正確に検出し、鼻の位置から
眼の位置を検出することができる。特に、第2のエッジ
勾配切換ルーチンを用いた場合は、顔分布の輝度分布に
基づいてマスク着用の有無を直接判定しているので、よ
り確実に境界エッジを検出し、眼の位置の検出精度を向
上させることができる。
【0129】なお、本実施の形態では、第1の横方向エ
ッジ検出のリトライ回数や顔領域の輝度分布に基づいて
マスク着用の有無を判定していたが、他の手法を用いて
マスクの着用の有無を判定してもよいのは勿論である。
【0130】
【発明の効果】請求項1記載の発明は、鼻筋の下方近傍
の領域において第1の横方向エッジを検出できなかった
ときに、鼻筋選択手段により選択された鼻筋の位置は誤
認であると判定することにより、眼鏡の縦フレームを鼻
筋と誤認することがなくなり、眼鏡を着用した場合であ
っても鼻の位置を正確に検出することができる。
【0131】請求項2記載の発明は、第1の横方向エッ
ジの下方近傍の領域であり、かつ顔の正面に対する撮影
方向又は顔に当たる光の方向に応じた方向の領域におい
て第2の横方向エッジを検出し、第2の横方向エッジが
検出されたときに鼻筋選択手段により選択された鼻筋の
位置は誤認であると判定することにより、請求項3記載
の発明は、鼻筋候補と第1の横方向エッジとの関係に基
づいて眼鏡フレームの有無を検出することにより、眼鏡
フレームを鼻筋と誤認することを回避することができ
る。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る眼位置検出装置の構
成を示すブロック図である。
【図2】眼位置検出装置に備えられたROMに記憶され
た第1の眼位置検出処理ルーチンを示すフローチャート
である。
【図3】第1の眼位置検出処理ルーチンのステップST
100におけるサブルーチンを示すフローチャートであ
る。
【図4】2値画像をX軸に投影したヒストグラムを示す
線図である。
【図5】左側エッジ抽出処理ルーチンを示すフローチャ
ートである。
【図6】右側エッジ抽出処理ルーチンを示すフローチャ
ートである。
【図7】左右エッジの対抽出処理ルーチンを示すフロー
チャートである。
【図8】(A)は左側エッジ抽出処理用のウインドウの
平面図、(B)右側エッジ抽出処理用のウインドウの平
面図である
【図9】(A)は左側エッジ抽出処理による2値画像の
平面図、(B)右側エッジ抽出処理による2値画像の平
面図、(C)はエッジ対抽出結果である鼻筋候補領域画
像を示す平面図である
【図10】左右エッジの対抽出処理を説明するための流
れ図である。
【図11】鼻筋候補領域と顔領域の位置関係を示す線図
である。
【図12】第1の眼位置検出処理ルーチンのステップS
T104におけるサブルーチンを示すフローチャートで
ある。
【図13】各鼻筋候補領域の右上、左下の位置座標を示
す線図である。
【図14】図12に示すサブルーチンのステップST2
00におけるサブルーチンを示すフローチャートであ
る。
【図15】注目画素と周辺画素との関係を示す図であ
る。
【図16】鼻筋の下部近傍において設定された第1の探
索領域を示す図である。
【図17】鼻筋領域と中点との位置関係を示す線図であ
る。
【図18】鼻筋中点と眼領域との関係を示す線図であ
る。
【図19】第1の眼位置検出処理ルーチンのステップS
T114におけるサブルーチンを示すフローチャートで
ある。
【図20】眼領域ヒストグラムを示す線図である。
【図21】(A)は眼領域原画像を示す図、(B)は眼
領域2値画像を示す図、(C)は最小値フィルタ実行後
の画像を示す図である。
【図22】第2の眼位置検出処理ルーチンを示すフロー
チャートである。
【図23】ドライバーが左に脇見をした状態を説明する
図である。
【図24】ドライバーが正面を見ている状態を説明する
図である。
【図25】第3の眼位置検出処理ルーチンを示すフロー
チャートである。
【図26】鼻筋と第1の横方向エッジが検出されたとき
に眼鏡フレーム候補領域を設定した状態を説明する図で
ある。
【図27】第4の眼位置検出処理ルーチンを示すフロー
チャートである。
【図28】ドライバーがマスクを着用している場合に顔
とマスクの境界を示す境界エッジを検出することを説明
する図である。
【図29】第4の眼位置検出処理ルーチンのステップS
T105における第1のエッジ勾配切換ルーチンを示す
フローチャートである。
【図30】第4の眼位置検出処理ルーチンのステップS
T105における第2のエッジ勾配切換ルーチンを示す
フローチャートである。
【図31】ドライバが右方向に脇見をした状態を示す図
である。
【符号の説明】
10 カメラ 11 コンピュータ 14 CPU 16 ROM 32 表示装置

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 顔を斜め前方から撮影した画像、または
    斜め前方から光を受けた顔を撮影した画像に基づいて鼻
    の位置を検出する鼻位置検出装置であって、 前記画像から顔の領域を抽出する顔領域抽出手段と、 前記顔領域抽出手段により抽出された顔の領域から各々
    異なるしきい値を用いて左側エッジと右側エッジとを抽
    出し、抽出した左側エッジ及び右側エッジに基づいた領
    域を鼻筋の候補として抽出する鼻筋候補抽出手段と、 前記鼻筋候補抽出手段により抽出された鼻筋の候補から
    鼻筋を選択する鼻筋選択手段と、 前記鼻筋選択手段により選択された鼻筋の下方近傍の領
    域において第1の横方向エッジを検出する第1の横方向
    エッジ検出手段と、 前記第1の横方向エッジ検出手段により前記第1の横方
    向エッジを検出できなかったときに、前記鼻筋選択手段
    により選択された鼻筋の位置は誤認であると判定する判
    定手段と、 とを備えた鼻位置検出装置。
  2. 【請求項2】 前記第1の横方向エッジの下方近傍の領
    域であり、かつ顔の正面に対する撮影方向又は顔に当た
    る光の方向に応じた方向近傍の領域において、第2の横
    方向エッジを検出する第2の横方向エッジ検出手段を更
    に備え、 前記判定手段は、前記第2の横方向エッジ検出手段によ
    り第2の横方向エッジが検出されたときに、前記鼻筋選
    択手段により選択された鼻筋の位置は誤認であると判定
    することを特徴とする請求項1記載の鼻位置検出装置。
  3. 【請求項3】 前記鼻筋候補抽出手段により抽出された
    鼻筋候補と前記第1の横方向エッジ検出手段により検出
    された第1の横方向エッジとの関係に基づいて、眼鏡フ
    レームの有無を検出する眼鏡フレーム検出手段を更に備
    え、 前記判定手段は、前記眼鏡フレーム検出手段により眼鏡
    フレームが検出されたときに、前記鼻筋選択手段により
    選択された鼻筋の位置は誤認であると判定することを特
    徴とする請求項1または2記載の鼻位置検出装置。
JP2001047133A 2001-02-22 2001-02-22 鼻位置検出装置 Pending JP2002251617A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001047133A JP2002251617A (ja) 2001-02-22 2001-02-22 鼻位置検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001047133A JP2002251617A (ja) 2001-02-22 2001-02-22 鼻位置検出装置

Publications (1)

Publication Number Publication Date
JP2002251617A true JP2002251617A (ja) 2002-09-06

Family

ID=18908629

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001047133A Pending JP2002251617A (ja) 2001-02-22 2001-02-22 鼻位置検出装置

Country Status (1)

Country Link
JP (1) JP2002251617A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006038689A (ja) * 2004-07-28 2006-02-09 Nissan Motor Co Ltd 鼻検出装置
WO2007089027A1 (en) * 2006-01-31 2007-08-09 Fujifilm Corporation Method and apparatus for automatic eyeglasses detection using a nose ridge mask
JP2009276848A (ja) * 2008-05-12 2009-11-26 Toyota Motor Corp 運転状態推定装置、及び運転状態推定方法
JP2010097379A (ja) * 2008-10-16 2010-04-30 Denso Corp ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
JP2010157073A (ja) * 2008-12-26 2010-07-15 Fujitsu Ltd 顔認識装置、顔認識方法及び顔認識プログラム
JP2011118588A (ja) * 2009-12-02 2011-06-16 Honda Motor Co Ltd マスク着用判定装置
JP2016189135A (ja) * 2015-03-30 2016-11-04 パイオニア株式会社 認識装置、認識方法及び認識プログラム
JP2020042842A (ja) * 2019-11-22 2020-03-19 パイオニア株式会社 認識装置、認識方法及び認識プログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006038689A (ja) * 2004-07-28 2006-02-09 Nissan Motor Co Ltd 鼻検出装置
JP4543810B2 (ja) * 2004-07-28 2010-09-15 日産自動車株式会社 鼻検出装置
WO2007089027A1 (en) * 2006-01-31 2007-08-09 Fujifilm Corporation Method and apparatus for automatic eyeglasses detection using a nose ridge mask
JP2009525519A (ja) * 2006-01-31 2009-07-09 富士フイルム株式会社 鼻筋マスクを使用した眼鏡の自動検出方法および装置
JP2009276848A (ja) * 2008-05-12 2009-11-26 Toyota Motor Corp 運転状態推定装置、及び運転状態推定方法
JP2010097379A (ja) * 2008-10-16 2010-04-30 Denso Corp ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
JP2010157073A (ja) * 2008-12-26 2010-07-15 Fujitsu Ltd 顔認識装置、顔認識方法及び顔認識プログラム
JP2011118588A (ja) * 2009-12-02 2011-06-16 Honda Motor Co Ltd マスク着用判定装置
JP2016189135A (ja) * 2015-03-30 2016-11-04 パイオニア株式会社 認識装置、認識方法及び認識プログラム
JP2020042842A (ja) * 2019-11-22 2020-03-19 パイオニア株式会社 認識装置、認識方法及び認識プログラム
JP2021193624A (ja) * 2019-11-22 2021-12-23 パイオニア株式会社 認識装置、認識方法及び認識プログラム

Similar Documents

Publication Publication Date Title
US7916893B2 (en) Image processing apparatus, image processing method, and program
JP4822766B2 (ja) 路面標示認識装置及びシステム
EP1383063B1 (en) Method for displaying and reading information code for commercial transaction
US20070183652A1 (en) Method for detecting a code with the aid of a mobile station
EP2040145A1 (en) Image processing method and input interface apparatus
EP2605180A2 (en) User detecting apparatus, user detecting method and a user detecting program
EP2101296A1 (en) Eye detecting device, eye detecting method, and program
JP4373840B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
JP2000339457A (ja) 顔画像処理装置
JP2002251617A (ja) 鼻位置検出装置
JP3695899B2 (ja) 指紋照合装置
JP4821355B2 (ja) 人物追跡装置、人物追跡方法および人物追跡プログラム
KR101736939B1 (ko) 이미지에서, 개인의 적어도 하나의 지문을 표시할 가능성이 있는 적어도 하나의 구역을 결정하는 방법
JP4198542B2 (ja) 顔有無判定装置及び顔有無判定プログラム
JPH08335236A (ja) 食堂料金精算システム
JP4042602B2 (ja) 画像処理装置
JP4172236B2 (ja) 顔画像処理装置及びプログラム
JP5708305B2 (ja) 画像認識装置、画像認識方法及び画像認識用コンピュータプログラム
JPH08190690A (ja) ナンバープレート決定方法
JP2013029996A (ja) 画像処理装置
JP3414331B2 (ja) 眼の位置検出装置
JPH09265538A (ja) 自動追尾装置
JP4628839B2 (ja) 顔画像認識装置
JP2001167284A (ja) 眼鏡反射検出装置及び眼鏡反射検出方法
KR100961136B1 (ko) 2차원 영상의 그룹화 장치 및 방법