JP3451832B2 - Face image feature recognition device - Google Patents

Face image feature recognition device

Info

Publication number
JP3451832B2
JP3451832B2 JP10190496A JP10190496A JP3451832B2 JP 3451832 B2 JP3451832 B2 JP 3451832B2 JP 10190496 A JP10190496 A JP 10190496A JP 10190496 A JP10190496 A JP 10190496A JP 3451832 B2 JP3451832 B2 JP 3451832B2
Authority
JP
Japan
Prior art keywords
pixel
value
image
extraction
extraction points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP10190496A
Other languages
Japanese (ja)
Other versions
JPH09270010A (en
Inventor
雅之 金田
勉 那須
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP10190496A priority Critical patent/JP3451832B2/en
Publication of JPH09270010A publication Critical patent/JPH09270010A/en
Application granted granted Critical
Publication of JP3451832B2 publication Critical patent/JP3451832B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Collating Specific Patterns (AREA)

Description

【発明の詳細な説明】 【0001】 【発明の属する技術分野】本発明は、顔の画像データを
演算処理して顔の特徴量を形成する顔画像の特徴量認識
装置に関する。 【0002】 【従来の技術】顔の画像データを演算処理して顔の特徴
量を抽出することにより、人物を特定したり、視線の方
向を検知したり、居眠り/覚睡の区別を判定したりする
種々の装置が開発されている。画像データは、画素ごと
の明るさを多数の階調段階(濃度値、輝度)で表現した
膨大なデータであるから、このような装置では、画像デ
ータを早期に絞り込んでデータ数を削減し、演算数を節
約して処理速度を確保している。例えば、特開平7−1
81012号公報に示される居眠り警報装置では、顔の
画像データから顔の特徴量の1つである眼の開度指標を
求めているが、その処理過程では、画像データの濃度値
を白黒で二値化する、画面の不必要な部分に黒いマスク
領域を設定して黒部分の個数を減じる、個々の島状の黒
部分をそれぞれひとかたまりに扱ってラベリングする等
によりデータ数を削減している。 【0003】 【発明が解決しようとする課題】特開平7−18101
2号公報に示される処理では、眼の位置検出を行うため
に以下の3つのステップを踏む必要があるため、画像処
理や演算にかなりの時間を要する。 (1)濃度値の二値化やノイズ除去を主とした画像デー
タの前処理 (2)眼の横方向の位置を特定するための顔幅検出(ラ
ベリング、粒子除去、白画素の連続性の判定等) (3)眼の縦方向の位置検出(各ラベルの重心座標と面
積値とフィレ径の判定等) つまり、濃度値が二値化されているとは言え、個々の島
状の黒部分ごとに数100〜数万の画素を含んでいるた
め、これらの処理の1つ1つの演算にかなりの時間がか
かる。従って、処理の周期を短縮して判定の追従性や信
頼性を高めることが困難であり、演算装置の小型化や他
の演算処理の割り込み処理も困難であった。 【0004】また、顔面上の黒部分を個々に分離した状
態でラベリングを行うため、眼に該当する黒部分に他の
黒部分が連続した状態、例えば、長髪が眼尻にかかった
場合には、白黒に二値化された画像上で眼に該当する黒
部分が他の黒部分と一体化して眼に該当する黒部分を特
定できなくなる。 【0005】本発明は、演算されるデータ量が削減され
て処理速度が高まるとともに、長髪が眼尻にかかった場
合でも眼に対応する特徴量を正確に特定できる顔画像の
特徴量認識装置を提供することを目的としている。 【0006】 【課題を解決するための手段】発明は、顔の画像デー
タを処理して顔の特徴量を抽出する顔画像の特徴量認識
装置であって、顔の縦方向の画素列に沿って画素の濃度
を検出し、前記画素列における濃度の局所的な高まりご
とに1個づつの画素を定めて抽出点とし、隣接する画素
列の画素列方向に近接した抽出点を連結して顔の横方向
に伸びる曲線群を抽出するものである。 【0007】すなわち、顔を撮像して画面上の画素ごと
に濃度を数値化する画像入力手段と、前記画素ごとに数
値化された濃度値を記憶する記憶手段とを有、顔の縦
方向(Y方向)の画素列に沿って前記濃度値を前記記憶
手段から取り出し、前記縦方向(Y方向)の画素列上の
前記濃度値の片方向のピークを代表する画素を特定して
抽出点とする抽出手段と、隣接する縦方向(Y方向)
素列の抽出点を比較して、画素列方向(X方向)に近接
する抽出点を1つにグループ化する形成手段とを備え
。 【0008】抽出手段、1つの画素を含んで連続した
複数の画素の濃度値を平均化して1つの画素の濃度値と
相加平均値を求め、平均化された相加平均濃度値の
記縦方向(Y方向)の画素列に沿った位置についての
分値が一方向に反転する画素を抽出点とするルーチンを
形成するとともに、該ルーチンを繰り返し、暗さのピー
クに対応した抽出点のY座標値のみを記憶する。 【0009】また、形成手段縦方向(Y方向)の画
素列毎に求めた抽出点の縦方向の差が所定範囲以下の抽
出点を横方向(X方向)に連結してグループ化してグル
ープ番号を付与し、横方向端の画素列から順にグループ
番号が付与された画素が存在するか否かをチェックし、
存在する場合はグループ番号とその縦横方向座標と端部
から数えて何度目の出現であるかを記憶する。 【0010】そして、形成手段はさらに、隣り合う画素
列同士で共通のグループが存在するかをチェックし、存
在している場合は連結データとして連結された抽出点の
個数とY座標値を連結データとしてメモリに記憶し、該
連結データの連結された抽出点の個数が所定値を越える
グループだけを選択し、縦座標の平均値とグループの左
右の両端の画素列の中央の横座標値から候補点の位置を
設定するものである。 【0011】 【作用】本発明の顔画像の特徴量認識装置では、撮像し
た顔の画素ごとの濃度値が記憶手段に蓄積され、抽出手
段は、記憶手段から必要な画素列を呼び出して抽出点を
求める。抽出点は、眼、眉、口、ほくろ等、濃度値の局
所的な高まり(反転画像では局所的なへこみ)に対して
1個づつ特定される。そして、抽出点を横方向に連結す
るグループ化によって、ほくろ(点)や鼻すじ(縦線)
のような顔の横方向に連続しない抽出点が振り落され
る。 【0012】より詳しくは、濃度値の局所的な高まりの
中心点が抽出点として選択される。平均化によって画素
列に沿った濃度値の小さな変化が平滑されて濃度値の大
きな変化が残る。濃度値の大きな変化を微分演算してそ
のピークが特定される。微分値が一方向(正から負また
は負から正)に反転する画素(位置)が暗さのピークを
表しており、それぞれ眼、眉、口等のほぼ中心位置に対
応する。微分値が逆方向に反転する画素は、眼、眉、口
等の暗い部分の中間に位置する明るさのピークに対応し
ており、抽出点とされることなく捨てられる。 【0013】形成手段では、隣り合う画素列同士で共通
のグループが存在する場合は連結データとして連結し、
連結された抽出点の個数が所定値を越えるグループだけ
を選択するから、鼻の穴等に対応する連続する長さが短
いグループが振り落されて、眼、眉、口のように顔の横
方向に長く連続するグループだけが残る。 【0014】そして、グループを形成する各抽出点群に
ついて、縦座標の平均値と、連結開始の画素列と連結終
了の画素列の中央に対応する横座標値とが求められ、抽
出点のグループがそれぞれ画面上の1個の候補点で代表
される。画面上の候補点の相対位置関係から、それぞれ
のグループが眼、眉、口のいずれに対応するかを判別で
きる。 【0015】こうして、本発明の顔画像の特徴量認識装
置では、顔を横方向に横断する複数の曲線で顔画像の特
徴量が表現される。個々の曲線は、画像の明るい部分を
横方向に横断する暗い部分を代表しており、眼、眉、口
等にそれぞれ該当する。鼻の影、額の髪の毛、頬の線
等、顔画像を縦方向に横断する暗い部分は、画素列上に
局所的なピークが形成されにくく、仮にピークが形成さ
れて抽出点となっても横方向に連結される他の抽出点が
存在しないから振り落とされる。顔の両側の線や頬にか
かる頭髪も、同様に、抽出点とはなりにくく、横方向に
連結される抽出点が存在しないから、振り落とされる。 【0016】 【発明の実施の形態】図1〜図13を参照して、運転席
制御に適用した実施例を説明する。本実施例では、運転
者の顔の画像から眼、眉、口等の複数の特徴量を抽出
し、これらの中から片方の眼の特徴量を特定する。図1
に示すように、自動車のインストパネルには、CCD画
像素子を用いたカメラ11が設置されており、運転中の
運転者の顔が一定方向、一定角度で連続的に撮像され
る。カメラ11で撮像された画像のうち、0.1秒ごと
の1フレームの画像が、AD変換器12に送出される。 【0017】AD変換器12は、画素ごとのアナログ電
圧を256段階のデジタル値に変換して画像メモリ13
に蓄積する。画像メモリ13は、図6に示されるよう
に、縦480画素、横512画素の個々の画素に8ビッ
トづつの濃度値を記憶保持する。画像データ演算回路1
4は、画像メモリ13に蓄積された1フレームの画像を
用いて顔の特徴量を抽出する。顔の特徴量認識回路15
は、抽出された複数の顔の特徴量から片方の眼の特徴量
を特定する。ミラー、シート制御回路16は、特定され
た片方の目の特徴量から目の高さを識別して、ミラーの
角度とシートの高さを調整する。 【0018】実施例における画像処理は、図2のフロー
チャートに従って実行される。ステップ110では、カ
メラ11によって運転者の顔を含む車室内の画像が撮影
され、AD変換器12によって画素の濃度がデジタル値
に変換される。ステップ120では、画像メモリ13に
1フレームの画像に対応する画像データが蓄積される。
ステップ130では、画像メモリ13に蓄積された膨大
な画像データの中から顔の縦方向の画素列が図7に示す
ように選択される。画面の中央部分に等間隔で数10
列、X方向の10画素ごとに1列の画素列が設定され
る。1列の画素列はY方向に480個の画素を有し、画
素列ごとに全画素の濃度値を画像データ演算回路14に
送出可能である。 【0019】ステップ140では、それぞれの画素列の
濃度値を演算処理して抽出点となる画素(Y座標置)を
特定する。画素列上の濃度値の大きな変化を求め、その
局所的なピークを抽出点とする。処理手順を図3に示
す。 【0020】ステップ141では、図7の左側から順番
に、画素列ごとの全画素の濃度値を呼び出す。ステップ
142では、画素列上の濃度値を相加平均して、画素列
上の濃度値の変化曲線から高い周波数成分を除去した相
加平均濃度値を求める。例えば、図7に示す画素列Xa
からは図8の(a)、画素列Xbからは図9の(a)に
示すような相加平均濃度値が抽出される。ステップ14
3では、相加平均濃度値を微分する。図8の(a)に示
す相加平均濃度値では(b)に示す微分値となり、図9
の(a)に示す相加平均濃度値では(b)に示す微分値
となる。 【0021】ステップ144では、微分値から、相加平
均濃度値の暗さのピークに対応するY座標値を求める。
微分値が負から正に反転するY座標値は、暗さのピーク
に対応して、眼、眉、口等をそれぞれ代表する1個づつ
のY座標値となる。微分値が正から負に反転するY座標
値は、眼、眉等の中間位置に対応する明るさのピーク位
置であるから実施例では使用しない。図8の(a)に示
す相加平均濃度値では(b)に示す微分値となり、微分
値が負から正に反転するY座標値p1、p2、p3、p
4、p5が抽出される。これらの中で手前の微分値のピ
ークがしきい値(破線)以下となるY座標値p1、p
2、p5が抽出点とされる。手前の微分値のピークを判
別することで、顔面のしわや凹凸が抽出点となることを
回避している。図9の(a)に示す相加平均濃度値で
は、(b)に示す微分値が負から正に反転するY座標値
p1、p2、p3が抽出されるが、いずれも手前の微分
値のピークがしきい値(破線)以下とならず、抽出点が
形成されない。 【0022】ステップ145では、最後の画素列、図7
の右端の画素列であるか否かを判定する。最後の画素列
であれば、全部の画素列で抽出点を特定済みであるか
ら、ステップ150へ進む。最後の画素列でなければス
テップ141へ進み、次の画素列の濃度値データによる
抽出点の特定を開始させる。このようにして、図10に
示すように、画素列ごとに0〜4個程度の抽出点A1、
A2、A3、A4が特定される。画素列Xcでは、抽出
点A1、A2、画素列Xdでは抽出点A1、A2、A
3、A4が特定される。 【0023】ステップ150では、画素列ごとに求めた
抽出点をX方向に連結してグループ化する。処理手順を
図4に示す。ステップ151では、画素列の抽出点デー
タを順番に呼び出す。ステップ152、153では、隣
接する画素列の抽出点についてY座標値が比較される。
隣接する画素列の抽出点のY座標値の差が10画素以下
であれば、ステップ154へ進んで連結データが形成さ
れる。差が所定範囲を越える(グループ化できない)と
判断された場合はステップ155へ進んで連結データは
形成されない。連結データは、発生したグループごとに
順番に付与されるグループ番号、グループの左端の抽出
点の属する画素列の番号(X座標値に対応)で分類し
て、連結された抽出点の個数(画素列数)とY座標値を
メモリに記憶し、画素列を処理するごとに記憶内容を書
き替えて形成される。ステップ155では、最後の画素
列であるか否かを判定する。最後の画素列であれば、全
部の画素列でグループ化を判定済みであるから、ステッ
プ160へ進む。最後の画素列でなければ、ステップ1
51へ進み、次の画素列の抽出点によるグループ化の判
定を開始させる。 【0024】ステップ150における処理を図11を用
いて簡単に説明する。ここでは、画素列を11本として
説明する。図11に示すように画素列1〜11でそれぞ
れ特定された抽出点は、抽出点ごとにグループ番号G、
連結個数N、Y座標値を付与されて連結データを形成す
る。図11に示される34個の抽出点は、10個のグル
ープにまとめられている。 【0025】ステップ160では、図1に示す画像デー
タ演算回路14が、図5に示す手順に従って不必要な連
結データを除去し、最終的に必要な連結データについて
だけ候補点データを形成する。ステップ161では、メ
モリから連結データをグループ番号の順に1個づつ呼び
出す。ステップ162、163では、連結データの連結
データ数を評価する。連結データ数が5個以上であれ
ば、次のステップ164へ進んで候補点データを形成す
る。連結データ数が5個未満であれば(鼻の穴等)、ス
テップ165へ進んで候補点データを形成しない。例え
ば、図10に示す抽出点群からは、図12に示すよう
に、両方の眼および眉、鼻の影、口にそれぞれ相当する
6個の抽出点のグループG1〜G6が残される。ここで
は、残された6個のグループについて左から右、上から
下方向に順番に番号を付け直している。 【0026】候補点データは、残された抽出点のグルー
プをそれぞれ画面上の1個づつの候補点で代表させる1
組の座標値、すなわち、そのグループに属する抽出点の
Y座標値の平均値(高さ)と、グループの左右の両端の
画素列の中央のX座標値で構成される。例えば、図12
に示す抽出点のグループG1〜G6は、図13に示す画
面上の6個の候補点K1〜K6で代表される。ステップ
165では、最後の連結データであるか否かを判定す
る。最後の連結データであれば、全部の連結データを評
価済みであるから、ステップ170へ進む。最後の連結
データでなければステップ161へ進み、次の連結デー
タの評価を開始させる。 【0027】ステップ170では、図1に示す顔の特徴
量認識回路15が、候補点データを評価して複数の候補
点の中から片方の眼の候補点を特定する。例えば、図1
3に示す6個の候補点K1〜K6の場合、Y座標値の大
きい(低い)候補点K5、K6を中心にして中央の検出
ゾーンZCを形成する。検出ゾーンZCの外側には、Y
座標値の小さい(高い)候補点K1、K3と候補点K
2、K4をそれぞれ中心にして左右の検出ゾーンZL、
ZRを設定する。そして、左側の検出ゾーンZLに含ま
れる2つの候補点K1、K3と中央の検出ゾーンZCに
含まれる候補点K6の高さ差、候補点K1、K3の位置
関係に基づいて片方の眼に対応する候補点K3が特定さ
れる。ステップ180では、図1に示すミラー、シート
制御回路16が、特定された片方の眼の特徴量、すなわ
ち運転者の眼の高さに適合させてミラーの角度やシート
高さを調整する。 【0028】実施例の画像処理によれば、画素列ごとに
画素の濃度値を呼び出して、画面の左側から右側へ1方
向に同じ演算処理を繰り返し、また、画素列ごとの限ら
れた大きさのデータしか扱わないから、特開平7−18
1012号公報に示される処理に比較して処理プログラ
ムが単純になる。そして、画素列が増えても同じ処理の
繰り返し回数が増すだけで、処理内容自体は変化しな
い。また、演算された抽出点から連結グループを形成し
て、連結グループの数を絞り込み、候補点データという
小さなデータを形成して眼の特徴量を特定する過程は、
さらに小さなデータと単純な演算/比較で足りる。ま
た、濃度値の二値化やノイズ除去を主とした画像データ
の前処理、眼の横方向の位置を特定するための顔幅検
出、眼の縦方向の位置検出のいずれの処理も行う必要が
無い。従って、画像処理に必要な演算数やメモリ容量が
少なくて済み、演算素子の性能が多少低くても足り、装
置を小型軽量に構成したり、他の用途の演算装置で割り
込み処理させて画像処理することも可能となる。 【0029】また、顔の縦方向に画素列を選択して、暗
さの局所的なピークとなるY座標値を抽出点とするか
ら、生え際、顔の両端、顔に縦方向にかかる髪の毛等は
抽出点となる可能性が低い。仮に抽出点とされた場合で
も、水平方向に連結される抽出点が存在して連結される
個数が5以上という条件に満たない抽出点は自動的に排
除されるから、生え際、顔の両端、皺や凹凸、直射日光
による影等によって不必要な候補点が形成されて眼の特
定を誤る心配が無い。従って、眼に髪の毛がかかってい
る場合でも、少なくとも髪の毛にかかるまでの眼の線の
連結データや候補点データが問題無く形成され、髪の毛
がかかっていない場合と同様の手順で眼の開度指標を演
算できる。 【0030】なお、図2のフローチャート中、ステップ
110が発明の画像入力手段、ステップ120が発明の
記憶手段、ステップ130、140が発明の抽出手段、
ステップ150、160が発明の形成手段にそれぞれ対
応する。また、実施例では、眼の検出高さに基づいてシ
ート高さ等を調整する用途を説明したが、本発明は、人
物を特定したり、視線の方向を検知したり、特開平7−
181012号公報に示されるように居眠り/覚睡の区
別を判定する用途にも応用可能である。また、実施例で
は、眼、眉等が高い濃度値(暗い階調段階)となるよう
な画像で処理を行ったが、階調を反転した画像(眼、眉
等が低い濃度値となる)を用いてもよい。 【0031】また、実施例では、AD変換器12以降の
処理をすべてデジタル演算で行うこととしたが、画素列
に沿った濃度値の相加平均を求めるまでの処理をアナロ
グ信号回路で行うこととしてもよい。例えば、撮像管を
用いたカメラで縦方向に走査線を設定し、顔を縦方向に
横切る走査線に沿った輝度信号をローパスフィルターに
通じて高周波成分を除去した後、10本の走査線ごとに
1本の走査線分の輝度信号を抜き出してサンプリングに
よりAD変換する。また、実施例では図7に示すように
X方向の10画素ごとに1本の画素列を選択したが、さ
らに細かい刻みで多数の画素列を選択してもよい。画素
列が増えても同じ処理の繰り返し回数が増すだけで、基
本的な処理内容は変化しない。画素列を増すことで、特
徴量の曲線の湾曲状態をより精密に写し取れ、より小さ
な連結許容幅を設定して抽出点の連結間違いを回避でき
る。図13に示すように検出ゾーンZLが設定された
後、検出ゾーンZLのみで高密度に画素列を設定して、
左側の眼の曲線を構成する抽出点の数を増し、その弓型
形状をさらに詳しく検出することとしてもよい。 【0032】なお、図14に示すように運転者が眼鏡を
かけている場合、図13に示される検出ゾーンZLに
は、図15に示すように、眼と眉に対応する抽出点のグ
ループG3、G5に加えて、眼鏡の上下の縁に対応する
抽出点のグループG1、G7が残ってしまう。図15で
は、残された9個のグループについて左から右、上から
下方向に順番に番号を付け直しており、眼、眉と符号の
関係が図12とは一致しない。しかし、このような場合
でも、本実施例では、上述したように、検出ゾーンZL
における候補点の上下関係に加えて、検出ゾーンZLの
複数の候補点と検出ゾーンZCの口の候補点の高さ差も
評価しているため、眼に対応するグループG5を誤り無
く特定できる。検出ゾーンZLに4個の候補点が形成さ
れる場合、下から2番目の候補点が眼と判定されて眼鏡
の縁に対応する候補点データが振り落とされ、運転者が
眼鏡をかけていない場合と同様な手順で眼の特徴量が特
定される。 【0033】 【発明の効果】発明によれば、例えば、眼にかかる画
素列の数と同じ個数の座標値で眼の弓形形状を特定でき
るから、眼の画像に含まれる画素全部を扱う場合に比較
してデータ数が大幅に削減される。眼の画像に含まれる
画素全部を扱って重心を求める処理に比較して、複数の
曲線から眼の曲線を特定する処理は簡単で済む。従っ
て、演算速度が低く、メモリの割り当ても小さい小型の
演算装置でも顔の特徴量を求める画像処理を高速に実行
できる。 【0034】そして、顔の横方向に現れる濃度値のピー
クや、顔の横方向に連結されない濃度値のピークが排除
されるから、顔を縦方向に横切る影や目尻にかかる髪の
毛によって、眼等の必要な特徴量の特定が妨げられな
い。 【0035】また、縦方向画素列においては連続した複
数の画素の濃度値を平均化して1つの濃度値とするか
ら、隣接する画素列における間違った抽出点をグループ
化する心配が無い。また、平均化によって形成された濃
度値のピークを抽出点とするから、眼や眉の形に正確に
沿った特徴量の曲線を形成でき、眼の開度指標等を求め
る際の誤差が抑制される。 【0036】グループの選択においては連結数の少ない
抽出点のグループが振り落とされるから、必要最小限に
絞り込んだ抽出点とグループの中で、眼や口の特徴量を
特定すればよく、間違った特徴量を選択しないで済む。 【0037】そして、絞り込まれたグループをそれぞれ
1個の候補点で代表させるから、特徴量の曲線をそのま
ま扱う場合に比較して相対位置の判定を効率的に実行で
きる。
Description: BACKGROUND OF THE INVENTION [0001] 1. Field of the Invention [0002] The present invention relates to a face image feature quantity recognition apparatus for forming a face feature quantity by performing arithmetic processing on face image data. 2. Description of the Related Art Face image data is subjected to arithmetic processing to extract facial features, thereby identifying a person, detecting the direction of a line of sight, and determining whether to fall asleep or asleep. Various devices have been developed. Since image data is a huge amount of data expressing the brightness of each pixel in a number of gradation levels (density values, luminances), such a device narrows down the image data early to reduce the number of data, The processing speed is secured by saving the number of operations. For example, Japanese Patent Application Laid-Open No. 7-1
In the dozing alarm device disclosed in Japanese Patent Application Laid-Open No. 81012, an eye opening index, which is one of the facial features, is obtained from the face image data. The number of data is reduced by converting to a value, setting a black mask area in an unnecessary portion of the screen to reduce the number of black portions, and treating each island-shaped black portion as a lump and performing labeling. [0003] Japanese Patent Application Laid-Open No. 7-18101
In the processing disclosed in Japanese Patent Laid-Open Publication No. 2 (1993) -1995, the following three steps need to be performed in order to detect the position of the eye, so that considerable time is required for image processing and calculation. (1) Pre-processing of image data mainly on binarization of density values and noise removal (2) Face width detection (labeling, particle removal, continuity of white pixels) for specifying the horizontal position of eyes (Determination etc.) (3) Vertical position detection of eyes (judgment of barycentric coordinates, area value and fillet diameter of each label etc.) In other words, although density values are binarized, individual island-shaped black Since each part includes several hundreds to several tens of thousands of pixels, each of these processes takes a considerable amount of time to calculate. Therefore, it is difficult to shorten the processing cycle to increase the follow-up performance and reliability of the determination, and it is also difficult to reduce the size of the arithmetic unit and interrupt processing of other arithmetic processing. In addition, since labeling is performed in a state where the black portions on the face are individually separated, when a black portion corresponding to the eye is connected to another black portion, for example, when long hair is applied to the outer corner of the eye, On the black and white binarized image, the black portion corresponding to the eye is integrated with other black portions, and the black portion corresponding to the eye cannot be specified. The present invention provides an apparatus for recognizing a feature quantity of a face image, which can reduce the amount of data to be calculated, increase the processing speed, and can accurately specify the feature quantity corresponding to the eyes even when the long hair touches the outside of the eye. It is intended to provide. [0006] Means for Solving the Problems The present invention provides a feature value recognition device of the face image to extract a feature amount of the face by processing image data of a face, in the longitudinal direction of the pixel rows of the face A pixel density is detected along the pixel row, one pixel is determined for each local increase in density in the pixel row, and an extraction point is formed. The extraction points adjacent to each other in the pixel row direction of the adjacent pixel row are connected. A group of curves extending in the horizontal direction of the face is extracted. Namely, have a storage means for storing an image input means for digitizing the concentrations for each pixel on the screen by picking up the face, the digitized density value for each said pixel, the vertical direction of the face The density value is fetched from the storage means along a pixel row in the (Y direction), and a pixel representing a one-way peak of the density value on the pixel row in the vertical direction (Y direction) is specified and extracted. provided with extraction means for, by comparing the extracted points in the vertical direction (Y-direction) pixel column adjacent, and formation means for grouping into a single extraction point adjacent to the pixel column direction (X direction)
You . [0008] extraction means obtains the arithmetic mean value as the density value of one pixel by averaging the density values of a plurality of pixels continuous comprise one pixel, prior to averaged arithmetic mean density value
The routine fine <br/> content value for the position along the pixel columns of Kitate direction (Y direction) and extraction point pixels reversed in one direction
And repeat the routine to create a dark peak.
Only the Y coordinate value of the extraction point corresponding to the mark is stored. [0009] The forming means is provided with an image in a vertical direction (Y direction).
Extraction in which the vertical difference between the extraction points obtained for each
Connect the output points in the horizontal direction (X direction) to group
Group numbers in order from the pixel row at the end in the horizontal direction.
Check if there is a numbered pixel,
If present, the group number, its vertical and horizontal coordinates, and the end
It remembers how many times it is from the beginning. [0010] Further, the forming means may further comprise :
Check if a common group exists between columns and
If it exists, the extraction point
The number and the Y coordinate value are stored in the memory as linked data,
The number of linked extraction points in the linked data exceeds a specified value
Select only the group, the average value of the ordinate and the left of the group
The position of the candidate point is determined from the abscissa value at the center of the pixel row at the right
To set . In the facial image feature quantity recognition apparatus of the present invention , an image
The density value of each pixel of the face is stored in the storage
The stage retrieves the required pixel array from the storage means and selects the extraction point.
Ask. The extraction point is the density value station such as eye, eyebrow, mouth, mole, etc.
For localized heightening (local dent in reverse image)
It is specified one by one. Then, connect the extraction points in the horizontal direction.
Moles (dots) and nose streaks (vertical lines)
Extraction points that are not continuous in the horizontal direction, such as
You. More specifically, the local increase of the density value
The center point is selected as the extraction point. Pixel by averaging
Small changes in density values along the column are smoothed to
Changes remain. Differential calculation of large changes in density value
Are identified. If the derivative is in one direction (positive to negative or
Pixels (positions) that reverse from negative to positive)
In the center of the eyes, eyebrows, mouth, etc.
Respond. The pixels whose differential values are reversed in the opposite direction are the eyes, eyebrows, and mouth.
Corresponding to the brightness peak located in the middle of the dark part
And is discarded without being considered an extraction point. [0013] In the forming means, adjacent pixel columns are common to each other.
If the group of exists, concatenate as consolidated data,
Only the groups where the number of connected extraction points exceeds the specified value
, The continuous length corresponding to the nostrils etc. is short.
Group is shaken down and beside the face like eyes, eyebrows and mouth
Only groups that are long and continuous in the direction remain. Then, for each extracted point group forming the group, the average value of the ordinate and the abscissa value corresponding to the center of the pixel row at the start of connection and the pixel row at the end of the connection are obtained. Are represented by one candidate point on the screen. From the relative positional relationship of the candidate points on the screen, it can be determined whether each group corresponds to the eye, eyebrows, or mouth. Thus, the facial image feature quantity recognition apparatus of the present invention is provided.
Of the face image by multiple curves that cross the face in the horizontal direction.
The charge is expressed. Each curve represents a bright part of the image
Represents the dark part that traverses in the horizontal direction, such as eyes, eyebrows, mouth
And so on. Nose shadows, forehead hair, cheek lines
Dark areas that traverse the face image in the vertical direction, such as
Local peaks are hardly formed, and if peaks are formed
Other extraction points connected in the horizontal direction
It is shaken off because it does not exist. On the lines and cheeks on both sides of the face
Similarly, it is difficult for the hair to become an extraction point,
Since there is no connected extraction point, it is shaken off. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Referring to FIGS. 1 to 13, an embodiment applied to driver's seat control will be described. In the present embodiment, a plurality of features such as eyes, eyebrows, and mouth are extracted from the image of the driver's face, and the feature of one eye is specified from these features. FIG.
As shown in FIG. 1, a camera 11 using a CCD image element is installed on an instrument panel of an automobile, and a driver's face during driving is continuously imaged in a certain direction and at a certain angle. An image of one frame every 0.1 second among the images captured by the camera 11 is sent to the AD converter 12. The AD converter 12 converts an analog voltage for each pixel into a digital value of 256 levels and converts the analog voltage into an image memory 13.
To accumulate. As shown in FIG. 6, the image memory 13 stores and holds a density value of 8 bits for each of 480 pixels vertically and 512 pixels horizontally. Image data operation circuit 1
Reference numeral 4 extracts the feature amount of the face using the image of one frame stored in the image memory 13. Facial feature recognition circuit 15
Specifies the feature value of one eye from the extracted feature values of the plurality of faces. The mirror / sheet control circuit 16 identifies the eye height from the specified characteristic amount of one eye, and adjusts the angle of the mirror and the height of the sheet. The image processing in the embodiment is executed according to the flowchart of FIG. In step 110, an image of the vehicle interior including the driver's face is captured by the camera 11, and the AD converter 12 converts the pixel density into a digital value. In step 120, image data corresponding to one frame image is stored in the image memory 13.
In step 130, a vertical pixel row of the face is selected from the huge amount of image data stored in the image memory 13 as shown in FIG. Several tens at equal intervals in the center of the screen
One pixel row is set for every 10 pixels in the row and X direction. One pixel row has 480 pixels in the Y direction, and the density values of all pixels can be sent to the image data calculation circuit 14 for each pixel row. In step 140, the density value of each pixel row is arithmetically processed to specify a pixel (Y coordinate location) to be an extraction point. A large change in the density value on the pixel row is obtained, and a local peak thereof is set as an extraction point. FIG. 3 shows the processing procedure. In step 141, the density values of all the pixels in each pixel column are called in order from the left side of FIG. In step 142, the arithmetic values of the density values on the pixel row are arithmetically averaged, and an arithmetic average density value obtained by removing high frequency components from a density value change curve on the pixel row is obtained. For example, the pixel column Xa shown in FIG.
8A, and an arithmetic average density value as shown in FIG. 9A is extracted from the pixel row Xb. Step 14
In 3, the arithmetic mean density value is differentiated. In the arithmetic mean density value shown in FIG. 8A, the differential value shown in FIG.
In the arithmetic mean density value shown in (a), the differential value shown in (b) is obtained. In step 144, the Y coordinate value corresponding to the dark peak of the arithmetic average density value is obtained from the differential value.
The Y coordinate value at which the differential value is inverted from negative to positive becomes one Y coordinate value representing each of the eyes, eyebrows, mouth, etc., corresponding to the peak of darkness. The Y coordinate value at which the differential value is inverted from positive to negative is a peak position of brightness corresponding to an intermediate position such as an eye or an eyebrow, and is not used in the embodiment. In the arithmetic mean density value shown in FIG. 8A, the differential value shown in FIG. 8B is obtained, and the Y coordinate values p1, p2, p3, and p at which the differential value is inverted from negative to positive.
4. p5 is extracted. Among these, the Y coordinate values p1 and p1 in which the peak of the preceding differential value is equal to or less than the threshold value (broken line)
2, p5 is the extraction point. By determining the peak of the differential value at the near side, wrinkles and irregularities on the face do not become extraction points. In the arithmetic mean density value shown in FIG. 9A, Y coordinate values p1, p2, and p3 in which the differential value shown in FIG. 9B is inverted from negative to positive are extracted, but all are extracted from the preceding differential value. The peak does not fall below the threshold (broken line), and no extraction point is formed. In step 145, the last pixel row, FIG.
It is determined whether or not the pixel row is at the right end. If it is the last pixel row, the extraction point has been specified in all the pixel rows, so the process proceeds to step 150. If it is not the last pixel row, the process proceeds to step 141, and the extraction point is started to be specified by the density value data of the next pixel row. In this way, as shown in FIG. 10, about 0 to 4 extraction points A1,
A2, A3, and A4 are specified. In the pixel row Xc, the extraction points A1, A2, and in the pixel row Xd, the extraction points A1, A2, A
3. A4 is specified. In step 150, the extracted points obtained for each pixel column are connected in the X direction and grouped. FIG. 4 shows the processing procedure. In step 151, the extraction point data of the pixel row is called in order. In steps 152 and 153, the Y coordinate values are compared for the extraction points of the adjacent pixel rows.
If the difference between the Y coordinate values of the extraction points of the adjacent pixel columns is 10 pixels or less, the process proceeds to step 154, where connected data is formed. If it is determined that the difference exceeds the predetermined range (grouping cannot be performed), the process proceeds to step 155, and no linked data is formed. The linked data is classified by the group number sequentially assigned to each generated group and the number of the pixel column (corresponding to the X coordinate value) to which the extracted point at the left end of the group belongs, and the number of linked extracted points (pixels) (The number of columns) and the Y coordinate value are stored in a memory, and each time a pixel column is processed, the stored contents are rewritten to form. In step 155, it is determined whether the pixel row is the last pixel row. If it is the last pixel column, the grouping has been determined for all the pixel columns, and the process proceeds to step 160. If it is not the last pixel row, step 1
Proceeding to 51, determination of grouping based on the extraction point of the next pixel row is started. The processing in step 150 will be briefly described with reference to FIG. Here, the description is made on the assumption that the number of pixel columns is 11. As shown in FIG. 11, the extraction points specified in the pixel columns 1 to 11 are group numbers G,
The connection data is formed by adding the connection numbers N and Y coordinate values. The 34 extraction points shown in FIG. 11 are grouped into 10 groups. In step 160, the image data arithmetic circuit 14 shown in FIG. 1 removes unnecessary connection data according to the procedure shown in FIG. 5, and finally forms candidate point data only for the necessary connection data. In step 161, the connected data is called one by one from the memory in order of the group number. In steps 162 and 163, the number of linked data of the linked data is evaluated. If the number of connected data is 5 or more, the process proceeds to the next step 164 to form candidate point data. If the number of connected data is less than 5 (nostrils, etc.), the process proceeds to step 165, and no candidate point data is formed. For example, from the extraction point group shown in FIG. 10, as shown in FIG. 12, groups G1 to G6 of six extraction points corresponding to both eyes and eyebrows, a shadow of a nose, and a mouth are left. Here, the remaining six groups are renumbered in order from left to right and from top to bottom. The candidate point data represents the group of the remaining extraction points by one candidate point on the screen.
A set of coordinate values, that is, an average value (height) of Y coordinate values of the extraction points belonging to the group, and an X coordinate value at the center of the pixel rows at both left and right ends of the group. For example, FIG.
Are represented by six candidate points K1 to K6 on the screen shown in FIG. In step 165, it is determined whether or not the data is the last linked data. If it is the last linked data, the process proceeds to step 170 because all the linked data have been evaluated. If it is not the last linked data, the process proceeds to step 161 to start evaluation of the next linked data. In step 170, the facial feature quantity recognition circuit 15 shown in FIG. 1 evaluates the candidate point data and specifies one eye candidate point from a plurality of candidate points. For example, FIG.
In the case of six candidate points K1 to K6 shown in FIG. 3, a central detection zone ZC is formed around the candidate points K5 and K6 having large (low) Y coordinate values. Outside the detection zone ZC, Y
Candidate points K1, K3 with small (high) coordinate values and candidate point K
2, K4 as the center, left and right detection zones ZL,
Set ZR. Then, it corresponds to one eye based on the height difference between the two candidate points K1 and K3 included in the left detection zone ZL and the candidate point K6 included in the central detection zone ZC, and the positional relationship between the candidate points K1 and K3. Is specified. In step 180, the mirror and seat control circuit 16 shown in FIG. 1 adjusts the mirror angle and the seat height in conformity with the specified characteristic amount of one eye, that is, the height of the driver's eye. According to the image processing of the embodiment, the density value of the pixel is called for each pixel column, the same arithmetic processing is repeated in one direction from the left side to the right side of the screen, and the limited size of each pixel column is obtained. Japanese Patent Laid-Open No. 7-18 / 1994
The processing program becomes simpler than the processing disclosed in Japanese Patent No. 1012. Then, even if the number of pixel rows increases, the number of repetitions of the same processing only increases, and the processing itself does not change. In addition, the process of forming a connected group from the calculated extraction points, narrowing down the number of connected groups, forming small data called candidate point data, and identifying the feature amount of the eye,
Even smaller data and simple calculations / comparisons are sufficient. In addition, it is necessary to perform any of the pre-processing of image data mainly on binarization of density values and noise removal, face width detection for specifying a horizontal position of an eye, and vertical position detection of an eye. There is no. Therefore, the number of operations and the memory capacity required for image processing are small, and the performance of the processing element may be slightly lower. It is also possible to do. Further, since a pixel row is selected in the vertical direction of the face, and the Y coordinate value which is a local peak of darkness is used as an extraction point, the hairline, both ends of the face, the hair vertically applied to the face, etc. Is unlikely to be an extraction point. Even if it is set as an extraction point, extraction points that do not satisfy the condition that there are extraction points connected in the horizontal direction and the number of connected points is 5 or more are automatically excluded. Unwanted candidate points are not formed due to wrinkles, irregularities, shadows due to direct sunlight, and the like, and there is no fear of erroneous eye identification. Therefore, even when the eye is covered with hair, at least the connection data of the eye line and the candidate point data up to the point where the hair is covered are formed without any problem, and the eye opening index is calculated in the same procedure as when the hair is not covered. Can be calculated. In the flowchart of FIG. 2, step 110 is the image input means of the invention, step 120 is the storage means of the invention, steps 130 and 140 are the extraction means of the invention,
Steps 150 and 160 correspond to the forming means of the present invention, respectively. Further, in the embodiment, the use of adjusting the seat height or the like based on the detection height of the eyes has been described. However, the present invention is directed to specifying a person, detecting a direction of a line of sight,
As shown in JP-A-181012, the present invention can also be applied to a use for determining the distinction between dozing / sleep. In the embodiment, processing is performed on an image in which the eyes, eyebrows, and the like have a high density value (dark gradation level). However, an image in which the gradation is inverted (the eyes, eyebrows, and the like have low density values). May be used. In the embodiment, all the processes after the AD converter 12 are performed by digital operation. However, the processes up to obtaining the arithmetic mean of the density values along the pixel row are performed by the analog signal circuit. It may be. For example, after setting scanning lines in the vertical direction with a camera using an image pickup tube, passing a luminance signal along a scanning line that crosses the face in the vertical direction through a low-pass filter to remove high-frequency components, and then removing every 10 scanning lines Then, a luminance signal for one scanning line is extracted and A / D converted by sampling. Further, in the embodiment, one pixel row is selected for every 10 pixels in the X direction as shown in FIG. 7, but a plurality of pixel rows may be selected in finer increments. Even if the number of pixel rows increases, only the number of repetitions of the same processing increases, but the basic processing content does not change. By increasing the number of pixel rows, the curved state of the curve of the feature amount can be more accurately captured, and a smaller allowable connection width can be set to avoid incorrect connection of the extraction points. After the detection zone ZL is set as shown in FIG. 13, pixel rows are set with high density only in the detection zone ZL,
The number of extraction points forming the curve of the left eye may be increased to detect the bow shape in more detail. When the driver wears glasses as shown in FIG. 14, the detection zone ZL shown in FIG. 13 includes a group G3 of extraction points corresponding to eyes and eyebrows as shown in FIG. , G5, extraction point groups G1, G7 corresponding to the upper and lower edges of the glasses remain. In FIG. 15, the remaining nine groups are renumbered in order from left to right and from top to bottom, and the relationship between the eyes, eyebrows, and symbols does not match that in FIG. However, even in such a case, in the present embodiment, as described above, the detection zone ZL
Since the height difference between the plurality of candidate points in the detection zone ZL and the candidate point of the mouth in the detection zone ZC is evaluated in addition to the vertical relationship of the candidate points in the above, the group G5 corresponding to the eye can be specified without error. When four candidate points are formed in the detection zone ZL, the second candidate point from the bottom is determined as an eye, and candidate point data corresponding to the edge of the glasses is shaken off, and the driver does not wear glasses. The feature amount of the eye is specified in the same procedure as in the case. According to the present invention, for example, since the shape of the arch of the eye can be specified by the same number of coordinate values as the number of pixel rows related to the eye, all pixels included in the image of the eye are handled. The number of data is greatly reduced as compared with. Compared to the process of calculating the center of gravity by treating all the pixels included in the eye image, the process of specifying the eye curve from the plurality of curves is simpler. Therefore, even with a small arithmetic device having a low arithmetic speed and a small memory allocation, image processing for obtaining a face feature can be executed at high speed. [0034] Then, and the peak of the density values appearing in the lateral direction of the face, because the peak of the laterally linked not the density value of the face is eliminated by hair according to shadows and eye area across the face in the vertical direction, the eye etc. This does not hinder the specification of the required feature amount. In the vertical pixel row, continuous multiple
Whether to average the density values of several pixels into one density value
Therefore, there is no need to worry about grouping wrong extraction points in adjacent pixel columns. In addition, since the peak of the density value formed by the averaging is used as an extraction point, a curve of a feature amount that accurately follows the shape of an eye or an eyebrow can be formed, and an error in obtaining an eye opening index or the like is suppressed. Is done. In the selection of a group, a group of extraction points having a small number of connections is shaken off. Therefore, it is sufficient to specify the feature amount of the eyes and the mouth in the extraction points and the groups narrowed to the minimum necessary. It is not necessary to select a feature amount. [0037] Then, the group narrowed from be represented by one of the candidate points, respectively, can be efficiently perform the determination of the relative position as compared to when working curve of the feature as it is.

【図面の簡単な説明】 【図1】実施例の警報装置の説明図である。 【図2】警報装置の動作のフローチャートである。 【図3】抽出点を求める処理のフローチャートである。 【図4】連結データを形成する処理のフローチャートで
ある。 【図5】候補点を選択する処理のフローチャートであ
る。 【図6】顔画像の説明図である。 【図7】画素列の設定の説明図である。 【図8】画素列に沿った濃度値の説明図である。 【図9】画素列に沿った濃度値の説明図である。 【図10】抽出点の分布の説明図である。 【図11】抽出点をグループ化する処理の説明図であ
る。 【図12】抽出点のグループの分布の説明図である。 【図13】候補点の分布の説明図である。 【図14】顔画像の説明図である。 【図15】抽出点のグループの分布の説明図である。 【符号の説明】 11 カメラ 12 AD変換器 13 画像メモリ 14 画像データ演算回路 15 顔の特徴量認識回路 16 ミラー、シート制御回路
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an explanatory diagram of an alarm device according to an embodiment. FIG. 2 is a flowchart of an operation of the alarm device. FIG. 3 is a flowchart of a process for obtaining an extraction point. FIG. 4 is a flowchart of a process for forming linked data. FIG. 5 is a flowchart of a process of selecting a candidate point. FIG. 6 is an explanatory diagram of a face image. FIG. 7 is an explanatory diagram of setting of a pixel column. FIG. 8 is an explanatory diagram of density values along a pixel column. FIG. 9 is an explanatory diagram of density values along a pixel column. FIG. 10 is an explanatory diagram of a distribution of extraction points. FIG. 11 is an explanatory diagram of a process of grouping extraction points. FIG. 12 is an explanatory diagram of a distribution of a group of extraction points. FIG. 13 is an explanatory diagram of a distribution of candidate points. FIG. 14 is an explanatory diagram of a face image. FIG. 15 is an explanatory diagram of a distribution of extraction point groups. [Description of Signs] 11 Camera 12 A / D converter 13 Image memory 14 Image data calculation circuit 15 Face feature recognition circuit 16 Mirror and sheet control circuit

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平4−1863(JP,A) 特開 昭59−140589(JP,A) 特開 平7−311833(JP,A) 山本新外2名,自動車運転環境におけ るドライバのまばたき計測,電気学会論 文誌C,1995年11月20日,Vol.115 −C,No.12,pp.1411−1416 (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G06T 1/00 H04N 7/18 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-4-1863 (JP, A) JP-A-59-140589 (JP, A) JP-A-7-311833 (JP, A) , Driver's blink measurement in a car driving environment, IEICE Transactions C, November 20, 1995, Vol. 115-C, no. 12, pp. 1411-1416 (58) Fields investigated (Int.Cl. 7 , DB name) G06T 7/ 00-7/60 G06T 1/00 H04N 7/18

Claims (1)

(57)【特許請求の範囲】 【請求項1】 顔を撮像して画面上の画素ごとに濃度を
数値化する画像入力手段と、 前記画素ごとに数値化された濃度値を記憶する記憶手段
とを有 する顔画像の特徴量認識装置において、顔の縦方向(Y方向)の画素列に沿って前記濃度値を前
記記憶手段から取り出し、前記縦方向(Y方向)の画素
列上の前記濃度値の片方向のピークを代表する画素を特
定して抽出点とする抽出手段と、 隣接する縦方向(Y方向)画素列の抽出点を比較して、
画素列方向(X方向)に近接する抽出点を1つにグルー
プ化する形成手段とを備え、 前記抽出手段は、1つの画素を含んで連続した複数の画
素の濃度値を平均化して1つの画素の濃度値とし相加平
均値を求め、平均化された相加平均濃度値の前記縦方向
(Y方向)の画素列に沿った位置についての微分値が一
方向に反転する画素を抽出点とするルーチンを形成する
とともに、該ルーチンを繰り返し、暗さのピークに対応
した抽出点のY座標値のみを記憶し、 前記形成手段は、縦方向(Y方向)の画素列毎に求めた
抽出点の縦方向の差が所定範囲以下の抽出点を横方向
(X方向)に連結してグループ化してグループ番号を付
与し、横方向端の画素列から順にグループ番号が付与さ
れた画素が存在するか否かをチェックし、存在する場合
はグループ番号とその縦横方向座標と端部から数えて何
度目の出現であるかを記憶し、隣り合う画素列同士で共
通のグループが存在するかをチェックし、存在している
場合は連結データとして連結された抽出点の個数とY座
標値を連結データとしてメモリに記憶し、該連結データ
の連結された抽出点の個数が所定値を越えるグループだ
けを選択し、縦座標の平均値とグループの左右の両端の
画素列の中央の横座標値から候補点の位置を設定 するこ
とを特徴とする顔画像の特徴量認識装置。
(57) [Claims] [Claim 1] An image of a face is taken and the density is determined for each pixel on the screen.
Image input means for digitizing, and storage means for storing a density value digitized for each pixel
In the facial image feature quantity recognition apparatus having the following expression, the density value is set in advance along the pixel row in the vertical direction (Y direction) of the face.
The pixel in the vertical direction (Y direction)
The pixel that represents the one-way peak of the density value on the column is identified.
By comparing the extraction means that are defined as extraction points with extraction points of adjacent vertical (Y-direction) pixel columns,
Extraction points close to the pixel column direction (X direction) are grouped into one.
Forming means for converting the image into a plurality of continuous images including one pixel.
Average the elementary density values to obtain the density value of one pixel.
The average value is calculated, and the averaged arithmetic average density value in the vertical direction is calculated.
The differential value at a position along the pixel row in the (Y direction) is one.
Create a routine that uses pixels that are reversed in the direction as extraction points
And repeat the routine to deal with dark peaks
Only the Y coordinate values of the extracted points are stored, and the forming means obtains the values for each pixel row in the vertical direction (Y direction).
Extraction points whose difference in the vertical direction of the extraction points is less than the specified range
(X direction) connected and grouped and numbered
Group numbers are assigned sequentially from the pixel row at the horizontal end.
Check if there is a pixel
Is the group number, its vertical and horizontal coordinates, and what
It remembers whether it was the first appearance, and shared between adjacent pixel rows.
Check if a group exists and if so
In the case, the number of connected extraction points and Y
The standard value is stored in a memory as linked data, and the linked data
Is a group where the number of connected extraction points exceeds
And select the average value of the ordinate and the left and right ends of the group.
An apparatus for recognizing a feature amount of a face image, wherein a position of a candidate point is set from an abscissa value at a center of a pixel row .
JP10190496A 1996-04-01 1996-04-01 Face image feature recognition device Expired - Lifetime JP3451832B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10190496A JP3451832B2 (en) 1996-04-01 1996-04-01 Face image feature recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10190496A JP3451832B2 (en) 1996-04-01 1996-04-01 Face image feature recognition device

Publications (2)

Publication Number Publication Date
JPH09270010A JPH09270010A (en) 1997-10-14
JP3451832B2 true JP3451832B2 (en) 2003-09-29

Family

ID=14312905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10190496A Expired - Lifetime JP3451832B2 (en) 1996-04-01 1996-04-01 Face image feature recognition device

Country Status (1)

Country Link
JP (1) JP3451832B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004058799A (en) * 2002-07-26 2004-02-26 Murakami Corp On-vehicle passenger photographing device
US8045766B2 (en) 2007-02-16 2011-10-25 Denso Corporation Device, program, and method for determining sleepiness
JP4259585B2 (en) 2007-03-08 2009-04-30 株式会社デンソー Sleepiness determination device, program, and sleepiness determination method
JP4375420B2 (en) 2007-03-26 2009-12-02 株式会社デンソー Sleepiness alarm device and program
JP4420081B2 (en) 2007-08-03 2010-02-24 株式会社デンソー Behavior estimation device
JP4978574B2 (en) * 2008-06-23 2012-07-18 トヨタ自動車株式会社 Eye detection device
JP5217754B2 (en) * 2008-08-06 2013-06-19 株式会社デンソー Action estimation device, program
JP4788786B2 (en) 2009-02-09 2011-10-05 株式会社デンソー Sleepiness detection device, program, and sleepiness detection method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山本新外2名,自動車運転環境におけるドライバのまばたき計測,電気学会論文誌C,1995年11月20日,Vol.115−C,No.12,pp.1411−1416

Also Published As

Publication number Publication date
JPH09270010A (en) 1997-10-14

Similar Documents

Publication Publication Date Title
CN101271517B (en) Face region detecting device and method
JP2500726B2 (en) Method and apparatus for detecting upper eyelid region, inner corner of eye, outer corner of eye, upper eyelid region and eye structure
JP4137969B2 (en) Eye detection device, eye detection method, and program
EP1969993B1 (en) Eyelid detection apparatus
JP3143819B2 (en) Eyelid opening detector
JPH0944685A (en) Face image processor
WO2008065729A1 (en) Object detecting system, and object detecting method
EP1283498A2 (en) White line detection apparatus and white line detection method
JP3451832B2 (en) Face image feature recognition device
JP2000105819A (en) Face image area detecting device
JP3312562B2 (en) Dozing state detection device
JP4198542B2 (en) Face presence / absence determination device and face presence / absence determination program
JP2003337949A (en) Fingerprint matching device
JPH1044824A (en) Driver&#39;s-eye open/closed state determination device for vehicle
JP4293653B2 (en) Appearance inspection method
JP3444115B2 (en) Dozing state detection device
CN112418085B (en) Facial expression recognition method under partial shielding working condition
JP3779229B2 (en) Identification method, identification device, and traffic control system
JPH1125222A (en) Method and device for segmenting character
JP4172236B2 (en) Facial image processing apparatus and program
JP3414331B2 (en) Eye position detector
JP4991278B2 (en) Image processing device
CN111881897A (en) Parking lot ground Chinese sign recognition method and system and storage medium thereof
JPH0830728A (en) Binarization device for image
JP3500891B2 (en) Dozing state detection device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030617

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080718

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080718

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090718

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090718

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100718

Year of fee payment: 7