JPH07181012A - 画像データの特徴量検出装置 - Google Patents
画像データの特徴量検出装置Info
- Publication number
- JPH07181012A JPH07181012A JP5346094A JP34609493A JPH07181012A JP H07181012 A JPH07181012 A JP H07181012A JP 5346094 A JP5346094 A JP 5346094A JP 34609493 A JP34609493 A JP 34609493A JP H07181012 A JPH07181012 A JP H07181012A
- Authority
- JP
- Japan
- Prior art keywords
- eye
- image
- face
- feature amount
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Processing (AREA)
- Emergency Alarm Devices (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【目的】 正確迅速に運転者の眼位置の抽出を行ない、
覚醒度低下などを適切に検出する。 【構成】 最初の画像フレームで眼の中心を基に眼が存
在する領域の横方向の幅および縦方向の幅を決定して眼
の存在領域Sを設定し、次のフレームからは(b)のよ
うに眼の存在領域Sを用いてマスク処理することによ
り、存在領域の枠に接しないラベルとして眼のみが容易
に抽出される。眼の存在領域内での追跡確認により抽出
範囲が限定され高速に抽出できる。抽出した眼の縦方向
高さから眼の開き度合いを求めて開閉眼を判定すること
により、そのパターンから覚醒度低下などを警報するこ
とができる。
覚醒度低下などを適切に検出する。 【構成】 最初の画像フレームで眼の中心を基に眼が存
在する領域の横方向の幅および縦方向の幅を決定して眼
の存在領域Sを設定し、次のフレームからは(b)のよ
うに眼の存在領域Sを用いてマスク処理することによ
り、存在領域の枠に接しないラベルとして眼のみが容易
に抽出される。眼の存在領域内での追跡確認により抽出
範囲が限定され高速に抽出できる。抽出した眼の縦方向
高さから眼の開き度合いを求めて開閉眼を判定すること
により、そのパターンから覚醒度低下などを警報するこ
とができる。
Description
【0001】
【産業上の利用分野】本発明は、画像データから例えば
運転者の眼位置などを検出するのに用いられる画像デー
タの特徴量検出装置に関する。
運転者の眼位置などを検出するのに用いられる画像デー
タの特徴量検出装置に関する。
【0002】
【従来の技術】従来の運転者の眼位置検出装置として、
例えば特開平4−174309号公報に開示されている
ものがある。この装置では、2値化した運転者の顔画像
を用いて、運転者の眼がある範囲を検出領域とし、その
領域で白画素、または黒画素の連続性で眼の虹彩部を検
出するようにしている。そして、その虹彩部の検出結果
から運転者の開閉眼を判定して運転者の居眠りやわき見
運転を検出するものである。
例えば特開平4−174309号公報に開示されている
ものがある。この装置では、2値化した運転者の顔画像
を用いて、運転者の眼がある範囲を検出領域とし、その
領域で白画素、または黒画素の連続性で眼の虹彩部を検
出するようにしている。そして、その虹彩部の検出結果
から運転者の開閉眼を判定して運転者の居眠りやわき見
運転を検出するものである。
【0003】
【発明が解決しようとする課題】しかしながら、このよ
うな従来の検出装置にあっては、白画素、または黒画素
の連続性で顔幅検出や眼の位置検出を行なうため、眼鏡
の着用や影、あるいは光環境の変化などに起因して2値
化の生じたノイズなどにより、実際の眼の位置から外れ
た位置を眼の位置と誤判定してしまう恐れがあるという
問題点があった。したがって本発明は、このような従来
の問題点に鑑み、例えば運転者の眼の位置などの特徴量
を安定して正確に検出することができる画像データの特
徴量検出装置を提供することを目的としている。
うな従来の検出装置にあっては、白画素、または黒画素
の連続性で顔幅検出や眼の位置検出を行なうため、眼鏡
の着用や影、あるいは光環境の変化などに起因して2値
化の生じたノイズなどにより、実際の眼の位置から外れ
た位置を眼の位置と誤判定してしまう恐れがあるという
問題点があった。したがって本発明は、このような従来
の問題点に鑑み、例えば運転者の眼の位置などの特徴量
を安定して正確に検出することができる画像データの特
徴量検出装置を提供することを目的としている。
【0004】
【課題を解決するための手段】このため本発明は、図1
に示すように、画像入力手段1と、該画像入力手段1か
ら入力される画像を2値化する2値化手段2と、2値化
した画像において、抽出したい判定対象と接しない所定
領域をマスク処理してラベリングし、前記判定対象の抽
出を行う画像データの判定対象抽出手段3と、該判定対
象抽出手段3で抽出された判定対象を基に画像データの
特徴量を抽出する特徴量抽出手段4とを有するものとし
た。画像を顔画像とするときには、上記画像データの特
徴量としては顔幅、眼の位置、さらには開閉眼状態など
が抽出される。また、開閉眼状態については、時系列の
学習に基づいて判定の基準値を更新することができ、さ
らには所定時間経過時に上記更新された基準値に基づい
て、学習が正しく行なわれたかどうかを判定する学習完
了判定手段を備えることができる。
に示すように、画像入力手段1と、該画像入力手段1か
ら入力される画像を2値化する2値化手段2と、2値化
した画像において、抽出したい判定対象と接しない所定
領域をマスク処理してラベリングし、前記判定対象の抽
出を行う画像データの判定対象抽出手段3と、該判定対
象抽出手段3で抽出された判定対象を基に画像データの
特徴量を抽出する特徴量抽出手段4とを有するものとし
た。画像を顔画像とするときには、上記画像データの特
徴量としては顔幅、眼の位置、さらには開閉眼状態など
が抽出される。また、開閉眼状態については、時系列の
学習に基づいて判定の基準値を更新することができ、さ
らには所定時間経過時に上記更新された基準値に基づい
て、学習が正しく行なわれたかどうかを判定する学習完
了判定手段を備えることができる。
【0005】
【作用】画像フレームの所定領域に対するマスク処理に
より、抽出する対象が絞りこまれ、抽出すべき特徴量が
容易に識別選択される。とくに運転者等の顔画像につい
ては、眼の位置やその開閉眼状態などが容易に抽出され
るので、居眠りなど覚醒度が低下した状態を正確に検出
して警報などに利用することができる。
より、抽出する対象が絞りこまれ、抽出すべき特徴量が
容易に識別選択される。とくに運転者等の顔画像につい
ては、眼の位置やその開閉眼状態などが容易に抽出され
るので、居眠りなど覚醒度が低下した状態を正確に検出
して警報などに利用することができる。
【0006】
【実施例】以下、本発明を図面に基づいて説明する。図
2は本発明を覚醒度低下警報装置に用いた実施例の構成
を示す図である。運転者12の前方に設置され、運転者
の顔部分を正面から撮影する画像入力手段としてのTV
カメラ11が設けられ、その入力画像がA/D変換器1
3を介してデジタル量の入力画像データとして画像メモ
リ14に格納される。TVカメラ11の入力画像は横
(X)方向512画素、縦(Y)方向432画素からな
り、縦方向に顔部分がほぼいっぱいになるように画角が
調整されている。また顔の特徴量抽出回路15より送出
される開閉眼の検出結果から運転者の覚醒度を判定する
覚醒度判定回路16が設けられ、覚醒度が低下した状態
と判定されたときに、警報を発する警報装置17が設置
されている。
2は本発明を覚醒度低下警報装置に用いた実施例の構成
を示す図である。運転者12の前方に設置され、運転者
の顔部分を正面から撮影する画像入力手段としてのTV
カメラ11が設けられ、その入力画像がA/D変換器1
3を介してデジタル量の入力画像データとして画像メモ
リ14に格納される。TVカメラ11の入力画像は横
(X)方向512画素、縦(Y)方向432画素からな
り、縦方向に顔部分がほぼいっぱいになるように画角が
調整されている。また顔の特徴量抽出回路15より送出
される開閉眼の検出結果から運転者の覚醒度を判定する
覚醒度判定回路16が設けられ、覚醒度が低下した状態
と判定されたときに、警報を発する警報装置17が設置
されている。
【0007】次に上記警報装置における制御動作を図
3、図4のフローチャートに従って説明する。まず、ス
テップ101において、TVカメラ11によって運転者
12の顔部分が撮影される。そしてステップ102で1
フレーム分の2次元画像データがA/D変換器13でデ
ジタル信号に変換され、画像メモリ14に格納される。
画像メモリ14に格納された入力画像データは、顔の特
徴量抽出回路15に取り込まれる。
3、図4のフローチャートに従って説明する。まず、ス
テップ101において、TVカメラ11によって運転者
12の顔部分が撮影される。そしてステップ102で1
フレーム分の2次元画像データがA/D変換器13でデ
ジタル信号に変換され、画像メモリ14に格納される。
画像メモリ14に格納された入力画像データは、顔の特
徴量抽出回路15に取り込まれる。
【0008】次にステップ103〜113では、顔の特
徴量抽出回路15において、画像処理および特徴抽出が
行われる。まずステップ103で、画像メモリ14に格
納された入力画像データの前処理が行なわれる。ここで
は、画像データがまず所定のしきい値で2値化される。
この2値化のためのしきい値は顔部分の明暗をはっきり
させるため、眼球を識別して抽出できるレベルに設定さ
れる。
徴量抽出回路15において、画像処理および特徴抽出が
行われる。まずステップ103で、画像メモリ14に格
納された入力画像データの前処理が行なわれる。ここで
は、画像データがまず所定のしきい値で2値化される。
この2値化のためのしきい値は顔部分の明暗をはっきり
させるため、眼球を識別して抽出できるレベルに設定さ
れる。
【0009】すなわち、例えばビデオ信号を256階調
(0〜255)のデジタルデータに変換して、白い部分
を「255」、黒い部分を「0」とし、しきい値で2値
化して2値化画像を得る。さらに、この2値化画像にお
いて、後段で行われる眼の位置、および開閉眼の検出の
精度を上げるために、黒画素の小さな集まり(ノイズ)
が除去される。このノイズ除去の手法としては、白画素
を対象とした膨脹処理やメジアンフィルター処理などが
用いられる。このステップ103が発明の2値化手段を
構成している。
(0〜255)のデジタルデータに変換して、白い部分
を「255」、黒い部分を「0」とし、しきい値で2値
化して2値化画像を得る。さらに、この2値化画像にお
いて、後段で行われる眼の位置、および開閉眼の検出の
精度を上げるために、黒画素の小さな集まり(ノイズ)
が除去される。このノイズ除去の手法としては、白画素
を対象とした膨脹処理やメジアンフィルター処理などが
用いられる。このステップ103が発明の2値化手段を
構成している。
【0010】次にステップ104で、眼の存在領域が設
定されているかどうかがチェックされる。初めてのサイ
クルでいまだ設定されていないときにはステップ105
へ進む。また2回目以降のサイクルに入って、眼の存在
領域がすでに設定されているときはステップ110へと
進む。眼の存在領域は画像フレーム内に画成されるウィ
ンドウを示し、その範囲内で眼球の検出や開閉眼の検出
が行われる眼の存在する領域を示す。なお、本実施例で
は装置をスタートさせた直後、つまり第1フレームで
は、上述のように当然眼の存在領域は設定されていない
ので、ステップ105へ進み、第2フレーム以降はステ
ップ110へ進むことになる。
定されているかどうかがチェックされる。初めてのサイ
クルでいまだ設定されていないときにはステップ105
へ進む。また2回目以降のサイクルに入って、眼の存在
領域がすでに設定されているときはステップ110へと
進む。眼の存在領域は画像フレーム内に画成されるウィ
ンドウを示し、その範囲内で眼球の検出や開閉眼の検出
が行われる眼の存在する領域を示す。なお、本実施例で
は装置をスタートさせた直後、つまり第1フレームで
は、上述のように当然眼の存在領域は設定されていない
ので、ステップ105へ進み、第2フレーム以降はステ
ップ110へ進むことになる。
【0011】ステップ105では、まず顔部分が抽出さ
れる。上に2値化処理された画像は、図5の(a)のよ
うな画像となっている。この画像データに対して、図5
の(b)に示すように、顔幅と接しない領域すなわち顔
の上方部R1と下方部R2の領域に第1のマスク処理を
行う。このマスク処理は、画像データの処理範囲を制限
することを目的として、強制的に指定領域の画素値を
「0」に変更するものである。これにより、顔幅を検出
するためにあまり関係のない上方や下方の画像データが
消去され、より正確な顔幅検出が行われる。
れる。上に2値化処理された画像は、図5の(a)のよ
うな画像となっている。この画像データに対して、図5
の(b)に示すように、顔幅と接しない領域すなわち顔
の上方部R1と下方部R2の領域に第1のマスク処理を
行う。このマスク処理は、画像データの処理範囲を制限
することを目的として、強制的に指定領域の画素値を
「0」に変更するものである。これにより、顔幅を検出
するためにあまり関係のない上方や下方の画像データが
消去され、より正確な顔幅検出が行われる。
【0012】また、マスクは髪の毛などの黒い部分と同
一階調になるように設定することにより、マスク領域に
接している髪の毛などの黒い画素の集まりは、マスク処
理によって一つの大きな黒画素の集まり(ラベル)とす
ることができる。その後ラベリング処理を用いると、マ
スクにより顔の輪郭部に存在する黒画素の集まりが接続
されるため、ラベル数をかなり削減することができる。
なお、ラベリング処理とは、2値化された画像データ内
の黒画素もしくは白画素の集まりを、個々に認識させる
手法のことをいい、認識されたラベルは、そのラベル毎
に大きさ(面積)、位置(座標)などを同時に把握する
こともできる。しかし、ラベリング処理が行えるラベル
数には、限りがあり、ラベル数の多さは処理速度の低下
を招くデメリットもある。したがって、マスクはラベル
数を削減するための重要な処理となる。
一階調になるように設定することにより、マスク領域に
接している髪の毛などの黒い画素の集まりは、マスク処
理によって一つの大きな黒画素の集まり(ラベル)とす
ることができる。その後ラベリング処理を用いると、マ
スクにより顔の輪郭部に存在する黒画素の集まりが接続
されるため、ラベル数をかなり削減することができる。
なお、ラベリング処理とは、2値化された画像データ内
の黒画素もしくは白画素の集まりを、個々に認識させる
手法のことをいい、認識されたラベルは、そのラベル毎
に大きさ(面積)、位置(座標)などを同時に把握する
こともできる。しかし、ラベリング処理が行えるラベル
数には、限りがあり、ラベル数の多さは処理速度の低下
を招くデメリットもある。したがって、マスクはラベル
数を削減するための重要な処理となる。
【0013】この後、顔幅検出に関係ない、眉、眼、鼻
の穴などの黒画素の集まりのラベルに対して、その面積
値を判定基準値として黒白変換する粒子除去処理を行
う。この処理により、黒画素として残されるラベルを
(マスク領域+顔の輪郭部)だけとすることができる。
これが図5の(b)に示される画像データである。
の穴などの黒画素の集まりのラベルに対して、その面積
値を判定基準値として黒白変換する粒子除去処理を行
う。この処理により、黒画素として残されるラベルを
(マスク領域+顔の輪郭部)だけとすることができる。
これが図5の(b)に示される画像データである。
【0014】そして次のステップ106で、第1の特徴
量として顔幅の設定が行われる。図5の(c)は、横軸
にX座標、縦軸に同図の(b)の画像データの各X座標
上の白画素(階調255)の数を積算した白画素数を示
す。X座標方向の中央(X=255)より、左右方向に
白画素積算値の減少傾向を調べることにより、白画素数
の減少が止まるX座標、もしくは白画素数がある所定値
位置になるX座標、すなわちX1、X2が顔部分の幅と
して算出される。これが顔幅として設定される。
量として顔幅の設定が行われる。図5の(c)は、横軸
にX座標、縦軸に同図の(b)の画像データの各X座標
上の白画素(階調255)の数を積算した白画素数を示
す。X座標方向の中央(X=255)より、左右方向に
白画素積算値の減少傾向を調べることにより、白画素数
の減少が止まるX座標、もしくは白画素数がある所定値
位置になるX座標、すなわちX1、X2が顔部分の幅と
して算出される。これが顔幅として設定される。
【0015】次にステップ107で、眼部分の抽出が行
われる。ここでは前ステップで得られた顔幅から眼の存
在する左右領域を特定する。まず、図6に示すように、
顔幅の左、右のラインX1、X2により顔の中心線Xc
が X1+(X1+X2)/2 で求められる。そして、図7に示すように、まず顔の中
心線と顔幅の右側のラインで囲まれる領域を残して第2
のマスク処理を行う。
われる。ここでは前ステップで得られた顔幅から眼の存
在する左右領域を特定する。まず、図6に示すように、
顔幅の左、右のラインX1、X2により顔の中心線Xc
が X1+(X1+X2)/2 で求められる。そして、図7に示すように、まず顔の中
心線と顔幅の右側のラインで囲まれる領域を残して第2
のマスク処理を行う。
【0016】このとき、先にステップ105における顔
部分検出方法の中で説明したように、所定の面積未満、
例えば図6では口のラベルの面積未満の黒画素は、黒白
変換により除去する。また、マスクと接する黒画素の集
まり、つまりラベルは単独ラベルとならないので、眉、
眼、鼻の穴、口などの黒画素のラベルは容易に識別除去
できる。そして、眼に相当するラベルの選択は、抽出さ
れた各ラベルデータより、その面積の大きさ、座標、縦
横比を用いて行う。眼は、開眼時においても閉眼時にお
いても、横長のラベルとなるから、縦横比により鼻の穴
に相当するラベルデータをまず初めに除くことができ
る。
部分検出方法の中で説明したように、所定の面積未満、
例えば図6では口のラベルの面積未満の黒画素は、黒白
変換により除去する。また、マスクと接する黒画素の集
まり、つまりラベルは単独ラベルとならないので、眉、
眼、鼻の穴、口などの黒画素のラベルは容易に識別除去
できる。そして、眼に相当するラベルの選択は、抽出さ
れた各ラベルデータより、その面積の大きさ、座標、縦
横比を用いて行う。眼は、開眼時においても閉眼時にお
いても、横長のラベルとなるから、縦横比により鼻の穴
に相当するラベルデータをまず初めに除くことができ
る。
【0017】次に、ラベルの面積値や座標データによる
位置関係、つまり眉の上に眼があることはないし、口が
眼や眉より顔の外側には存在し得ないことから、眼のラ
ベルが比較的容易に選択される。ここで各ラベルの縦横
比は、図8にその概念を示すような画像データの垂直、
水平成分の最小値を求めるフィレ径という画像処理手法
を用いて算出する。左側の眼についても同様の処理によ
り検出される。
位置関係、つまり眉の上に眼があることはないし、口が
眼や眉より顔の外側には存在し得ないことから、眼のラ
ベルが比較的容易に選択される。ここで各ラベルの縦横
比は、図8にその概念を示すような画像データの垂直、
水平成分の最小値を求めるフィレ径という画像処理手法
を用いて算出する。左側の眼についても同様の処理によ
り検出される。
【0018】ステップ108では、このようにして得ら
れた眼の黒画素のラベルの中心座標を眼の中心位置とし
て設定する。このあとステップ109において、眼の中
心(黒画素の中心)を基に眼が存在する領域の横方向
(X方向)の幅、および縦方向(Y方向)の幅を決定し
て眼の存在領域が設定される。眼の存在領域の大きさ
は、眼の動きに追従でき、眼の黒画素のラベルが眼の存
在領域に接しない条件を満足するように、例えば縦11
0画素、横70画素とする。
れた眼の黒画素のラベルの中心座標を眼の中心位置とし
て設定する。このあとステップ109において、眼の中
心(黒画素の中心)を基に眼が存在する領域の横方向
(X方向)の幅、および縦方向(Y方向)の幅を決定し
て眼の存在領域が設定される。眼の存在領域の大きさ
は、眼の動きに追従でき、眼の黒画素のラベルが眼の存
在領域に接しない条件を満足するように、例えば縦11
0画素、横70画素とする。
【0019】ステップ110では、眼の上下位置を検出
することにより眼の開き度合いが検出される。すなわ
ち、図9、図10に示すように、縦方向の長さ、つまり
高さを求めることで眼の開き度合いを求めることができ
る。図9は、運転者12が正常運転の場合を示し、当
然、眼ははっきり開いた状態であり、眼の開き度合いを
表わす出力値T1も大きい。また、図10は、運転者1
2が居眠りなど覚醒度低下状態の場合を示し、眼は閉じ
た状態または薄目の状態が頻繁に見られるようになる。
このときは、眼の開き度合いを表わす出力値T2が小さ
くなる。
することにより眼の開き度合いが検出される。すなわ
ち、図9、図10に示すように、縦方向の長さ、つまり
高さを求めることで眼の開き度合いを求めることができ
る。図9は、運転者12が正常運転の場合を示し、当
然、眼ははっきり開いた状態であり、眼の開き度合いを
表わす出力値T1も大きい。また、図10は、運転者1
2が居眠りなど覚醒度低下状態の場合を示し、眼は閉じ
た状態または薄目の状態が頻繁に見られるようになる。
このときは、眼の開き度合いを表わす出力値T2が小さ
くなる。
【0020】ステップ111では、眼の追跡状況の確認
が行なわれる。まず図11(a)には、第1フレームの
眼の位置およびステップ50で設定した眼の存在領域S
を示す。眼の存在領域Sは眼の黒画素ラベルの中心座標
を基準として設定されている。その後サイクルごとに、
例えば図11の(b)〜(d)に示される第2〜第4フ
レームの画像が順次入手される。
が行なわれる。まず図11(a)には、第1フレームの
眼の位置およびステップ50で設定した眼の存在領域S
を示す。眼の存在領域Sは眼の黒画素ラベルの中心座標
を基準として設定されている。その後サイクルごとに、
例えば図11の(b)〜(d)に示される第2〜第4フ
レームの画像が順次入手される。
【0021】ここで眼が正しく捉えられている場合は、
例えば図11の(b)の第2フレームでは、存在領域S
が第1フレームで設定された同図の(a)に示した位置
にあるのに対して、運転者12の動き等により、眼の中
心点は眼の存在領域Sに対してずれている。しかし、図
12の(a)に示すように、眼の存在領域Sの枠に眼が
接しない限り、(a)の画像に対してマスク処理した
(b)に示すようなマスク処理により、眼の抽出を容易
に行うことができる。なお、図12の(b)にあって
は、眉の黒画素の集まりは、マスクと接しているため単
独のラベルにならないので、眼のみが単独に抽出され
る。
例えば図11の(b)の第2フレームでは、存在領域S
が第1フレームで設定された同図の(a)に示した位置
にあるのに対して、運転者12の動き等により、眼の中
心点は眼の存在領域Sに対してずれている。しかし、図
12の(a)に示すように、眼の存在領域Sの枠に眼が
接しない限り、(a)の画像に対してマスク処理した
(b)に示すようなマスク処理により、眼の抽出を容易
に行うことができる。なお、図12の(b)にあって
は、眉の黒画素の集まりは、マスクと接しているため単
独のラベルにならないので、眼のみが単独に抽出され
る。
【0022】また、図13の(a)のように運転者が眼
鏡を着用しているときでも、画像をマスク処理した同図
(b)に示すように、眼鏡の黒画素の集まりはマスクに
接しているため、単独のラベルにならず、眼鏡を掛けて
いる場合でも眼単独に抽出することができる。このよう
に横長に存在する眼鏡のフレーム等の黒画素は容易にラ
ベル対象から除いてやることができる。また、眼の存在
領域内に眼以外の黒画素のラベルが残った場合は、その
ラベルの面積の大きさにより選択することができる。す
なわち、眼の存在領域内の大きさは、顔の動きによる眼
の追従を考慮した必要最小限の領域としているため、眼
以外に大きな面積を持つラベルが存在することはなく、
面積が大きなラベルを選択するだけで、容易に眼を抽出
することができる。
鏡を着用しているときでも、画像をマスク処理した同図
(b)に示すように、眼鏡の黒画素の集まりはマスクに
接しているため、単独のラベルにならず、眼鏡を掛けて
いる場合でも眼単独に抽出することができる。このよう
に横長に存在する眼鏡のフレーム等の黒画素は容易にラ
ベル対象から除いてやることができる。また、眼の存在
領域内に眼以外の黒画素のラベルが残った場合は、その
ラベルの面積の大きさにより選択することができる。す
なわち、眼の存在領域内の大きさは、顔の動きによる眼
の追従を考慮した必要最小限の領域としているため、眼
以外に大きな面積を持つラベルが存在することはなく、
面積が大きなラベルを選択するだけで、容易に眼を抽出
することができる。
【0023】そして、具体的に眼の追跡が正しくできて
いるか否かの判定は、上記のように抽出された眼の開き
度合の値によって行なう。すなわち、運転者12が特定
されてしまえば、図9および図10に示したように、眼
の開き度合の値は開眼時T1〜閉眼時T2の範囲で変化
するだけである。したがって、この範囲外の値が出力さ
れたときは、眼の追跡ミス、つまり顔の急激な動きや確
認動作などで運転者12が前方を見ていない状況である
と判定する。
いるか否かの判定は、上記のように抽出された眼の開き
度合の値によって行なう。すなわち、運転者12が特定
されてしまえば、図9および図10に示したように、眼
の開き度合の値は開眼時T1〜閉眼時T2の範囲で変化
するだけである。したがって、この範囲外の値が出力さ
れたときは、眼の追跡ミス、つまり顔の急激な動きや確
認動作などで運転者12が前方を見ていない状況である
と判定する。
【0024】追跡が正しく行われていればステップ11
2へ進んで、眼の追跡および眼の存在領域の変更設定が
行なわれる。また、追跡が正しく行われていないときに
は、ステップ116へ進み、眼の開き度合い値および眼
の存在領域がクリアされ、ステップ101へ戻る。そし
て再び、ステップ105での顔部分抽出を含む処理に入
る。一方、ステップ112では、図11の(b)に示す
第2フレームの眼の中心座標に眼の存在領域の基準点を
変更することにより、眼の存在領域を変更設定して運転
者の顔の動きに対応させる。図11の(c)、(d)の
第3フレームや第4フレームの眼の位置および眼の存在
領域についても、第2フレームのときと同様の処理で、
運転者の顔の動きに対応させる。ステップ105、10
7、109および112がそれぞれ発明の判定対象抽出
手段を構成し、とくにステップ109および112は存
在領域設定手段を構成している。
2へ進んで、眼の追跡および眼の存在領域の変更設定が
行なわれる。また、追跡が正しく行われていないときに
は、ステップ116へ進み、眼の開き度合い値および眼
の存在領域がクリアされ、ステップ101へ戻る。そし
て再び、ステップ105での顔部分抽出を含む処理に入
る。一方、ステップ112では、図11の(b)に示す
第2フレームの眼の中心座標に眼の存在領域の基準点を
変更することにより、眼の存在領域を変更設定して運転
者の顔の動きに対応させる。図11の(c)、(d)の
第3フレームや第4フレームの眼の位置および眼の存在
領域についても、第2フレームのときと同様の処理で、
運転者の顔の動きに対応させる。ステップ105、10
7、109および112がそれぞれ発明の判定対象抽出
手段を構成し、とくにステップ109および112は存
在領域設定手段を構成している。
【0025】そしてこのあと、ステップ113におい
て、開閉眼の判定が行なわれる。前述したように、運転
者12が特定された場合、眼の開き度合の出力値は、図
9の開眼状態と、図10の閉眼状態との間で変化する。
従って、開眼あるいは閉眼の判定を行なう基準値、すな
わち開閉眼を判定するしきい値は、開眼から閉眼までの
範囲内にあることになる。ここで、居眠りなど覚醒度の
低下している状態では、睡眠状態ではないため、完全に
眼の閉じない運転者もあることから、開眼と閉眼との中
央値をしきい値とするのが望ましい。上記しきい値に基
づいて各フレーム毎に開眼(Open)か閉眼(Clo
se)かの判定結果が顔の特徴量抽出回路15から出力
される。上記のステップ106、108、110、11
1、113が発明の特徴量抽出手段を構成している。
て、開閉眼の判定が行なわれる。前述したように、運転
者12が特定された場合、眼の開き度合の出力値は、図
9の開眼状態と、図10の閉眼状態との間で変化する。
従って、開眼あるいは閉眼の判定を行なう基準値、すな
わち開閉眼を判定するしきい値は、開眼から閉眼までの
範囲内にあることになる。ここで、居眠りなど覚醒度の
低下している状態では、睡眠状態ではないため、完全に
眼の閉じない運転者もあることから、開眼と閉眼との中
央値をしきい値とするのが望ましい。上記しきい値に基
づいて各フレーム毎に開眼(Open)か閉眼(Clo
se)かの判定結果が顔の特徴量抽出回路15から出力
される。上記のステップ106、108、110、11
1、113が発明の特徴量抽出手段を構成している。
【0026】ステップ114では、顔の特徴量抽出回路
15からの開閉眼判定結果に基づいて、覚醒度の判定が
行なわれる。ここでは、図14に示すような開閉眼パタ
ーンにおいて、覚醒度判定区間(例えば1分程度)を設
定しこの間に出力される閉眼(close)の積算値に
より覚醒度を判定する。このとき、瞬きによる閉眼の判
定出力を除くために、2回以上連続する閉眼出力の2回
目以降のものだけを積算する。これにより図14のパタ
ーンでは閉眼積算値が4となる。そしてステップ115
では、上記閉眼積算値が所定の基準値と比較して小さい
とき、覚醒度が低下しているものとして警報装置17に
指令を送出し警報を行なわせる。 また、覚醒度低下の
状態でない場合には、ステップ101へ戻る。
15からの開閉眼判定結果に基づいて、覚醒度の判定が
行なわれる。ここでは、図14に示すような開閉眼パタ
ーンにおいて、覚醒度判定区間(例えば1分程度)を設
定しこの間に出力される閉眼(close)の積算値に
より覚醒度を判定する。このとき、瞬きによる閉眼の判
定出力を除くために、2回以上連続する閉眼出力の2回
目以降のものだけを積算する。これにより図14のパタ
ーンでは閉眼積算値が4となる。そしてステップ115
では、上記閉眼積算値が所定の基準値と比較して小さい
とき、覚醒度が低下しているものとして警報装置17に
指令を送出し警報を行なわせる。 また、覚醒度低下の
状態でない場合には、ステップ101へ戻る。
【0027】本実施例は、以上のように構成され、運転
者の眼位置の検出にあたって、画像データからの顔部分
の抽出および眼部分の抽出に順次マスク処理を行なっ
て、画像データの処理範囲を制限するようにしているか
ら、検出にあまり関係のない領域の画像データが消去さ
れ、制限された範囲でラベリングするので、ノイズなど
も効果的に除去されて、顔幅検出や、次には眼の抽出が
正確に行われる。また、眼の存在領域における眼の追跡
ロジックを有しているので、正しい追跡が行なわれてい
るかぎりは、各画像フレームの度に画像処理の全ステッ
プにより顔全体から眼の位置を検出する必要はなく、ス
テップの省略ができるため、眼位置の検出が高速化され
る。そして、正確に検出された眼位置における開閉眼の
判定結果から運転者の居眠り状態を検出できるから、適
切に警報が行なわれるという効果を有する。
者の眼位置の検出にあたって、画像データからの顔部分
の抽出および眼部分の抽出に順次マスク処理を行なっ
て、画像データの処理範囲を制限するようにしているか
ら、検出にあまり関係のない領域の画像データが消去さ
れ、制限された範囲でラベリングするので、ノイズなど
も効果的に除去されて、顔幅検出や、次には眼の抽出が
正確に行われる。また、眼の存在領域における眼の追跡
ロジックを有しているので、正しい追跡が行なわれてい
るかぎりは、各画像フレームの度に画像処理の全ステッ
プにより顔全体から眼の位置を検出する必要はなく、ス
テップの省略ができるため、眼位置の検出が高速化され
る。そして、正確に検出された眼位置における開閉眼の
判定結果から運転者の居眠り状態を検出できるから、適
切に警報が行なわれるという効果を有する。
【0028】なお、上記実施例では、眼の開き度合い値
の検出方法として、フィレ径を用いるものを示したが、
とくにこれに限定されない。またフィレ径は、眼に相当
する黒画素の集まりに対して、垂直、水平線で囲まれる
短形領域から求められるため、例えば図15の(a)お
よび図16の(a)に示すような顔の傾きがあると、各
図の(b)に示されるように眼ラベルの高さTからは開
眼状態も閉眼状態もほとんど同じで識別しにくく、正確
な判定が困難になる場合もある。このような場合には、
各図の(c)のように、上記短形領域内の黒画素をX座
標に投影し、そのmax値を求めて、眼の開き度合い値
とすることもできる。このmax値を用いれば、顔の傾
きがあっても正確な眼の開き度合い値が検出される。
の検出方法として、フィレ径を用いるものを示したが、
とくにこれに限定されない。またフィレ径は、眼に相当
する黒画素の集まりに対して、垂直、水平線で囲まれる
短形領域から求められるため、例えば図15の(a)お
よび図16の(a)に示すような顔の傾きがあると、各
図の(b)に示されるように眼ラベルの高さTからは開
眼状態も閉眼状態もほとんど同じで識別しにくく、正確
な判定が困難になる場合もある。このような場合には、
各図の(c)のように、上記短形領域内の黒画素をX座
標に投影し、そのmax値を求めて、眼の開き度合い値
とすることもできる。このmax値を用いれば、顔の傾
きがあっても正確な眼の開き度合い値が検出される。
【0029】次に、本発明の第2の実施例について説明
する。この実施例は、不特定の人の顔を対象とするため
に、眼の大きさの学習機能を向上させたものである。眼
の開閉状態を常に精度良く検出するには、その人に合っ
た開閉眼の判定基準値を設定する必要がある。従来この
対応策としては、所定時間における開眼状態(MAX
値)と閉眼状態(MIN値)を学習し、これら2つの値
より判定基準値を求める方法がある。
する。この実施例は、不特定の人の顔を対象とするため
に、眼の大きさの学習機能を向上させたものである。眼
の開閉状態を常に精度良く検出するには、その人に合っ
た開閉眼の判定基準値を設定する必要がある。従来この
対応策としては、所定時間における開眼状態(MAX
値)と閉眼状態(MIN値)を学習し、これら2つの値
より判定基準値を求める方法がある。
【0030】しかしこの方法では、所定時間内に閉眼が
必ず発生するとは言えず、また瞬き等の一瞬の閉眼が発
生していたとしても、画像データの取り込みタイミング
によっては捉らえきれないという問題がある。そこで所
定時間を長く設定すると開閉眼の判定に時間を要するこ
とになる。また、開閉眼の状態学習を行なうロジックは
あっても、正しく学習が行われているか否かの確認がな
いため、例えばサングラスを着用している場合でもそれ
なりの値を学習して、開閉眼判定に用いられる懸念もあ
る。これでは、システムとしては異常作動しているにも
かかわらず、そのことを認識できないということにな
る。そこで本実施例は、正しい学習を行なって上記の問
題を解決するものである。
必ず発生するとは言えず、また瞬き等の一瞬の閉眼が発
生していたとしても、画像データの取り込みタイミング
によっては捉らえきれないという問題がある。そこで所
定時間を長く設定すると開閉眼の判定に時間を要するこ
とになる。また、開閉眼の状態学習を行なうロジックは
あっても、正しく学習が行われているか否かの確認がな
いため、例えばサングラスを着用している場合でもそれ
なりの値を学習して、開閉眼判定に用いられる懸念もあ
る。これでは、システムとしては異常作動しているにも
かかわらず、そのことを認識できないということにな
る。そこで本実施例は、正しい学習を行なって上記の問
題を解決するものである。
【0031】このため、図17に示すように、前実施例
の構成に対して覚醒度判定回路16の前後に、眼の大き
さの学習回路20aおよび学習完了判定回路20bが追
加されている。その他の構成は前実施例と同じである。
この覚醒度低下警報装置における動作は、図18および
図19のフローチャートにしたがった流れとなってい
る。前記第1実施例と同じ内容のステップ201〜21
0およびステップ214〜219については説明を省略
する。
の構成に対して覚醒度判定回路16の前後に、眼の大き
さの学習回路20aおよび学習完了判定回路20bが追
加されている。その他の構成は前実施例と同じである。
この覚醒度低下警報装置における動作は、図18および
図19のフローチャートにしたがった流れとなってい
る。前記第1実施例と同じ内容のステップ201〜21
0およびステップ214〜219については説明を省略
する。
【0032】まず、ステップ210での眼の開き度合い
検出のあと、ステップ211において、学習のためにあ
らかじめ設定された所定時間が経過しているかどうかが
チェックされる。学習するための上記所定時間は、瞬き
等の閉眼状態でも確実に学習できるよう比較的長めに設
定されている。学習する所定時間がまだ経過していない
ときは、ステップ212へ進んで、開眼状態(眼の開き
度合い値:MAX)と閉眼状態(眼の開き度合い値:M
IN)を毎フレーム処理ごとに学習、更新して行く。
検出のあと、ステップ211において、学習のためにあ
らかじめ設定された所定時間が経過しているかどうかが
チェックされる。学習するための上記所定時間は、瞬き
等の閉眼状態でも確実に学習できるよう比較的長めに設
定されている。学習する所定時間がまだ経過していない
ときは、ステップ212へ進んで、開眼状態(眼の開き
度合い値:MAX)と閉眼状態(眼の開き度合い値:M
IN)を毎フレーム処理ごとに学習、更新して行く。
【0033】次のステップ213では、ステップ212
での学習値に基づき、開閉眼判定基準値が設定される。
開閉眼判定基準値は、学習値のMAX値とMIN値の中
央値(割り切れない場合は切り上げ)とすることが、居
眠りなどを判定する場合には望ましい。この後、ステッ
プ214へ進む。このステップ以降の処理は、前記した
第1実施例と同一であるため省略する。
での学習値に基づき、開閉眼判定基準値が設定される。
開閉眼判定基準値は、学習値のMAX値とMIN値の中
央値(割り切れない場合は切り上げ)とすることが、居
眠りなどを判定する場合には望ましい。この後、ステッ
プ214へ進む。このステップ以降の処理は、前記した
第1実施例と同一であるため省略する。
【0034】次に、ステップ211のチェックで学習す
る所定時間が経過している場合には、ステップ220へ
進み、開閉眼判定基準値を固定する。そして、ステップ
221でその基準値が所定値Hより小さいかチェックし
て、基準値の妥当性の判定が行なわれる。ここでHは、
眼の大きさの違いも含めて想定される最大値とされる。
基準値が妥当であるときはステップ214へ進み、通常
の開閉眼判定を繰り返すフローに戻る。これで学習が終
了し基準値が設定され、その基準値が妥当と判定されて
このループを繰り返すことになる。
る所定時間が経過している場合には、ステップ220へ
進み、開閉眼判定基準値を固定する。そして、ステップ
221でその基準値が所定値Hより小さいかチェックし
て、基準値の妥当性の判定が行なわれる。ここでHは、
眼の大きさの違いも含めて想定される最大値とされる。
基準値が妥当であるときはステップ214へ進み、通常
の開閉眼判定を繰り返すフローに戻る。これで学習が終
了し基準値が設定され、その基準値が妥当と判定されて
このループを繰り返すことになる。
【0035】ステップ221のチェックで、開閉眼判定
の基準値がHより大で、妥当性を有しない(NG)と判
定された場合には、ステップ222へ進む。これは、例
えばサングラスを掛けている場合などに発生する。ステ
ップ222では、上の妥当性判定でNGとなった処理回
数が何回目であるかがチェックされる。これは、判定基
準値の異常が光環境等の一時的な状態により発生してい
る可能性もあることを考慮し、再度学習させるためにあ
る。
の基準値がHより大で、妥当性を有しない(NG)と判
定された場合には、ステップ222へ進む。これは、例
えばサングラスを掛けている場合などに発生する。ステ
ップ222では、上の妥当性判定でNGとなった処理回
数が何回目であるかがチェックされる。これは、判定基
準値の異常が光環境等の一時的な状態により発生してい
る可能性もあることを考慮し、再度学習させるためにあ
る。
【0036】NGとなった処理回数が2回目以下である
ときは、ステップ223へ進んで、学習値ならびに開閉
眼判定基準値をクリアしてから、ステップ201に戻
り、次フレームの画像データの取り込みに移る。ステッ
プ222のチェックでNG回数が3回を越えた場合は、
定常的な異常であると判定し、ステップ224でシステ
ムエラーとして報知する。ここでの報知は、その対象者
がサングラスを掛けているのに、気がつかずにいる場合
などに有効な報知となる。ステップ211、220〜2
24が発明の学習完了判定手段を構成している。
ときは、ステップ223へ進んで、学習値ならびに開閉
眼判定基準値をクリアしてから、ステップ201に戻
り、次フレームの画像データの取り込みに移る。ステッ
プ222のチェックでNG回数が3回を越えた場合は、
定常的な異常であると判定し、ステップ224でシステ
ムエラーとして報知する。ここでの報知は、その対象者
がサングラスを掛けているのに、気がつかずにいる場合
などに有効な報知となる。ステップ211、220〜2
24が発明の学習完了判定手段を構成している。
【0037】上述の要領による学習事例を図20および
図21に示す。図20は通常の場合を示し、図21はス
タート時の画像データの取り込みタイミングが、たまた
ま閉眼状態であった場合のものである。処理回数は各フ
レームの画像データの取り込みタイミングを示し、眼の
開き度合い値はそのフレームごとの値を示している。ま
ずスタート時、つまり第1フレームでは、眼の開き度合
い値は、1つしか検出されていないため、学習値のMA
X、MIN値、開閉眼基準値は全て同じ値となる。ここ
では、眼の開き度合い値と開閉眼基準値が等しい場合、
開閉眼判定はOpenと定義している。
図21に示す。図20は通常の場合を示し、図21はス
タート時の画像データの取り込みタイミングが、たまた
ま閉眼状態であった場合のものである。処理回数は各フ
レームの画像データの取り込みタイミングを示し、眼の
開き度合い値はそのフレームごとの値を示している。ま
ずスタート時、つまり第1フレームでは、眼の開き度合
い値は、1つしか検出されていないため、学習値のMA
X、MIN値、開閉眼基準値は全て同じ値となる。ここ
では、眼の開き度合い値と開閉眼基準値が等しい場合、
開閉眼判定はOpenと定義している。
【0038】1回目の処理の終了後、第2フレームの画
像データが取り込まれ、そのフレームにおける眼の開き
度合い値が出力される。この値がこれまでの学習値に対
して大きいときはMAX値を更新し、小さいときははM
IN値を更新する。このような処理を継続していくこと
により、システム起動直後から開閉眼の判定を行なうこ
とがで、また比較的長い学習時間を設定しても開閉眼判
定を遅らせるような不都合を招くことなく、最終的に正
確な基準値を設定することができる。スタート時の画像
データの取り込みタイミングが異なっても、比較的早い
時期に数回開閉眼判定が安定しない時があるだけで、こ
れは居眠りの判定などに用いる場合は問題のないレベル
であり、徐々に正確な判定結果が得られる。
像データが取り込まれ、そのフレームにおける眼の開き
度合い値が出力される。この値がこれまでの学習値に対
して大きいときはMAX値を更新し、小さいときははM
IN値を更新する。このような処理を継続していくこと
により、システム起動直後から開閉眼の判定を行なうこ
とがで、また比較的長い学習時間を設定しても開閉眼判
定を遅らせるような不都合を招くことなく、最終的に正
確な基準値を設定することができる。スタート時の画像
データの取り込みタイミングが異なっても、比較的早い
時期に数回開閉眼判定が安定しない時があるだけで、こ
れは居眠りの判定などに用いる場合は問題のないレベル
であり、徐々に正確な判定結果が得られる。
【0039】
【発明の効果】以上のとおり、本発明は画像フレームの
所定領域にマスク処理を行なってラベリングし判定対象
を絞り込むようにしたので、抽出すべき特徴量が容易に
かつ高速に識別選択される。とくに運転者等の顔画像に
ついては、眼の位置や眼の開き度合いの検出からその開
閉眼状態などが容易に抽出でき、居眠りなど覚醒度が低
下した状態を正確に検出して警報などに利用することが
できる。
所定領域にマスク処理を行なってラベリングし判定対象
を絞り込むようにしたので、抽出すべき特徴量が容易に
かつ高速に識別選択される。とくに運転者等の顔画像に
ついては、眼の位置や眼の開き度合いの検出からその開
閉眼状態などが容易に抽出でき、居眠りなど覚醒度が低
下した状態を正確に検出して警報などに利用することが
できる。
【図1】本発明の構成を示すブロック図である。
【図2】本発明の第1の実施例の構成を示すブロック図
である。
である。
【図3】実施例における制御動作の流れを示すフローチ
ャートである。
ャートである。
【図4】実施例における制御動作の流れを示すフローチ
ャートである。
ャートである。
【図5】2値化処理された顔画像におけるマスク処理と
顔幅設定を説明する図である。
顔幅設定を説明する図である。
【図6】顔幅から眼の存在する左右領域を特定する要領
を示す図である。
を示す図である。
【図7】マスク処理による眼の抽出を説明する図であ
る。
る。
【図8】フィレ径の概念を示す図である。
【図9】開眼時の眼の開き度合いの検出方法を説明する
図である。
図である。
【図10】閉眼時の眼の開き度合いの検出方法を説明す
る図である。
る図である。
【図11】画像フレームごとの眼の存在領域と眼の位置
の変化を示す図である。
の変化を示す図である。
【図12】眼の存在領域を利用したマスク処理を説明す
る図である。
る図である。
【図13】眼鏡着用時のマスク処理を説明する図であ
る。
る。
【図14】開閉眼パターンを示す図である。
【図15】顔が傾いているときの開眼時の眼の開き度合
いの検出方法を説明する図である。
いの検出方法を説明する図である。
【図16】顔が傾いているときの閉眼時の眼の開き度合
いの検出方法を説明する図である。
いの検出方法を説明する図である。
【図17】第1の実施例の構成を示すブロック図であ
る。
る。
【図18】第2の実施例における制御動作の流れを示す
フローチャートである。
フローチャートである。
【図19】第2の実施例における制御動作の流れを示す
フローチャートである。
フローチャートである。
【図20】開閉眼判定基準値についての学習事例を示す
図である。
図である。
【図21】開閉眼判定基準値についての学習事例を示す
図である。
図である。
1 画像入力手段 2 2値化手段 3 判定対象抽出手段 4 特徴量抽出手段 11 TVカメラ 12 運転者 13 A/D変換器 14 画像メモリ 15 顔の特徴量抽出回路 16 覚醒度判定回路 17 警報装置 20a 眼の大きさの学習回路 20b 学習完了判定回路 S 眼の存在領域
フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 1/00 7/00 G08B 21/00 Q 7459−5L G06F 15/70 330 E
Claims (7)
- 【請求項1】 画像入力手段と、該画像入力手段から入
力される画像を2値化する2値化手段と、2値化した画
像において、抽出したい判定対象と接しない所定領域を
マスク処理してラベリングし、前記判定対象の抽出を行
う画像データの判定対象抽出手段と、該判定対象抽出手
段で抽出された判定対象を基に画像データの特徴量を抽
出する特徴量抽出手段とを有することを特徴とする画像
データの特徴量検出装置。 - 【請求項2】 前記画像入力手段が顔を含む領域を撮像
して顔画像を入力するものであり、前記判定対象抽出手
段は、顔画像の上方部と下方部を前記所定領域とし、前
記特徴量抽出手段が前記特徴量として顔幅を抽出するも
のであることを特徴とする請求項1記載の画像データの
特徴量検出装置。 - 【請求項3】 前記画像入力手段が顔を含む領域を撮像
して顔画像を入力するものであり、前記判定対象抽出手
段は、顔画像の顔幅を残した範囲を前記所定領域とし、
前記特徴量抽出手段が前記特徴量として眼の位置を抽出
するものであることを特徴とする請求項1または2記載
の画像データの特徴量検出装置。 - 【請求項4】 前記画像入力手段が、時系列に反復し
て、顔を含む領域を撮像して複数フレームの顔画像を入
力するものであり、前記判定対象抽出手段は、前回フレ
ームの顔画像に基づく前記眼の位置をもとに、眼の存在
領域を設定する存在領域設定手段を有し、該眼の存在領
域外を前記所定領域とするものであることを特徴とする
請求項3記載の画像データの特徴量検出装置。 - 【請求項5】 前記特徴量抽出手段は、前記抽出された
眼のラベルの大きさに基づいて判定した開閉眼状態を前
記特徴量として含むものであることを特徴とする請求項
3または4記載の画像データの特徴量検出装置。 - 【請求項6】 前記特徴量抽出手段は、前記抽出された
眼のラベルの大きさを時系列に学習し、前記開閉眼判定
の基準値を更新するものであることを特徴とする請求項
5記載の画像データの特徴量検出装置。 - 【請求項7】 前記特徴量抽出手段は、前記学習に所定
時間を設定し、該所定時間経過時に前記更新された基準
値に基づき、学習が正しく行なわれたかどうかを判定す
る学習完了判定手段を備えていることを特徴とする請求
項6記載の画像データの特徴量検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5346094A JP3063504B2 (ja) | 1993-12-22 | 1993-12-22 | 画像データの特徴量検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5346094A JP3063504B2 (ja) | 1993-12-22 | 1993-12-22 | 画像データの特徴量検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07181012A true JPH07181012A (ja) | 1995-07-18 |
JP3063504B2 JP3063504B2 (ja) | 2000-07-12 |
Family
ID=18381101
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5346094A Expired - Fee Related JP3063504B2 (ja) | 1993-12-22 | 1993-12-22 | 画像データの特徴量検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3063504B2 (ja) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1166304A (ja) * | 1997-08-12 | 1999-03-09 | Mitsubishi Electric Corp | 顔画像処理装置 |
US6389155B2 (en) | 1997-06-20 | 2002-05-14 | Sharp Kabushiki Kaisha | Image processing apparatus |
JP2004287845A (ja) * | 2003-03-20 | 2004-10-14 | Aisin Seiki Co Ltd | 車両運転者の視線検出装置 |
WO2005093656A1 (ja) * | 2004-03-24 | 2005-10-06 | Mitsubishi Denki Kabushiki Kaisha | 特定部分姿勢推定装置、特定部分姿勢推定方法及び特定部分姿勢推定プログラム |
EP1970839A2 (en) | 2007-03-13 | 2008-09-17 | Aisin Seiki Kabushiki Kaisha | Apparatus, method, and program for face feature point detection |
JP2010003232A (ja) * | 2008-06-23 | 2010-01-07 | Toyota Motor Corp | 眼検出装置 |
WO2010029922A1 (ja) * | 2008-09-12 | 2010-03-18 | アイシン精機株式会社 | 開閉眼判定装置、開眼度推定装置、及びプログラム |
US7784943B2 (en) | 2006-12-26 | 2010-08-31 | Aisin Seiki Kabushiki Kaisha | Eyelid detecting apparatus, eyelid detecting method and program thereof |
US7821409B2 (en) | 2007-03-26 | 2010-10-26 | Denso Corporation | Drowsiness alarm apparatus and program |
US7916904B2 (en) | 2007-03-19 | 2011-03-29 | Aisin Seiki Kabushiki Kaisha | Face region detecting device, method, and computer readable recording medium |
US7948387B2 (en) | 2007-03-08 | 2011-05-24 | Denso Corporation | Drowsiness determination apparatus, program, and method |
US8045766B2 (en) | 2007-02-16 | 2011-10-25 | Denso Corporation | Device, program, and method for determining sleepiness |
US8224035B2 (en) | 2006-12-06 | 2012-07-17 | Aisin Seiki Kabushiki Kaisha | Device, method and program for detecting eye |
JP2013504114A (ja) * | 2009-09-01 | 2013-02-04 | エルジー イノテック カンパニー リミテッド | 目状態検出装置及び方法 |
US8498449B2 (en) | 2006-12-04 | 2013-07-30 | Aisin Seiki Kabushiki Kaisha | Eye detecting device, eye detecting method, and program |
KR101387852B1 (ko) * | 2012-10-17 | 2014-04-22 | 조봉미 | 접근자의 근접 전 영상을 캡처하고 전송하는 방법 |
JP2015060790A (ja) * | 2013-09-20 | 2015-03-30 | 大和ハウス工業株式会社 | 照明システム及び照明の調節方法 |
CN112740300A (zh) * | 2018-09-20 | 2021-04-30 | 五十铃自动车株式会社 | 车辆用监视装置 |
US11189015B2 (en) | 2018-05-30 | 2021-11-30 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring feature data from low-bit image |
-
1993
- 1993-12-22 JP JP5346094A patent/JP3063504B2/ja not_active Expired - Fee Related
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6389155B2 (en) | 1997-06-20 | 2002-05-14 | Sharp Kabushiki Kaisha | Image processing apparatus |
JPH1166304A (ja) * | 1997-08-12 | 1999-03-09 | Mitsubishi Electric Corp | 顔画像処理装置 |
JP2004287845A (ja) * | 2003-03-20 | 2004-10-14 | Aisin Seiki Co Ltd | 車両運転者の視線検出装置 |
WO2005093656A1 (ja) * | 2004-03-24 | 2005-10-06 | Mitsubishi Denki Kabushiki Kaisha | 特定部分姿勢推定装置、特定部分姿勢推定方法及び特定部分姿勢推定プログラム |
US8498449B2 (en) | 2006-12-04 | 2013-07-30 | Aisin Seiki Kabushiki Kaisha | Eye detecting device, eye detecting method, and program |
US8224035B2 (en) | 2006-12-06 | 2012-07-17 | Aisin Seiki Kabushiki Kaisha | Device, method and program for detecting eye |
US7784943B2 (en) | 2006-12-26 | 2010-08-31 | Aisin Seiki Kabushiki Kaisha | Eyelid detecting apparatus, eyelid detecting method and program thereof |
US8045766B2 (en) | 2007-02-16 | 2011-10-25 | Denso Corporation | Device, program, and method for determining sleepiness |
US7948387B2 (en) | 2007-03-08 | 2011-05-24 | Denso Corporation | Drowsiness determination apparatus, program, and method |
EP1970839A2 (en) | 2007-03-13 | 2008-09-17 | Aisin Seiki Kabushiki Kaisha | Apparatus, method, and program for face feature point detection |
US7936926B2 (en) | 2007-03-13 | 2011-05-03 | Aisin Seiki Kabushiki Kaisha | Apparatus, method, and program for face feature point detection |
US7916904B2 (en) | 2007-03-19 | 2011-03-29 | Aisin Seiki Kabushiki Kaisha | Face region detecting device, method, and computer readable recording medium |
US7821409B2 (en) | 2007-03-26 | 2010-10-26 | Denso Corporation | Drowsiness alarm apparatus and program |
JP2010003232A (ja) * | 2008-06-23 | 2010-01-07 | Toyota Motor Corp | 眼検出装置 |
WO2010029922A1 (ja) * | 2008-09-12 | 2010-03-18 | アイシン精機株式会社 | 開閉眼判定装置、開眼度推定装置、及びプログラム |
JP2010067137A (ja) * | 2008-09-12 | 2010-03-25 | Toyota Central R&D Labs Inc | 開閉眼判定装置および開眼度推定装置 |
JP2013504114A (ja) * | 2009-09-01 | 2013-02-04 | エルジー イノテック カンパニー リミテッド | 目状態検出装置及び方法 |
KR101387852B1 (ko) * | 2012-10-17 | 2014-04-22 | 조봉미 | 접근자의 근접 전 영상을 캡처하고 전송하는 방법 |
JP2015060790A (ja) * | 2013-09-20 | 2015-03-30 | 大和ハウス工業株式会社 | 照明システム及び照明の調節方法 |
US11189015B2 (en) | 2018-05-30 | 2021-11-30 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring feature data from low-bit image |
US11636575B2 (en) | 2018-05-30 | 2023-04-25 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring feature data from low-bit image |
US11893497B2 (en) | 2018-05-30 | 2024-02-06 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring feature data from low-bit image |
CN112740300A (zh) * | 2018-09-20 | 2021-04-30 | 五十铃自动车株式会社 | 车辆用监视装置 |
US11403858B2 (en) | 2018-09-20 | 2022-08-02 | Isuzu Motors Limited | Vehicular monitoring device |
Also Published As
Publication number | Publication date |
---|---|
JP3063504B2 (ja) | 2000-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3063504B2 (ja) | 画像データの特徴量検出装置 | |
US6606397B1 (en) | Face image processing apparatus for extraction of an eye image based on the position of the naris | |
JP3350296B2 (ja) | 顔画像処理装置 | |
JP4845698B2 (ja) | 眼部検出装置、眼部検出方法及びプログラム | |
CN100504910C (zh) | 人的检测方法和设备 | |
US7620216B2 (en) | Method of tracking a human eye in a video image | |
JP3768735B2 (ja) | 顔画像処理装置 | |
JP3636927B2 (ja) | 顔画像処理装置 | |
KR101653278B1 (ko) | 색상 기반 얼굴 검출을 통한 실시간 얼굴 추적 시스템 | |
JP2003150942A (ja) | 目位置追跡方法 | |
JP3395344B2 (ja) | 画像処理装置およびそれを用いた居眠り警報装置 | |
JP3969894B2 (ja) | 顔画像処理装置 | |
JP4989249B2 (ja) | 目検知装置、居眠り検知装置及び目検知装置の方法 | |
JP4107087B2 (ja) | 開閉眼判定装置 | |
JP4082203B2 (ja) | 開閉眼判定装置 | |
JP3312562B2 (ja) | 居眠り状態検出装置 | |
JP2004192552A (ja) | 開閉眼判定装置 | |
JP3444115B2 (ja) | 居眠り状態検出装置 | |
JP3088880B2 (ja) | 人物認識装置 | |
Mehrübeoglu et al. | Real-time iris tracking with a smart camera | |
JPH1044824A (ja) | 車両運転者の開閉眼判定装置 | |
JP2000142164A (ja) | 眼の状態検出装置及び居眠り運転警報装置 | |
JPH08249454A (ja) | 車両運転者のわき見検出装置 | |
JP2000067225A (ja) | 眼位置検出装置 | |
JP2008209969A (ja) | 顔特徴点検出装置、顔特徴点検出方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20000404 |
|
LAPS | Cancellation because of no payment of annual fees |