JP2013504114A - 目状態検出装置及び方法 - Google Patents

目状態検出装置及び方法 Download PDF

Info

Publication number
JP2013504114A
JP2013504114A JP2012527821A JP2012527821A JP2013504114A JP 2013504114 A JP2013504114 A JP 2013504114A JP 2012527821 A JP2012527821 A JP 2012527821A JP 2012527821 A JP2012527821 A JP 2012527821A JP 2013504114 A JP2013504114 A JP 2013504114A
Authority
JP
Japan
Prior art keywords
eye
state detection
detection method
image
histogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012527821A
Other languages
English (en)
Inventor
ビジャルワン、 ディーパク チャンドラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Innotek Co Ltd
Original Assignee
LG Innotek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Innotek Co Ltd filed Critical LG Innotek Co Ltd
Publication of JP2013504114A publication Critical patent/JP2013504114A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Emergency Alarm Devices (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【解決手段】本発明は、目状態検出装置及び方法に関するのである。つまり、本発明の目状態検出方法は、目領域から自動的な臨界値を設定し、イメージを分割し、分割された区域の境界点を獲得して、前記境界点に最も適合して一致させた楕円を用いて目開き及び目閉じを予備判別した後、目閉じと予備判別された場合、目閉じ時間が予め設定された臨界値時間より大きいときは、目閉じと判別し、大きくないときは、瞬きと判別するステップを含む。
【選択図】図2

Description

本発明は、目状態検出装置及び方法に関するものである。
居眠り運転を防止する運転者モニタリングシステム、目の運動を用いるコンピュータゲーム及び写真撮影のためのカメラなど目状態検出が求められる分野は多様である。従来の目状態検出は、能動的赤外線基盤接近法(Active infrared (IR) based approaches)及び可視スペクトル/特徴−基盤接近法(Visible spectrum/Feature-based approaches)の二つの範疇に分類することができる。可視スペクトル/特徴−基盤接近法は、テンプレート(template)基盤法、 顔付(appearance)基盤法及び特徴(feature)基盤法に分類される。近赤外線基盤法(NIR based methods)は、実用的であり、また光学像スペクトル法(Visual spectrum methods)を追求するにおいて重要である。
テンプレート基盤法は目の形態に基づいて考案されており、テンプレートマッチングは目のイメージを検出するために用いられる。このような方法は、顔全体を、目テンプレートとピクセル同士をマッチングしなければならない。また、入力した顔イメージに対する目の大きさが分からないため、他の大きさの目テンプレートとマッチング過程を数回繰り返さなければならない。よって、目を正確に検出することはできるものの、時間が多く要される短所がある。顔付基盤法は、光度の状況に基づいて目を検出する。このような方法は、通常、他の顔の傾向及び他の照明条件下で他の主題の目を示し、大量の操作データを収集しなければならない煩わしさがある。特徴基盤法は、目もとのいくつかの区別される特徴を識別するために目の特徴を調査する。このような方法は効率的であるが、高い対照性を持たないイメージに対して正確性が劣る、例えば、目と眉毛を混同し得る短所がある。
イメージ基盤の目検出接近法は、顔の残りから顔付及び形態で目の差異を開発して目を位置させる。黒い瞳、白い鞏膜、円形の虹彩、目の角、目の形態などのような目の特別な特徴は人の目と他の物体とを区分するために用いられる。このような方法は効率性や正確性が劣り、実効性がないという短所がある。
本発明は、リアルタイムで高い正確性と効率性を有しながら目の状態を判別することができる装置及び方法を提供する。
本発明の一実施例による目状態検出方法は、顔を含む連続映像から、目開き、目閉じ及び瞬きとして目の状態を検出する方法であって、(a)前記連続映像から停止した初期映像を入力するステップ、(b)前記停止した初期映像から顔領域を検出するステップ、(c)前記顔領域から目領域を検出するステップ、(d)前記目領域から自動的な臨界値を設定し、イメージを分割し、分割された区域の境界点を獲得して、前記境界点に最も適合して一致させた楕円を用いて目開き及び目閉じを予備判別するステップ、及び(e)前記ステップ(d)で目閉じと予備判別された場合、予め設定された回数だけ前記ステップ(a)ないし前記ステップ(d)を繰り返して、計算された目閉じ時間が予め設定された臨界値時間より大きいときは、目閉じと判別し、大きくないときは、瞬きと判別するステップを含む。
本発明の一実施例による目状態検出装置は、顔を含む連続映像から、目開き、目閉じ及び瞬きとして目の状態を検出する装置であって、前記連続映像を撮影するカメラ部、及び前記連続映像から本発明の一実施例による目状態検出方法によって目状態検出を行って、目開き、目閉じ及び瞬きとして目の状態を判別する信号処理部を含む。
本発明の他の実施例による目状態検出方法は、顔を含む連続映像から、目開き、目閉じ及び瞬きとして目の状態を検出する方法であって、(a)前記連続映像から停止した初期映像を入力するステップ、(b)前記停止した初期映像から顔領域及び目領域を検出するステップ、(c)前記検出された目領域をログガボール(Log Gabor)フィルタリングするステップ、(d)前記目領域から自動的な臨界値を設定するステップ、(e)前記目領域の二進化されたイメージを分割し、分割された区域の境界点を獲得するステップ、(f)前記境界点に最も適合する楕円を一致させるステップ、及び(g)前記楕円を用いて目開き及び目閉じを予備判別するステップ、及び(h)前記ステップ(g)で目閉じと予備判別された場合、予め設定された回数だけ前記ステップ(a)ないし前記ステップ(g)を繰り返して、計算された目閉じ時間が予め設定された臨界値時間より大きいときは、目閉じと判別し、大きくないときは、瞬きと判別するステップを含む。
本実施例による目状態検出方法は、高い正確性と効率性を有しながらリアルタイムで目の状態を判別することができる。また、リアルタイムで目を追跡するための目状態検出、運転者モニタリングシステム、スクリーンを介してナビゲートし、他のアイテムを選択するマウスポイントのように、目をポインティング器具として用いる、目の移動に基づく情報ディスプレイシステム、目の運動を用いるコンピュータゲーム及び瞬きを検出することのできる写真機などに応用することができる。
多様な目の状態を示すイメージである。 本実施例による目状態検出方法を示す手順図である。 本実施例によって顔領域を検出した結果を示す図である。 本実施例によって目領域を検出するアルゴリズムの一例を示す図である。 本実施例によって目領域を検出した結果を示す図である。 本実施例によって目開閉判別ステップを示す手順図である。 本実施例によってクロッピングした目領域を示す図である。 本実施例によって80 60にリサイズされた目領域を示す図である。 本実施例に用いられたコンボリューションのためのログガボールカーネルを示す図である。 本実施例によってフィルタリングされた目領域を示す図である。 本実施例によって自動臨界値設定ステップを示す手順図である。 本実施例によって2Dヒストグラムのエントロピーを計算するアルゴリズムの一例を示す図である。 本実施例によって自動的な臨界値の設定前及び後の結果を示す図である。 本実施例によって二進化されたイメージ分割及び分割された各区域の境界点の獲得ステップを行った結果を示す図である。 本実施例によって各区域の境界点に楕円を一致させたステップを行った結果を示す図である。 本実施例によって目の開閉状態を判別する一例を示すアルゴリズムである。 本実施例による目状態検出装置を示すブロック図である。
本発明は、多様な変更を加えることができ、様々な実施例を有し得るところ、特定の実施例を図面に例示し、詳細な説明において詳細に説明しようとする。しかし、これは、本発明を特定の実施形態に対して限定しようとするものではなく、本発明の思想及び技術の範囲に含まれるすべての変更、均等物ないし代替物を含むものと理解しなければならない。
ある構成要素が他の構成要素に「連結されて」いる、または「接続されて」いると言及された場合には、その他の構成要素に直接的に連結または接続されていることもあるが、その間に他の構成要素が存在することもあるものと理解しなければならない。
以下、添付された図面を参照しながら本発明による好ましい実施例について詳しく説明するが、図面符号に構わず、同一または対応する構成要素には同一の参照番号を付与し、これに対する重複される説明は省略する。
図1は、多様な目の状態示すイメージである。本実施例は、図1に示されたような多様な目の状態を、目開き、目閉じ及び瞬き状態と判別することができる。
図2は、本実施例による目状態検出方法を示す手順図である。
連続映像から停止した初期映像を入力する(S110)。このような停止した初期映像はグレー(grey)映像であり得る。
その後、停止した初期映像から顔領域を検出する(S120)。ここで、顔領域の検出は顔境界の座標を獲得することで行われる。顔領域の検出は、haar基盤の顔検出法(haar based face detection)またはテンプレートマッチング法など多様な方法を用いることができる。例えば、テンプレートマッチング法を用いる場合、入力された初期映像と多重スケールテンプレートでテンプレートマッチング演算を行う。入力された初期映像と多重スケールテンプレートでテンプレートマッチング演算を行った後、顔イメージの位置を出力する。ここで、多重スケールテンプレートは、10個の同一でない大きさにおける平均の顔テンプレートである。顔テンプレートの数は、上記のほかにも多様である。
図3は、本実施例によって顔領域を検出した結果を示す図である。
再び図2を参照すると、顔領域から目領域を検出する(S130)。ここで、目領域の検出は目境界の座標を獲得することで行われる。目領域とは、目を示す正確な領域ではなく、目を中心に上下左右で余裕のある領域をいう。このような目領域は、目幾何学(eye geometry)を用いて検出することができる。例えば、通常、顔の横長さをX、縦長さをYとするとき、左目の位置は(1/4X、1/5Y)となり、右目の位置は(3/16X、1/5Y)となる。このような位置を中心に余裕をもって設定された領域で目領域を検出することができる。
図4は、本実施例によって目領域を検出するアルゴリズムの一例を示す図であり、図5は、本実施例によって目領域を検出した結果を示す図である。
その後、目閉じと目開きを予備判別する(S140)。ここで、目閉じと目開きの予備判別は、目閉じ及び目開きを判別して、目開きと判別される場合は、目の状態を目開きと最終判断し、目閉じと判別される場合は、また目閉じであるかまたは瞬きであるかを判別しなければならないため、目閉じと予備判別してから、また目閉じまたは瞬きを判別するステップに進むことをいう。S140は、以下で詳しく説明する。S140で目開き状態と判別されることがある(S190)。S140で目閉じ状態と判別されると、設定された回数だけS110ないしS140を繰り返す(S150)。設定された回数だけS110ないしS140を繰り返した後、目閉じと判別される時間が設定された臨界値時間(ms)より大きいか否かを判断する(S160)。目閉じと判別される時間が設定された臨界値時間(ms)より大きいときは、目閉じ状態と判別する(S170)。目閉じと判別される時間が設定された臨界値時間(ms)より大きくないときは、瞬き(eye blink)状態と判別する(S180)。
ここで、繰り返されるステップは、本実施例ではS110ないしS140であるが、S110から、以下に説明するS141〜S147のいずれか一つのステップまで繰り返すこともできる。例えば、S110から、以下に説明するS145まで設定された回数だけ繰り返すことができる。
以下で、目閉じと目開きを判別するS140を詳しく説明する。
図6は、本実施例によって目開閉判別ステップを示す手順図である。まず、S130によって獲得された目領域を切り取る(S141)。ISP(Image Signal Processor)のイメージクロッピング機能を用いて行うことができる。図7は、本実施例によってクロッピングした目領域を示す図である。
その後、切り取られた目領域をリサイズする(S142)。例えば、目領域を80 60にリサイズする。図8は、本実施例によって80 60にリサイズした目領域を示す図である。
次に、リサイズした目領域をフィルタリングする(S143)。例えば、コンボリューション(convolution)を用いてログガボール(Log Gabor)フィルタリングする。線形周波数スケール上にログガボール関数は、次の数式1のような移動関数である。
Figure 2013504114
ここで、wは、フィルタ中心周波数である。
一定の形態の非フィルタを得るために、用語k/wは多様なwに対して一定に維持されることができる。例えば、0.74のk/wは、略1オクターブ(octave)のフィルタ帯域幅であり、0.55のk/wは、略2オクターブのフィルタ帯域幅であり、0.41のk/wは、略3オクターブのフィルタ帯域幅であり得る。図9は、本実施例に用いられたコンボリューションのためのログガボールカーネルを示し、図10は、本実施例によってフィルタリングされた目領域を示す図である。
本実施例でコンボリューションを用いたフィルタリングは、次の数式2を用いて行うことができる。
Figure 2013504114
ここで、hは、コンボリューションカーネルマトリクス、m及びnは、コンボリューションカーネルマトリクス次元、I′(x、y)は、新しいイメージ、及び、I(x、y)は、入力イメージを示す。
その後、自動臨界値を設定する(S144)。
以下で、自動臨界値設定ステップであるS144を詳しく説明する。図11は、本実施例によって自動臨界値設定ステップを示す手順図である。
図11を参照すると、目領域の2Dヒストグラムを計算する(S144−1)。ここで、ヒストグラムは、イメージ内において他のイメージのピクセル周波数の統計的表現である。2Dヒストグラムは、他の光源水準を有する、相応するピクセルの数を示す。イメージヒストグラムは、原本イメージにおいて正確な光源強度を有するピクセルがいくつあるのかを示すことができる。本実施例に適用されるイメージがサイズ面において多様であるため、ヒストグラム値を保存するために一次元整数配列を用いることができる。2Dヒストグラム計算は、イメージピクセル内のループ及びインデックス256要素の整数配列を用いて行うことができる。ここで、配列の数は、上記のほかにも多様であることは当業者にとって自明なものである。次は、本実施例によって2Dヒストグラムを計算する一例を示すアルゴリズムである。
Figure 2013504114
ここで、pucGrey[usIndexX]は、2Dイメージ輝度に対する情報を保有するバイト配列であり、gssHistogramGray[0]は、2Dイメージヒストグラムを保有する256要素の整数配列である。
その後、2Dヒストグラムを正規化する(S144−2)。すなわち、ヒストグラムの256要素の整数配列内に保存された2Dヒストグラムを正規化する。正規化されたヒストグラムは、他のピクセル値の確率分布を示す。正規化の過程は、各一つのヒストグラムの256配列要素をイメージ内の全体ピクセル数で分けて行われる。次は、本実施例によって2Dヒストグラムを正規化する一例を示すアルゴリズムである。
Figure 2013504114
その後、2Dヒストグラムのエントロピー(entropy)を計算する(S144−3)。ここで、エントロピーは、不確実性(uncertainty)の平均値を示す数値である。
図12は、本実施例によって2Dヒストグラムのエントロピーを計算するアルゴリズムの一例を示す図である。図12を参照すると、2Dヒストグラムのエントロピー関数を行った後、イメージエントロピーは2D 256要素の二重正確性配列gdEntropyGrey[k]内に保有される。このような関数は、どのピクセルがイメージ内の大部分の情報用量を有しているのかを決定するに用いられる。
その後、2段階(2nd stage)の最大エントロピー値のインデックスを獲得する(S144−4)。次に、2段階の最大エントロピー値に基づく自動的な臨界値を設定する(S144−5)。2Dヒストグラムのエントロピー値を計算した後、最大値を検出してから、これに基づく臨界値を獲得することができる。検出された最大値を中心に予め設定されたパーセント内に臨界値を獲得することができる。
ここで、多段階(multistage)の2Dエントロピー関数が用いられることもある。多段階のエントロピー関数は、繰り返しの数及びパートA及びBによるヒストグラム分割で単一段階と異なることがある。例えば、4段階のエントロピー関数は、4層上に自動に臨界値入力イメージに対する確率を提供することができる。ヒストグラム内に選択された地域にわたってエントロピーの最大値計算を用いて、数回ヒストグラムを分割することが求められる。一次エントロピーの最大値を計算した後、0と一次最大地点との間のエントロピーの最大値を計算してから、一次最大値とヒストグラムの255要素との間のエントロピーの最大地点を計算することができる。
また、臨界値のイメージ上にヒストグラム均等化(equalization)を用いることもできる。「ヒストグラム均等化」は、すべての小さいヒストグラムコラムを一つにグルーピングする簡単な過程である。このようなグルーピング後、ヒストグラム変化に関するイメージピクセル置換を行うことができる。2Dヒストグラム均等化のためにヒストグラムの平均値を計算することができる。その後、ループを作って、ポジション0から255まですべてのヒストグラムコラムをチェックし、該当ヒストグラムコラムが平均値を超えるグローバルヒストグラムの平均値より小さいか否かをチェックする。そうであれば、次のコラムに進んで、この値をac一次値として扱う。追加するすべてのポジションは、グレー水準の置換候補としてマーキングされる。次のコラムが平均値よりもさらに大きい値を有すると、その値に一次値を追加せずに、次のコラムに進む。図13は、本実施例によって自動的な臨界値の設定前及び後の結果を示す図である。
再び図6を参照すると、二進化されたイメージを分割し、分割された各区域の境界点を獲得する(S145)。二進化されたイメージ分割は、次のように行われる。まず、使用しないイメージの部分を初期化する。その後、4個の連結された成分を用いて、イメージを分割する。分割されたものをラベリングして、区域IDを固定する。その後、区域サイズを計算し、サイズ順に、区域に対して新しいIDを計算する。次に、中心と周辺のボックスを計算し、区域エッジ点を計算する。図14は、本実施例によって二進化されたイメージ分割及び分割された各区域の境界点の獲得ステップを行った結果を示す図である。
その後、各区域の境界点に楕円を一致させる(S146)。すなわち、境界点のセットに最もよく一致する楕円を計算する。例えば、6個の境界点を用いて、最もよく一致する楕円を計算することができる。図15は、本実施例によって各区域の境界点に楕円を一致させたステップを行った結果を示す図である。
その後、獲得された楕円をもって目の開閉状態を判別する(S147)。例えば、楕円の円形度または面積を計算して、目の開閉状態を判別することができる。楕円の面積で目の開閉状態を判別する場合、目閉じと判別する楕円の面積の範囲を設定することができる。例えば、楕円の面積が5mmから30mm内の場合、目閉じと判別することができる。また、目とまぶたの幾何学に起因して目閉じを判別することもできる。
図16は、本実施例によって目の開閉状態を判別する一例を示すアルゴリズムである。
図17は、本実施例による目状態検出装置を示すブロック図である。
図17を参照すると、目状態検出装置は、カメラ部110、メモリ120、信号処理部130及び制御部140を含む。カメラ部110は、連続映像を撮影して、撮影したイメージをメモリ120に出力する。メモリ120は、撮影されたイメージを入力されて保存する。信号処理部130は、メモリ120に保存されたデジタルイメージに対して本実施例によって目状態検出を行い、目閉じ、瞬きまたは目開きとして目の状態を判断して、その結果をメモリ120または制御部140に出力する。制御部140は、目状態の判断結果に応じて、制御が必要なモジュールに制御信号を出力する。ここで、制御部140は、示されたものと異なって、無いこともある。制御部140がない場合は、信号処理部130は、判断された目の状態を外部に出力する。
例えば、目状態検出装置が運転者モニタリングシステムの警報発生部に連結された場合、信号処理部130で被写体が目閉じと判断されると、制御部140は、警報発生部に警報音を発生する信号を送ることができる。また他の例として、目状態検出装置がカメラに連結された場合、信号処理部130で被写体が瞬きと判断されると、制御部140は、最適の撮影時点を捕捉できるように制御信号をカメラに送ることができる。
本実施例で示すアルゴリズムは、本実施例を具現するために多様に表現できるアルゴリズムの一例に過ぎず、このような一例とは異なるアルゴリズムも本実施例を具現することができることは当業者にとって自明なものである。
本実施例で使用される「〜部」という用語は、ソフトウェアまたはFPGA(field-programmable gate array)またはASICのようなハードウェア構成要素を意味し、「〜部」はある種類の役割を果たす。ところが、「〜部」は、ソフトウェアまたはハードウェアに限定される意味ではない。「〜部」は、アドレッシングすることのできる保存媒体にあるように構成されることもでき、あるいは、一つまたはそれ以上のプロセッサを再生させるように構成されることもできる。よって、一例として「〜部」は、ソフトウェアの構成要素、客体志向ソフトウェアの構成要素、クラスの構成要素及びタスクの構成要素のような構成要素と、プロセス、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバ、ファームウエア、マイクロコード、回路、データ、データベース、データ構造、テーブル、配列、及び変数を含む。構成要素と「〜部」の中で提供される機能は、さらに小さい数の構成要素及び「〜部」に結合されるか、または追加的な構成要素と「〜部」とにさらに分離できる。それだけでなく、構成要素及び「〜部」は、デバイスまたは保安マルチメディアカード内の一つまたはそれ以上のCPUを再生させるように具現できる。
上述したすべての機能は、上記機能を行うようにコーディングされたソフトウェアやプログラムコードなどによるマイクロプロセッサ、制御機、マイクロ制御機、ASIC(Application Specific Integrated Circuit)などのようなプロセッサによって行われることができる。前記コードの設計、開発及び具現は、本発明の説明に基づいて当業者に自明であるといえる。
以上、本発明について実施例を参照しながら説明したが、当該技術分野における通常の知識を有する者は、本発明の技術的思想及び領域から外れない範囲内で本発明を多様に修正及び変更させて実施することができることを理解できるだろう。したがって、上述した実施例に限定されずに、本発明は、以下の特許請求の範囲の範囲内におけるすべての実施例を含むといえる。
本発明は、リアルタイムで目を追跡するための目の状態を検出する方法及び装置であって、運転者モニタリングシステム、目の移動に基づく情報ディスプレイシステム、目の運動を用いるコンピュータゲーム及び瞬きを検出することのできる写真機などに上記の目の状態を検出する方法及び装置を適用することができる。

Claims (29)

  1. 顔を含む連続映像から、目開き、目閉じ及び瞬きとして目の状態を検出する方法であって、
    (a)前記連続映像から停止した初期映像を入力するステップ、
    (b)前記停止した初期映像から顔領域を検出するステップ、
    (c)前記顔領域から目領域を検出するステップ、
    (d)前記目領域から自動的な臨界値を設定し、イメージを分割し、分割された区域の境界点を獲得して、前記境界点に最も適合して一致させた楕円を用いて目開き及び目閉じを予備判別するステップ、及び
    (e)前記ステップ(d)で目閉じと予備判別された場合、予め設定された回数だけ前記ステップ(a)ないし前記ステップ(d)を繰り返して、計算された目閉じ時間が予め設定された臨界値時間より大きいときは、目閉じと判別し、大きくないときは、瞬きと判別するステップ、
    を含むことを特徴とする目状態検出方法。
  2. 前記ステップ(b)は、haar基盤の顔検出法(haar based face detection)またはテンプレートマッチング法を用いて顔領域を検出することを特徴とする請求項1に記載の目状態検出方法。
  3. 前記ステップ(c)は、目幾何学(eye geometry)を用いて目領域を検出することを特徴とする請求項1に記載の目状態検出方法。
  4. 前記ステップ(d)は、
    (d−1)前記目領域をフィルタリングするステップ、
    (d−2)前記目領域から自動的な臨界値を設定するステップ、
    (d−3)前記目領域の二進化されたイメージを分割し、分割された区域の境界点を獲得するステップ、
    (d−4)前記境界点に最も適合する楕円を一致させるステップ、及び
    (d−5)前記楕円を用いて目開き及び目閉じを予備判別するステップ、
    を含むことを特徴とする請求項1に記載の目状態検出方法。
  5. 前記ステップ(d−1)の前に、前記目領域をクロップ(crop)し、リサイズするステップをさらに含むことを特徴とする請求項4に記載の目状態検出方法。
  6. 前記ステップ(d−1)は、コンボリューションを用いてログガボール(Log Gabor)フィルタリングすることを特徴とする請求項4に記載の目状態検出方法。
  7. 前記コンボリューションを用いるログガボールフィルタリングは、
    Figure 2013504114
    (ここで、hは、コンボリューションカーネルマトリクス、m及びnは、コンボリューションカーネルマトリクス次元、I′(x、y)は、新しいイメージ、及び、I(x、y)は、入力イメージである。)
    を用いることを特徴とする請求項6に記載の目状態検出方法。
  8. 前記ステップ(d−2)は、
    (dd−1)前記目領域のイメージ内における他のイメージのピクセル周波数の統計的表現である2Dヒストグラムを計算するステップ、
    (dd−2)前記2Dヒストグラムを他のピクセル値の確率分布に正規化するステップ、
    (dd−3)前記正規化された2Dヒストグラムから不確実性(uncertainty)の平均値を示す数値であるエントロピーを計算するステップ、
    (dd−4)2段階の最大エントロピー値のインデックスを獲得するステップ、及び
    (dd−5)2段階の最大エントロピー値に基づく自動的な臨界値を設定するステップ、
    を含むことを特徴とする請求項4に記載の目状態検出方法。
  9. 前記ステップ(dd−2)は、各一つのヒストグラム要素をイメージ内の全体ピクセル数で分けて正規化することを特徴とする請求項8に記載の目状態検出方法。
  10. 前記ステップ(dd−1)で計算された2Dヒストグラムを保存するために、一次元整数配列を用いることを特徴とする請求項8に記載の目状態検出方法。
  11. 前記ステップ(dd−5)は、前記検出された最大エントロピー値を中心に、予め設定されたパーセント内に臨界値を獲得することを特徴とする請求項8に記載の目状態検出方法。
  12. 前記ステップ(dd−3)の次に、すべての小さいヒストグラムコラムを一つにグルーピングするヒストグラム均等化(equalization)を行うことを特徴とする請求項8に記載の目状態検出方法。
  13. 前記ステップ(d−4)で、少なくとも6個の境界点を用いて、最も適合する楕円を一致させることを特徴とする請求項4に記載の目状態検出方法。
  14. 前記ステップ(d−5)で、前記楕円の円形度または面積を用いて、目開き及び目閉じを予備判別することを特徴とする請求項4に記載の目状態検出方法。
  15. 前記停止した初期映像は、グレー映像であることを特徴とする請求項1に記載の目状態検出方法。
  16. 請求項1ないし請求項15のいずれか1項に記載の目状態検出方法を行うために、デジタル処理装置によって実行できる命令語のプログラムが具現されており、前記デジタル処理装置によって読み取り可能なプログラムを記録したことを特徴とする記録媒体。
  17. 顔を含む連続映像から、目開き、目閉じ及び瞬きとして目の状態を検出する装置であって、
    前記連続映像を撮影するカメラ部、及び
    前記連続映像から第1項ないし第15項のいずれか1項に記載の目状態検出方法によって目状態検出を行って、目開き、目閉じ及び瞬きとして目の状態を判別する信号処理部、
    を含むことを特徴とする目状態検出装置。
  18. 顔を含む連続映像から、目開き、目閉じ及び瞬きとして目の状態を検出する方法であって、
    (a)前記連続映像から停止した初期映像を入力するステップ、
    (b)前記停止した初期映像から顔領域及び目領域を検出するステップ、
    (c)前記検出された目領域をログガボールフィルタリングするステップ、
    (d)前記目領域から自動的な臨界値を設定するステップ、
    (e)前記目領域の二進化されたイメージを分割し、分割された区域の境界点を獲得するステップ、
    (f)前記境界点に最も適合する楕円を一致させるステップ、
    (g)前記楕円を用いて目開き及び目閉じを予備判別するステップ、及び
    (h)前記ステップ(g)で目閉じと予備判別された場合、予め設定された回数だけ前記ステップ(a)ないし前記ステップ(g)を繰り返して、計算された目閉じ時間が予め設定された臨界値時間より大きいときは、目閉じと判別し、大きくないときは、瞬きと判別するステップ、
    を含むことを特徴とする目状態検出方法。
  19. 前記ステップ(c)は、コンボリューションを用いてログガボールフィルタリングすることを特徴とする請求項18に記載の目状態検出方法。
  20. 前記コンボリューションを用いたログガボールフィルタリングは、
    Figure 2013504114
    (ここで、hは、コンボリューションカーネルマトリクス、m及びnは、コンボリューションカーネルマトリクス次元、I′(x、y)は、新しいイメージ、及び、I(x、y)は、入力イメージである。)
    を用いることを特徴とする請求項19に記載の目状態検出方法。
  21. 前記ステップ(d)は、
    (d−1)前記目領域のイメージ内における他のイメージのピクセル周波数の統計的表現である2Dヒストグラムを計算するステップ、
    (d−2)前記2Dヒストグラムを他のピクセル値の確率分布に正規化するステップ、
    (d−3)前記正規化された2Dヒストグラムから不確実性(uncertainty)の平均値を示す数値であるエントロピーを計算するステップ、
    (d−4)2段階の最大エントロピー値のインデックスを獲得するステップ、及び
    (d−5)2段階の最大エントロピー値に基づく自動的な臨界値を設定するステップ、
    を含むことを特徴とする請求項18に記載の目状態検出方法。
  22. 前記ステップ(d−2)は、各一つのヒストグラム要素をイメージ内の全体ピクセル数で分けて正規化することを特徴とする請求項21に記載の目状態検出方法。
  23. 前記ステップ(d−1)で計算された2Dヒストグラムを保存するために、一次元整数配列を用いることを特徴とする請求項21に記載の目状態検出方法。
  24. 前記ステップ(d−5)は、前記検出された最大エントロピー値を中心に、予め設定されたパーセント内に臨界値を獲得することを特徴とする請求項21に記載の目状態検出方法。
  25. 前記ステップ(d−3)の次に、すべての小さいヒストグラムコラムを一つにグルーピングするヒストグラム均等化(equalization)を行うことを特徴とする請求項21に記載の目状態検出方法。
  26. 前記ステップ(f)で、少なくとも6個の境界点を用いて、最も適合する楕円を一致させることを特徴とする請求項18に記載の目状態検出方法。
  27. 前記ステップ(g)で、前記楕円の円形度または面積を用いて、目開き及び目閉じを予備判別することを特徴とする請求項18に記載の目状態検出方法。
  28. 前記停止した初期映像は、グレー映像であることを特徴とする請求項18に記載の目状態検出方法。
  29. 請求項18ないし請求項28のいずれか1項に記載の目状態検出方法を行うために、デジタル処理装置によって実行できる命令語のプログラムが具現されており、前記デジタル処理装置によって読み取り可能なプログラムを記録したことを特徴とする記録媒体。
JP2012527821A 2009-09-01 2010-09-01 目状態検出装置及び方法 Pending JP2013504114A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020090082055A KR101032726B1 (ko) 2009-09-01 2009-09-01 눈 상태 검출방법
KR10-2009-0082055 2009-09-01
PCT/KR2010/005934 WO2011028023A2 (en) 2009-09-01 2010-09-01 Apparatus and method for detecting eye state

Publications (1)

Publication Number Publication Date
JP2013504114A true JP2013504114A (ja) 2013-02-04

Family

ID=43649778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012527821A Pending JP2013504114A (ja) 2009-09-01 2010-09-01 目状態検出装置及び方法

Country Status (4)

Country Link
US (1) US20120230553A1 (ja)
JP (1) JP2013504114A (ja)
KR (1) KR101032726B1 (ja)
WO (1) WO2011028023A2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5864910B2 (ja) * 2010-07-16 2016-02-17 キヤノン株式会社 画像取得装置及び制御方法
JP2013043044A (ja) * 2011-08-26 2013-03-04 Canon Inc 瞬目計測装置、方法、及びプログラム
JP5418579B2 (ja) * 2011-12-06 2014-02-19 株式会社デンソー 開閉眼検出装置
EP2805523B1 (en) 2012-01-19 2019-03-27 VID SCALE, Inc. Methods and systems for video delivery supporting adaption to viewing conditions
EP4201304A1 (en) * 2012-10-24 2023-06-28 Nidek Co., Ltd. Ophthalmic analysis apparatus
US9305225B2 (en) * 2013-10-14 2016-04-05 Daon Holdings Limited Methods and systems for determining user liveness
CN105022981B (zh) * 2014-04-18 2019-08-16 中兴通讯股份有限公司 一种检测人眼健康状态的方法、装置及移动终端
US10045050B2 (en) 2014-04-25 2018-08-07 Vid Scale, Inc. Perceptual preprocessing filter for viewing-conditions-aware video coding
US9465981B2 (en) 2014-05-09 2016-10-11 Barron Associates, Inc. System and method for communication
US9782069B2 (en) * 2014-11-06 2017-10-10 International Business Machines Corporation Correcting systematic calibration errors in eye tracking data
KR101672946B1 (ko) * 2015-03-06 2016-11-17 동국대학교 산학협력단 눈 개폐 분류 장치 및 방법
CN105631439B (zh) * 2016-02-18 2019-11-08 北京旷视科技有限公司 人脸图像处理方法和装置
CN106778611A (zh) * 2016-12-16 2017-05-31 天津牧瞳星科技有限公司 一种在线追踪眨眼活动的方法
WO2018120662A1 (zh) * 2016-12-27 2018-07-05 华为技术有限公司 一种拍照方法,拍照装置和终端
CN107959756B (zh) * 2017-11-30 2020-09-18 深圳市普斯美医疗科技有限公司 睡眠自动关闭电子设备的系统及其方法
CN110263693A (zh) * 2019-06-13 2019-09-20 苏州元联传感技术有限公司 结合帧间差分与贝叶斯分类器的车辆行人检测识别方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07504531A (ja) * 1992-12-31 1995-05-18 イー・アイ・デユポン・ドウ・ヌムール・アンド・カンパニー カラーにより妥当対象物を識別し特性付ける方法
JPH07181012A (ja) * 1993-12-22 1995-07-18 Nissan Motor Co Ltd 画像データの特徴量検出装置
JPH08147582A (ja) * 1994-11-17 1996-06-07 Toyota Motor Corp 居眠り警報装置
JP2004199386A (ja) * 2002-12-18 2004-07-15 Oki Electric Ind Co Ltd 顔画像合成装置および顔画像の瞬き検出方法
JP2004220080A (ja) * 2003-01-09 2004-08-05 Nissan Motor Co Ltd 開閉眼判定装置
JP2007004321A (ja) * 2005-06-22 2007-01-11 Mitsubishi Electric Corp 画像処理装置及び入退室管理システム
JP2007509334A (ja) * 2003-10-21 2007-04-12 ライカ マイクロシステムス ツェーエムエス ゲーエムベーハー レーザマイクロ切開におけるレーザ切断線の自動生成方法
JP2007094906A (ja) * 2005-09-29 2007-04-12 Toshiba Corp 特徴点検出装置および方法
JP2008538425A (ja) * 2005-01-26 2008-10-23 ハネウェル・インターナショナル・インコーポレーテッド 距離虹彩認識システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3350296B2 (ja) * 1995-07-28 2002-11-25 三菱電機株式会社 顔画像処理装置
AUPQ896000A0 (en) * 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
US6895103B2 (en) * 2001-06-19 2005-05-17 Eastman Kodak Company Method for automatically locating eyes in an image
CN1313979C (zh) * 2002-05-03 2007-05-02 三星电子株式会社 产生三维漫画的装置和方法
US8896725B2 (en) * 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
KR100682889B1 (ko) * 2003-08-29 2007-02-15 삼성전자주식회사 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치
KR100566272B1 (ko) * 2003-11-11 2006-03-30 삼성전자주식회사 졸음운전 경고 시스템
KR100617777B1 (ko) * 2004-01-26 2006-08-28 삼성전자주식회사 졸음운전 경고 장치에서 운전자의 눈 영상 검출 장치 및 방법
JP4449723B2 (ja) * 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
US7715598B2 (en) * 2006-07-25 2010-05-11 Arsoft, Inc. Method for detecting facial expressions of a portrait photo by an image capturing electronic device
JP4137969B2 (ja) * 2006-12-04 2008-08-20 アイシン精機株式会社 眼部検出装置、眼部検出方法及びプログラム
JP4895847B2 (ja) * 2007-02-08 2012-03-14 アイシン精機株式会社 瞼検出装置及びプログラム
JP4898532B2 (ja) 2007-04-13 2012-03-14 富士フイルム株式会社 画像処理装置および撮影システム並びに瞬き状態検出方法、瞬き状態検出プログラムおよびそのプログラムが記録された記録媒体
JP5121506B2 (ja) * 2008-02-29 2013-01-16 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
US8570176B2 (en) * 2008-05-28 2013-10-29 7352867 Canada Inc. Method and device for the detection of microsleep events
JP2010033305A (ja) * 2008-07-29 2010-02-12 Hitachi Ltd 画像情報処理方法、及び装置
JP2018132643A (ja) * 2017-02-15 2018-08-23 キヤノン株式会社 光走査装置及び画像形成装置
EP4030762A4 (en) * 2019-09-10 2023-09-06 Samsung Electronics Co., Ltd. IMAGE DECODING DEVICE USING A SET OF TOOLS AND CORRESPONDING IMAGE DECODING METHOD, AND IMAGE ENCODING DEVICE AND CORRESPONDING IMAGE ENCODING METHOD

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07504531A (ja) * 1992-12-31 1995-05-18 イー・アイ・デユポン・ドウ・ヌムール・アンド・カンパニー カラーにより妥当対象物を識別し特性付ける方法
JPH07181012A (ja) * 1993-12-22 1995-07-18 Nissan Motor Co Ltd 画像データの特徴量検出装置
JPH08147582A (ja) * 1994-11-17 1996-06-07 Toyota Motor Corp 居眠り警報装置
JP2004199386A (ja) * 2002-12-18 2004-07-15 Oki Electric Ind Co Ltd 顔画像合成装置および顔画像の瞬き検出方法
JP2004220080A (ja) * 2003-01-09 2004-08-05 Nissan Motor Co Ltd 開閉眼判定装置
JP2007509334A (ja) * 2003-10-21 2007-04-12 ライカ マイクロシステムス ツェーエムエス ゲーエムベーハー レーザマイクロ切開におけるレーザ切断線の自動生成方法
JP2008538425A (ja) * 2005-01-26 2008-10-23 ハネウェル・インターナショナル・インコーポレーテッド 距離虹彩認識システム
JP2007004321A (ja) * 2005-06-22 2007-01-11 Mitsubishi Electric Corp 画像処理装置及び入退室管理システム
JP2007094906A (ja) * 2005-09-29 2007-04-12 Toshiba Corp 特徴点検出装置および方法

Also Published As

Publication number Publication date
WO2011028023A3 (en) 2011-07-07
WO2011028023A2 (en) 2011-03-10
KR101032726B1 (ko) 2011-05-06
KR20110024169A (ko) 2011-03-09
US20120230553A1 (en) 2012-09-13

Similar Documents

Publication Publication Date Title
JP2013504114A (ja) 目状態検出装置及び方法
CN106557726B (zh) 一种带静默式活体检测的人脸身份认证系统及其方法
CN105612533B (zh) 活体检测方法、活体检测系统以及计算机程序产品
US10445574B2 (en) Method and apparatus for iris recognition
KR100724932B1 (ko) 얼굴 검출 장치 및 방법
US9582716B2 (en) Apparatuses and methods for iris based biometric recognition
WO2019033574A1 (zh) 电子装置、动态视频人脸识别的方法、系统及存储介质
CN110348270B (zh) 影像物件辨识方法与影像物件辨识系统
CN108171158B (zh) 活体检测方法、装置、电子设备及存储介质
JP5361524B2 (ja) パターン認識システム及びパターン認識方法
JP6472184B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
Lee et al. Vasir: an open-source research platform for advanced iris recognition technologies
JP6351243B2 (ja) 画像処理装置、画像処理方法
KR102469720B1 (ko) 전자 장치 및 이를 이용한 눈의 충혈도 판단 방법
US9082000B2 (en) Image processing device and image processing method
US9704024B2 (en) Object discriminating apparatus and method
WO2020172870A1 (zh) 一种目标对象的移动轨迹确定方法和装置
JP5648452B2 (ja) 画像処理プログラムおよび画像処理装置
Yi et al. Partial face matching between near infrared and visual images in mbgc portal challenge
CN114360039A (zh) 一种智能眼睑检测方法及系统
CN112906610A (zh) 用于活体检测的方法、电子电路、电子设备和介质
Bhattacharyya et al. IRIS texture analysis and feature extraction for biometric pattern recognition
CN108875472B (zh) 图像采集装置及基于该图像采集装置的人脸身份验证方法
JP5791361B2 (ja) パターン識別装置、パターン識別方法およびプログラム
Amjed et al. Noncircular iris segmentation based on weighted adaptive hough transform using smartphone database

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140422

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140722

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141014