JP3926507B2 - 目位置及び顔位置検出装置 - Google Patents
目位置及び顔位置検出装置 Download PDFInfo
- Publication number
- JP3926507B2 JP3926507B2 JP14928199A JP14928199A JP3926507B2 JP 3926507 B2 JP3926507 B2 JP 3926507B2 JP 14928199 A JP14928199 A JP 14928199A JP 14928199 A JP14928199 A JP 14928199A JP 3926507 B2 JP3926507 B2 JP 3926507B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- eye
- edge
- image
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【発明の属する技術分野】
本発明は、顔画像を利用するヒューマンインタフェースシステムにおいて、顔画像から目及び顔位置を検出する目位置及び顔位置検出装置に関するものである。
【0002】
【従来の技術】
顔をヒューマンインタフェースに利用する場合、顔画像から目や口といった顔部品の位置を正確に知る必要がある。例えば、このような従来技術として、
文献:“横山太郎,呉海元,谷内田正彦、「色彩画像からの顔の発見と顔部品の同定」,情報処理学会研究会資料CVIM100−11,pp85−92”
に示されたものがあった。
【0003】
この文献に示された従来技術では、画像データから肌色情報を用いて顔領域を特定した後に、エッジ検出フィルタによるフィルタ処理を施し、更に適当な閾値で2値化して2値エッジ画像を生成して、その画像の各画素をx軸方向、y軸方向へ投影して得られる投影ヒストグラムを元に顔の各部品の位置を求めている。
【0004】
【発明が解決しようとする課題】
しかしながら、上記従来の技術では、例えば眼鏡によるエッジの影響によって目や眉の位置を正しく検出できない等、安定した目位置や顔位置の検出処理が行えない問題があった。
【0005】
【課題を解決するための手段】
本発明は、前述の課題を解決するため次の構成を採用する。
〈構成1〉
被験者を撮影して得た顔画像からエッジ顔画像を生成するエッジ検出部と、上記顔画像の濃淡に基づいて顔の中心線を検出する顔中心線検出処理部と、上記顔中心線と上記エッジ顔画像から顔の左右の横幅を決定する顔横幅検出処理部と、上記顔中心線と上記左右の横幅及び上記エッジ顔画像から顔の縦幅を決定する顔縦幅検出処理部と、上記エッジ顔画像の上記顔の縦幅の領域内において顔の中心線を再度、検出する顔中心線再検出処理部と、上記再検出された顔の中心線と上記エッジ顔画像の上記顔の縦幅の領域から顔の左右の横幅を再度、決定する顔横幅再検出処理部と、上記再検出された顔の中心線と上記再決定された顔の左右の横幅及び上記顔の縦幅とに基づいて上記エッジ顔画像の顔領域を左目領域と右目領域及び鼻領域に分割する顔領域分割部と、上記左右の目領域及び鼻領域に基づいて上記顔画像の対応する領域から各領域エッジ画像を生成し、各領域エッジ画像から左右の目位置及び鼻位置を検出する目位置検出部と、上記検出した左右の目位置及び鼻位置から顔位置を検出する顔位置検出部とを含むことを特徴とする目位置及び顔位置検出装置。
【0007】
〈構成2〉
構成1に記載の目位置及び顔位置検出装置において、上記顔縦幅検出処理部は、上記顔中心線と顔横幅に基づいて決定した上記エッジ顔画像のエッジ探索領域内で、上側に横エッジが集中的に現れ、その下側に横エッジと縦エッジがほとんど存在しない領域を探索することで目のy座標候補位置を決定し、その位置に基づいて顔の縦幅を決定するよう構成されていることを特徴とする目位置及び顔位置検出装置。
【0009】
〈構成3〉
構成1に記載の目位置及び顔位置検出装置において、上記目位置検出部は、上記鼻領域エッジ画像から眼鏡を検出すると左右の目領域エッジ画像の探索する範囲を絞り込み、該絞り込まれた左目探索領域と右目探索領域からそれぞれ左目と右目の位置を検出するよう構成されていることを特徴とする目位置及び顔位置検出装置。
【0010】
〈構成4〉
構成1又は3に記載の目位置及び顔位置検出装置において、上記目位置検出部は、特定の領域の画素値が他の領域の画素値より高い値を示す目検出フィルタによって上記顔画像の各画素の目らしさ値を求め、当該目らしさ値を横方向に投影加算処理して目らしさ値投影ヒストグラムを作成し、このヒストグラムに基づいて瞳のy座標候補位置を決定するよう構成されていることを特徴とする目位置及び顔位置検出装置。
【0011】
〈構成5〉
構成4に記載の目位置及び顔位置検出装置において、上記目位置検出部は、上記目らしさ値投影ヒストグラムに基づいて決定された瞳のy座標候補位置と、再検出された顔中心線及び顔横幅によって検出される瞳のx座標候補位置とから決定される瞳の候補位置の付近で、目検出フィルタによる目らしさ値が最も高い値を取る位置を瞳中心とするよう構成されていることを特徴とする目位置及び顔位置検出装置。
【0012】
〈構成6〉
構成4または5に記載の目位置及び顔位置検出装置において、上記目検出フィルタは、中央部が黒くその周りが白い部分で覆われている領域の中央の部分に対して高い値となるよう構成されていることを特徴とする目位置及び顔位置検出装置。
【0014】
〈構成7〉
構成1に記載の目位置及び顔位置検出装置において、上記エッジ検出部は上記顔画像から横方向と縦方向の各エッジ顔画像を生成し、該各エッジ顔画像に基づいて上記被験者とカメラ間の距離を算出し、該カメラの焦点制御を行うオートフォーカス制御部を更に含むことを特徴とする目位置及び顔位置検出装置。
【0015】
【発明の実施の形態】
以下、本発明の実施の形態を具体例を用いて詳細に説明する。
《具体例1》
〈構成〉
図1は本発明の目位置及び顔位置検出装置の具体例1を示す構成図である。
図の装置は、TVカメラ101、エッジ検出部102、目・顔位置検出部103からなる。
【0016】
TVカメラ101は、被験者の顔画像を撮影するためのカメラである。エッジ検出部102は、TVカメラ101からの濃淡画像に対してエッジ検出処理を行う機能を有している。
【0017】
目・顔位置検出部103は、TVカメラ101で撮影された濃淡画像と、エッジ検出部102でエッジ検出された画像とから目位置及び顔位置を検出する機能部であり、顔領域検出部11、顔領域分割部12、目位置検出部13、顔位置検出部14からなる。
【0018】
顔領域検出部11は、濃淡顔画像とエッジ顔画像を用いて顔領域を決定し、その顔領域の位置情報を濃淡顔画像とエッジ顔画像と共に送出する機能を有している。顔領域分割部12は、顔領域から眼鏡の影響を受けずに安定して目の位置を検出するために、顔領域を特定の領域に分割して、その分割顔領域の位置情報を、濃淡顔画像とエッジ顔画像と共に送出する機能を有している。目位置検出部13は、分割顔領域中の濃淡情報とエッジ情報を利用して左右の目位置を検出してその目位置を出力する機能部である。顔位置検出部14は、目位置検出部13から送られてくる目位置情報とエッジ情報から鼻の位置を推定して、両目と鼻の位置に基づいて正確な顔位置を検出してその情報を出力する機能部である。
【0019】
〈動作〉
先ず、TVカメラ101で撮影された濃淡顔画像はエッジ検出部102に送られ、エッジ顔画像を作成する。エッジ検出部102では、後の処理で利用するための2種類のエッジ画像を作成する。
【0020】
図2は、縦エッジ検出フィルタと横エッジ検出フィルタの説明図である。
上記2種類のエッジ画像のうち、一つのエッジ画像は縦方向のエッジを強調した画像であり、図2の(a)や(b)に示すような画像フィルタ(これ以外にも同様な働きを行うsobelフィルタ等を利用してもよい)を、単独あるいは組み合わせて用いることでフィルタ処理を行い、その後で予め定められた閾値で2値化処理を行って縦エッジ画像を生成する。
【0021】
もう一つのエッジ画像は横方向のエッジを強調した画像であり、図2の(c)や(d)に示すような画像フィルタ(これ以外にも同様な働きを行う画像フィルタを利用してもよい)を、単独あるいは組み合わせて用いることでフィルタ処理を行い、その後で同様に2値化処理を行って横エッジ画像を生成する。ここで、生成された二つのエッジ顔画像は、濃淡顔画像とあわせて次の目・顔位置検出部103における顔領域検出部11に送られる。
【0022】
顔領域検出部11では次のような手順に従って顔領域を決定する。
図3は、顔領域検出部11における各機能部の構成とその処理手順を示す説明図である。
図示のように、顔領域検出部11は、顔中心線検出処理部21、顔横幅検出処理部22、顔縦幅検出処理部23、顔中心線再検出処理部24、顔横幅再検出処理部25からなる。
【0023】
顔中心線検出処理部21は、濃淡顔画像とエッジ顔画像から顔中心線を検出する機能を有している。顔横幅検出処理部22は、顔中心線検出処理部21で得られた顔中心線と、濃淡顔画像とエッジ顔画像とから顔の横幅を検出する機能を有している。顔縦幅検出処理部23は、顔横幅検出処理部22で得られた顔の横幅情報と、顔中心線検出処理部21で得られた顔中心線と、濃淡顔画像とエッジ顔画像とから顔の縦幅を検出する機能を有している。顔中心線再検出処理部24は、顔縦幅検出処理部23で得られた顔の縦幅情報と、顔横幅検出処理部22で得られた顔の横幅情報と、濃淡顔画像とエッジ顔画像とから、再度顔中心線を検出する機能を有している。顔横幅再検出処理部25は、顔中心線再検出処理部24で得られた顔中心線と、濃淡顔画像とエッジ顔画像とから顔の横幅を再度検出する機能を有している。
【0024】
このように構成された顔中心線検出処理部21〜顔横幅再検出処理部25では次のような処理を行う。
先ず、顔中心線検出処理部21では、送られてくる濃淡顔画像の濃淡情報を利用して顔の中心線(後述する図4参照)を決定する。この処理では、特願平7−349152号明細書で開示されているように、例えば、最も左右の画素値の対称性が高いx座標を求めることによって、顔の中心線を検出する。
【0025】
顔中心線が決定すると、次に顔横幅検出処理部22において顔の横幅を決定する処理を行う。
図4は、顔中心線と縦エッジ投影ヒストグラムの説明図である。
顔の横幅を決定する処理は、先ず、図4に示すように縦エッジ顔画像全体を縦方向に投影加算処理を行い、縦エッジ投影ヒストグラムを求める。顔画像の場合、縦エッジは通常顔輪郭の部分に多く現れるため、縦エッジ投影ヒストグラムの値が高いところを顔中心線から左右方向に探索することで顔の横幅を決定する。
【0026】
顔横幅が決定すると、次に顔中心線と顔横幅から顔縦幅検出処理部23において顔の縦幅を決定する。顔の縦幅を決定する場合、目の付近に横エッジが集中的に現れ、その下の頬の部分にはエッジがほとんど現れないことを利用して、目のy座標候補位置を検出し、その位置に基づいて顔の縦幅を決定する。その手法を次に説明する。
【0027】
図5は、顔中心線と目探索領域内の横エッジ投影ヒストグラムと縦横エッジ投影ヒストグラムの説明図である。
先ず、顔中心線と顔の横幅から目のy座標候補位置を探索するためのエッジ探索領域を決定する。図5に示すように、顔中心線のx座標をx0、被験者の右側の顔幅をR、左側の顔幅をLとすると、被験者の右側領域におけるエッジ探索領域は、
x0−(α*R+β)≦x≦x0−(γ*R+δ)…(1)
の範囲で現される領域である(但し、α,β,γ,δは定数)。同様に左側顔領域におけるエッジ探索領域は、
x0+(γ*L+δ)≦x≦x0+(α*L+β)…(2)
の範囲である。このように横幅によって探索範囲を設定することで、画像上の顔の大きさが異なっても対応できるようになる。
【0028】
次に、左右のエッジ探索領域内におけるエッジ情報を利用して目のy座標候補位置を決定する。その処理は図5に示すように、先ず、左右のエッジ探索領域内における横エッジを横方向に投影加算処理を行い、横エッジ投影ヒストグラムを作成する。同様に縦エッジと横エッジを横方向に投影加算処理を行い、縦横エッジ投影ヒストグラムも作成する。そのとき、目付近には目や眉によって横エッジが発生するため横エッジ投影ヒストグラムの値が高くなる。但し、横エッジ投影ヒストグラムは目・眉の位置以外にも服の襟付近や背景上に横方向の直線等がある場合にも高い値を示す結果となるため、目の下の頬の領域にはエッジがほとんど存在しないということを利用して、目のy座標候補位置を決定する。
【0029】
具体的には、横エッジ投影ヒストグラムの値が集中的に高くなった部分の下に、縦横エッジ投影ヒストグラムの値が集中的に低くなる部分を探索することで目のy軸上での候補位置を決定する。このような処理によって目のy座標候補位置が決定される。図5では直線y=y0の位置となる。
【0030】
目のy座標候補位置が決定すると、前に求められている顔の横幅情報も利用して顔の縦幅を決定する。具体的には図5の直線y=y1が顔領域の上限、直線y=y2が顔領域の下限を表している。このy1とy2の値は目のy座標候補位置y0と左右の顔幅LとRとから以下の式によって決定される。
【0031】
y1=y0−ε(R+L)+φ…(3)
y2=y0−ζ(R+L)+χ…(4)
【0032】
但し、ε,ζ,φ,χは定数を表す。この時、目のy座標候補位置y0は眼鏡のフレームのエッジによって本来の目のy座標からずれていることがあるため、y1とy2の位置はその可能性も考慮に入れて少し大きめになるように、ε,ζ,φ,χを設定した方が良い。ここで、顔の縦幅をHとするとHは以下の式から求められる。
H=y2−y1 …(5)
【0033】
顔縦幅検出処理部23までの処理で顔領域の横幅と縦幅が決定されたことになるが、顔中心線と横幅については再度検出処理を行う。これは、顔中心線検出処理と顔横幅検出処理は、探索領域を限定せず画像全体を処理対象にしているため、顔以外の領域の影響で本来の位置から若干ずれることがあるためである。
【0034】
そこで、顔縦幅検出処理部23までの処理で得られた顔領域を探索範囲として、顔中心線再検出処理部24と顔横幅再検出処理部25において、再度、顔中心線と顔横幅の検出処理を行う。
【0035】
顔中心線再検出処理部24では、顔縦幅検出処理部23で得られた顔の縦幅y=y1からy=y2までの領域内で、顔中心線検出処理部21で求められた顔中心線のx座標:x0の付近を顔中心線検出処理部21と同様のアルゴリズムで探索することによって顔中心線を計算し、顔中心線のx座標:x0′を再度求める。
【0036】
次に、顔横幅再検出処理部25では、顔中心線再検出処理部24で得られた顔中心線x=x0′に基づいて、顔縦幅検出処理部23で得られた顔の縦幅y=y1からy=y2までの領域内で、顔横幅検出処理部22と同様のアルゴリズムで顔の横幅を計算して、顔の左右の位置を再度求め、得られた右側の顔幅をR′、左側の顔幅をL′とする。
【0037】
最終的に顔領域検出部11では、これらの処理結果である顔領域情報、つまり顔の中心線位置と顔の上下左右の位置情報が得られ、これらの情報が濃淡画像とエッジ顔画像と共に次の顔領域分割部12に送られる。
【0038】
顔領域分割部12では、眼鏡の影響を受けずに安定して目の位置を検出するために顔領域を分割する。
図6は、左右の目領域と鼻領域の説明図である。
顔領域の分割は、図示のように、顔中心線及び顔領域の位置情報に基づいて顔領域を鼻領域、右目領域、左目領域に分割する。鼻領域は眼鏡検出に利用され、右目領域、左目領域は眼鏡の有無を反映して目の位置を決定するのに利用される。
【0039】
右目領域と左目領域の幅は顔領域検出部11で用いた式(1),(2)と同様に顔中心線のx座標によって決定される。但し、式(1),(2)では、顔中心線のx座標に顔中心線検出処理部21と顔横幅検出処理部22で得られたx0,R,Lを用いたが、ここでは顔中心線再検出処理部24で得られたx座標:x0′と顔横幅再検出処理部25で得られた左右の顔横幅:R′,L′を用いて、以下の式によって各領域の横幅を決定する。
x0′−(α*R′+β)≦x≦x0′−(γ*R′+δ)…(6)
x0′+(γ*L′+δ)≦x≦x0′+(α*L′+β)…(7)
【0040】
また、左右の目領域の縦幅については顔の縦幅Hより以下の式から求められる範囲とする。
y1≦y≦y1*ω+ψ …(8)
但し、ω,ψは定数である。また、鼻領域については、x0′,R′,L′に基づいて次の式から決定される。
x0′−(η*(R′+L′)+θ)≦x≦x0′+(η*(R′+L′)+θ) …(9)
y1≦y≦y2 …(10)
但し、η,θは定数を表す。そして、ここで得られた右目領域、左目領域、鼻領域の位置情報が、濃淡顔画像、エッジ顔画像、顔領域とあわせて次の目位置検出部13に送られる。
【0041】
目位置検出部13では、顔領域における右目領域、左目領域、鼻領域内の濃淡顔情報、エッジ顔情報を利用して、瞳中心の位置を決定する。
【0042】
図7は、目位置検出部13の構成及びその処理手順を示す説明図である。
図示のように、目位置検出部13は、瞳y座標候補位置検出処理部31、瞳x座標候補位置検出処理部32、瞳中心位置検出処理部33から構成されている。
【0043】
瞳y座標候補位置検出処理部31は、左右の目領域から瞳のy座標候補を決定する機能を有している。瞳x座標候補位置検出処理部32は、左右の顔横幅R′,L′と目の一般的な位置情報に基づいて瞳のx座標候補を決定する機能を有している。瞳中心位置検出処理部33は、瞳の候補位置の周辺を探索して瞳の中心位置を決定する機能を有している。以下に、それぞれの処理部における処理について詳しく説明する。
【0044】
瞳y座標候補位置検出処理部31では、先ず、左右の目領域における各画素毎に「目らしさ値」を計算する。目らしさ値は、次に示すような左右の目検出フィルタによるフィルタ処理を行うことで求められる。
【0045】
図8は、左右の目検出フィルタの説明図である。
図8の(a)(b)に示すような左右の目検出フィルタは、図8における(c)(d)に示す目のような領域、つまり中央の部分が黒く、その周りが白い部分で覆われている領域の中央において高い値を示すようになっている。但し、この左右の目検出フィルタにおいて、鼻に近い側の白い領域に対応する部分ではフィルタ処理を行っていない。これは、左右の目において鼻に近い側は白目の部分が画像上に明確に現れない場合が多いためである。
【0046】
また、図8(a)(b)の目検出フィルタでは、中央の黒い領域に対応する部分の大きさを3×3にして、その周りを1の幅で白い領域に対応するようにしているが、これは顔の大きさによって変化させることも可能である。また、黒い部分と白い部分のフィルタの重みを撮影環境に合わせて図8(e)(f)のように変化させることも可能である。このように、目検出フィルタによって目領域中の各画素での目らしさ値が求められ、瞳中心付近では目らしさ値が高くなる。
【0047】
目領域中の各画素での目らしさ値が求められると、この値を利用して瞳のy座標候補位置を求める。そのためには、左右の目領域中の各画素における目らしさ値を横方向に投影加算処理して目らしさ値投影ヒストグラムを作成する。この時、眼鏡をかけていない場合であれば、図5に示した横エッジ投影ヒストグラムのときと同様に瞳のy座標付近でヒストグラムの値が高くなるので、そこが瞳のy座標候補位置となる。
【0048】
しかし、眼鏡をかけている場合は、眼鏡の種類によってはフレーム部分でもヒストグラムの値が高くなる場合がある。
【0049】
図9は、眼鏡をかけた人の鼻領域における横エッジ投影ヒストグラムの説明図である。
このような眼鏡をかけている場合は、先ず、鼻領域における横エッジを利用して眼鏡検出処理を行う。そのためには、鼻領域における横エッジを横方向に投影加算処理を行って横エッジ投影ヒストグラムを作成する。眼鏡をかけている場合は、鼻領域を上から探索していくと目領域の縦幅に対応する範囲内に眼鏡のフレームの横エッジが最初に現れるので、その位置を眼鏡フレーム位置(y3)とする。そのとき目は、眼鏡フレーム位置より下の位置にある筈なので、眼鏡フレーム位置から決まった下の位置(y4:この値も顔の横幅によって決められる)までを瞳のy座標候補位置の探索範囲として、目らしさ値投影ヒストグラムの値を調べて、ある閾値以上で、かつ、最も高い値のy座標を瞳のy座標候補位置とする。ここで得られた左右の瞳のy座標をそれぞれyr,yl(但し、yr=yl)とする。
【0050】
左右の瞳のy座標候補位置が決まると、次に瞳x座標候補位置検出処理部32において、顔の横幅R′,L′と顔中心線からの一般的な目位置情報とから瞳のx座標を決定する。具体的には、左右の瞳のx座標をxr,xlとすると、xrとxlは以下の式から求められる。
xr=x0′−ιR′+κ
xl=x0′−ιL′+κ
ここで、ι,κは定数であり、この値は何人かの実測値データから決定される。
【0051】
ここまでの処理で求められる左右の瞳の候補座標(xr,yr)、(xl,yl)は投影加算処理による位置情報と一般的な目の位置情報に基づいて決定されているので、正確に瞳の中心にはなっていないことがある。そこで、次に瞳中心位置検出処理部33において、瞳の中心を検出する。
【0052】
瞳中心位置検出処理部33では、左右のそれぞれの瞳の候補位置(xr,yr)、(xl,yl)付近で、目らしさ値が最も高い位置(exr,eyr)、(exl,eyl)を検出することで行われる。このようにして得られた(exr,eyr)、(exl,eyl)を最終的な目位置として出力する。
【0053】
顔位置検出部14では、左右の瞳中心位置と鼻の位置とから顔の正確な位置を決定する。鼻の位置は、図9に示す鼻領域中の横エッジ投影ヒストグラムを利用して決定する。鼻領域中の横エッジ投影ヒストグラムでは、主に眼鏡フレーム、鼻、口の部分ではヒストグラムの値が高くなるが、ヒストグラムを上から探索していくと、鼻部分のエッジは瞳中心のy座標より下の位置で初めて高くなる位置に現れる特徴がある。そこで、瞳中心位置を探索の開始位置として下向きに鼻領域の横エッジ投影ヒストグラムを探索していき、投影ヒストグラムの値が閾値以上の値を初めに取る位置を鼻のy座標:nyとする。鼻のx座標は顔中心線のx座標であるx0′とする。
【0054】
そして、最後に、両目の位置と鼻の位置の3点から顔領域を決定する。
図10は、瞳中心と顔領域を示す説明図である。
顔領域の決定は、図10に示すように、両目の位置(exr,eyr)、(exl,eyl)の中点の座標を(fx0,fy0)として(fx0,fy0)から、両目(exr,eyr)、(exl,eyl)と、鼻(x0′,ny)までの距離をER,EL,Nとすると、顔領域は(Fxl,Fyl)を左上、(Fx2,Fy2)を右下の座標として以下の式から決定される。
【0055】
Fx1=λ*ER+σ
Fx2=λ*EL+σ
Fy1=μ*N+τ
Fy2=ν*N+υ
但し、λ,μ,ν,σ,τ,υは定数である。そして、最終的にこの位置情報が顔位置として出力される。
【0056】
〈効果〉
以上のように、具体例1によれば、顔領域の探索、目領域探索、目位置探索、顔位置探索と粗い探索から細かい探索(coarse-to-fine探索)を行うようにして最終的に目・顔位置を検出するので、高速に、かつ、安定して目位置、顔位置を検出することができる。また、顔領域探索など粗い探索では入力画像をある程度間引いた画像に対して処理を行っても有効であり、その場合更に処理時間の短縮が可能となる。
【0057】
また、顔中心線検出処理や各領域検出処理においては、入力画像の画素値そのものよりもエッジ情報など各画素間の相対情報に基づいて探索処理を行うので、撮影環境が変化しても、安定して検出処理を行うことができる。
【0058】
しかも、顔領域を縦方向に左目領域、右目領域、鼻領域と分割して処理を行うことで、眼鏡の検出が容易となり、安定した目の検出に役立つ。
【0059】
尚、上記具体例1では、濃淡画像を利用するとして説明したが、カラー画像を利用することも可能である。その場合の処理時間は、濃淡画像に比べて増大するが、カラーの情報を利用できる分、顔の中心線を検出する処理、瞳の中心を検出する処理などの精度を向上させることができる。
【0060】
《具体例2》
〈構成〉
図11は、本発明の目位置及び顔位置検出装置の具体例2の構成図である。
図示の装置は、TVカメラ201、エッジ検出部102、目・顔位置検出部203、オートフォーカス制御部204からなる。また、目・顔位置検出部203は、顔領域検出部41、顔領域分割部12、目位置検出部13、顔位置検出部14から構成されている。ここで、エッジ検出部102と、目・顔位置検出部203における顔領域分割部12〜顔位置検出部14は、具体例1の構成と同様であるため、同一符号を付してその説明を省略する。
【0061】
具体例2が具体例1と異なる点は、オートフォーカス制御部204が新たに加わり、その処理結果がTVカメラ201の制御と顔領域検出部41において利用される点である。即ち、具体例2では具体例1の構成にオートフォーカス制御部204を加えることでカメラの制御を行い、なおかつそのカメラの制御時の情報を利用して被撮影者までの距離を求めてその情報から顔候補領域を決定するようにしている点を特徴とするものである。ここで、オートフォーカス制御部204は、エッジ検出部102で検出した縦方向のエッジ画像データと横方向のエッジ画像データに基づいてTVカメラ201のオートフォーカス制御を行うと共に被験者迄の距離を求める機能を有している。また、目・顔位置検出部203は、オートフォーカス制御部204で得られた被験者迄の距離情報を用いて、画像データとエッジ画像データから目及び顔位置を検出する機能を有している。
【0062】
〈動作〉
以下、図11に示す目位置及び顔位置検出装置の動作を詳細に説明する。
先ず、TVカメラ201で撮影された濃淡顔画像はエッジ検出部102に送られ、具体例1と同様に縦エッジ画像と横エッジ画像を作成する。ここで生成された二つのエッジ顔画像はオートフォーカス制御部204と目・顔位置検出部203に送られる。また、目・顔位置検出部203には具体例1と同様に濃淡顔画像もあわせて送られる。
【0063】
オートフォーカス制御部204では、エッジ検出部102から送られてくる縦エッジ顔画像と横エッジ顔画像の情報を用いてカメラの焦点制御を行う。その焦点制御の手順は、例えば、特願平10−275040号明細書に記載された焦点制御アルゴリズムを用いて行うことができる。即ち、画像のコントラストが最大となる結像系の位置までの移動量を、撮影された画像のコントラストに関する評価値の関数として予め設定し、画像のコントラストが最大となる結像系の位置までの移動量を求める場合は、先ず、TVカメラ201で撮影される画像の評価値を求め、次に、この評価値から前記の関数に基づいてその移動量を決定するものである。ここで、エッジ検出部102から送られてくる縦エッジ顔画像と横エッジ顔画像の情報は、画像のコントラストを示す値に相当するため、この値を用いて焦点制御と被験者迄の距離を算出することができる。
【0064】
尚、オートフォーカス制御部204におけるカメラの焦点制御と被験者迄の距離算出処理については、エッジ検出部102から送られてくる縦エッジ顔画像と横エッジ顔画像の情報を用いるものであれば、他の手法を用いてもよい。
【0065】
このような焦点制御処理によって被験者までの距離が推定され、その推定された距離情報によってカメラのフォーカス位置が決定され、TVカメラ201ではそのフォーカス位置への制御を行う。また、この被験者までの距離情報は、目・顔位置検出部203における顔領域検出部41の中で顔領域を検出するのにも使われる。
【0066】
目・顔位置検出部203では、具体例1と同様に顔領域検出部41で顔の領域を検出し、その検出された顔領域を顔領域分割部12で分割し、目位置検出部13で目の位置を検出してその結果を出力する。また、目位置検出部13の結果を利用して顔位置検出部14で顔位置を決定してその位置情報を出力する。ここでは、顔領域検出部41の動作のみが具体例1と異なり、その他の処理部は具体例1と同様の処理を行うので、顔領域検出部41の動作について以下に詳しく説明する。
【0067】
図12は、顔領域検出部41の構成及びその処理手順を示す説明図である。
図示のように、顔領域検出部41は、顔中心線検出処理部21、顔横幅検出処理部52、顔縦幅検出処理部23、顔中心線再検出処理部24、顔横幅再検出処理部55からなる。
【0068】
顔領域検出部41が具体例1における顔領域検出部11と異なるのは、顔横幅検出処理部52と顔横幅再検出処理部55において顔領域を決定する場合に、オートフォーカス制御部204から得られる被験者までの距離を利用する点にある。
【0069】
具体例1では、顔横幅検出処理部22において、縦エッジ画像を縦方向に投影加算処理を行い、縦エッジが集中的に現れるx座標を検出することで顔の横幅を決定した。一方、具体例2では、オートフォーカス制御部204から得られる被験者までの距離情報と顔中心線検出処理部21で求められた顔中心線に基づいて、顔横幅検出処理部52において人の一般的な横幅情報を利用して顔の横幅を決定する。
【0070】
具体的には、被験者の右側の顔幅をR、左側の顔幅をL、カメラから被験者までの距離をDとし、人の一般的な顔幅をFとすると、L,Rは以下の式から求められる。
L=(ξD+ο)F+ρ
R=(ξD+ο)F+ρ
但し、ξ,ο,ρは定数である。この式から分かるように、ここではL=Rとなる。
【0071】
このようにして求められた左右の顔の横幅L,Rを利用して、顔縦幅検出処理部23で具体例1と同様な処理を行い、顔の縦幅を決定し、更に、顔横幅再検出処理部55では、再度求められた顔中心線が前に求めた顔中心線からずれた場合に、そのずれの分のみ補正して、顔の横の位置を決定する。この時、顔の左右の横幅のR,Lの長さは変化しないため、
R′=R
L′=L
となる。
【0072】
左右の顔の横幅L′,R′が求められると、後は具体例1と同様の処理を行うことで、目、顔の位置が検出される。
【0073】
〈効果〉
以上のように具体例2によれば、エッジ画像をオートフォーカス制御に利用し、なおかつ、オートフォーカス制御によって得られる被験者までの距離情報を利用して顔領域を決定するので、オートフォーカスと顔領域を決定する処理が高速に行え、なおかつ、具体例1で述べた利点も活かせるため、より高速に目と顔の位置を検出することができる。
【0074】
《利用形態》
以上の具体例では、各処理において値を求める場合、多くのパラメータ(各具体例においてギリシャ文字で表している)を利用しているが、これらのパラメータは撮影条件で決定されるので、明るさなど撮影条件を数値化することで、これらのパラメータの値をある程度自動的に決定することが可能である。
【0075】
また、顔領域検出部11では、例えば、特願平7−349152号明細書に示されているように、傾いた顔の中心線を検出することも可能である。そのように顔が傾いていることが検出された場合、その傾きに応じて濃淡顔画像、縦エッジ顔画像、横エッジ顔画像も傾けて目及び顔位置検出処理を行うことで、顔が傾いている顔画像からも目及び顔の位置を検出することができる。
【図面の簡単な説明】
【図1】本発明の目位置及び顔位置検出装置の具体例1を示す構成図である。
【図2】縦エッジ検出フィルタと横エッジ検出フィルタの説明図である。
【図3】顔領域検出部における各機能部の構成とその処理手順を示す説明図である。
【図4】顔中心線と縦エッジ投影ヒストグラムの説明図である。
【図5】顔中心線と目探索領域内の横エッジ投影ヒストグラムと縦横エッジ投影ヒストグラムの説明図である。
【図6】左右の目領域と鼻領域の説明図である。
【図7】目位置検出部の構成及びその処理手順を示す説明図である。
【図8】左右の目検出フィルタの説明図である。
【図9】眼鏡をかけた人の鼻領域における横エッジ投影ヒストグラムの説明図である。
【図10】瞳中心と顔領域を示す説明図である。
【図11】本発明の目位置及び顔位置検出装置の具体例2の構成図である。
【図12】具体例2の顔領域検出部の構成及びその処理手順を示す説明図である。
【符号の説明】
11、41 顔領域検出部
12 顔領域分割部
13 目位置検出部
14 顔位置検出部
21 顔中心線検出処理部
22、52 顔横幅検出処理部
23 顔縦幅検出処理部
24 顔中心線再検出処理部
25、55 顔横幅再検出処理部
102 エッジ検出部
201 TVカメラ
Claims (7)
- 被験者を撮影して得た顔画像からエッジ顔画像を生成するエッジ検出部と、
前記顔画像の濃淡に基づいて顔の中心線を検出する顔中心線検出処理部と、
前記顔中心線と前記エッジ顔画像から顔の左右の横幅を決定する顔横幅検出処理部と、
前記顔中心線と前記左右の横幅及び前記エッジ顔画像から顔の縦幅を決定する顔縦幅検出処理部と、
前記エッジ顔画像の前記顔の縦幅の領域内において顔の中心線を再度、検出する顔中心線再検出処理部と、
前記再検出された顔の中心線と前記エッジ顔画像の前記顔の縦幅の領域から顔の左右の横幅を再度、決定する顔横幅再検出処理部と、
前記再検出された顔の中心線と前記再決定された顔の左右の横幅及び前記顔の縦幅とに基づいて前記エッジ顔画像の顔領域を左目領域と右目領域及び鼻領域に分割する顔領域分割部と、
前記左右の目領域及び鼻領域に基づいて前記顔画像の対応する領域から各領域エッジ画像を生成し、各領域エッジ画像から左右の目位置及び鼻位置を検出する目位置検出部と、
前記検出した左右の目位置及び鼻位置から顔位置を検出する顔位置検出部と、
を含むことを特徴とする目位置及び顔位置検出装置。 - 請求項1に記載の目位置及び顔位置検出装置において、
前記顔縦幅検出処理部は、
前記顔中心線と顔横幅に基づいて決定した前記エッジ顔画像のエッジ探索領域内で、上側に横エッジが集中的に現れ、その下側に横エッジと縦エッジがほとんど存在しない領域を探索することで目のy座標候補位置を決定し、その位置に基づいて顔の縦幅を決定するよう構成されていることを特徴とする目位置及び顔位置検出装置。 - 請求項1に記載の目位置及び顔位置検出装置において、
前記目位置検出部は、
前記鼻領域エッジ画像から眼鏡を検出すると左右の目領域エッジ画像の探索する範囲を絞り込み、該絞り込まれた左目探索領域と右目探索領域からそれぞれ左目と右目の位置を検出するよう構成されていることを特徴とする目位置及び顔位置検出装置。 - 請求項1又は3に記載の目位置及び顔位置検出装置において、
前記目位置検出部は、
特定の領域の画素値が他の領域の画素値より高い値を示す目検出フィルタによって前記顔画像の各画素の目らしさ値を求め、当該目らしさ値を横方向に投影加算処理して目らしさ値投影ヒストグラムを作成し、このヒストグラムに基づいて瞳のy座標候補位置を決定するよう構成されていることを特徴とする目位置及び顔位置検出装置。 - 請求項4に記載の目位置及び顔位置検出装置において、
前記目位置検出部は、
前記目らしさ値投影ヒストグラムに基づいて決定された瞳のy座標候補位置と、再検出された顔中心線及び顔横幅によって検出される瞳のx座標候補位置とから決定される瞳の候補位置の付近で、目検出フィルタによる目らしさ値が最も高い値を取る位置を瞳中心とするよう構成されていることを特徴とする目位置及び顔位置検出装置。 - 請求項4または5に記載の目位置及び顔位置検出装置において、
前記目検出フィルタは、中央部が黒くその周りが白い部分で覆われている領域の中央の部分に対して高い値となるよう構成されていることを特徴とする目位置及び顔位置検出装置。 - 請求項1に記載の目位置及び顔位置検出装置において、
前記エッジ検出部は前記顔画像から横方向と縦方向の各エッジ顔画像を生成し、
該各エッジ顔画像に基づいて前記被験者とカメラ間の距離を算出し、該カメラの焦点制御を行うオートフォーカス制御部を更に含むことを特徴とする目位置及び顔位置検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14928199A JP3926507B2 (ja) | 1999-05-28 | 1999-05-28 | 目位置及び顔位置検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14928199A JP3926507B2 (ja) | 1999-05-28 | 1999-05-28 | 目位置及び顔位置検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000339476A JP2000339476A (ja) | 2000-12-08 |
JP3926507B2 true JP3926507B2 (ja) | 2007-06-06 |
Family
ID=15471783
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14928199A Expired - Fee Related JP3926507B2 (ja) | 1999-05-28 | 1999-05-28 | 目位置及び顔位置検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3926507B2 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4543810B2 (ja) * | 2004-07-28 | 2010-09-15 | 日産自動車株式会社 | 鼻検出装置 |
JP4130820B2 (ja) * | 2004-08-27 | 2008-08-06 | 株式会社豊田中央研究所 | 顔中心位置検出装置及び方法並びにプログラム |
JP4180027B2 (ja) * | 2004-08-27 | 2008-11-12 | 株式会社豊田中央研究所 | 顔部品位置検出装置及び方法並びにプログラム |
KR100664956B1 (ko) * | 2004-11-24 | 2007-01-04 | 삼성전자주식회사 | 눈 검출 방법 및 장치 |
JP4622544B2 (ja) | 2005-01-27 | 2011-02-02 | アイシン精機株式会社 | 車両の運転支援装置 |
JP2006330959A (ja) * | 2005-05-25 | 2006-12-07 | Noritsu Koki Co Ltd | 瞳補正処理装置及びその方法 |
JP2007025758A (ja) * | 2005-07-12 | 2007-02-01 | Gen Tec:Kk | 人の顔画像抽出方法及び同装置 |
JP4825473B2 (ja) * | 2005-09-05 | 2011-11-30 | アイシン精機株式会社 | 顔向き判別装置 |
JP4771139B2 (ja) * | 2006-02-14 | 2011-09-14 | オムロン株式会社 | 異常検出装置および方法、記録媒体、並びに、プログラム |
US7860280B2 (en) * | 2006-06-09 | 2010-12-28 | Samsung Electronics Co., Ltd. | Facial feature detection method and device |
KR100857463B1 (ko) * | 2006-11-17 | 2008-09-08 | 주식회사신도리코 | 포토프린팅을 위한 얼굴영역 검출장치 및 보정 방법 |
JP4895874B2 (ja) * | 2007-03-15 | 2012-03-14 | アイシン精機株式会社 | 目状態判別装置、目状態判別方法及び目状態判別プログラム |
JP4895876B2 (ja) * | 2007-03-15 | 2012-03-14 | アイシン精機株式会社 | 眼検出装置及びプログラム |
JP4848302B2 (ja) * | 2007-03-15 | 2011-12-28 | アイシン精機株式会社 | 目検出装置、目検出方法およびプログラム |
JP4852454B2 (ja) * | 2007-03-19 | 2012-01-11 | 株式会社豊田中央研究所 | 目傾き検出装置及びプログラム |
JP4912206B2 (ja) * | 2007-04-18 | 2012-04-11 | 富士通株式会社 | 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム |
KR100903096B1 (ko) | 2007-06-27 | 2009-06-16 | 포항공과대학교 산학협력단 | 눈 검증 및 눈 위치 보정을 이용한 눈 검출 방법 |
JP4985510B2 (ja) * | 2008-03-25 | 2012-07-25 | セイコーエプソン株式会社 | 対象画像における顔の画像に対応する顔領域の設定 |
JP5276381B2 (ja) * | 2008-08-27 | 2013-08-28 | 安川情報システム株式会社 | 眼部領域検出装置、眼部領域検出方法および眼部領域検出プログラム |
JP5178441B2 (ja) | 2008-10-14 | 2013-04-10 | 三洋電機株式会社 | 電子カメラ |
JP5482080B2 (ja) * | 2009-10-14 | 2014-04-23 | 富士通株式会社 | 手認識装置 |
WO2013122009A1 (ja) * | 2012-02-16 | 2013-08-22 | 日本電気株式会社 | 信頼度取得装置、信頼度取得方法および信頼度取得プログラム |
CN111367405A (zh) * | 2020-02-17 | 2020-07-03 | 深圳岱仕科技有限公司 | 头戴显示设备的调整方法、装置、计算机设备及存储介质 |
-
1999
- 1999-05-28 JP JP14928199A patent/JP3926507B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000339476A (ja) | 2000-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3926507B2 (ja) | 目位置及び顔位置検出装置 | |
JP4238542B2 (ja) | 顔向き推定装置および顔向き推定方法ならびに顔向き推定プログラム | |
JP4912206B2 (ja) | 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム | |
JP4845698B2 (ja) | 眼部検出装置、眼部検出方法及びプログラム | |
JP4445454B2 (ja) | 顔中心位置検出装置、顔中心位置検出方法、及び、プログラム | |
US8406479B2 (en) | Visual axis direction detection device and visual line direction detection method | |
JP3761059B2 (ja) | ヒトの顔を検出する方法および装置、ならびに観察者トラッキングディスプレイ | |
JP5359266B2 (ja) | 顔認識装置、顔認識方法及び顔認識プログラム | |
JP4830650B2 (ja) | 追跡装置 | |
JP6550642B2 (ja) | 皺検出装置および皺検出方法 | |
JP2019527448A (ja) | 車両の運転者の状態を監視するための方法及びシステム | |
JP5728080B2 (ja) | 瞼検出装置、瞼検出方法及びプログラム | |
KR20000076473A (ko) | 안화상처리장치 | |
JP5737401B2 (ja) | 瞼検出装置 | |
JP4082203B2 (ja) | 開閉眼判定装置 | |
JP2003271932A (ja) | 視線方向検出装置 | |
JP2004038531A (ja) | 物体の位置検出方法および物体の位置検出装置 | |
JP4696571B2 (ja) | 眼位置検出装置 | |
JP2007151798A (ja) | 開閉眼判定装置及び方法 | |
JP6697006B2 (ja) | 情報生成装置、情報生成方法、情報生成プログラム及び記録媒体 | |
JP4996943B2 (ja) | 顔特徴点検出装置、顔特徴点検出方法及びプログラム | |
JP2005339389A (ja) | 画像処理方法および画像処理装置 | |
JP2005115618A (ja) | 物体検出装置及び物体検出方法 | |
JP2009003644A (ja) | 開眼度判定装置 | |
JP2004255074A (ja) | 視線方向検出装置および視線方向検出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061017 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070228 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100309 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110309 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110309 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120309 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130309 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140309 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |