JP2004038531A - Method and device for detecting position of object - Google Patents

Method and device for detecting position of object Download PDF

Info

Publication number
JP2004038531A
JP2004038531A JP2002194288A JP2002194288A JP2004038531A JP 2004038531 A JP2004038531 A JP 2004038531A JP 2002194288 A JP2002194288 A JP 2002194288A JP 2002194288 A JP2002194288 A JP 2002194288A JP 2004038531 A JP2004038531 A JP 2004038531A
Authority
JP
Japan
Prior art keywords
image
distance
distance image
nose
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002194288A
Other languages
Japanese (ja)
Inventor
Kenji Kondo
近藤 堅司
Takeo Azuma
吾妻 健夫
Kenya Uomori
魚森 謙也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2002194288A priority Critical patent/JP2004038531A/en
Publication of JP2004038531A publication Critical patent/JP2004038531A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To detect the position of an object more precisely than usual by using a luminance image in combination with a distance image. <P>SOLUTION: The distance image of a person's face is obtained by a range finder and so on (S231), and the position of a nose is found in the distance image (S232). The luminance image, each of whose coordinates is associated with the distance image, is obtained (S233), and then the positions of eyes are found in the luminance image (S234). Then, the positions of the eyes are finally determined by referring to relative positional relations between the eyes and the nose (S235). <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、画像から、人間の目のような特定の物体の位置を検出する技術に属する。
【0002】
【従来の技術】
近年、様々な技術分野において、人間の目などの顔部品の位置を精度良く検出できることへのニーズが、高まっている。その代表的なものに、生体情報を用いた個人認証(バイオメトリクス個人認証)技術がある。
【0003】
例えば、虹彩認証では、2カメラ構成の虹彩認識システムが提案されている(特開平10−40386号公報参照)。このシステムでは、第1のカメラで顔全体を撮影し、撮影された顔画像を解析して目の位置を検出する。次に、第2のカメラを機械的に制御して、検出された目の位置に向けて、虹彩の拡大画像を得る。このシステムでは、被認証者は単に装置の前に立つだけでよいので、認証動作を楽に行うことができる。ただし、目の位置を高精度に検出できることが必要条件となる。
【0004】
また、顔認証では、通常、顔を含む画像中から目を含む顔の特徴点を検出し、その特徴点を基に顔位置と大きさを正規化した後、顔認証を行っている。このため、顔認証を精度良く行うためには、目を含む顔の特徴点の位置を高精度に検出することが必要条件となる。
【0005】
個人認証以外の分野でも、例えば、視線検出や居眠り検知などの用途では、目位置を検出する必要がある。
【0006】
ところで、目位置検出方式の多くは、局所的な目のテンプレートを用いてマッチングを行っているため、目に似た形状の眉や、眼鏡のフレーム、口等を誤って目と認識してしまう可能性が高いという問題がある。
【0007】
この問題に対して、まず鼻の位置を検出し、鼻の位置から目の探索領域を決定し、その探索領域内から目の位置を検出するという方式が提案されている。すなわち、探索領域を限定することによって、目の誤検出を減らすというものである。例えば、特開2000−105829号公報では、鼻画像のテンプレートを用いてマッチングを行い鼻の位置を検出し、鼻の位置よりも上を目の探索領域として設定している。また特開2000−193420号公報では、顔の斜め方向から照明を照射して顔画像を撮影し、顔画像中からエッジ情報を利用して鼻筋を検出する。そして鼻筋の上方に、目の探索領域を設定している。
【0008】
【発明が解決しようとする課題】
ところが、これら従来の方法では、輝度画像における鼻の画像は、照明の方向によって大きく変動するため、鼻の位置を正確に検出するためには、一定の照明環境を必要としていた。このため、精度の高い検出を実現するためには、システムの使用条件が大きく制限されてしまうことになり、あまり汎用的ではない。
【0009】
前記の問題に鑑み、本発明は、画像から、物体の位置を、従来よりも精度良く、検出できるようにすることを課題とする。
【0010】
【発明を解決するための手段】
前記の課題を解決するために、請求項1の発明が講じた解決手段は、物体の位置検出方法として、被写体について距離画像を得るステップと、前記被写体について、前記距離画像と各座標が対応付けられた輝度画像を得るステップと、前記距離画像において第1の物体の位置を探索するとともに、前記輝度画像において第2の物体の位置を探索するステップとを備え、前記探索ステップにおいて、前記第1および第2の物体の相対的な位置関係の情報を参照して、前記第1および第2の物体の少なくともいずれか一方の2次元位置を決定するものである。
【0011】
請求項1の発明によると、距離画像において第1の物体が探索されるとともに、輝度画像において第2の物体が探索される。そして、その両者の相対的な位置関係の情報を参照して、第1および第2の物体の少なくともいずれか一方の位置が最終的に決定される。すなわち、立体形状に特徴があり距離画像で探索が容易な第1の物体と、輝度に特徴があり輝度画像で探索が容易な第2の物体とについて、相対的な位置関係が既知であるとき、高精度に、その位置を検出することができる。
【0012】
請求項2の発明では、前記請求項1における探索ステップにおいて、前記第1の物体の探索の結果得られた位置候補に応じて前記輝度画像における探索領域を絞り込み、この絞り込まれた探索領域において前記第2の物体の位置を探索するものとする。
【0013】
請求項2の発明によると、第1の物体の位置候補に応じて、輝度画像における第2の物体の探索領域が絞り込まれるので、輝度画像の探索における処理量を削減することができるとともに、誤検出を減らすことができる。
【0014】
請求項3の発明では、前記請求項1において、2次元位置が決定された前記第1および第2の物体の少なくともいずれか一方について、前記距離画像と決定された2次元位置とを用いて、3次元位置を決定するステップを備えたものとする。
【0015】
請求項4の発明では、前記請求項1において、前記被写体は人物であり、前記第1の物体は鼻であり、前記第2の物体は目であるものとする。
【0016】
請求項5の発明では、前記請求項4において、目の距離値を、距離画像における頬周辺の距離値を用いて決定するステップを備えたものとする。
【0017】
請求項6の発明では、前記請求項1の探索ステップにおいて、前記第1の物体の位置の探索を、前記距離画像と前記第1の物体の距離値から構成された距離テンプレートとのマッチングによって行うものとする。
【0018】
請求項7の発明では、前記請求項6において、前記距離画像から前記被写体の概略距離を算出し、この概略距離と、前記距離画像を撮影したカメラの画角と、前記第1の物体の推定サイズとを基にして、前記距離テンプレートのサイズを決定するステップを備えたものとする。
【0019】
また、請求項8の発明が講じた解決手段は、物体の位置検出装置として、被写体について距離画像を取得する距離画像取得部と、前記被写体について前記距離画像と各座標が対応付けられた輝度画像を取得する輝度画像取得部と、前記距離画像において第1の物体の位置を探索するとともに、前記輝度画像において第2の物体の位置を探索する探索部とを備え、前記探索部は、前記第1および第2の物体の相対的な位置関係の情報を参照して、前記第1および第2の物体の少なくともいずれか一方の2次元位置を決定するものである。
【0020】
請求項8の発明によると、距離画像において第1の物体が探索されるとともに、輝度画像において第2の物体が探索される。そして、その両者の相対的な位置関係の情報を参照して、第1および第2の物体の少なくともいずれか一方の位置が最終的に決定される。すなわち、立体形状に特徴があり距離画像で探索が容易な第1の物体と、輝度に特徴があり輝度画像で探索が容易な第2の物体とについて、相対的な位置関係が既知であるとき、高精度に、その位置を検出することができる。
【0021】
請求項9の発明では、前記請求項8における探索部は、前記第1の物体の探索の結果得られた位置候補に応じて前記輝度画像における探索領域を絞り込み、この絞り込まれた探索領域において前記第2の物体の位置を探索するものとする。
【0022】
請求項10の発明では、前記請求項8において、前記距離画像取得部は、レンジファインダを備えており、前記レンジファインダは、複数の光源が配列された光源アレイ部と、前記光源アレイ部の各光源の発光様態を制御することによって、前記光源アレイ部から少なくとも2種類の光パタンを投射させる光源制御部と、前記光源アレイ部から投射された各光パタンに対する前記被写体からの反射光をそれぞれ原輝度画像として撮影するカメラと、前記カメラによって撮像された原輝度画像から前記距離画像を得る画像処理部とを備えたものとし、前記輝度画像取得部は、前記レンジファインダの前記カメラによって撮像された原輝度画像の少なくとも1つから前記輝度画像を得るものとする。
【0023】
また、請求項11の発明が講じた解決手段は、物体の位置検出方法として、被写体について距離画像を得るステップと、前記距離画像において物体の位置を探索するステップとを備え、前記探索ステップにおいて、前記物体の位置の探索を、前記距離画像と前記物体の距離値から構成された距離テンプレートとのマッチングによって行うものである。
【0024】
請求項11の発明によると、距離画像における物体の位置検出を、距離テンプレートを用いたマッチングによって行うので、従来よりも検出精度を向上させることができる。
【0025】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照して説明する。
【0026】
図1は本発明の一実施形態に係る虹彩認証装置の正面図、図2は図1の虹彩認証装置10によって、その前面に位置する被写体としての人物PPの虹彩認証を行う様子を示す図である。本実施形態では、虹彩認証装置10内のレンジファインダ装置によって得た人物PPの顔の距離画像から、第1の物体としての鼻NSの位置を探索し、この鼻NSの位置を参照して第2の物体としての目EYの3次元位置を求めて、虹彩認証を行うものとする。
【0027】
図1および図2に示すように、虹彩認証装置10は、広角カメラ用照明101、広角カメラ102および虹彩撮影ユニット105を備えている。虹彩撮影ユニット105は可動であり、内部に、望遠カメラ用照明103および望遠カメラ104が固定されている。虹彩撮影ユニット105は、望遠カメラ用照明103と望遠カメラ104の相対位置関係を変えることなく、照明(撮影)する方向を変化させることができる。
【0028】
本実施形態では、広角カメラ用照明101と広角カメラ102、およびこれらの制御に係る部分が、被写体の3次元位置を測定するレンジファインダ100として機能する。図3はこのレンジファインダ100を含む、本実施形態に係る物体位置検出装置の構成を機能的に示すブロック図である。本実施形態に係る距離画像取得部は、照明101,カメラ102,光源制御部106および画像処理部107を有するレンジファインダ100を備えている。また、画像処理部107は、カメラ102によって撮像された原輝度画像から、距離画像および輝度画像を得るものであり、距離画像取得部を構成するとともに、輝度画像取得部を構成する。探索部108は、距離画像から鼻NSの位置を探索するとともに、輝度画像から目EYの位置を探索し、鼻NSと目EYの相対的な位置関係の情報を参照して、例えば、鼻NSと目EYの相対的な位置関係の事前知識を利用して、目EYの位置を最終的に決定する。
【0029】
広角カメラ用照明101は、光源としてのLED11が複数個配列された光源アレイ部によって構成されている。図1において、各LED11は○印で表されており、広角カメラ用照明101は11×11個のLED11によって構成されている。また、広角カメラ102はVGA画素数(横480画素×縦640画素)を有しており、縦長の視野が得られるように設置される。この広角カメラ102によって、図4に示すような人物PPの顔を含む上半身画像が撮影される。
【0030】
光源制御部106は、広角カメラ用照明101に対して、LED毎に(例えばアレイの列または行毎に)、PWM(Pulse Width Modulation)によって発光時間を制御することができる。広角カメラ102の露出時間内において、発光時間が長いほどのべ光量が大きくなるので、発光時間の制御によって、任意の光パタンの生成が可能となる。
【0031】
ここでは、行(水平方向)毎に発光時間を制御するものとする。この場合には、光パタンにおいて、図2における垂直方向に変調がかかることになる。また光源制御部106は、カメラの露出タイミング(露出時間)に合わせて、2種類の光パタンを切り替える。図5は発光時間の制御によって生成した2種類の光パタンを示す図である。同図中、(a)はLEDの発光時間を行番号に従って単調に増加させる光パタンAであり、(b)はLEDの発光時間を行番号に従って単調に減少させる光パタンBである。光源制御部106は照明101から図5のような2種類のパタンを照射させる。
【0032】
図1および図2に示す虹彩認証装置10の動作について、図6〜図8のフローチャートに従って、説明する。
【0033】
まずステップS10において、広角カメラ用照明101は図5に示すような2種類の光パタンを照射し、広角カメラ102はこの2種類の光パタンに対する反射光画像を原輝度画像としてそれぞれ撮影する。図9は広角カメラ102の露出タイミングと広角カメラ用照明101から投射される光パタンとの関係を示す図である。画像処理部107は、照明101から光パタンA,Bがそれぞれ投射されたときの2枚の原輝度画像から、距離画像を生成する。光源アレイを用いたレンジファインダの距離計測の原理については、特願2001−286646に示されており、ここでは説明を省略する。
【0034】
次にステップS20において、目の3次元位置を計算する。図7はステップS20の詳細を示す。まずステップS21において、人物の奥行き値を推定する。具体的には、画像処理部107は、横480画素×縦640画素の距離画像について、全画素の距離値のヒストグラムを求め、このヒストグラムから、人物PPをカメラ102の光軸と垂直な平面と見做した場合の、カメラ102からの距離を推定する。
【0035】
図10は人物PPがカメラ102から約60cmの距離にいる場合の距離画像から得た距離値ヒストグラムの一例である。図10において、縦軸は頻度(画素数)、横軸は距離値であり、5cm毎に階級化している。図10のデータでは、60〜65cmの階級において頻度が最大になっている。
【0036】
次に、距離画像について、距離値ヒストグラムを参照して二値化を行う。ここで、頻度が最大の階級の下限値と上限値の平均値を、代表値dmとする。図10の例では、dm=62.5(cm)となる。そして、距離画像の各座標(距離値d)について、
dm−a<d<dm+a のとき “1”
それ以外(計測不能点含む)は、 “0”
のように二値化を行う。aは所定の値であり、ここではa=10cmとする。
【0037】
図11は二値化された距離画像の例である。図11では、二値化の結果‘1’の領域を白、‘0’の領域を黒で表現している。なお、頭髪、黒色の眼鏡フレーム、目、眉など反射率の小さい領域や、首、衣服のしわ部など影が生じる領域では、距離がうまく測定できないため、二値化の際に背景領域すなわち‘0’に決定されている。
【0038】
本実施形態では、奥行き値を用いて人物領域の切り出しを行うため、カメラの視野内に複数の人物が映っていても、このような簡易な方法で、距離値を基に人物を抽出することができる。もちろん、他の方法、例えば輝度画像を用いて人物領域の切り出しを行うような方法を採用してもよい。
【0039】
次にステップS22において、人物の顔領域を推定する。人物の顔領域の推定には、図11に示したような奥行き二値化画像を用いる。ここで、顔領域は、少なくとも両目と鼻を含む領域と定義する。
【0040】
まず図12のように、二値距離データを水平方向に射影し、ヒストグラムH1(y)を作成する。そして、ヒストグラムH1(y)を用いて、顔領域の上下範囲を決定する。
【0041】
ここで、図10のヒストグラムからカメラと人物との間の距離は62.5(cm)と推定された。そして、顔の大きさは人物によらず一定であると仮定し、カメラの画角を既知とすれば、画像内における顔の大きさは推定可能である。推定した顔幅をw1とすると、顔の上側の境界ytは、ヒストグラムH1(y)>w1×b(例えばb=0.1)を満たす最小のyと決定することができる。そして、顔の上側の境界ytから、少なくとも鼻全体までが範囲に入るように、顔幅w1の定数倍の距離だけ下方に移動した位置を、顔の下側の境界ybとして決定する。すなわち、
yb=yt+w1×c (c=1.2)
本実施形態では、照明の反射光を用いて距離を測定しているため、髪の毛等の反射率の小さい領域は計測できない。よって、顔の上側の境界ytは、額が広いか狭いか、または、髪の毛が額にかかっているか否かによって、大きく異なる。そこでここでは、定数cは頭頂が境界ytと決定された場合でも、顔領域に鼻が含まれるような値に設定した。決定された顔の上下位置を図13に示す。
【0042】
なお、目の位置を検出して虹彩認証を行うためには、顔領域は、少なくとも目の位置を含むように設定されればよい。これに対して、本実施形態において、顔領域を、目だけでなく鼻も含まれるように決定したのは、距離画像を用いて鼻位置を検出すれば、眼鼻の位置関係を用いて眼位置の検出精度を向上させることができるからである。また、鼻位置を利用して眼位置の探索領域を絞り込むことができるからである。
【0043】
次に、顔の左右の位置を決定する。図14のように、上下位置が決定された顔領域の二値画像を、垂直方向に射影してヒストグラムH2(x)を作成する。そして、
H2(x)>(yb−yt+1)/3
となる最小のxを顔の左位置xlとし、
H2(x)>(yb−yt+1)/3
を満たす最大のxを顔の右位置xrとする。このようにして決定された顔領域を図15に示す。
【0044】
なお、ここでは、距離画像のみを利用して簡易に顔領域を検出する方法を説明したが、もちろん他の方法でもよい。例えば、後述するような方法によって輝度画像を作成し、輝度画像における顔の平均画像を顔テンプレートとして、輝度画像中から顔領域を探索してもよい。この場合は、顔のテンプレートサイズは、人物までの奥行き値から決定できる。また、輝度画像において、図11のような距離画像から算出した人物領域のみを探索すればよいため、探索に要する処理量を低減することが可能である。
【0045】
次にステップS23において、ステップS22で推定した顔領域内から目の3次元位置を推定する。図8はこのステップS23の詳細を示す。
【0046】
まずステップS231において、画像処理部107は、顔領域の距離画像を取得する。ここでは、図15に示す距離画像から、顔領域(幅fw(xl〜xr),高さfh(yt〜yb))を切り出すものとする。
【0047】
次にステップS232において、探索部108は、距離画像から鼻位置を探索する。
【0048】
ここでは、鼻位置の探索のために、距離テンプレートとしての鼻形状のテンプレートを利用する。図16は鼻形状のテンプレートの一例である。図16の鼻テンプレートは、正面から測定したN(N=20)人の顔の3次元データから鼻領域を手動で切り出し、縦横サイズの正規化および位置合わせを行った後に平均化したものである。図16では距離値がグレーの濃淡によって表現されており、グレーが濃く輝度が低いほど、カメラに近いことを、グレーがうすく輝度が高いほど、カメラから遠いことを表している。図16の鼻テンプレートは底辺Tx,高さTyの台形の形状であり、その外接矩形における左上および右上部分の領域は、距離画像が眼鏡等の影響を受けるおそれがあるので、テンプレートとしては採用していない。なお、テンプレートを作成する際の3次元データは、レンジファインダによって得る必要は必ずしもなく、別の手法によって得てもかまわない。
【0049】
そして、顔領域内で鼻探索領域を決定する。図17のように、顔領域の水平方向中央に帯状の領域を設定する。ここで、r1の値は実験的に求められ、ここでは0.5とする。本実施形態では、被認証者はカメラのほぼ正面に立ち、カメラに正対することを想定している。この場合は、鼻は必ず顔領域の中心線付近に位置するため、図17のように帯状の鼻探索領域を設定することによって、探索時間を縮小することができる。もちろん、例えば斜め方向から顔を撮影するような用途では、顔領域の全体から鼻を探索すればよい。
【0050】
次に顔領域の距離画像から、顔の奥行き値を推定し、推定した奥行き値から鼻テンプレートのサイズTx,Tyを変更する。
【0051】
まず、ステップS21と同様に距離値のヒストグラムを算出し、最も頻度の高い階級の下限値と上限値との平均値を、顔の奥行き値の推定値とする。ステップS21では、顔、首、体など距離値が異なる領域全体を利用して距離値を推定していたが、ここでは、顔領域の奥行き値を正確に推定するために、顔領域の距離値のみを用い、ヒストグラムの階級の刻み幅もより小さい値にして、再度、距離値の推定を行う。第1の物体の推定サイズとしての鼻の大きさを、人物によらず一定であると仮定して、実世界での大きさに関する事前知識から推定し、距離画像を撮影したカメラの画角を既知とすれば、被写体の概略距離としての顔の奥行き値から、画像内における鼻の大きさが推定可能であり、これにより鼻テンプレートのサイズを決定することができる。推定した顔幅に合わせて、鼻テンプレートのサイズTx,Tyを変更する。そして、距離値を補間することによって、新たな鼻テンプレートを作成する。補間の方法は、線形補間、バイキュービック法、ニアレストネイバー法等を用いることができる。
【0052】
そして図17の鼻探索領域内で、サイズを変更した後のテンプレートをマッチングさせ、マッチングスコアが上位の位置を鼻位置の候補として、マッチングスコアとともに保存する。ここでは、マッチングスコアが所定の閾値以上のものを全て候補として残し、その総数をP個とする。ここで、鼻位置とは、テンプレートがマッチした領域における所定の座標、例えば、左上の点、中心点、鼻の最も凸である位置などを用いることができる。また、マッチングスコアの指標としては正規化相関を用いたが、例えばユークリッド距離等、他の距離尺度でもかまわない。
【0053】
ここで、通常のテンプレートマッチングでは、画像中に含まれた探索対象の大きさが分からないので、サイズが異なる複数のテンプレートを用いてマッチングを行い、その中でマッチングスコアが最良のものを検出結果とすることが多い。しかしながら、複数のテンプレートを用いる場合は処理時間が増加してしまう。本実施形態では、距離画像から対象物までの概略距離が得られるため、画像内の対象物の大きさを推定可能である。よって、単一のテンプレートで高速にマッチングを行うことができる。
【0054】
もちろん、距離が分からない場合でも、図15のようにニ値化距離画像から検出した顔領域の幅から、テンプレートのサイズを決定することも可能である。ところが、本実施形態のように反射光の強度を用いて距離を測定する場合には、髪の毛の影響を受けて、正確な顔幅を必ずしも検出することができない。すなわち、黒い髪の毛のように反射率が小さい領域の距離は測定できないため、女性に多くあるように、頬に髪の毛がかかっている人物の場合は、検出される顔幅は実際よりも小さくなってしまう。一方、金髪や茶髪のように、反射率が比較的高い髪の場合は、髪の毛の領域も距離が測定できるため、検出される顔幅が実際よりも大きくなってしまう。これに対して、距離値からテンプレートのサイズを決定することによって、髪の毛に左右されないで、安定してテンプレートのサイズを決定することができる。
【0055】
なお、ここでは、被認証者はカメラのほぼ正面に立ち、カメラに正対することを想定しているので、単一形状の鼻テンプレートを用いた。これに対して、斜め方向から顔を撮影したり、顔が上下に傾いているような場合には、鼻テンプレートを回転させて様々な姿勢に対応したものを予め作成しておき、マッチングに用いればよい。または、顔の距離画像および輝度画像から顔の3次元姿勢を推定し、距離データを正面から見た状態に回転補正し、補正後の距離画像を用いて、鼻テンプレートのマッチングを行えばよい。
【0056】
また、鼻位置の検索は、鼻テンプレートマッチング以外の方法によって、行ってもよい。例えば、顔領域中で最もカメラに距離が近い領域を鼻の最凸部とみなす、等である。しかしながら、本実施形態では、反射光の強度を基にして距離を計測しているため、例えば、皮脂による顔の“てかり”や目の角膜反射などにより、距離画像において測距誤差が大きい領域が部分的に存在する。このような誤差を含む距離画像では、1点の距離値のみを参照して単純に鼻位置を決定することは、精度的に問題がある。このような場合には、距離テンプレートを用いたマッチングが有効であるといえる。
【0057】
次にステップS233において、画像処理部107は、顔領域の輝度画像を取得する。すでに、ステップS10において、距離画像を算出するために2種類の光パタンに対応した2つの原輝度画像が撮影されている。そこで、ここでは、図15に示す顔領域について、2つの原輝度画像の各画素値を平均化したものを、輝度画像(幅fw(xl〜xr)、高さfh(yt〜yb))として得る。
【0058】
図5に示すように、照射される2種類の光パタンは、一方は行番号が増加するにつれて暗から明となり、もう一方は明から暗となる。したがって、2つの原輝度画像を平均化することによって、一様な照明を照射した場合に相当する輝度画像が得られる。
【0059】
なお、2つの原輝度画像の画素値の平均値ではなく、画素値が大きい方の値を採用して輝度画像を合成してもよい。この場合は、全体的に輝度が高く、コントラストが明瞭な画像が得られるため、以降の目位置検出を行いやすいという利点がある。
【0060】
なお、2つの原輝度画像のいずれか一方を輝度画像としてもよい。本実施形態のように、上方から照明を行い、図4のようにカメラ視野の上方に対象(人間の顔)が含まれることが分かっている場合は、上方から明→暗となる照明に対応した原輝度画像を単独で輝度画像として用いても、以降の目位置検出を、精度低下を招くことなく行うことができる。
【0061】
次にステップS234において、探索部108は、輝度画像から目位置を探索する。まず、図18に示すように、顔領域において、人物の右目(向かって左目)を探索するための目探索領域1と、人物の左目(向かって右目)を探索するための目探索領域2とを帯状に設定する。定数r2,r3は実験的に定められ、ここでは、r2=0.35,r3=0.1とする。各目探索領域内から、目の検出を行う。本実施形態では、被認証者はカメラのほぼ正面に立ち、カメラに正対することを想定している。この場合は、目のy座標は必ず図18の目探索領域1,2内にそれぞれ位置するので、探索時間を縮小することができる。もちろん、斜め方向から顔を撮影するような用途では、顔領域の全体から目を探索すればよい。
【0062】
輝度画像からの目位置の探索は、任意の方法でよく、本実施形態では、特開2002−56394号公報に記載された方法を用いる。すなわち、図19に示すような目テンプレートを予め作成しておく。図19の各矢印は目の輝度エッジ上の点における2次元の輝度勾配ベクトルを表す。そして、輝度画像から、水平方向および垂直方向に差分をとった輝度勾配画像を作成し、この輝度勾配画像と図19の目テンプレートとの相関値を計算し、相関値が高いものを目位置として探索する。本実施形態では、両目位置の組み合わせにおいて、相関値が最高のものを目位置として決定するのではなく、両目の相関値が所定の閾値以上のものを、全て両目位置の候補として、相関値とともに残す。その総数をQ個とする。
【0063】
ここで、目位置とは、目テンプレートがマッチした領域における所定の座標、例えば、左上の点、中心点、テンプレートにおける虹彩領域の中心点などを用ればよい。また、ステップS232と同様に、顔の奥行き値から目テンプレートのサイズを決定することによって、単一のテンプレートによって、精度のよい探索が可能になる。
【0064】
次にステップS235において、探索部108は、3次元の目位置を決定する。ここまでの処理によって、ステップS232ではP個の鼻位置候補が得られており、ステップS234ではQ個の目位置候補が得られている。ここでは、目と鼻の相対的な位置関係の情報を参照して、P×Q個の鼻位置候補と目位置候補との組み合わせの中から、相対的な位置関係からみて適当でないものを除外し、残った組み合わせの中で、マッチングスコアを合成した結果が最高のものを、最終的な目および鼻の2次元位置として決定する。ここでは、鼻のマッチングスコアと目のマッチングスコアの平均値を、合成スコアとする。なお、合成スコアは、重み付きの線形和でもよく、その場合の重みは、鼻のスコアの信頼性と目のスコアの信頼性を考慮して決定すればよい。
【0065】
目と鼻の相対的な位置関係のチェックは、例えば次のような方法によって行う。すなわち図20に示すように、右目位置候補と左目位置候補とを結ぶ線分に対して垂直二等分線を引き、この垂直二等分線上で下方にD1×r4だけ離れた点Aを中心として、幅D1×r5,高さD1×r6の矩形を鼻存在領域として設定する。そして、鼻位置候補がこの鼻存在領域に含まれない場合は、目と鼻の相対的な位置関係からみて、この位置候補の組み合わせは適当ではないと判定する。ここで、D1は両目の位置候補間の距離であり、r4,r5,r6は多数の人物について実測して定めた値とする。
【0066】
または図21に示すように、鼻位置候補から上方にD2×r4だけ移動した点Bから、左右にD2/2だけ移動した点B1,B2を中心として、幅D2×r7,高さD2×r8の矩形を片目存在領域として設定する。そして、片目の位置候補がこの片目存在領域に含まれない場合は、目と鼻の相対的な位置関係からみて、この位置候補の組み合わせは適当ではないと判定する。ここで、D2とは顔の奥行き値から推定した顔幅からさらに推定した両目間の距離であり、r4,r7,r8は多数の人物について実測して定めた値とする。
【0067】
なお、ステップS232において算出したP個の鼻位置候補に対して、輝度画像において、図20のような片目存在領域を目探索領域として設定し、その領域内のみから目位置を探索してもよい。この場合、最終的な結果は上述の例と等しくなる。Pの個数によっては、図18のような帯状領域よりも探索面積が小さくなるので、処理速度の向上が期待できる。
【0068】
逆に、輝度画像から先に目位置を探索して位置候補を得て、その後、図19のような鼻存在領域を鼻探索領域として設定し、距離画像のその領域内のみから鼻位置を探索することも可能である。しかしながら、距離画像において鼻に類似した形状を持つ箇所よりも、輝度画像において目に類似した輝度を持つ箇所の方が多いため、先に距離画像から鼻を探索した方が、効率的である。
【0069】
また、鼻位置と両目間の理想的な位置関係を定義し、その位置関係から外れるほど0に近い値になり、その位置関係に近づくほど1に近い値になるような評価関数を定義し、鼻のマッチングスコアと目のマッチングスコアの合成スコアにこの評価関数の値を乗じたものを統合スコアとし、統合スコアが最高のものを、最終的な目および鼻の2次元位置として決定してもよい。
【0070】
このように、距離画像から鼻の位置を探索し、輝度画像から目の位置を探索し、その両者の相対的な位置関係を利用して最終的に目の位置を決定することによって、輝度画像において目に類似した眉や眼鏡のフレーム、口等を誤って検出してしまうというような検出ミスを大幅に低減することができる。
【0071】
そしてステップS236において、目の奥行き値を推定する。すなわち、ステップS235で決定された目の2次元位置から、すでに取得されている距離画像を用いて、目の3次元位置を求める。
【0072】
図22はC−XYZのカメラ座標系である。図22において、Z軸はカメラの光軸であり、Z軸上のレンズ中心Cから焦点距離fだけ離れた位置に、画像中心cを原点とする仮想画像平面があると考える。画像平面上の点m(xm,ym)に対応する計測点Mの奥行き値ZMは、距離画像における(xm,ym)に対応する画素値として算出することができる。よって、XM=ZM・xm/f、YM=ZM・ym/fとして、カメラ座標における3次元位置が算出できる。輝度画像および距離画像の座標系から図21の仮想画像平面上の座標系に変換するためには、予めカメラの内部パラメータ(fを含む)を求めておけばよい。また、レンズの周辺では歪みがあるため、歪み補正を行っておく。
【0073】
このように、輝度画像および距離画像を併用することによって、目および鼻の3次元位置を容易に決定できる。
【0074】
本実施形態で用いるLEDアレイレンジファインダは、本願発明者らが実際にシステム開発した結果、測距誤差として相対誤差1%(測定距離500mmの場合でも5mmの誤差)を達成している。被写体の凹凸がなだらかな場合、周辺の距離を平滑化することによって、測定した距離の信頼性はさらに増す。すなわち、2次元画像中の特定画素の距離を測定したい場合、超音波センサなどのスポットセンサによって測定する方法もあるが、本実施形態のように、レンジファインダによって取得した距離画像を利用することによって、その特定画素の周辺の距離値も有効に用いることができるので、安定した距離計測が可能になる。
【0075】
次にステップS30において、望遠カメラを目の3次元位置に向けて、虹彩画像を撮影する。そして、ステップS40において、撮影された目の画像から虹彩認証を行う。虹彩認証は、例えば特表平8−504979号公報記載の方法によって行えばよい。
【0076】
以上のように本実施形態によると、距離画像において、立体形状に特徴がある鼻の位置が探索されるとともに、輝度画像において、輝度に特徴がある目の位置が探索される。そして、目と鼻の相対的な位置関係の情報を参照して、目の位置が最終的に決定される。すなわち、従来よりも高精度に、目の位置を検出することができる。
【0077】
なお、ステップS236において、目の距離値を、距離画像における頬周辺部分の距離値を用いて決定するようにしてもよい。すでに述べたように、本実施形態のように光強度比を基にして距離を測定する場合には、反射率の低い領域や、拡散反射でなく鏡面反射を起こす領域では、距離の測定誤差が大きくなる。そして目付近の奥行き値は、次の点で誤差が大きくなると考えられる。
・虹彩が濃い茶褐色の場合は、反射率が低い
・角膜の表面で鏡面反射が起きる
・被写体の人物が眼鏡をかけている場合、濃色のフレームは反射率が低い。また、レンズや金属のフレームによる鏡面反射が目付近に位置する場合がある。
【0078】
このため、目付近の奥行き値の代わりに、頬周辺の奥行き値を算出して、目の奥行き値を間接的に推定する。図23はある人物を真横から見た図であるが、目の奥行き値は鼻のほぼ真横あたりの頬とほぼ同じである。本願発明者が複数人の横顔を同じように観察したところ、目の奥行き値は、頬とほぼ同じであるか、少し奥側(大きくても1cm程度)にあるという知見を得た。そこでここでは、目の奥行き値=頬の奥行き値+0.5cmとする。
【0079】
頬の奥行き値は次のようにして求める。図24に示すように、両目位置を結ぶ線分(長さD)を距離D×r9だけ下方に平行移動し、その両端C1,C2を中心とする半径D×r10の円を頬領域として設定する。そして、この頬領域内の距離画像の画素値の平均値を頬の奥行き値とする。ここで、r9,r10は実験的に求めるものとし、ここではr9=0.65、r10=0.1とする。
【0080】
ただし、この方法では、人物の頭部が前後左右に傾いていないことが必要条件となる。ここでは、個人認証という用途から、被認証者が撮影に協力してくれるということを前提として、この方法を採用した。これに対して、被写体となる人物に、もう少し自由な姿勢を許容する用途の場合には、距離画像および輝度画像から顔の姿勢推定を行い、顔の傾きを考慮して、頬の奥行き値を眼の奥行き値に変換する必要がある。
【0081】
なお、本実施形態では、図1および図2に示すように、レンジファインダの光源101とカメラ102を上下に配置したが、このような配置に特に限定されるものではなく、カメラが上にあり、光源が下にあってもかまわない。もちろん、カメラと光源を左右に配置してもよい。また、距離の測定精度を向上させるために、複数個の光源を設けてもかまわない。
【0082】
また、本実施形態では、予め登録された複数人のデータと比較して認証を行い、どの人物かを判定する1:N認証を前提として、説明を行った。この場合、認証装置では、顔幅や、鼻と目との相対的な位置関係、目テンプレートや鼻テンプレートの形状などは、複数の人物について平均的なものが利用される。これに対して、被認証者が自分のIDを認証装置に申告し、申告されたIDについて予め登録された個人と被認証者とが一致するか否かを判定する1:1認証の場合には、顔幅や、鼻と目との相対的な位置関係、目テンプレートや鼻テンプレートの形状などは、個人ごとに準備される。このため、より精度の高い検出が可能になる。IDの申告には、キー入力、IDカード(非接触IDカードを含む)、音声入力などが利用可能である。
【0083】
また、本発明において、本実施形態で示したような方式のレンジファインダは必須ではなく、距離画像が得られるものであれば、他の方式を採用してもかまわない。例えば、光切断法、モアレ法、ステレオ視など他の距離測定方法と組み合わせて利用することも可能である。また、本実施形態では、輝度画像は、レンジファインダから得た原輝度画像から生成したが、これ以外の生成方法でもよく、例えば輝度画像取得のための専用の撮影系を設けてもよい。ただし、輝度画像は、距離画像との間で各座標が対応付けられている必要がある。
【0084】
なお、本実施形態では、虹彩認証を行うために目の3次元位置を検出するものとしたが、本発明に係る物体位置検出の適用範囲はこれに限られるものではない。例えば、顔認証のために、目、鼻、口などの顔部品の2次元位置を検出する場合に、本発明を用いてもよい。すなわち、距離画像から鼻位置を探索し、輝度画像から目および口を探索し、各顔部品の候補の相対的な位置関係から、最終的な顔部品の位置を決定してもよい。
【0085】
もちろん、鼻以外の、形状(距離)に特徴のある物体と、眼以外の、濃度パタン(輝度)に特徴のある物体とを検出するために用いることも可能である。例えば、ロボット等の人工物において、形状に特徴のある部位と、濃度パタンに特徴のある部位が設計されている場合には、これらの部位の検出を行う際に、本発明を用いることができる。
【0086】
本発明のように、形状に特徴のある部位と、濃度パタンに特徴のある部位とを分離して位置検出を行うことによって、次のような利点がある。濃度パタンに特徴のある部位が特徴的な形状をしていた場合、視点によって濃度パタンの見え方が変化してしまい、輝度画像からの部位検出が困難になる可能性がある。また、形状に特徴のある部位が特徴的な濃度パタンを有していた場合、本実施形態のようにレンジファインダによって形状計測を行うとすると、反射光の強度が被写体の濃度パタンによって左右されてしまい、反射率が低い個所が生じた場合は、形状計測の誤差が大きくなってしまう可能性がある。よって、形状に特徴のある部位と、濃度パタンに特徴のある部位とを分けて、それぞれを検出し、両者の相対的な位置関係を基に、最終的な位置検出を行うことによって、検出精度が格段に向上する。
【0087】
【発明の効果】
以上のように本発明によると、鼻と目のように、一方は、立体形状に特徴があり距離画像で探索が容易であり、他方は、輝度に特徴があり輝度画像で探索が容易であって、かつ、相対的な位置関係が既知の物体について、高精度に、その位置を検出することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る虹彩認証装置を正面から見た図である。
【図2】図1の虹彩認証装置を側方から見た図である。
【図3】本発明の一実施形態に係る物体位置検出装置の構成を機能的に示すブロック図である。
【図4】図1の虹彩認証装置によって撮影された人物画像の模式図である。
【図5】レンジファインダが投射する光パタンの例である。
【図6】図1の虹彩認証装置の動作を示すフローチャートである。
【図7】図6におけるステップS20の詳細を示すフローチャートである。
【図8】図7におけるステップS23の詳細を示すフローチャートであり、本発明の一実施形態に係る物体位置検出方法を示す図である。
【図9】2種類の光パタンの切り替えタイミングを示す図である。
【図10】距離画像から求めた距離値ヒストグラムの一例である。
【図11】ニ値化された距離画像の例である。
【図12】図11の二値化された距離画像を水平方向に射影して作成したヒストグラムの例である。
【図13】図11の二値化距離画像において、決定された顔領域の上下範囲を示す図である。
【図14】図13の上下範囲で切り取った二値化距離画像を垂直方向に射影して得たヒストグラムの例である。
【図15】図11の二値化距離画像において、決定された顔領域を示す図である。
【図16】距離値から構成された鼻テンプレートの一例である。
【図17】距離画像の顔領域において設定した鼻探索領域を示す図である。
【図18】輝度画像の顔領域において設定した目探索領域を示す図である。
【図19】輝度勾配方向ベクトルから構成された目テンプレートの例である。
【図20】両目の位置と鼻存在領域との位置関係を示す図である。
【図21】鼻の位置と両目の存在領域との位置関係を示す図である。
【図22】画像座標系とカメラ座標系との関係を示す図である。
【図23】人物の横顔を示す図である。
【図24】目の奥行き値を推定するために用いる頬領域を示す図である。
【符号の説明】
100 レンジファインダ
101 広角カメラ用照明(光源アレイ部)
102 カメラ
106 光源制御部
107 画像処理部
108 探索部
PP 人物(被写体)
NS 鼻(第1の物体)
EY 目(第2の物体)
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technique for detecting a position of a specific object such as a human eye from an image.
[0002]
[Prior art]
In recent years, in various technical fields, the need for accurately detecting the position of a face part such as human eyes has been increasing. A typical example is a personal authentication (biometrics personal authentication) technology using biometric information.
[0003]
For example, in iris authentication, an iris recognition system having a two-camera configuration has been proposed (see Japanese Patent Laid-Open No. 10-40386). In this system, an entire face is photographed by a first camera, and the photographed face image is analyzed to detect an eye position. Next, the second camera is mechanically controlled to obtain an enlarged image of the iris toward the detected eye position. In this system, the user only needs to stand in front of the device, so that the authentication operation can be performed easily. However, a necessary condition is that the position of the eyes can be detected with high accuracy.
[0004]
In the face authentication, a feature point of a face including eyes is usually detected from an image including a face, and the face position and the size are normalized based on the feature points, and then the face authentication is performed. Therefore, in order to perform face authentication with high accuracy, it is necessary to detect the positions of feature points of the face including the eyes with high accuracy.
[0005]
In fields other than personal authentication, for example, in applications such as gaze detection and dozing detection, it is necessary to detect the eye position.
[0006]
By the way, since most eye position detection methods perform matching using a local eye template, eyebrows, eyeglass frames, mouths, and the like having shapes similar to eyes are erroneously recognized as eyes. There is a problem that the possibility is high.
[0007]
To solve this problem, a method has been proposed in which a nose position is first detected, an eye search area is determined from the nose position, and an eye position is detected from within the search area. That is, erroneous detection of eyes is reduced by limiting the search area. For example, in Japanese Patent Application Laid-Open No. 2000-105829, matching is performed using a template of a nose image to detect the position of the nose, and an area above the nose is set as an eye search area. In Japanese Patent Application Laid-Open No. 2000-193420, a face image is photographed by irradiating illumination from a diagonal direction of the face, and a nose muscle is detected from the face image using edge information. An eye search area is set above the nose muscle.
[0008]
[Problems to be solved by the invention]
However, in these conventional methods, since the nose image in the luminance image greatly varies depending on the direction of illumination, a certain illumination environment is required to accurately detect the position of the nose. For this reason, in order to realize highly accurate detection, the use conditions of the system are greatly restricted, and it is not very versatile.
[0009]
In view of the above-described problem, an object of the present invention is to make it possible to detect the position of an object from an image with higher accuracy than before.
[0010]
[Means for Solving the Invention]
In order to solve the above-mentioned problem, a solution taken by the invention according to claim 1 includes, as a position detection method of an object, a step of obtaining a distance image of an object, and associating the distance image with each coordinate of the object. Obtaining the obtained luminance image, and searching for the position of a first object in the distance image, and searching for the position of a second object in the luminance image. And determining a two-dimensional position of at least one of the first and second objects with reference to information on a relative positional relationship between the first and second objects.
[0011]
According to the first aspect of the present invention, the first object is searched for in the distance image, and the second object is searched for in the luminance image. The position of at least one of the first and second objects is finally determined with reference to the information on the relative positional relationship between the two. That is, when a relative positional relationship is known between a first object having a characteristic in a three-dimensional shape and easily searchable in a distance image and a second object having a characteristic in luminance and easily searchable in a luminance image. The position can be detected with high accuracy.
[0012]
In the invention according to claim 2, in the search step in claim 1, a search area in the luminance image is narrowed according to a position candidate obtained as a result of the search for the first object. It is assumed that the position of the second object is searched.
[0013]
According to the second aspect of the present invention, the search area for the second object in the luminance image is narrowed according to the position candidate of the first object, so that the processing amount in the search for the luminance image can be reduced, and Detection can be reduced.
[0014]
In the invention of claim 3, in claim 1, for at least one of the first and second objects whose two-dimensional position has been determined, using the distance image and the determined two-dimensional position, It is provided with a step of determining a three-dimensional position.
[0015]
According to a fourth aspect of the present invention, in the first aspect, the subject is a person, the first object is a nose, and the second object is an eye.
[0016]
According to a fifth aspect of the present invention, in the fourth aspect, a step of determining a distance value of the eye using a distance value around the cheek in the distance image is provided.
[0017]
According to a sixth aspect of the present invention, in the search step of the first aspect, the search for the position of the first object is performed by matching the distance image with a distance template configured from the distance values of the first object. Shall be.
[0018]
In the invention of claim 7, in claim 6, the approximate distance of the subject is calculated from the distance image, and the approximate distance, the angle of view of the camera that captured the distance image, and the estimation of the first object are calculated. Determining a size of the distance template based on the size.
[0019]
According to another aspect of the present invention, there is provided a distance image acquisition unit that acquires a distance image of a subject as a position detection device for an object, and a luminance image in which the distance image and each coordinate are associated with the subject. And a search unit that searches for the position of a first object in the distance image and searches for the position of a second object in the brightness image. The search unit includes: The two-dimensional position of at least one of the first and second objects is determined with reference to information on the relative positional relationship between the first and second objects.
[0020]
According to the eighth aspect of the invention, the first object is searched for in the distance image, and the second object is searched for in the luminance image. The position of at least one of the first and second objects is finally determined with reference to the information on the relative positional relationship between the two. That is, when a relative positional relationship is known between a first object having a characteristic in a three-dimensional shape and easily searchable in a distance image and a second object having a characteristic in luminance and easily searchable in a luminance image. The position can be detected with high accuracy.
[0021]
According to the ninth aspect of the present invention, the search unit according to the eighth aspect narrows down a search area in the luminance image according to a position candidate obtained as a result of the search for the first object. It is assumed that the position of the second object is searched.
[0022]
In a tenth aspect of the present invention, in the eighth aspect, the distance image acquisition unit includes a range finder, and the range finder includes a light source array unit in which a plurality of light sources are arranged, and a light source array unit. A light source control unit for projecting at least two types of light patterns from the light source array unit by controlling a light emitting mode of the light source, and a light reflected from the subject with respect to each light pattern projected from the light source array unit. A camera that captures a luminance image, and an image processing unit that obtains the distance image from an original luminance image captured by the camera, wherein the luminance image acquisition unit is captured by the camera of the range finder. The luminance image is obtained from at least one of the original luminance images.
[0023]
The solution taken by the invention of claim 11 includes, as an object position detection method, a step of obtaining a distance image of a subject, and a step of searching for a position of the object in the distance image. The search for the position of the object is performed by matching the distance image with a distance template composed of distance values of the object.
[0024]
According to the eleventh aspect, since the position detection of the object in the distance image is performed by matching using the distance template, the detection accuracy can be improved as compared with the related art.
[0025]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0026]
FIG. 1 is a front view of an iris authentication device according to an embodiment of the present invention, and FIG. 2 is a diagram showing how the iris authentication device 10 of FIG. 1 performs iris authentication of a person PP as a subject located in front thereof. is there. In the present embodiment, the position of the nose NS as the first object is searched from the distance image of the face of the person PP obtained by the range finder device in the iris authentication device 10, and the position of the nose NS is searched for with reference to the position of the nose NS. It is assumed that the three-dimensional position of the eye EY as the second object is obtained and iris authentication is performed.
[0027]
As shown in FIGS. 1 and 2, the iris authentication device 10 includes a wide-angle camera illumination 101, a wide-angle camera 102, and an iris imaging unit 105. The iris imaging unit 105 is movable, and the telephoto camera illumination 103 and the telephoto camera 104 are fixed inside. The iris imaging unit 105 can change the direction of illumination (photographing) without changing the relative positional relationship between the telephoto camera illumination 103 and the telephoto camera 104.
[0028]
In the present embodiment, the illumination 101 for the wide-angle camera, the wide-angle camera 102, and a portion related to these controls function as a range finder 100 that measures the three-dimensional position of the subject. FIG. 3 is a block diagram functionally showing the configuration of the object position detection device according to the present embodiment including the range finder 100. The range image acquisition unit according to the present embodiment includes a range finder 100 having an illumination 101, a camera 102, a light source control unit 106, and an image processing unit 107. The image processing unit 107 obtains a distance image and a luminance image from the original luminance image captured by the camera 102, and configures a distance image acquisition unit and a luminance image acquisition unit. The search unit 108 searches the position of the nose NS from the distance image, searches the position of the eye EY from the luminance image, and refers to the information on the relative positional relationship between the nose NS and the eye EY, for example, the nose NS. The position of the eye EY is finally determined using the prior knowledge of the relative positional relationship between the eye EY and the eye EY.
[0029]
The illumination 101 for a wide-angle camera is configured by a light source array unit in which a plurality of LEDs 11 as light sources are arranged. In FIG. 1, each LED 11 is represented by a circle, and the wide-angle camera illumination 101 is configured by 11 × 11 LEDs 11. The wide-angle camera 102 has VGA pixels (480 horizontal pixels × 640 vertical pixels), and is installed so as to obtain a vertically long field of view. The wide-angle camera 102 captures an upper body image including the face of the person PP as shown in FIG.
[0030]
The light source control unit 106 can control the light emission time of the wide-angle camera illumination 101 by PWM (Pulse Width Modulation) for each LED (for example, for each column or row of the array). Within the exposure time of the wide-angle camera 102, the longer the light emission time is, the larger the total light amount becomes. Therefore, by controlling the light emission time, an arbitrary light pattern can be generated.
[0031]
Here, the light emission time is controlled for each row (horizontal direction). In this case, the light pattern is modulated in the vertical direction in FIG. Further, the light source control unit 106 switches between two types of light patterns in accordance with the exposure timing (exposure time) of the camera. FIG. 5 is a diagram showing two types of light patterns generated by controlling the light emission time. In the figure, (a) is an optical pattern A for monotonically increasing the LED emission time according to the row number, and (b) is an optical pattern B for monotonically decreasing the LED emission time according to the row number. The light source control unit 106 causes the illumination 101 to emit two types of patterns as shown in FIG.
[0032]
The operation of the iris authentication device 10 shown in FIGS. 1 and 2 will be described with reference to the flowcharts of FIGS.
[0033]
First, in step S10, the wide-angle camera illumination 101 irradiates two types of light patterns as shown in FIG. 5, and the wide-angle camera 102 captures reflected light images corresponding to these two types of light patterns as original luminance images. FIG. 9 is a diagram illustrating the relationship between the exposure timing of the wide-angle camera 102 and the light pattern projected from the wide-angle camera illumination 101. The image processing unit 107 generates a distance image from two original luminance images when the light patterns A and B are projected from the illumination 101, respectively. The principle of distance measurement of a range finder using a light source array is disclosed in Japanese Patent Application No. 2001-286646, and description thereof is omitted here.
[0034]
Next, in step S20, the three-dimensional position of the eye is calculated. FIG. 7 shows details of step S20. First, in step S21, a depth value of a person is estimated. Specifically, the image processing unit 107 obtains a histogram of distance values of all pixels for a distance image of 480 pixels in width × 640 pixels in height, and, based on the histogram, associates the person PP with a plane perpendicular to the optical axis of the camera 102. If so, the distance from the camera 102 is estimated.
[0035]
FIG. 10 is an example of a distance value histogram obtained from a distance image when the person PP is at a distance of about 60 cm from the camera 102. In FIG. 10, the vertical axis represents the frequency (the number of pixels), the horizontal axis represents the distance value, and is classified every 5 cm. In the data of FIG. 10, the frequency is highest in the class of 60 to 65 cm.
[0036]
Next, binarization is performed on the distance image with reference to the distance value histogram. Here, the average value of the lower limit value and the upper limit value of the class with the highest frequency is defined as a representative value dm. In the example of FIG. 10, dm = 62.5 (cm). Then, for each coordinate (distance value d) of the distance image,
“1” when dm−a <d <dm + a
Otherwise (including unmeasurable points), "0"
The binarization is performed as follows. a is a predetermined value, and here, it is assumed that a = 10 cm.
[0037]
FIG. 11 is an example of a binarized distance image. In FIG. 11, the region of “1” as a result of the binarization is represented by white, and the region of “0” is represented by black. It should be noted that in areas where the reflectance is low, such as head hair, black eyeglass frames, eyes, eyebrows, or in areas where shadows occur, such as necks and wrinkles of clothes, the distance cannot be measured properly. It has been determined to be 0 '.
[0038]
In the present embodiment, since a person region is cut out using the depth value, even if a plurality of people are shown in the field of view of the camera, the person is extracted based on the distance value by such a simple method. Can be. Of course, another method, for example, a method of cutting out a person region using a luminance image may be adopted.
[0039]
Next, in step S22, the face area of the person is estimated. For the estimation of the face area of a person, a depth binarized image as shown in FIG. 11 is used. Here, the face area is defined as an area including at least both eyes and a nose.
[0040]
First, as shown in FIG. 12, the binary distance data is projected in the horizontal direction to create a histogram H1 (y). Then, the upper and lower ranges of the face area are determined using the histogram H1 (y).
[0041]
Here, the distance between the camera and the person was estimated to be 62.5 (cm) from the histogram of FIG. Then, assuming that the size of the face is constant irrespective of the person and the angle of view of the camera is known, the size of the face in the image can be estimated. Assuming that the estimated face width is w1, the upper boundary yt of the face can be determined to be the minimum y satisfying the histogram H1 (y)> w1 × b (for example, b = 0.1). Then, a position moved downward by a distance that is a constant multiple of the face width w1 such that at least the entire nose is within the range from the upper boundary yt of the face is determined as the lower boundary yb of the face. That is,
yb = yt + w1 × c (c = 1.2)
In the present embodiment, since the distance is measured by using the reflected light of the illumination, it is impossible to measure an area having a small reflectance such as a hair. Therefore, the upper boundary yt of the face greatly differs depending on whether the forehead is wide or narrow, or whether the hair is on the forehead. Therefore, here, the constant c is set to a value such that the nose is included in the face area even when the crown is determined to be the boundary yt. FIG. 13 shows the determined vertical position of the face.
[0042]
In order to perform iris authentication by detecting the position of the eyes, the face region may be set to include at least the positions of the eyes. On the other hand, in the present embodiment, the face area is determined so as to include not only the eyes but also the nose. If the nose position is detected using the distance image, the eye area is determined using the eye-nose positional relationship. This is because the position detection accuracy can be improved. Further, it is also possible to narrow down the eye position search area using the nose position.
[0043]
Next, the left and right positions of the face are determined. As shown in FIG. 14, a binary image of the face area whose vertical position has been determined is projected in the vertical direction to create a histogram H2 (x). And
H2 (x)> (yb-yt + 1) / 3
Is the minimum position x1 of the face,
H2 (x)> (yb-yt + 1) / 3
The maximum x that satisfies is set as the right position xr of the face. FIG. 15 shows the face area determined in this way.
[0044]
Here, the method of simply detecting the face area using only the distance image has been described, but other methods may of course be used. For example, a luminance image may be created by a method described later, and a face area may be searched from the luminance image using an average image of the face in the luminance image as a face template. In this case, the face template size can be determined from the depth value up to the person. Further, since it is sufficient to search only the person area calculated from the distance image as shown in FIG. 11 in the luminance image, it is possible to reduce the processing amount required for the search.
[0045]
Next, in step S23, the three-dimensional position of the eye is estimated from within the face area estimated in step S22. FIG. 8 shows the details of step S23.
[0046]
First, in step S231, the image processing unit 107 acquires a distance image of the face area. Here, it is assumed that a face area (width fw (xl to xr), height fh (yt to yb)) is cut out from the distance image shown in FIG.
[0047]
Next, in step S232, the search unit 108 searches for a nose position from the distance image.
[0048]
Here, a nose-shaped template is used as a distance template for searching for a nose position. FIG. 16 is an example of a nose-shaped template. The nose template of FIG. 16 is obtained by manually cutting out the nose region from the three-dimensional data of N (N = 20) faces measured from the front, performing normalization of the vertical and horizontal sizes and positioning, and then averaging. . In FIG. 16, the distance value is represented by shading of gray, and the darker and lower the brightness, the closer to the camera, and the lighter the gray, the higher the brightness, the farther from the camera. The nose template in FIG. 16 has a trapezoidal shape having a base Tx and a height Ty, and the upper left and upper right portions of the circumscribed rectangle are employed as templates because the distance image may be affected by glasses or the like. Not. Note that the three-dimensional data for creating a template does not necessarily need to be obtained by a range finder, and may be obtained by another method.
[0049]
Then, a nose search area is determined within the face area. As shown in FIG. 17, a band-shaped area is set at the center in the horizontal direction of the face area. Here, the value of r1 is experimentally obtained, and is set to 0.5 here. In the present embodiment, it is assumed that the person to be authenticated stands almost in front of the camera and faces the camera. In this case, since the nose is always located near the center line of the face area, the search time can be shortened by setting a band-shaped nose search area as shown in FIG. Needless to say, for example, in an application in which a face is photographed from an oblique direction, the nose may be searched from the entire face area.
[0050]
Next, the depth value of the face is estimated from the distance image of the face area, and the sizes Tx and Ty of the nose template are changed from the estimated depth value.
[0051]
First, a histogram of distance values is calculated in the same manner as in step S21, and the average value of the lower limit value and the upper limit value of the most frequent class is used as the estimated value of the face depth value. In step S21, the distance value is estimated using the entire area having different distance values such as the face, neck, and body. However, in order to accurately estimate the depth value of the face area, the distance value of the face area is estimated. Using only the above, the step size of the class of the histogram is set to a smaller value, and the distance value is estimated again. Assuming that the size of the nose as the estimated size of the first object is constant irrespective of the person, it is estimated from prior knowledge about the size in the real world, and the angle of view of the camera that captured the range image is calculated. If it is known, the size of the nose in the image can be estimated from the depth value of the face as the approximate distance of the subject, whereby the size of the nose template can be determined. The size of the nose template Tx, Ty is changed according to the estimated face width. Then, a new nose template is created by interpolating the distance values. As an interpolation method, a linear interpolation, a bicubic method, a nearest neighbor method, or the like can be used.
[0052]
Then, the template whose size has been changed is matched in the nose search area of FIG. 17, and a position having a higher matching score is stored as a nose position candidate together with the matching score. In this case, all the matching scores that are equal to or greater than a predetermined threshold are left as candidates, and the total number is P. Here, the nose position may be a predetermined coordinate in an area where the template matches, for example, a point at the upper left, a center point, a position where the nose is most convex, or the like. Although the normalized correlation is used as the index of the matching score, another distance scale such as the Euclidean distance may be used.
[0053]
Here, in normal template matching, since the size of the search target included in the image is not known, matching is performed using a plurality of templates having different sizes, and the matching result having the best matching score is detected. Often. However, when a plurality of templates are used, the processing time increases. In the present embodiment, since the approximate distance from the distance image to the target is obtained, the size of the target in the image can be estimated. Therefore, high-speed matching can be performed with a single template.
[0054]
Of course, even when the distance is not known, the size of the template can be determined from the width of the face area detected from the binarized distance image as shown in FIG. However, when the distance is measured using the intensity of the reflected light as in the present embodiment, an accurate face width cannot always be detected due to the influence of the hair. That is, since the distance of a region having a small reflectance such as black hair cannot be measured, the face width to be detected is smaller than the actual face width in the case of a person having hair on the cheek, as in many women. I will. On the other hand, in the case of hair having a relatively high reflectance, such as blond hair or brown hair, the distance of the hair area can be measured, so that the detected face width becomes larger than it actually is. On the other hand, by determining the template size from the distance value, the template size can be determined stably without being affected by the hair.
[0055]
In this case, since the subject is assumed to stand almost in front of the camera and face the camera, a single-shaped nose template is used. On the other hand, when the face is photographed from an oblique direction or when the face is tilted up and down, the nose template is rotated to prepare in advance various types of postures and used for matching. Just fine. Alternatively, the three-dimensional posture of the face may be estimated from the distance image and the luminance image of the face, the rotation of the distance data may be corrected to be viewed from the front, and the nose template may be matched using the corrected distance image.
[0056]
Further, the nose position search may be performed by a method other than the nose template matching. For example, an area closest to the camera in the face area is regarded as the most convex part of the nose. However, in the present embodiment, since the distance is measured based on the intensity of the reflected light, for example, a region in which a distance measurement error is large in the distance image due to, for example, the “light” of the face due to sebum or the corneal reflection of the eye. Partially exist. In a distance image including such an error, simply determining the nose position with reference to only one distance value has a problem in accuracy. In such a case, it can be said that matching using the distance template is effective.
[0057]
Next, in step S233, the image processing unit 107 acquires a luminance image of the face area. In step S10, two original luminance images corresponding to two types of light patterns have already been captured in order to calculate a distance image. Therefore, here, for the face area shown in FIG. 15, an average of the pixel values of the two original luminance images is referred to as a luminance image (width fw (xl to xr) and height fh (yt to yb)). obtain.
[0058]
As shown in FIG. 5, one of the two types of light patterns to be irradiated changes from dark to bright as the row number increases, and the other changes from light to dark. Therefore, by averaging the two original luminance images, a luminance image equivalent to a case where uniform illumination is applied is obtained.
[0059]
It should be noted that the luminance image may be synthesized by using the larger value of the pixel values instead of the average value of the pixel values of the two original luminance images. In this case, an image having a high brightness and a clear contrast is obtained as a whole, and there is an advantage that subsequent eye position detection is easily performed.
[0060]
Note that one of the two original luminance images may be a luminance image. As in the present embodiment, illumination is performed from above, and when it is known that an object (human face) is included in the upper part of the camera field of view as shown in FIG. Even if the original luminance image thus obtained is used alone as a luminance image, subsequent eye position detection can be performed without lowering the accuracy.
[0061]
Next, in step S234, the search unit 108 searches for an eye position from the luminance image. First, as shown in FIG. 18, in the face area, an eye search area 1 for searching for the right eye (left eye) of a person, and an eye search area 2 for searching for the left eye (right eye) of a person. Is set in a belt shape. The constants r2 and r3 are determined experimentally, and here, r2 = 0.35 and r3 = 0.1. Eye detection is performed from within each eye search area. In the present embodiment, it is assumed that the person to be authenticated stands almost in front of the camera and faces the camera. In this case, since the y coordinate of the eye is always located in each of the eye search areas 1 and 2 in FIG. 18, the search time can be reduced. Of course, in an application in which a face is photographed from an oblique direction, eyes may be searched from the entire face area.
[0062]
The search for the eye position from the luminance image may be performed by any method. In the present embodiment, a method described in JP-A-2002-56394 is used. That is, an eye template as shown in FIG. 19 is created in advance. Each arrow in FIG. 19 represents a two-dimensional luminance gradient vector at a point on the luminance edge of the eye. Then, a luminance gradient image having a difference in the horizontal direction and the vertical direction is created from the luminance image, and a correlation value between the luminance gradient image and the eye template of FIG. 19 is calculated. Explore. In the present embodiment, in the combination of the binocular positions, instead of determining the highest correlation value as the eye position, all the binocular correlation values that are equal to or greater than a predetermined threshold are all candidates for the binocular position, along with the correlation value. leave. Let the total number be Q.
[0063]
Here, the eye position may be a predetermined coordinate in an area where the eye template matches, for example, an upper left point, a center point, a center point of an iris area in the template, and the like. Also, as in step S232, by determining the size of the eye template from the depth value of the face, accurate search can be performed using a single template.
[0064]
Next, in step S235, the search unit 108 determines a three-dimensional eye position. By the processing up to this point, P nose position candidates have been obtained in step S232, and Q eye position candidates have been obtained in step S234. Here, by referring to the information on the relative positional relationship between the eyes and the nose, from the combinations of P × Q nose position candidates and the eye position candidates, those that are not appropriate in terms of the relative positional relationship are excluded. Then, among the remaining combinations, the one with the highest result of combining the matching scores is determined as the final two-dimensional eye and nose position. Here, the average value of the matching score of the nose and the matching score of the eyes is used as the composite score. The composite score may be a weighted linear sum, and the weight in that case may be determined in consideration of the reliability of the nose score and the reliability of the eye score.
[0065]
The relative positional relationship between the eyes and the nose is checked by, for example, the following method. That is, as shown in FIG. 20, a vertical bisector is drawn for a line segment connecting the right eye position candidate and the left eye position candidate, and a point A which is separated downward by D1 × r4 on the vertical bisector is centered. , A rectangle having a width D1 × r5 and a height D1 × r6 is set as a nose existence region. Then, when the nose position candidate is not included in the nose existing area, it is determined that the combination of the position candidates is not appropriate in view of the relative positional relationship between the eyes and the nose. Here, D1 is the distance between the position candidates of both eyes, and r4, r5, and r6 are values determined by actually measuring a large number of persons.
[0066]
Alternatively, as shown in FIG. 21, from point B, which has moved upward by D2 × r4 from the nose position candidate, width D2 × r7 and height D2 × r8 centering on points B1 and B2 which have moved left and right by D2 / 2. Is set as the one-eye existence area. If the position candidate for one eye is not included in the one eye existence region, it is determined that the combination of the position candidates is not appropriate in view of the relative positional relationship between the eye and the nose. Here, D2 is the distance between the eyes further estimated from the face width estimated from the depth value of the face, and r4, r7, and r8 are values determined by actually measuring many persons.
[0067]
Note that, for the P nose position candidates calculated in step S232, the one-eye existence region as shown in FIG. 20 may be set as the eye search region in the luminance image, and the eye position may be searched only from within that region. . In this case, the end result is equal to the above example. Depending on the number of Ps, the search area becomes smaller than that of the belt-shaped region as shown in FIG. 18, so that an improvement in processing speed can be expected.
[0068]
Conversely, the eye position is first searched from the luminance image to obtain a position candidate, and then the nose existence area as shown in FIG. 19 is set as the nose search area, and the nose position is searched only from within the area in the distance image. It is also possible. However, since there are more places in the luminance image similar to the eyes in the luminance image than in the distance image having a shape similar to the nose, it is more efficient to search the nose from the distance image first.
[0069]
In addition, an ideal positional relationship between the nose position and both eyes is defined, and an evaluation function is defined such that the value becomes closer to 0 as the position deviates from the positional relationship and becomes closer to 1 as the position approaches. Even if the composite score of the nose matching score and the eye matching score multiplied by the value of this evaluation function is defined as an integrated score, and the highest integrated score is determined as the final two-dimensional eye and nose position, Good.
[0070]
As described above, the position of the nose is searched from the distance image, the position of the eye is searched from the luminance image, and the position of the eye is finally determined using the relative positional relationship between the two. Thus, detection errors such as erroneous detection of eyebrows, eyeglass frames, mouth, etc. similar to eyes can be greatly reduced.
[0071]
Then, in step S236, the depth value of the eye is estimated. That is, from the two-dimensional position of the eye determined in step S235, the three-dimensional position of the eye is obtained using the already acquired distance image.
[0072]
FIG. 22 shows a C-XYZ camera coordinate system. In FIG. 22, the Z axis is the optical axis of the camera, and it is assumed that a virtual image plane having the origin at the image center c is located at a position apart from the lens center C on the Z axis by the focal length f. The depth value ZM of the measurement point M corresponding to the point m (xm, ym) on the image plane can be calculated as a pixel value corresponding to (xm, ym) in the distance image. Therefore, a three-dimensional position in camera coordinates can be calculated as XM = ZM · xm / f and YM = ZM · ym / f. In order to convert from the coordinate system of the luminance image and the distance image to the coordinate system on the virtual image plane in FIG. 21, the internal parameters (including f) of the camera may be obtained in advance. In addition, since there is distortion around the lens, distortion correction is performed in advance.
[0073]
As described above, by using the luminance image and the distance image together, the three-dimensional positions of the eyes and the nose can be easily determined.
[0074]
The LED array range finder used in the present embodiment has achieved a relative measurement error of 1% (5 mm error even when the measurement distance is 500 mm) as a result of the actual development of the system by the present inventors. In the case where the unevenness of the subject is gentle, smoothing the peripheral distance further increases the reliability of the measured distance. That is, when it is desired to measure the distance of a specific pixel in a two-dimensional image, there is a method of measuring with a spot sensor such as an ultrasonic sensor. However, as in the present embodiment, by using a distance image acquired by a range finder, Since the distance value around the specific pixel can be effectively used, stable distance measurement can be performed.
[0075]
Next, in step S30, the iris image is photographed by pointing the telephoto camera at the three-dimensional position of the eye. Then, in step S40, iris authentication is performed from the captured eye image. The iris authentication may be performed, for example, by the method described in Japanese Patent Publication No. Hei 8-504979.
[0076]
As described above, according to the present embodiment, the position of the nose having the characteristic of the three-dimensional shape is searched for in the distance image, and the position of the eye having the characteristic of luminance is searched for in the luminance image. Then, the position of the eyes is finally determined with reference to the information on the relative positional relationship between the eyes and the nose. That is, the position of the eyes can be detected with higher accuracy than before.
[0077]
In step S236, the eye distance value may be determined using the distance value of the cheek periphery in the distance image. As described above, when the distance is measured based on the light intensity ratio as in the present embodiment, the distance measurement error is reduced in an area where the reflectance is low or an area where specular reflection occurs instead of diffuse reflection. growing. It is considered that the depth value near the eye has a large error at the following points.
・ If the iris is dark brown, the reflectance is low
・ Specular reflection occurs on the surface of the cornea
When the subject person is wearing glasses, dark frames have low reflectance. Also, specular reflection by a lens or a metal frame may be located near the eyes.
[0078]
Therefore, instead of the depth value near the eyes, the depth value around the cheek is calculated, and the depth value of the eyes is indirectly estimated. FIG. 23 is a view of a certain person from the side, and the depth value of the eyes is almost the same as the cheek near the side of the nose. When the inventor of the present application observed the profile of a plurality of persons in the same manner, it was found that the depth value of the eyes was almost the same as that of the cheeks, or was slightly behind (about 1 cm at most). Therefore, here, the depth value of the eyes = the depth value of the cheek + 0.5 cm.
[0079]
The cheek depth value is obtained as follows. As shown in FIG. 24, a line segment (length D) connecting both eye positions is translated downward by a distance D × r9, and a circle having a radius D × r10 centered on both ends C1 and C2 is set as a cheek region. I do. Then, the average value of the pixel values of the distance image in the cheek region is set as the cheek depth value. Here, r9 and r10 are obtained experimentally, and here, r9 = 0.65 and r10 = 0.1.
[0080]
However, in this method, a necessary condition is that the head of the person is not inclined forward, backward, left and right. Here, this method was adopted on the assumption that the person to be authenticated would cooperate with the photographing for the purpose of personal authentication. On the other hand, in the case of an application that allows a slightly more free posture to the person as the subject, the posture of the face is estimated from the distance image and the luminance image, and the depth value of the cheek is calculated in consideration of the inclination of the face. It needs to be converted to an eye depth value.
[0081]
In the present embodiment, as shown in FIGS. 1 and 2, the light source 101 and the camera 102 of the range finder are arranged vertically, but the arrangement is not particularly limited to this, and the camera is located above. The light source may be below. Of course, the camera and the light source may be arranged on the left and right. A plurality of light sources may be provided in order to improve the distance measurement accuracy.
[0082]
Further, in the present embodiment, the explanation has been made on the assumption that the authentication is performed by comparing the data with a plurality of persons registered in advance to determine which person is 1: N authentication. In this case, in the authentication device, the average of the face width, the relative positional relationship between the nose and the eyes, the shape of the eye template and the shape of the nose template are used for a plurality of persons. On the other hand, in the case of 1: 1 authentication, the authenticated person declares his / her own ID to the authentication device, and determines whether the individual registered in advance with the declared ID matches the authenticated person. Is prepared for each individual such as the face width, the relative positional relationship between the nose and the eyes, and the shapes of the eye template and the nose template. For this reason, more accurate detection becomes possible. For inputting an ID, a key input, an ID card (including a non-contact ID card), a voice input, and the like can be used.
[0083]
Further, in the present invention, the range finder of the method as shown in the present embodiment is not essential, and another method may be adopted as long as a range image can be obtained. For example, it can be used in combination with other distance measuring methods such as a light section method, a moiré method, and stereo vision. In the present embodiment, the luminance image is generated from the original luminance image obtained from the range finder. However, another generation method may be used. For example, a dedicated photographing system for obtaining a luminance image may be provided. However, it is necessary that each coordinate of the luminance image is associated with the distance image.
[0084]
In the present embodiment, the three-dimensional position of the eye is detected to perform iris authentication. However, the applicable range of the object position detection according to the present invention is not limited to this. For example, the present invention may be used when detecting a two-dimensional position of a face part such as an eye, a nose, and a mouth for face authentication. That is, the nose position may be searched from the distance image, the eyes and the mouth may be searched from the luminance image, and the final position of the face part may be determined from the relative positional relationship between the candidates for the face part.
[0085]
Of course, it can also be used to detect objects other than the nose, which have a characteristic shape (distance), and objects other than the eyes, which have a characteristic density pattern (luminance). For example, in the case of an artificial object such as a robot, if a part having a characteristic in shape and a part having a characteristic in a concentration pattern are designed, the present invention can be used in detecting these parts. .
[0086]
As described in the present invention, the following advantages are obtained by performing position detection by separating a portion having a characteristic in a shape and a portion having a characteristic in a density pattern. If a part having a characteristic in the density pattern has a characteristic shape, the appearance of the density pattern changes depending on the viewpoint, and it may be difficult to detect the part from the luminance image. In addition, when a part having a characteristic shape has a characteristic density pattern, if the shape is measured by a range finder as in the present embodiment, the intensity of the reflected light is affected by the density pattern of the subject. In other words, when a portion having a low reflectance occurs, an error in shape measurement may increase. Therefore, by separately detecting a part having a characteristic in shape and a part having a characteristic in a density pattern, detecting each of them, and performing a final position detection based on a relative positional relationship between the two, thereby achieving detection accuracy. Is significantly improved.
[0087]
【The invention's effect】
As described above, according to the present invention, like the nose and the eyes, one has a feature in a three-dimensional shape and is easily searched for in a distance image, and the other has a feature in brightness and is easy to search in a brightness image. In addition, the position of an object whose relative positional relationship is known can be detected with high accuracy.
[Brief description of the drawings]
FIG. 1 is a front view of an iris authentication device according to an embodiment of the present invention.
FIG. 2 is a side view of the iris authentication device of FIG. 1;
FIG. 3 is a block diagram functionally showing a configuration of an object position detection device according to an embodiment of the present invention.
FIG. 4 is a schematic diagram of a person image captured by the iris authentication device of FIG. 1;
FIG. 5 is an example of an optical pattern projected by a range finder.
FIG. 6 is a flowchart illustrating an operation of the iris authentication device of FIG. 1;
FIG. 7 is a flowchart showing details of step S20 in FIG. 6;
8 is a flowchart showing details of step S23 in FIG. 7, and is a diagram showing an object position detection method according to an embodiment of the present invention.
FIG. 9 is a diagram showing switching timing of two types of optical patterns.
FIG. 10 is an example of a distance value histogram obtained from a distance image.
FIG. 11 is an example of a binarized distance image.
FIG. 12 is an example of a histogram created by projecting the binarized distance image of FIG. 11 in the horizontal direction.
13 is a diagram showing the upper and lower ranges of a determined face area in the binarized distance image of FIG. 11;
FIG. 14 is an example of a histogram obtained by vertically projecting a binarized distance image cut in the upper and lower ranges in FIG. 13;
FIG. 15 is a diagram showing a determined face area in the binarized distance image of FIG. 11;
FIG. 16 is an example of a nose template composed of distance values.
FIG. 17 is a diagram showing a nose search area set in a face area of a distance image.
FIG. 18 is a diagram illustrating an eye search area set in a face area of a luminance image.
FIG. 19 is an example of an eye template composed of luminance gradient direction vectors.
FIG. 20 is a diagram showing a positional relationship between the positions of both eyes and a nose existence region.
FIG. 21 is a diagram showing a positional relationship between a nose position and regions where both eyes are present.
FIG. 22 is a diagram illustrating a relationship between an image coordinate system and a camera coordinate system.
FIG. 23 is a diagram showing a profile of a person.
FIG. 24 is a diagram illustrating a cheek region used for estimating an eye depth value.
[Explanation of symbols]
100 range finder
101 Lighting for wide-angle camera (light source array)
102 camera
106 light source control unit
107 Image processing unit
108 Search Unit
PP person (subject)
NS nose (first object)
EY eyes (second object)

Claims (11)

被写体について、距離画像を得るステップと、
前記被写体について、前記距離画像と各座標が対応付けられた輝度画像を得るステップと、
前記距離画像において、第1の物体の位置を探索するとともに、前記輝度画像において、第2の物体の位置を探索するステップとを備え、
前記探索ステップにおいて、前記第1および第2の物体の相対的な位置関係の情報を参照して、前記第1および第2の物体の少なくともいずれか一方の、2次元位置を決定する
ことを特徴とする物体位置検出方法。
Obtaining a distance image of the subject;
Obtaining a luminance image in which the distance image and each coordinate are associated with the subject;
Searching for the position of a first object in the distance image, and searching for the position of a second object in the luminance image,
In the searching step, a two-dimensional position of at least one of the first and second objects is determined with reference to information on a relative positional relationship between the first and second objects. Object position detection method.
請求項1において、
前記探索ステップにおいて、
前記第1の物体の探索の結果得られた位置候補に応じて、前記輝度画像における探索領域を絞り込み、
この絞り込まれた探索領域において、前記第2の物体の位置を探索する
ことを特徴とする物体位置検出方法。
In claim 1,
In the searching step,
A search area in the luminance image is narrowed down according to a position candidate obtained as a result of the search for the first object,
An object position detection method, wherein the position of the second object is searched in the narrowed search area.
請求項1において、
2次元位置が決定された前記第1および第2の物体の少なくともいずれか一方について、前記距離画像と、決定された2次元位置とを用いて、3次元位置を決定するステップを備えた
ことを特徴とする物体位置検出方法。
In claim 1,
Determining, for at least one of the first and second objects whose two-dimensional position has been determined, a three-dimensional position using the distance image and the determined two-dimensional position. An object position detection method that is a feature.
請求項1において、
前記被写体は、人物であり、
前記第1の物体は鼻であり、前記第2の物体は目である
ことを特徴とする物体位置検出方法。
In claim 1,
The subject is a person,
The object position detection method according to claim 1, wherein the first object is a nose, and the second object is an eye.
請求項4において、
目の距離値を、距離画像における頬周辺の距離値を用いて、決定するステップを備えた
ことを特徴とする物体位置検出方法。
In claim 4,
An object position detection method, comprising: determining an eye distance value using a distance value around a cheek in a distance image.
請求項1において、
前記探索ステップにおいて、
前記第1の物体の位置の探索を、前記距離画像と、前記第1の物体の距離値から構成された距離テンプレートとのマッチングによって、行う
ことを特徴とする物体位置検出方法。
In claim 1,
In the searching step,
An object position detection method, wherein the search for the position of the first object is performed by matching the distance image with a distance template composed of distance values of the first object.
請求項6において、
前記距離画像から、前記被写体の概略距離を算出し、この概略距離と、前記距離画像を撮影したカメラの画角と、前記第1の物体の推定サイズとを基にして、前記距離テンプレートのサイズを決定するステップを備えた
ことを特徴とする物体位置検出方法。
In claim 6,
From the distance image, the approximate distance of the subject is calculated, and based on the approximate distance, the angle of view of the camera that captured the distance image, and the estimated size of the first object, the size of the distance template is calculated. Determining an object position.
被写体について、距離画像を取得する距離画像取得部と、
前記被写体について、前記距離画像と各座標が対応付けられた輝度画像を取得する輝度画像取得部と、
前記距離画像において、第1の物体の位置を探索するとともに、前記輝度画像において、第2の物体の位置を探索する探索部とを備え、
前記探索部は、前記第1および第2の物体の相対的な位置関係の情報を参照して、前記第1および第2の物体の少なくともいずれか一方の、2次元位置を決定するものである
ことを特徴とする物体位置検出装置。
For a subject, a distance image acquisition unit that acquires a distance image,
For the subject, a luminance image acquisition unit that acquires a luminance image in which the distance image and each coordinate are associated,
A search unit that searches for the position of a first object in the distance image and searches for the position of a second object in the luminance image;
The search unit determines a two-dimensional position of at least one of the first and second objects with reference to information on a relative positional relationship between the first and second objects. An object position detecting device, characterized in that:
請求項8において、
前記探索部は、
前記第1の物体の探索の結果得られた位置候補に応じて、前記輝度画像における探索領域を絞り込み、
この絞り込まれた探索領域において、前記第2の物体の位置を探索するものである
ことを特徴とする物体位置検出装置。
In claim 8,
The search unit,
A search area in the luminance image is narrowed down according to a position candidate obtained as a result of the search for the first object,
An object position detecting device for searching the position of the second object in the narrowed search area.
請求項8において、
前記距離画像取得部は、レンジファインダを備えており、
前記レンジファインダは、
複数の光源が配列された光源アレイ部と、
前記光源アレイ部の各光源の発光様態を制御することによって、前記光源アレイ部から、少なくとも2種類の光パタンを投射させる光源制御部と、
前記光源アレイ部から投射された各光パタンに対する前記被写体からの反射光を、それぞれ原輝度画像として撮影するカメラと、
前記カメラによって撮像された原輝度画像から、前記距離画像を得る画像処理部とを備えたものであり、
前記輝度画像取得部は、前記レンジファインダの前記カメラによって撮像された原輝度画像の少なくとも1つから、前記輝度画像を得るものである
ことを特徴とする物体位置検出装置。
In claim 8,
The range image acquisition unit includes a range finder,
The range finder is
A light source array unit in which a plurality of light sources are arranged,
A light source control unit that projects at least two types of light patterns from the light source array unit by controlling a light emission mode of each light source of the light source array unit;
A camera that captures reflected light from the subject for each light pattern projected from the light source array unit as an original luminance image,
An image processing unit that obtains the distance image from an original luminance image captured by the camera,
The object position detection device according to claim 1, wherein the luminance image acquisition unit is configured to obtain the luminance image from at least one of original luminance images captured by the camera of the range finder.
被写体について、距離画像を得るステップと、
前記距離画像において、物体の位置を探索するステップとを備え、
前記探索ステップにおいて、
前記物体の位置の探索を、前記距離画像と、前記物体の距離値から構成された距離テンプレートとのマッチングによって、行う
ことを特徴とする物体の位置検出方法。
Obtaining a distance image of the subject;
Searching the position of the object in the distance image,
In the searching step,
A method for detecting the position of an object, wherein the search for the position of the object is performed by matching the distance image with a distance template composed of distance values of the object.
JP2002194288A 2002-07-03 2002-07-03 Method and device for detecting position of object Pending JP2004038531A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002194288A JP2004038531A (en) 2002-07-03 2002-07-03 Method and device for detecting position of object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002194288A JP2004038531A (en) 2002-07-03 2002-07-03 Method and device for detecting position of object

Publications (1)

Publication Number Publication Date
JP2004038531A true JP2004038531A (en) 2004-02-05

Family

ID=31703019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002194288A Pending JP2004038531A (en) 2002-07-03 2002-07-03 Method and device for detecting position of object

Country Status (1)

Country Link
JP (1) JP2004038531A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059015A (en) * 2004-08-18 2006-03-02 Sony Corp Human body detector, human body detection method, and computer program
JP2008033626A (en) * 2006-07-28 2008-02-14 Kddi Corp Face detector
JP2008298741A (en) * 2007-06-04 2008-12-11 Toyota Central R&D Labs Inc Distance measuring apparatus and distance measuring method
JP2012093295A (en) * 2010-10-28 2012-05-17 Shigenori Tanaka Target region extractor
US8264327B2 (en) 2008-06-16 2012-09-11 Canon Kabushiki Kaisha Authentication apparatus, image sensing apparatus, authentication method and program therefor
JP2014142832A (en) * 2013-01-24 2014-08-07 Canon Inc Image processing apparatus, control method of image processing apparatus, and program
US8879802B2 (en) 2010-12-01 2014-11-04 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2017033132A (en) * 2015-07-30 2017-02-09 パナソニックIpマネジメント株式会社 Face authentication apparatus
JP2017166915A (en) * 2016-03-15 2017-09-21 キヤノン株式会社 Information processing apparatus, information processing method, and program
WO2020049933A1 (en) * 2018-09-05 2020-03-12 日本電産株式会社 Object recognition device and object recognition method
JP2022137198A (en) * 2018-06-15 2022-09-21 カシオ計算機株式会社 Image processor, image-processing method, and image-processing program
WO2023166629A1 (en) * 2022-03-02 2023-09-07 日本電気株式会社 Information processing system, information processing method, and recording medium

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4604606B2 (en) * 2004-08-18 2011-01-05 ソニー株式会社 Face detection apparatus, face detection method, and computer program
JP2006059015A (en) * 2004-08-18 2006-03-02 Sony Corp Human body detector, human body detection method, and computer program
JP2008033626A (en) * 2006-07-28 2008-02-14 Kddi Corp Face detector
JP2008298741A (en) * 2007-06-04 2008-12-11 Toyota Central R&D Labs Inc Distance measuring apparatus and distance measuring method
US8264327B2 (en) 2008-06-16 2012-09-11 Canon Kabushiki Kaisha Authentication apparatus, image sensing apparatus, authentication method and program therefor
JP2012093295A (en) * 2010-10-28 2012-05-17 Shigenori Tanaka Target region extractor
US8879802B2 (en) 2010-12-01 2014-11-04 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2014142832A (en) * 2013-01-24 2014-08-07 Canon Inc Image processing apparatus, control method of image processing apparatus, and program
JP2017033132A (en) * 2015-07-30 2017-02-09 パナソニックIpマネジメント株式会社 Face authentication apparatus
JP2017166915A (en) * 2016-03-15 2017-09-21 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2022137198A (en) * 2018-06-15 2022-09-21 カシオ計算機株式会社 Image processor, image-processing method, and image-processing program
JP7428208B2 (en) 2018-06-15 2024-02-06 カシオ計算機株式会社 Image processing device, image processing method, and image processing program
WO2020049933A1 (en) * 2018-09-05 2020-03-12 日本電産株式会社 Object recognition device and object recognition method
WO2023166629A1 (en) * 2022-03-02 2023-09-07 日本電気株式会社 Information processing system, information processing method, and recording medium

Similar Documents

Publication Publication Date Title
KR102561723B1 (en) System and method for performing fingerprint-based user authentication using images captured using a mobile device
JP4238542B2 (en) Face orientation estimation apparatus, face orientation estimation method, and face orientation estimation program
TWI224287B (en) Iris extraction method
JP4307496B2 (en) Facial part detection device and program
Gu et al. Feature points extraction from faces
JP4445454B2 (en) Face center position detection device, face center position detection method, and program
KR20180102637A (en) Systems and methods of biometric analysis
JP5578603B2 (en) Gaze control device, gaze control method, and program thereof
CN105740778B (en) Improved three-dimensional human face in-vivo detection method and device
US10311583B2 (en) Eye motion detection method, program, program storage medium, and eye motion detection device
JP3926507B2 (en) Eye position and face position detection device
Tsalakanidou et al. Real-time acquisition of depth and color images using structured light and its application to 3D face recognition
JP2004038531A (en) Method and device for detecting position of object
KR20120006819A (en) Gaze detection method and system adopting the same
US8692875B2 (en) Biometric data acquiring device and biometric authentication device
JP2003150942A (en) Eye position tracing method
CN111291701A (en) Sight tracking method based on image gradient and ellipse fitting algorithm
JP5419757B2 (en) Face image synthesizer
JP5429885B2 (en) Feature point tracking method and feature point tracking device
JP4082203B2 (en) Open / close eye determination device
JP7228885B2 (en) Pupil detector
JP2004192552A (en) Eye opening/closing determining apparatus
JP2011210118A (en) Face image synthesizing apparatus
KR20110006062A (en) System and method for face recognition
Wallhoff et al. Multimodal face detection, head orientation and eye gaze tracking