JP2007164669A - Three-dimensional pattern position/attitude detector - Google Patents

Three-dimensional pattern position/attitude detector Download PDF

Info

Publication number
JP2007164669A
JP2007164669A JP2005362972A JP2005362972A JP2007164669A JP 2007164669 A JP2007164669 A JP 2007164669A JP 2005362972 A JP2005362972 A JP 2005362972A JP 2005362972 A JP2005362972 A JP 2005362972A JP 2007164669 A JP2007164669 A JP 2007164669A
Authority
JP
Japan
Prior art keywords
pattern
dimensional
dimensional pattern
face
reference template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005362972A
Other languages
Japanese (ja)
Other versions
JP4758218B2 (en
Inventor
Hiroshi Nakajima
寛 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Azbil Corp
Original Assignee
Azbil Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Azbil Corp filed Critical Azbil Corp
Priority to JP2005362972A priority Critical patent/JP4758218B2/en
Publication of JP2007164669A publication Critical patent/JP2007164669A/en
Application granted granted Critical
Publication of JP4758218B2 publication Critical patent/JP4758218B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To precisely and surely detect the position and attitude of a three-dimensional pattern of a three-dimensional object imaged. <P>SOLUTION: A reference template PR is decided with respect to the detection object (human face). The reference template PR is formed into a three-dimensional pattern by using a three-dimensional pattern of a marked portion (head of a nose, line of nose) as a reference position and a reference attitude. The three-dimensional pattern PX of the detection object imaged is aligned to the reference template PR by an ICP algorithm, so as to detect the position and the attitude of the three-dimensional pattern PX of the detection object, in a position/attitude detecting part 3. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、検出対象として人間の顔などの立体物を撮像し、この撮像された立体物の3次元パターンの位置および姿勢を検出する3次元パターン位置・姿勢検出装置に関するものである。   The present invention relates to a three-dimensional pattern position / posture detection apparatus that picks up a three-dimensional object such as a human face as a detection target and detects the position and posture of the three-dimensional pattern of the picked-up three-dimensional object.

近年、コンピュータ室や重要機械室への入退室管理、コンピュータ端末や銀行の金融端末へのアクセス管理などの個人認証を必要とする分野において、これまでの暗証番号やIDカードに代わって、人間の顔や静脈など3次元の生体情報(バイオメトリクス)に基づいて個人認証を行う装置が開発されている。   In recent years, in fields that require personal authentication, such as access control to computer rooms and important machine rooms, and access control to computer terminals and financial terminals of banks, instead of conventional passwords and ID cards, Devices for performing personal authentication based on three-dimensional biological information (biometrics) such as a face and a vein have been developed.

例えば、検出対象(立体物)を互いに異なる位置から2台のカメラで撮像し、そのステレオ画像を基に撮像した立体物の各部分の凹凸を計測して3次元空間内における立体物の位置と姿勢を含む3次元パターンを作成し、登録時に得られた「登録3次元パターン」と照合時に得られた「照合3次元パターン」との間で照合を行う3次元パターン照合装置が提案されている(特許文献1参照)。   For example, the detection target (three-dimensional object) is imaged by two cameras from different positions, the unevenness of each part of the three-dimensional object imaged based on the stereo image is measured, and the position of the three-dimensional object in the three-dimensional space There has been proposed a three-dimensional pattern matching device that creates a three-dimensional pattern including a posture and performs matching between a “registered three-dimensional pattern” obtained at the time of registration and a “collation three-dimensional pattern” obtained at the time of matching. (See Patent Document 1).

この3次元パターン照合装置において、照合3次元パターンと登録3次元パターンとは、照合精度を高めるうえで、その3次元パターンの位置ずれ(X,Y,Z軸方向のずれ)や回転ずれ(X,Y,Z軸の軸回りのずれ)を正確に求め、照合3次元パターンと登録3次元パターンとの位置および姿勢を合わせたうえで照合することが重要である。   In this three-dimensional pattern collation apparatus, the collation three-dimensional pattern and the registered three-dimensional pattern are used to increase the collation accuracy, and the positional deviation (X, Y, Z-axis direction deviation) or rotational deviation (X It is important to accurately obtain the deviations of the Y, Z, and Z axes and match the positions and orientations of the matching three-dimensional pattern and the registered three-dimensional pattern.

従来より、3次元パターンの位置および姿勢を合わせる手法として、ICP(Iterative Closest Point )アルゴリズムがある(特許文献2参照)。このICPアルゴリズムでは、登録3次元パターンのデータをM、照合3次元パターンのデータをM’とした場合、照合3次元パターンと登録3次元パターンとの位置および姿勢は次の(1)〜(4)のようにして合わせられる。   Conventionally, there is an ICP (Iterative Closest Point) algorithm as a method for matching the position and orientation of a three-dimensional pattern (see Patent Document 2). In this ICP algorithm, when the registered three-dimensional pattern data is M and the collation three-dimensional pattern data is M ′, the positions and orientations of the collation three-dimensional pattern and the registered three-dimensional pattern are the following (1) to (4 ).

(1)Mに含まれる全ての点miについて、最も近い点mi’をM’の中から探し、得られたmiとmi’の組を対応点の組とする。
(2)現在の対応関係を基にして、2つの3次元パターンのデータM,M’間の最適な運動パターン(回転R,並進t)を最小2乗法により推定する。
(3)上記(2)で得られたRとtを用いて、M’を座標変換する。
(4)Mと座標変換後のM’に対して、Rとtの変化が十分に小さくなり、収束するまで、上記(1)〜(3)を繰り返す。
(1) For all the points mi included in M, the closest point mi ′ is searched from M ′, and the set of obtained mi and mi ′ is set as a set of corresponding points.
(2) Based on the current correspondence relationship, an optimal motion pattern (rotation R, translation t) between the two three-dimensional pattern data M and M ′ is estimated by the least square method.
(3) M ′ is coordinate-transformed using R and t obtained in (2) above.
(4) The above (1) to (3) are repeated until the change in R and t becomes sufficiently small and converges with respect to M and M ′ after coordinate transformation.

この場合、照合3次元パターンの位置および姿勢を登録3次元パターンの位置および姿勢に合わせ込むことによって、その合わせ込んだ結果から登録3次元パターンを基準とする照合3次元パターンの位置および姿勢を検出することができる。   In this case, by matching the position and orientation of the matching 3D pattern with the position and orientation of the registered 3D pattern, the position and orientation of the matching 3D pattern based on the registered 3D pattern are detected from the matching result. can do.

特開平9−259271号公報JP-A-9-259271 特開平9−277184号公報JP-A-9-277184

しかしながら、上述した従来の3次元パターンの位置および姿勢の検出方法では、例えば検出対象を人間の顔のような生体情報とした場合、個人差が顕著であり、登録3次元パターンにおける特徴的な部分の位置や姿勢は定まった位置になるとは限らない。例えば、鼻の頭が低かったり、鼻筋が曲がっていたりすることがある。このような場合、照合3次元パターンと登録3次元パターンとで、対応する点を間違えて位置合わせが行われることがあり、照合3次元パターンの位置および姿勢を正しく検出することができないことがあった。   However, in the above-described conventional method for detecting the position and orientation of the three-dimensional pattern, for example, when the detection target is biological information such as a human face, individual differences are significant, and characteristic portions in the registered three-dimensional pattern The position and posture of the are not always fixed positions. For example, the head of the nose may be low or the nasal muscles may be bent. In such a case, the matching three-dimensional pattern and the registered three-dimensional pattern may be misaligned and corresponding positions may be aligned, and the position and orientation of the matching three-dimensional pattern may not be detected correctly. It was.

本発明は、このような課題を解決するためになされたもので、その目的とするところは、撮像された立体物の3次元パターンの位置および姿勢を正しくかつ確実に検出することが可能な3次元パターン位置・姿勢検出装置を提供することにある。   The present invention has been made to solve such a problem, and an object of the present invention is to be able to correctly and reliably detect the position and posture of a three-dimensional pattern of a three-dimensional imaged object. An object of the present invention is to provide a dimension pattern position / posture detection apparatus.

このような目的を達成するために、第1発明(請求項1に係る発明)は、検出対象として立体物を撮像し、この撮像された立体物の3次元パターンの位置および姿勢を検出する3次元パターン位置・姿勢検出装置において、検出対象に対して定められその注目部分の3次元パターンが基準位置および基準姿勢とされた3次元パターンを基準テンプレートとして記憶する基準テンプレート記憶手段と、基準テンプレートとの位置合わせを行って撮像された立体物の3次元パターンの位置および姿勢を検出する位置・姿勢検出手段とを設けたものである。なお、本発明において、「位置合わせ」とは、「位置」と「姿勢」の両方を合わせることを意味している。   In order to achieve such an object, the first invention (the invention according to claim 1) captures a three-dimensional object as a detection target, and detects the position and orientation of a three-dimensional pattern of the captured three-dimensional object. In the three-dimensional pattern position / posture detection apparatus, a reference template storage means for storing, as a reference template, a reference template storage means for storing a three-dimensional pattern that is determined for a detection target and whose three-dimensional pattern of the target portion is a reference position and reference posture; And a position / posture detecting means for detecting the position and posture of the three-dimensional pattern of the three-dimensional object imaged by performing the above positioning. In the present invention, “alignment” means matching both “position” and “posture”.

本発明では、例えば、検出対象を人間の顔とした場合、撮像された顔の3次元パターンと基準テンプレート(例えば、注目部分として「鼻の頭」を基準位置、「鼻筋」を基準姿勢とした3次元パターン)との位置合わせをICPアルゴリズムなどにより行って、撮像された顔の3次元パターンの位置および姿勢を検出する。
基準テンプレートにおいて、「鼻の頭」や「鼻筋」などの注目部分は基準位置および基準姿勢とされ、個人差がない標準的なものとされている。したがって、撮像された顔の3次元パターンと基準テンプレートとの位置合わせが個人差のない注目部分との対応をとるようにして行われるようになり、対応する点を間違えて位置合わせが行われる虞れが少なくなり、撮像された顔の3次元パターンの位置および姿勢を正しくかつ確実に検出することが可能となる。
In the present invention, for example, when a detection target is a human face, a captured three-dimensional pattern of a face and a reference template (for example, “nose head” as a reference position and “nasal muscle” as a reference posture as a target portion) The position and orientation of the captured three-dimensional pattern of the face are detected by performing alignment with the three-dimensional pattern) using an ICP algorithm or the like.
In the reference template, attention portions such as “nose head” and “nasal muscle” are set as a reference position and a reference posture, and are standard with no individual differences. Accordingly, the alignment of the captured three-dimensional pattern of the face and the reference template is performed so as to correspond to the target portion without individual differences, and the alignment may be performed by mistaken corresponding points. As a result, the position and orientation of the captured three-dimensional pattern of the face can be detected correctly and reliably.

なお、本発明(第1発明)において、例えば、検出対象を人間の顔とし、基準テンプレートに「髪型」が含まれ、基準テンプレートの「髪型」と撮像された顔の「髪型」とが同じであったような場合、「鼻の頭」や「鼻筋」などの注目部分ではなく、「髪型」との対応をとるようにして位置合わせが行われてしまう虞れがある。そこで、第2発明(請求項2に係る発明)では、基準テンプレートを、注目部分を含む注目エリアの3次元パターンとする。例えば、「鼻の頭」や「鼻筋」を含む限られたエリアの3次元パターンを基準テンプレートとし、基準テンプレートから「髪型」などの余計な部分を除外することで、撮像された立体物の3次元パターンの位置および姿勢の検出精度を高める。   In the present invention (first invention), for example, the detection target is a human face, the reference template includes a “hairstyle”, and the “hairstyle” of the reference template is the same as the “hairstyle” of the imaged face. In such a case, there is a possibility that the alignment is performed by taking the correspondence with the “hairstyle”, not the attention portion such as the “nose head” or the “nasal muscle”. Therefore, in the second invention (the invention according to claim 2), the reference template is a three-dimensional pattern of the attention area including the attention portion. For example, a 3D pattern of a limited area including “head of nose” and “nose muscle” is used as a reference template, and an extra portion such as “hairstyle” is excluded from the reference template, thereby 3 Increase the detection accuracy of the position and orientation of the dimensional pattern.

第1発明によれば、検出対象に対してその注目部分の3次元パターンを基準位置および基準姿勢とした基準テンプレートを定め、この基準テンプレートとの位置合わせを行って撮像された立体物の3次元パターンの位置および姿勢を検出するようにしたので、対応する点を間違えて位置合わせが行われる虞れを少なくし、撮像された立体物の3次元パターンの位置および姿勢を正しくかつ確実に検出することが可能となる。   According to the first aspect of the present invention, the reference template is defined with the three-dimensional pattern of the target portion as the reference position and the reference posture for the detection target, and the three-dimensional image of the three-dimensional object imaged by performing alignment with the reference template. Since the position and orientation of the pattern are detected, there is less possibility that the corresponding points will be mistaken for positioning, and the position and orientation of the three-dimensional pattern of the captured three-dimensional object are detected correctly and reliably. It becomes possible.

第2発明によれば、第1発明において、注目部分を含む注目エリアの3次元パターンを基準テンプレートとしたので、例えば「鼻」や「鼻筋」などの注目部分のみを含む限られたエリアの3次元パターンを基準テンプレートとし、基準テンプレートから「髪型」などの余計な部分を除外することで、撮像された立体物の3次元パターンの位置および姿勢の検出精度を高めることが可能となる。   According to the second invention, in the first invention, since the three-dimensional pattern of the attention area including the attention portion is used as the reference template, for example, 3 of the limited area including only the attention portion such as “nose” and “nasal muscle”. By using a dimensional pattern as a reference template and excluding extra portions such as “hairstyle” from the reference template, it is possible to improve the detection accuracy of the position and orientation of the three-dimensional pattern of the captured three-dimensional object.

以下、本発明を図面に基づいて詳細に説明する。
〔実施の形態1:3次元パターン位置・姿勢検出装置〕
図1は本発明に係る3次元パターン位置・姿勢検出装置の一実施の形態の要部を示すブロック図である。
Hereinafter, the present invention will be described in detail with reference to the drawings.
[Embodiment 1: Three-dimensional pattern position / posture detection apparatus]
FIG. 1 is a block diagram showing a main part of an embodiment of a three-dimensional pattern position / posture detection apparatus according to the present invention.

同図において、1は検出対象として人間の顔を2台のカメラ1−1および1−2で撮像し、そのステレオ画像を基に撮像した顔の各部分の凹凸を計測して3次元パターン(検出対象3次元顔パターン)PXを作成する3次元パターン作成部、2は検出対象(人間の顔)に対して定められた基準テンプレートPRを記憶する基準テンプレート記憶部、3は3次元パターン作成部1から送られてくる検出対象3次元顔パターンPXと基準テンプレート記憶部2から読み出した基準テンプレートPRとの位置合わせを行って検出対象3次元顔パターンPXの位置および姿勢を検出する位置・姿勢検出部である。   In the figure, reference numeral 1 denotes a human face as a detection target, which is imaged by two cameras 1-1 and 1-2, and the three-dimensional pattern ( Detection target 3D face pattern) 3D pattern generation unit for generating PX, 2 is a reference template storage unit for storing a reference template PR determined for the detection target (human face), 3 is a 3D pattern generation unit Position / attitude detection for detecting the position and orientation of the detection target 3D face pattern PX by aligning the detection target 3D face pattern PX sent from 1 with the reference template PR read from the reference template storage unit 2 Part.

この実施の形態において、基準テンプレートPRは、例えば、検出対象である人間の顔の平均的な3次元パターン(平均3次元顔パターン)を作成し、この平均3次元顔パターンから注目部分として「鼻の頭」および「鼻筋」を含む注目エリアの3次元パターンを抽出し、その抽出した注目エリアの3次元パターンの「鼻の頭(A)」をX=0,Y=0,Z=0として基準位置とし、「鼻筋(B)」をY軸に位置させて基準姿勢としたものである。図4に人間の顔における注目エリアARとこの注目エリアARに含まれる注目部分TAとの関係を示す。本実施の形態では、鼻を中心とし、目や口、髪を含まないエリアとして、注目エリアARを定めている。   In this embodiment, the reference template PR creates, for example, an average three-dimensional pattern (average three-dimensional face pattern) of a human face that is a detection target, and “nose” as a target portion from the average three-dimensional face pattern. 3D pattern of the attention area including “head of nose” and “nose muscle” is extracted, and “nose head (A)” of the extracted three-dimensional pattern of the attention area is set as X = 0, Y = 0, Z = 0. The reference position is set, and the "nose muscle (B)" is positioned on the Y-axis to obtain the reference posture. FIG. 4 shows the relationship between the attention area AR on the human face and the attention portion TA included in the attention area AR. In the present embodiment, the attention area AR is defined as an area centering on the nose and not including eyes, mouth and hair.

なお、鼻の頭の位置、鼻筋ラインを合わせて単純に3次元的な平均を求めると、平均3次元顔パターン(平均顔)ができる。また、2つの目と鼻の位置で大きさを正規化して平均化し、平均顔を作成してもよい。   If the three-dimensional average is simply obtained by combining the position of the head of the nose and the nose muscle line, an average three-dimensional face pattern (average face) can be obtained. Also, the average face may be created by normalizing and averaging the sizes of the positions of the two eyes and the nose.

この実施の形態において、位置・姿勢検出部3は、検出対象3次元顔パターンPXと基準テンプレートPRとの位置合わせをICPアルゴリズムにより行って、検出対象3次元顔パターンPXの位置および姿勢を検出する。この場合、基準テンプレートPRのデータをM、検出対象3次元顔パターンPXのデータをM’とし、検出対象3次元顔パターンPXと基準テンプレートPRとの位置および姿勢を次の(1)〜(4)のようにして合わせ込むことによって、基準テンプレートPRを基準とする検出対象3次元顔パターンPXの位置および姿勢を検出する。   In this embodiment, the position / posture detection unit 3 detects the position and posture of the detection target three-dimensional face pattern PX by aligning the detection target three-dimensional face pattern PX and the reference template PR using the ICP algorithm. . In this case, the data of the reference template PR is M, the data of the detection target three-dimensional face pattern PX is M ′, and the positions and orientations of the detection target three-dimensional face pattern PX and the reference template PR are the following (1) to (4 ) To detect the position and orientation of the detection target three-dimensional face pattern PX with reference to the reference template PR.

(1)Mに含まれる全ての点miについて、最も近い点mi’をM’の中から探し、得られたmiとmi’の組を対応点の組とする。
(2)現在の対応関係を基にして、2つの3次元パターンのデータM,M’間の最適な運動パターン(回転R,並進t)を最小2乗法により推定する。
(3)上記(2)で得られたRとtを用いて、M’を座標変換する。
(4)Mと座標変換後のM’に対して、Rとtの変化が十分に小さくなり、収束するまで、上記(1)〜(3)を繰り返す。
(1) For all the points mi included in M, the closest point mi ′ is searched from M ′, and the set of obtained mi and mi ′ is set as a set of corresponding points.
(2) Based on the current correspondence relationship, an optimal motion pattern (rotation R, translation t) between the two three-dimensional pattern data M and M ′ is estimated by the least square method.
(3) M ′ is coordinate-transformed using R and t obtained in (2) above.
(4) The above (1) to (3) are repeated until changes in R and t become sufficiently small and converge with respect to M and M ′ after coordinate transformation.

なお、本実施の形態では、計算を高速化するために、ICPアルゴリズムの初期段階では、少ない数の対応点を使用して大まかな位置合わせを行い、処理が進むにつれて徐々に対応点の数を増やし、位置を合わせるようにしている。   In this embodiment, in order to speed up the calculation, in the initial stage of the ICP algorithm, rough alignment is performed using a small number of corresponding points, and the number of corresponding points is gradually increased as the processing proceeds. Increase and adjust the position.

基準テンプレートPRにおいて、「鼻の頭(A)」や「鼻筋(B)」は基準位置および基準姿勢とされ、個人差がない標準的なものとされている。したがって、検出対象3次元顔パターンPXと基準テンプレートPRとの位置合わせが、基準テンプレートPR中の個人差のない「鼻の頭(A)」や「鼻筋(B)」との対応をとるようにして行われるようになる。これにより、対応する点を間違えて位置合わせが行われる虞れが少なくなり、検出対象3次元顔パターンPXの位置および姿勢を正しくかつ確実に検出することができるようになる。   In the reference template PR, “head of nose (A)” and “nose muscle (B)” are set as reference positions and reference postures, and are standard with no individual differences. Therefore, the alignment between the detection target three-dimensional face pattern PX and the reference template PR corresponds to “nose head (A)” and “nasal muscle (B)” in the reference template PR without individual differences. Will be done. As a result, the possibility that the corresponding points are mistakenly aligned is reduced, and the position and orientation of the detection target three-dimensional face pattern PX can be detected correctly and reliably.

また、本実施の形態では、「鼻の頭(A)」や「鼻筋(B)」を含む限られたエリアの3次元パターンを基準テンプレートPRとしているので、すなわち基準テンプレートPRから「髪型」など余計な部分を除外しているので、「髪型」との対応をとるようにして位置合わせが行われてしまう虞れがなく、検出対象3次元顔パターンPXの位置および姿勢の検出精度が高まる。   In the present embodiment, the three-dimensional pattern of a limited area including “nose head (A)” and “nose muscle (B)” is used as the reference template PR, that is, from the reference template PR to “hairstyle” and the like. Since unnecessary portions are excluded, there is no fear that the alignment is performed so as to correspond to the “hairstyle”, and the detection accuracy of the position and orientation of the detection target three-dimensional face pattern PX is increased.

なお、本実施の形態において、基準テンプレートPRには「鼻」だけではなく、「目」や「口」などを注目部分として含ませるようにしてもよい。また、人間の顔の平均的な3次元パターン(平均顔)を作成するのではなく、平均と思われる人の顔の3次元パターンから注目部分を抽出し、基準テンプレートPRを作成するようにしてもよい。また、世界的に見た場合、国や地域によって人間の顔の平均的な3次元パターンは異なると考えられ、国や地域毎に代表的な基準テンプレートPRを作るようにしてもよい。また、基準テンプレートPRに含ませる注目部分を手動で指定するようにしてもよい。   In the present embodiment, the reference template PR may include not only “nose” but also “eyes”, “mouth”, and the like as attention parts. Also, instead of creating an average three-dimensional pattern (average face) of a human face, a reference portion PR is created by extracting a target portion from a three-dimensional pattern of a human face that seems to be an average. Also good. Further, when viewed globally, it is considered that the average three-dimensional pattern of a human face differs depending on the country or region, and a representative reference template PR may be created for each country or region. Further, the target portion to be included in the reference template PR may be manually designated.

また、本実施の形態では、検出対象を人間の顔としたが、検出対象は人間の顔に限られるものではなく、人間の顔のように高い部分と低い部分とがその特徴として必ず存在する立体物であれば、人間の顔の場合と同様にしてその立体物の位置や姿勢を検出することが可能である。   In the present embodiment, the detection target is a human face, but the detection target is not limited to a human face, and there are always high and low parts as human features. In the case of a three-dimensional object, the position and posture of the three-dimensional object can be detected in the same manner as in the case of a human face.

また、本実施の形態では、検出対象3次元顔パターンPXと基準テンプレートPRとの位置合わせをICPアルゴリズムによって行うようにしたが、必ずしもICPアルゴリズムによらなくてもよい。   Further, in the present embodiment, the alignment of the detection target three-dimensional face pattern PX and the reference template PR is performed by the ICP algorithm, but the ICP algorithm need not necessarily be used.

〔実施の形態2:3次元パターン照合装置(1:1照合)〕
図2は本発明に係る3次元パターン位置・姿勢検出装置を含む3次元パターン照合装置の一実施の形態の要部を示すブロック図である。同図において、図1と同一符号は図1を参照して説明した構成要素と同一或いは同等構成要素を示し、その説明は省略する。
[Embodiment 2: Three-dimensional pattern matching device (1: 1 matching)]
FIG. 2 is a block diagram showing a main part of an embodiment of a three-dimensional pattern matching apparatus including a three-dimensional pattern position / attitude detection apparatus according to the present invention. 1, the same reference numerals as those in FIG. 1 denote the same or equivalent components as those described with reference to FIG. 1, and the description thereof will be omitted.

この3次元パターン照合装置は、3次元パターン作成部1と、基準テンプレート記憶部2と、第1の位置・姿勢検出部3−1と、第2の位置・姿勢検出部3−2と、データベース4と、照合部5とを備えている。   The three-dimensional pattern matching device includes a three-dimensional pattern creation unit 1, a reference template storage unit 2, a first position / posture detection unit 3-1, a second position / posture detection unit 3-2, and a database. 4 and a collation unit 5.

第1の位置・姿勢検出部3−1は、基準テンプレート記憶部2から基準テンプレートPRを読み出し、3次元パターン作成部1から送られてくる照合対象の3次元顔パターン(照合対象3次元顔パターン)PXと基準テンプレートPRとの位置合わせをICPアルゴリズムにより行って、その位置および姿勢を修正した照合3次元顔パターンPX’として照合部5へ送る。   The first position / posture detection unit 3-1 reads the reference template PR from the reference template storage unit 2, and the verification target 3D face pattern (matching target 3D face pattern) sent from the 3D pattern creation unit 1. ) PX and reference template PR are aligned by the ICP algorithm, and sent to collation unit 5 as collation three-dimensional face pattern PX ′ whose position and orientation are corrected.

第2の位置・姿勢検出部3−2は、基準テンプレート記憶部2から基準テンプレートPRを読み出し、3次元パターン作成部1から送られてくる登録対象の3次元顔パターン(登録対象3次元顔パターン)PYと基準テンプレートPRとの位置合わせをICPアルゴリズムにより行って、その位置および姿勢を修正した登録3次元顔パターンPY’としてデータベース4に記憶させる。   The second position / posture detection unit 3-2 reads the reference template PR from the reference template storage unit 2, and the registration target 3D face pattern (registration target 3D face pattern) sent from the 3D pattern creation unit 1. ) Position alignment between PY and reference template PR is performed by the ICP algorithm, and stored in the database 4 as a registered three-dimensional face pattern PY ′ whose position and orientation are corrected.

照合部5は、位置・姿勢検出部3−1から照合3次元顔パターンPX’が送られてくると、データベース4から登録3次元顔パターンPY’を読み出し、照合3次元顔パターンPX’と登録3次元顔パターンPY’との照合を行う。この照合に際し、照合3次元顔パターンPX’および登録3次元顔パターンPY’は、基準テンプレートPRの「鼻の頭(A)」や「鼻筋(B)」との対応をとるようにして、基準テンプレートPRとの位置合わせが正しくかつ確実に行われている。したがって、照合3次元顔パターンPX’と登録3次元顔パターンPY’とが、その位置および姿勢を正しく合わせた状態で照合される。   When the collation 3D face pattern PX ′ is sent from the position / posture detection unit 3-1, the collation unit 5 reads the registered 3D face pattern PY ′ from the database 4 and registers it as the collation 3D face pattern PX ′. Collation with the three-dimensional face pattern PY ′ is performed. In this collation, the collation 3D face pattern PX ′ and the registered 3D face pattern PY ′ correspond to the “nasal head (A)” and “nasal muscle (B)” of the reference template PR, so that the reference The alignment with the template PR is performed correctly and reliably. Therefore, the collation three-dimensional face pattern PX ′ and the registered three-dimensional face pattern PY ′ are collated with their positions and postures correctly matched.

ICPアルゴリズムは演算が収束するまで何回も演算を繰り返し行うので非常に時間がかかる。本実施の形態では、ICPアルゴリズムによって位置合わせを行った登録対象の3次元顔パターンPYを登録3次元顔パターンPY’としてデータベース4に格納し、このデータベース4に格納した登録3次元顔パターンPY’を必要に応じて読み出して照合3次元顔パターンPX’との照合を行うようにしているので、照合時のICPアルゴリズムによる位置合わせは位置・姿勢検出部3−1での1回でよく、処理時間が短くて済む。   The ICP algorithm is very time consuming because the operation is repeated many times until the operation converges. In the present embodiment, the registration target three-dimensional face pattern PY registered by the ICP algorithm is stored in the database 4 as the registered three-dimensional face pattern PY ′, and the registered three-dimensional face pattern PY ′ stored in the database 4 is stored. Is read out as necessary, and collation with the collation three-dimensional face pattern PX ′ is performed. Therefore, alignment by the ICP algorithm at the time of collation may be performed once by the position / posture detection unit 3-1. Time is short.

なお、この実施の形態では、登録対象3次元顔パターンPYの位置および姿勢を修正し、この位置および姿勢が修正された登録3次元顔パターンPY’をデータベース4に記憶するようにしたが、登録対象3次元顔パターンPYを記憶しておき、照合時に登録対象3次元顔パターンPYの位置および姿勢を修正し、照合3次元顔パターンPX’との照合を行うようにしてもよい。この場合、照合時の位置合わせとして、照合対象3次元顔パターンPXと基準テンプレートPRとの位置合わせに加え、登録対象3次元顔パターンPYと基準テンプレートPRとの位置合わせが必要となるが、1:1照合の場合には2回の位置合わせで済むので、照合スピードがそれほど落ちることはない。勿論、データベース4に登録3次元顔パターンPY’を記憶させて、照合を行うようにした方がよいことは言うまでもない。   In this embodiment, the position and posture of the registration target three-dimensional face pattern PY are corrected, and the registered three-dimensional face pattern PY ′ having the corrected position and posture is stored in the database 4. The target three-dimensional face pattern PY may be stored, the position and orientation of the registration target three-dimensional face pattern PY may be corrected at the time of matching, and matching with the matching three-dimensional face pattern PX ′ may be performed. In this case, as the alignment at the time of collation, in addition to the alignment between the verification target 3D face pattern PX and the reference template PR, the registration target 3D face pattern PY and the reference template PR need to be aligned. In the case of 1 collation, the alignment speed is sufficient, so the collation speed does not drop so much. Of course, it is needless to say that the registered three-dimensional face pattern PY ′ is stored in the database 4 and collation is performed.

〔実施の形態3:3次元パターン照合装置(1:N照合)〕
ICPアルゴリズムは演算が収束するまで何回も演算を繰り返し行うので非常に時間がかかる。1:N照合を行う場合、N+1回のICPアルゴリズムによる位置合わせが必要となり、これを照合時に行っていたのでは、処理時間が莫大となり、照合スピードが落ちる。そこで、1:N照合では、図3に示すように、位置・姿勢検出部3−2において登録対象3次元顔パターンPY1,PY2・・・・PYNと基準テンプレートPRとの位置合わせを各個にICPアルゴリズムによって行い、その位置および姿勢を修正した登録3次元顔パターンPY1’,PY2’・・・・PYN’をデータベース4に記憶させておく。
[Embodiment 3: Three-dimensional pattern matching device (1: N matching)]
The ICP algorithm is very time consuming because the operation is repeated many times until the operation converges. When 1: N collation is performed, alignment by the ICP algorithm N + 1 times is necessary. If this is performed at the time of collation, the processing time becomes enormous and the collation speed decreases. Therefore, in the 1: N collation, as shown in FIG. 3, the position / posture detection unit 3-2 performs ICP registration for each of the registration target 3D face patterns PY1, PY2,... PYN and the reference template PR. The registered three-dimensional face patterns PY1 ′, PY2 ′,... PYN ′ corrected by the algorithm and corrected in position and orientation are stored in the database 4.

照合部5は、照合3次元顔パターンPX’が送られてくると、データベース4から登録3次元顔パターンPY1’,PY2’・・・・PYN’を順次読み出して、照合3次元顔パターンPX’との照合を行う。この照合に際し、登録3次元顔パターンPY1’,PY2’・・・・PYN’は登録時にすでにICPアルゴリズムによる位置合わせが行われているので、ICPアルゴリズムによる位置合わせを一々行わなくてもよい。したがって、照合時にその都度ICPアルゴリズムによる位置合わせを行う場合と比較し、処理時間を大幅に短縮し、高スピードで1:N照合を行うことができる。   When the collation unit 5 receives the collation three-dimensional face pattern PX ′, the collation unit 5 sequentially reads the registered three-dimensional face patterns PY1 ′, PY2 ′,... PYN ′ from the database 4, and performs the collation three-dimensional face pattern PX ′. Is checked. At the time of this collation, the registered three-dimensional face patterns PY1 ', PY2',... PYN 'have already been registered by the ICP algorithm at the time of registration. Therefore, the processing time can be significantly reduced and 1: N matching can be performed at a high speed, compared with the case where alignment is performed by the ICP algorithm each time at the time of matching.

なお、上述した3次元パターン照合装置では、照合用として第1の位置・姿勢検出部3−1を、登録用として第2の位置・姿勢検出部3−2を設けたが、第1の位置・姿勢検出部3−1を照合と登録との兼用とし、第2の位置・姿勢検出部3−2を省略するようにしてもよい。また、照合部5での照合は、特徴点方式としたり、相関方式としたりするなど、どのような照合方式を採用してもよい。   In the above-described three-dimensional pattern matching apparatus, the first position / posture detection unit 3-1 is provided for verification, and the second position / posture detection unit 3-2 is used for registration. The posture detection unit 3-1 may be used for both verification and registration, and the second position / posture detection unit 3-2 may be omitted. In addition, the collation by the collation unit 5 may adopt any collation method such as a feature point method or a correlation method.

また、照合3次元顔パターンPX’と登録3次元顔パターンPY’との照合の前に、その照合3次元顔パターンPX’および登録3次元顔パターンPY’の「鼻の頭」や「鼻筋」を含む注目エリアの個々のパターンデータに重み付けを行うようにしてもよい。これにより、「鼻の頭」や「鼻筋」を含む注目エリアの個々のパターンデータを他のエリアのパターンデータよりも強調し、照合精度を高めることが可能となる。   Further, before collation between the collation 3D face pattern PX ′ and the registered 3D face pattern PY ′, the “nose head” and “nasal muscle” of the collation 3D face pattern PX ′ and the registered 3D face pattern PY ′. It is also possible to weight each pattern data of the attention area including As a result, individual pattern data of the area of interest including “nose head” and “nasal muscles” can be emphasized more than pattern data of other areas, and matching accuracy can be improved.

また、基準テンプレートPRを定める際の人間の顔の平均的な3次元パターン(平均3次元顔パターン)として、例えば登録3次元顔パターンPY1〜PYNの平均をとった登録平均3次元顔パターンを作成し、その作成した登録平均3次元顔パターンから注目部分を抽出して基準テンプレートPRを作成するようにしてもよい。このようにすると、基準テンプレートPRに利用者の顔の情報が反映されるとものとなり、位置合わせの精度が高まり、さらに照合精度がアップする。   In addition, as an average three-dimensional pattern (average three-dimensional face pattern) of a human face when determining the reference template PR, for example, a registered average three-dimensional face pattern that is an average of the registered three-dimensional face patterns PY1 to PYN is created. Then, the reference template PR may be created by extracting a target part from the created registered average three-dimensional face pattern. In this way, the user's face information is reflected in the reference template PR, so that the alignment accuracy is increased and the matching accuracy is further improved.

本発明に係る3次元パターン位置・姿勢検出装置の一実施の形態(実施の形態1)の要部を示すブロック図である。It is a block diagram which shows the principal part of one Embodiment (Embodiment 1) of the three-dimensional pattern position and attitude | position detection apparatus which concerns on this invention. 本発明に係る3次元パターン位置・姿勢検出装置を含む3次元パターン照合装置の一実施の形態(実施の形態2)の要部を示すブロック図である。It is a block diagram which shows the principal part of one Embodiment (Embodiment 2) of the three-dimensional pattern collation apparatus containing the three-dimensional pattern position and attitude | position detection apparatus which concerns on this invention. 1:N照合を行う場合の3次元パターン照合装置(実施の形態3)の要部を示すブロック図である。It is a block diagram which shows the principal part of the three-dimensional pattern collation apparatus (Embodiment 3) in the case of performing 1: N collation. 人間の顔における注目エリアとこの注目エリアに含まれる注目部分との関係を示す図である。It is a figure which shows the relationship between the attention area in a human face, and the attention part contained in this attention area.

符号の説明Explanation of symbols

1…3次元パターン作成部、1−1,1−2…カメラ、2…基準テンプレート記憶部、3,3−1,3−2…位置・姿勢検出部、4…データベース、5…照合部、PR…基準テンプレート、PX…検出対象3次元顔パターン(照合対象3次元顔パターン)、PY…登録対象3次元顔パターン、PX’…照合3次元顔パターン、PY’…登録3次元顔パターン、AR…注目エリア、TA…注目部分。   DESCRIPTION OF SYMBOLS 1 ... Three-dimensional pattern preparation part, 1-1, 1-2 ... Camera, 2 ... Reference | standard template memory | storage part, 3,3-1, 3-2 ... Position and attitude | position detection part, 4 ... Database, 5 ... Collation part, PR: reference template, PX: detection target 3D face pattern (matching target 3D face pattern), PY: registration target 3D face pattern, PX ′: matching 3D face pattern, PY ′: registration 3D face pattern, AR ... attention area, TA ... attention part.

Claims (2)

検出対象として立体物を撮像し、この撮像された立体物の3次元パターンの位置および姿勢を検出する3次元パターン位置・姿勢検出装置において、
前記検出対象に対して定められその注目部分の3次元パターンが基準位置および基準姿勢とされた3次元パターンを基準テンプレートとして記憶する基準テンプレート記憶手段と、
前記基準テンプレートとの位置合わせを行って前記撮像された立体物の3次元パターンの位置および姿勢を検出する位置・姿勢検出手段と
を備えたことを特徴とする3次元パターン位置・姿勢検出装置。
In a three-dimensional pattern position / posture detection device that picks up a three-dimensional object as a detection target and detects the position and posture of the three-dimensional pattern of the picked-up three-dimensional object,
A reference template storage means for storing, as a reference template, a three-dimensional pattern that is defined for the detection target and in which the three-dimensional pattern of the target portion is a reference position and a reference posture;
A three-dimensional pattern position / posture detection device comprising: position / posture detection means for detecting the position and posture of the three-dimensional pattern of the imaged three-dimensional object by performing alignment with the reference template.
請求項1に記載された3次元パターン位置・姿勢検出装置において、
前記基準テンプレート記憶手段は、前記注目部分を含む注目エリアの3次元パターンを基準テンプレートとして記憶する
ことを特徴とする3次元パターン位置・姿勢検出装置。
In the three-dimensional pattern position / attitude detection device according to claim 1,
The reference template storage unit stores a three-dimensional pattern of an area of interest including the portion of interest as a reference template.
JP2005362972A 2005-12-16 2005-12-16 3D pattern position / posture detection device Expired - Fee Related JP4758218B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005362972A JP4758218B2 (en) 2005-12-16 2005-12-16 3D pattern position / posture detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005362972A JP4758218B2 (en) 2005-12-16 2005-12-16 3D pattern position / posture detection device

Publications (2)

Publication Number Publication Date
JP2007164669A true JP2007164669A (en) 2007-06-28
JP4758218B2 JP4758218B2 (en) 2011-08-24

Family

ID=38247463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005362972A Expired - Fee Related JP4758218B2 (en) 2005-12-16 2005-12-16 3D pattern position / posture detection device

Country Status (1)

Country Link
JP (1) JP4758218B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012514252A (en) * 2008-12-29 2012-06-21 コグネックス・コーポレイション System and method for three-dimensional alignment of objects using machine vision
WO2012090312A1 (en) * 2010-12-28 2012-07-05 富士通株式会社 Biometric authentication device, biometric authentication method, and biometric authentication program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05159063A (en) * 1991-12-09 1993-06-25 Nippon Telegr & Teleph Corp <Ntt> Image retrieving device
JPH09259271A (en) * 1996-03-22 1997-10-03 Nippon Telegr & Teleph Corp <Ntt> Person collation device
JP2002288670A (en) * 2001-03-22 2002-10-04 Honda Motor Co Ltd Personal authentication device using facial image
JP4589224B2 (en) * 2005-12-16 2010-12-01 株式会社山武 3D pattern matching device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05159063A (en) * 1991-12-09 1993-06-25 Nippon Telegr & Teleph Corp <Ntt> Image retrieving device
JPH09259271A (en) * 1996-03-22 1997-10-03 Nippon Telegr & Teleph Corp <Ntt> Person collation device
JP2002288670A (en) * 2001-03-22 2002-10-04 Honda Motor Co Ltd Personal authentication device using facial image
JP4589224B2 (en) * 2005-12-16 2010-12-01 株式会社山武 3D pattern matching device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012514252A (en) * 2008-12-29 2012-06-21 コグネックス・コーポレイション System and method for three-dimensional alignment of objects using machine vision
WO2012090312A1 (en) * 2010-12-28 2012-07-05 富士通株式会社 Biometric authentication device, biometric authentication method, and biometric authentication program
JP5708662B2 (en) * 2010-12-28 2015-04-30 富士通株式会社 Biometric authentication device, biometric authentication method, and biometric authentication program
US9189684B2 (en) 2010-12-28 2015-11-17 Fujitsu Limited Biometric authentication device, biometric authentication method, and non-transitory computer-readable recording medium

Also Published As

Publication number Publication date
JP4758218B2 (en) 2011-08-24

Similar Documents

Publication Publication Date Title
US10796179B2 (en) Living face verification method and device
US10088294B2 (en) Camera pose estimation device and control method
US9916495B2 (en) Face comparison device, method, and recording medium
US10535136B2 (en) Registration of a magnetic tracking system with an imaging device
EP2153409B1 (en) Camera pose estimation apparatus and method for augmented reality imaging
Spreeuwers Fast and accurate 3D face recognition: using registration to an intrinsic coordinate system and fusion of multiple region classifiers
JP4653606B2 (en) Image recognition apparatus, method and program
CN105740778B (en) Improved three-dimensional human face in-vivo detection method and device
EP1870856A2 (en) Information-processing method and apparatus for calculating information regarding measurement target on the basis of captured images
JP2007094906A (en) Characteristic point detection device and method
US7760916B2 (en) Registration apparatus, collation apparatus, image correction method and program
WO2009128784A1 (en) Face expressions identification
CN109858433B (en) Method and device for identifying two-dimensional face picture based on three-dimensional face model
CN111488775B (en) Device and method for judging degree of visibility
WO2016070300A1 (en) System and method for detecting genuine user
JP2002063567A (en) Device and method for estimating body position and attitude, method for feature point extraction method using the same, and image collating method
JP4589224B2 (en) 3D pattern matching device
JP4758218B2 (en) 3D pattern position / posture detection device
JP2004259215A (en) Face detection system and its method
Wang et al. 3D face recognition by local shape difference boosting
CN101657841A (en) Information extracting method, registering device, collating device and program
CN115035546A (en) Three-dimensional human body posture detection method and device and electronic equipment
JP2007140729A (en) Method and device detecting position and attitude of article
JP2007510995A (en) 2D face recognition system
Lin et al. 3D face authentication by mutual coupled 3D and 2D feature extraction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110407

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110602

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees