JP4379459B2 - Object collation method, object collation apparatus, and recording medium recording the program - Google Patents

Object collation method, object collation apparatus, and recording medium recording the program Download PDF

Info

Publication number
JP4379459B2
JP4379459B2 JP2006281413A JP2006281413A JP4379459B2 JP 4379459 B2 JP4379459 B2 JP 4379459B2 JP 2006281413 A JP2006281413 A JP 2006281413A JP 2006281413 A JP2006281413 A JP 2006281413A JP 4379459 B2 JP4379459 B2 JP 4379459B2
Authority
JP
Japan
Prior art keywords
texture
registered
image
unit
collation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2006281413A
Other languages
Japanese (ja)
Other versions
JP2007042136A (en
Inventor
塁 石山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2006281413A priority Critical patent/JP4379459B2/en
Publication of JP2007042136A publication Critical patent/JP2007042136A/en
Application granted granted Critical
Publication of JP4379459B2 publication Critical patent/JP4379459B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像による物体の照合を行う物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体に関し、特に照合対象となる物体の3次元形状および物体表面の反射率や色情報などをあらかじめ登録しておくことにより、画像上での物体の位置や姿勢,照明条件などの撮影条件の変動に対して頑強な物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体に関する。以下、事前に登録される物体を登録物体と呼び、登録物体と照合の対象とされる物体を対象物体と呼ぶ。   The present invention relates to an object collation method, an object collation apparatus, and a recording medium storing the program for collating an object with an image, and in particular, the three-dimensional shape of an object to be collated and the reflectance and color information of the object surface. The present invention relates to an object collation method, an object collation apparatus, and a recording medium on which the program is recorded that is robust against fluctuations in photographing conditions such as the position and orientation of an object on an image and illumination conditions by being registered in advance. Hereinafter, an object registered in advance is referred to as a registered object, and an object that is a target for collation with the registered object is referred to as a target object.

物体照合技術とは、図6に示すように、3次元空間上に適当に配置された対象物体が何であるのかを、カメラなどの画像撮像デバイスにより取得した入力画像(群)を利用して登録物体と照合する技術である。物体照合プロセスは、登録物体を事前に登録しておく登録過程と、対象物体の入力画像(群)に何が撮影されているかを登録物体と比較照合してゆく照合過程との2つから構成されている。それぞれの過程において、撮像された画像は、2次元的な広がりを持つ2次元画像のまま用いたり、また文献1(「三次元画像計測」、井口・佐藤、昭光堂)に記載されている技術などにより、3次元形状などに変換して利用する。従来の物体照合技術を、以下で文献を参照しながら説明する。   As shown in FIG. 6, the object matching technique registers what a target object is appropriately arranged in a three-dimensional space using an input image (group) acquired by an image capturing device such as a camera. This is a technology that matches objects. The object collation process is composed of two processes: a registration process in which registered objects are registered in advance, and a collation process in which what is captured in the input image (group) of the target object is compared with the registered object. Has been. In each process, the captured image is used as it is as a two-dimensional image having a two-dimensional extent, or a technique described in Reference 1 (“three-dimensional image measurement”, Iguchi, Sato, Shokodo). For example, it is converted into a three-dimensional shape and used. Conventional object matching techniques are described below with reference to the literature.

・従来技術1
2次元画像を登録しておき、入力として2次元画像を用いる物体照合技術の一例として、 文献2(特許第2872776号「顔画像照合装置」)で示される技術がある。この技術は、照合対象となる物体として人間の顔を想定しており、図22のような構成をとっている。登録時は、カメラ11により撮影された2次元画像を記憶手段12に記憶しておく。照合時は、カメラ13で2次元の顔画像を入力画像として撮影し、正規化手段14によって、前記入力画像から目や鼻の位置などの姿勢や大きさの基準となる顔特徴点を画像処理技術により抽出し、該特徴点の座標位置を基準として画像上において2次元的な位置および大きさの正規化を行った正規化画像を出力する。最後に、画像比較手段15によって、記憶手段12から読み出される登録画像と前記正規化画像とをパターン認識技術により比較し、照合結果を出力する。
Prior art 1
As an example of an object matching technique in which a two-dimensional image is registered and the two-dimensional image is used as an input, there is a technique disclosed in Document 2 (Japanese Patent No. 2872776 “Face Image Matching Device”). This technique assumes a human face as an object to be collated, and has a configuration as shown in FIG. At the time of registration, a two-dimensional image taken by the camera 11 is stored in the storage unit 12. At the time of collation, the camera 13 captures a two-dimensional face image as an input image, and the normalizing means 14 performs image processing on face feature points that serve as reference for posture and size such as eye and nose positions from the input image. The image is extracted by technology, and a normalized image obtained by normalizing the two-dimensional position and size on the image with reference to the coordinate position of the feature point is output. Finally, the image comparison unit 15 compares the registered image read from the storage unit 12 with the normalized image using a pattern recognition technique, and outputs a collation result.

・従来技術2
また、3次元形状を用いた従来の物体照合技術の例として、文献3(特開平9-259271号公報「人物照合装置」)で示される技術がある。この技術では、図23のような構成をとる。登録時には、3次元形状カラー情報計測手段21により登録物体の3次元形状およびカラー情報を顔データとして測定し、記憶手段22に記憶しておく。照合時にも、3次元形状カラー情報計測手段23により対象物体の3次元形状およびカラー情報を入力データとして測定し、平行移動・回転手段24により前記入力データを重心が前記顔データと一致するように平行移動して微少回転を加えた回転顔データ群を生成し、最小誤差計算手段25によって誤差の最小値を求めることで3次元的な位置姿勢の補正を行い、該最小誤差に基づいて照合を行う。
Prior art 2
Further, as an example of a conventional object matching technique using a three-dimensional shape, there is a technique disclosed in Document 3 (Japanese Patent Laid-Open No. 9-259271 “Person matching device”). This technique takes a configuration as shown in FIG. At the time of registration, the three-dimensional shape color information measuring unit 21 measures the three-dimensional shape and color information of the registered object as face data and stores them in the storage unit 22. Also at the time of collation, the three-dimensional shape color information measuring unit 23 measures the three-dimensional shape and color information of the target object as input data, and the parallel movement / rotation unit 24 uses the input data so that the center of gravity coincides with the face data. A rotational face data group that is translated and added with a slight rotation is generated, the minimum error calculation means 25 obtains the minimum value of the error to correct the three-dimensional position and orientation, and collation is performed based on the minimum error. Do.

・従来技術3
文献4(特開平6-168317号公報「個人識別装置」)には、登録時および照合時ともに2次元画像を撮影する照合技術が開示されている。この技術は、図24のような構成をとる。登録時には、カメラ31により登録物体の2次元画像を撮影し、特徴抽出手段32において輝度変動の大きな画素位置を検出して特徴点位置を出力し、記憶手段33に記憶する。照合時には、カメラ34により対象物体の2次元画像を入力画像として撮影し、特徴抽出手段35において輝度変動の大きな画素位置を検出して特徴点位置を出力し、照合手段37において前記登録されている特徴点位置と前記入力画像の特徴点位置とを比較することで照合を行っている。このとき、対象物体の位置や姿勢の変動を吸収するために、位置姿勢正規化手段36において標準的な物体の3次元形状モデルをあらかじめ用意しておき、該標準3次元形状モデルを利用して位置姿勢を正規化する。
Prior art 3
Reference 4 (Japanese Unexamined Patent Publication No. Hei 6-168317 “Personal Identification Device”) discloses a verification technique for capturing a two-dimensional image both during registration and during verification. This technique takes a configuration as shown in FIG. At the time of registration, a two-dimensional image of a registered object is photographed by the camera 31, a pixel position having a large luminance variation is detected by the feature extraction unit 32, and a feature point position is output and stored in the storage unit 33. At the time of collation, the camera 34 captures a two-dimensional image of the target object as an input image, the feature extraction unit 35 detects a pixel position with a large luminance fluctuation, outputs a feature point position, and the registration unit 37 registers the position. The comparison is performed by comparing the feature point position with the feature point position of the input image. At this time, in order to absorb fluctuations in the position and orientation of the target object, the position and orientation normalization means 36 prepares a standard three-dimensional shape model of the object in advance and uses the standard three-dimensional shape model. Normalize the position and orientation.

・従来技術4
位置や姿勢の変動だけでなく、照明条件に応じた変動をも補正するために、登録過程および照合過程双方で通常の2次元画像だけを用いる技術として、文献5(「Visual Learning and Recognition of 3-D Objects from Appearance」, Hiroshi Murase and Shree K. Nayer, Int. J. Computer Vision, vol.14, pp.5-24,1995)がある。この技術では、図25のような構成をとる。登録時には、撮影手段41により登録物体について対象物体の入力画像において考えられるあらゆる姿勢や照明条件を網羅した2次元画像群を撮影し、多様体計算手段42により前記2次元画像群の変化を十分表せるような基底ベクトル群を主成分分析により求めて該基底ベクトル群との相関を特徴とする特徴空間を生成し、前記2次元画像群の特徴空間における軌跡を多様体として求め、記憶手段43に記憶しておく。照合時には、カメラ44により対象物体の2次元画像を入力画像として撮影し、距離計算手段45において前記入力画像と前記多様体との特徴空間における距離を計算し、該距離を尺度として照合を行う。これにより、様々な位置姿勢や照明条件の下で撮影された入力画像の照合を可能にしている。
Conventional technology 4
Reference 5 (“Visual Learning and Recognition of 3” is a technique that uses only ordinary two-dimensional images in both the registration process and the verification process in order to correct not only the position and orientation fluctuations but also the fluctuations according to the illumination conditions. -D Objects from Appearance ”, Hiroshi Murase and Shree K. Nayer, Int. J. Computer Vision, vol. 14, pp. 5-24, 1995). This technique takes a configuration as shown in FIG. At the time of registration, a two-dimensional image group covering all possible postures and illumination conditions in the input image of the target object for the registered object is photographed by the photographing means 41, and the change of the two-dimensional image group can be sufficiently expressed by the manifold calculation means 42. Such a basis vector group is obtained by principal component analysis, a feature space characterized by correlation with the basis vector group is generated, a trajectory in the feature space of the two-dimensional image group is obtained as a manifold, and stored in the storage means 43. Keep it. At the time of collation, a two-dimensional image of the target object is taken as an input image by the camera 44, the distance calculation means 45 calculates the distance in the feature space between the input image and the manifold, and collation is performed using the distance as a scale. Thereby, it is possible to collate input images taken under various positions and orientations and illumination conditions.

・従来技術5
物体の位置姿勢が固定である場合の照明条件による2次元画像の変化については、文献6(「What Is the Set of Images of an Object Under All Possible Illumination Conditions?」, Peter N. Belhumeur and David J. Kriegman, Int.J. Computer Vision, vol.28, pp.245-260,1998)において詳しく分析されている。物体の位置姿勢を固定すれば、任意の照明条件の下での画像は、1つの点光源の下での画像の和に分解して表すことができる。したがって、任意の数の光源の下での画像は、それぞれ1つずつの光源の強さを係数として、その1つの光源の下での画像の線形和で表すことができる。
Prior art 5
For the change of the two-dimensional image depending on the illumination condition when the position and orientation of the object are fixed, see Reference 6 (“What Is the Set of Images of an Object Under All Possible Illumination Conditions?”, Peter N. Belhumeur and David J. Kriegman, Int. J. Computer Vision, vol. 28, pp. 245-260, 1998). If the position and orientation of the object are fixed, an image under an arbitrary illumination condition can be decomposed into a sum of images under one point light source. Therefore, an image under an arbitrary number of light sources can be represented by a linear sum of images under the one light source, with the intensity of each light source as a coefficient.

前記の分析に基づき、前記文献6では、Illumination Subspace Method(以下、方法1で参照する)と呼ばれる、図26のような構成をとる方法を提案している。撮影手段51において、できるだけ影になる画素がないような異なる照明条件を3つ以上設定し、登録物体の2次元画像群を撮影する。法線計算手段52において、該2次元画像群から主成分分析により画像の各画素に対応する物体表面の反射率と法線ベクトルとの積に相当するベクトル群を求める。続いて、画像生成手段53において、該ベクトル群の任意の2個のベクトルの外積で表される方向に照明がある場合の画像であるextreme rayと呼ばれる画像群を生成し、記憶手段54に記憶する。照合時には、カメラ55によって対象物体の2次元画像を入力画像として撮影する。物体表面の反射特性が完全散乱であり、かつ形状が凸である場合には、任意の照明条件の下での画像は前記extreme ray群の係数が正である線形和として表せるので、該係数群を負にならないという条件の下での最小二乗法を用いて計算することができる。照明補正手段56において、前記最小二乗計算を行い、求まった係数群を用いたextreme ray群の線形和により入力画像と同じ照明条件の下での対象物体の比較画像を生成する。画像比較手段57において、該比較画像と前記入力画像との類似度を計算することで照合処理を行う。   Based on the above analysis, Document 6 proposes a method called the Illumination Subspace Method (hereinafter referred to as Method 1) having a configuration as shown in FIG. In the photographing means 51, three or more different illumination conditions are set so that there are as few shadow pixels as possible, and a two-dimensional image group of the registered object is photographed. In the normal calculation means 52, a vector group corresponding to the product of the reflectance and normal vector of the object surface corresponding to each pixel of the image is obtained from the two-dimensional image group by principal component analysis. Subsequently, the image generation unit 53 generates an image group called extreme ray, which is an image when there is illumination in the direction represented by the outer product of any two vectors of the vector group, and stores it in the storage unit 54. To do. At the time of collation, the camera 55 captures a two-dimensional image of the target object as an input image. When the reflection characteristic of the object surface is completely scattered and the shape is convex, an image under an arbitrary illumination condition can be expressed as a linear sum in which the coefficient of the extreme ray group is positive. Can be calculated using the least squares method under the condition that is not negative. The illumination correction means 56 performs the least square calculation, and generates a comparison image of the target object under the same illumination conditions as the input image by the linear sum of the extreme ray group using the obtained coefficient group. In the image comparison means 57, collation processing is performed by calculating the similarity between the comparison image and the input image.

・従来技術6
文献7(「Illumination Cones for Recognition Under Variable Lighting: Faces」, A.S. Georghiades, Proc. IEEE Int. Conf. CVPR, pp.52-58,1998)では、方法1においてextreme rayを計算する際に、光線追跡などのコンピュータグラフィックスの技術を用いて、物体の3次元形状からどの画素が影になるかを計算し、影を付ける処理を行う方法(以下、方法2として参照)を示している。これにより、形状が凸でない形状の物体にも、方法1が適用できるとしている。
・ Prior art 6
Reference 7 ("Illumination Cones for Recognition Under Variable Lighting: Faces", AS Georghiades, Proc. IEEE Int. Conf. CVPR, pp.52-58, 1998), ray tracing when calculating extreme ray in Method 1. A method of calculating which pixel becomes a shadow from a three-dimensional shape of an object using a computer graphics technique such as the above and performing a process of adding a shadow (hereinafter referred to as method 2) is shown. As a result, the method 1 can be applied to an object having a non-convex shape.

・従来技術7
また、前記文献7では、Sampling Method(以下、方法3として参照)として、図27のような構成をとる方法も提案している。前記方法1のように全てのextreme rayを計算することは手間がかかるので、登録時に、撮影手段61において、例えば、図5のθ,φの角度がなるべく等間隔に全体を覆うように適当な数の照明方向を設定して2次元画像群を撮影し、該2次元画像群をextreme rayとして代用する。以降は、方法1と同様に、非負最小二乗法を適用して照明補正を行い、物体認識を行う。
・ Prior art 7
The document 7 also proposes a method having a configuration as shown in FIG. 27 as a sampling method (hereinafter referred to as method 3). Since it is time-consuming to calculate all the extreme rays as in the method 1, at the time of registration, for example, in the photographing means 61, it is appropriate that the angles of θ and φ in FIG. A number of illumination directions are set to photograph a two-dimensional image group, and the two-dimensional image group is used as extreme ray. Thereafter, similarly to the method 1, the non-negative least square method is applied to perform illumination correction and perform object recognition.

・従来技術8
文献8(特願2000-105399「画像照合装置、画像照合方法、およびそのプログラムを記録した記録媒体」の技術では、登録物体の3次元形状を登録しておき、対象物体の入力画像の位置姿勢が変化しても、該位置姿勢に合わせた時の照明変動テクスチャ群をコンピュータグラフィックスにより生成し、さらに、該画像群を包含する画像空間を求めて照明補正処理を行うことにより、位置姿勢および照明条件がともに変化する場合にも高精度な照合を可能にしている。
特許第2872776号 特開平9-259271号公報 特開平6-168317号公報 特願2000-105399 三次元画像計測」、井口・佐藤、昭光堂 Visual Learning and Recognition of 3-D Objects from Appearance」, Hiroshi Murase and Shree K. Nayer, Int. J. Computer Vision, vol.14, pp.5-24,1995 What Is the Set of Images of an Object Under All Possible Illumination Conditions?」, Peter N. Belhumeur and David J. Kriegman, Int.J. Computer Vision, vol.28, pp.245-260,1998 Illumination Cones for Recognition Under Variable Lighting: Faces」, A.S. Georghiades, Proc. IEEE Int. Conf. CVPR, pp.52-58,1998
・ Prior art 8
Document 8 (Japanese Patent Application No. 2000-105399 “Image collation apparatus, image collation method, and recording medium on which the program is recorded”) registers the three-dimensional shape of the registered object, and the position and orientation of the input image of the target object. Even if the position and orientation are changed, a group of illumination fluctuation textures according to the position and orientation is generated by computer graphics, and an image space including the image group is obtained and illumination correction processing is performed to obtain the position and orientation and Even when the lighting conditions change together, highly accurate verification is possible.
Japanese Patent No. 2872776 Japanese Patent Laid-Open No. 9-259271 JP-A-6-168317 Japanese Patent Application 2000-105399 3D image measurement ", Iguchi, Sato, Shokodo Visual Learning and Recognition of 3-D Objects from Appearance ”, Hiroshi Murase and Shree K. Nayer, Int. J. Computer Vision, vol.14, pp.5-24,1995 What Is the Set of Images of an Object Under All Possible Illumination Conditions? '', Peter N. Belhumeur and David J. Kriegman, Int. J. Computer Vision, vol.28, pp.245-260,1998 Illumination Cones for Recognition Under Variable Lighting: Faces '', AS Georghiades, Proc.IEEE Int. Conf.CVPR, pp.52-58,1998

しかしながら、照合対象となる物体は、特に固定や調節などをしない限り、カメラなどの画像撮像デバイスの前で3次元的な平行移動,回転移動などを伴うことが一般的である。また、屋外などでは刻々と照明条件も変動していくことから明らかなように、照合対象として入力される2次元画像上では、見かけ上、非常に大きな変動がある。従来技術は、これらの位置姿勢や照明条件の変動を十分補正することができていないため、応用範囲が非常に限られてしまうという問題点があった。以下、具体的に各文献記載の技術における問題点を詳述する。   However, an object to be collated is generally accompanied by a three-dimensional parallel movement, a rotational movement, etc. in front of an image capturing device such as a camera unless fixed or adjusted. In addition, as apparent from the fact that the illumination conditions change every moment, such as outdoors, on the two-dimensional image input as the object to be collated, there appears to be a very large change. The prior art has a problem in that the application range is very limited because the variation of the position and orientation and the illumination conditions cannot be sufficiently corrected. Hereinafter, specific problems in the technology described in each document will be described in detail.

文献2に記載されているような単なる2次元画像同士での照合技術では、照合対象となる物体の3次元的な回転変動や画像撮影時の照明条件変動による2次元画像上での見かけ上の変動に対応することができず、応用範囲が極めて限定される。   In a technique for simply comparing two-dimensional images as described in Document 2, an apparent appearance on a two-dimensional image due to three-dimensional rotation variation of an object to be collated or illumination condition variation at the time of image capturing. It cannot cope with fluctuations, and its application range is extremely limited.

文献3の照合技術では、登録時だけでなく照合時にも3次元形状を必要とするために、照合装置には文献1に示されているような3次元形状計測装置が必須となり、高価となってしまう問題があった。これは、登録時と異なる場所や、複数の場所で入力画像を撮影し照合を行いたい場合などに特に問題である。また、形状の計測をするためには計測が終了するまで照合対象となる物体が静止していなければならなかったり、暗室や薄暗い環境でなければ精度の良い形状データが得られないという問題があり、やはり応用範囲が限られてしまう。   The collation technique of Document 3 requires a three-dimensional shape not only at the time of registration but also at the time of collation. Therefore, a three-dimensional shape measuring device as shown in Document 1 is indispensable for the collation device, which is expensive. There was a problem. This is a particular problem when a location different from that at the time of registration or when it is desired to capture and collate input images at a plurality of locations. In addition, in order to measure the shape, there is a problem that the object to be collated must be stationary until the measurement is completed, or accurate shape data cannot be obtained unless it is in a dark room or dim environment. After all, the application range is limited.

文献4に示されているような輝度変動の大きな画素位置を検出する方法は、3次元的な曲率が非常に大きな積み木や、また反射率の変動が非常に大きい白板上の黒いマーカなどには有効であるが、該文献4中で言及されているような人間の顔には向かないことが知られていることからも、安定な座標位置検出は一般に困難である。また、文献4では、照合対象となる物体群の標準的な3次元形状により姿勢を補正するとあるが、該物体群の各物体間において形状の類似度が高くない場合には適用ができないという問題があった。   The method of detecting a pixel position with a large luminance variation as shown in Reference 4 is suitable for a building block with a very large three-dimensional curvature, or a black marker on a white plate with a very large reflectance variation. Although it is effective, it is known that it is not suitable for a human face as mentioned in the document 4, so that stable coordinate position detection is generally difficult. In Reference 4, the posture is corrected by the standard three-dimensional shape of the object group to be collated. However, this cannot be applied when the degree of similarity between the objects in the object group is not high. was there.

文献5の技術では、対象物体の入力画像の照明条件として複数の光源や拡張光源などの様々な照明条件を考慮すると、これらを網羅する登録物体のサンプル画像は膨大な量が必要になってしまう。また、特徴空間における多様体の形状について何も仮定されていないため、入力画像との距離を求める際に撮影条件のパラメタに対する探索を要する。したがって、多くの計算量が必要となるという問題があった。   In the technique of Reference 5, when various illumination conditions such as a plurality of light sources and extended light sources are considered as illumination conditions for the input image of the target object, a large amount of sample images of registered objects that cover these are required. . In addition, since there is no assumption about the shape of the manifold in the feature space, a search for the parameters of the shooting conditions is required when obtaining the distance from the input image. Therefore, there is a problem that a large amount of calculation is required.

方法1の技術では、形状の複雑さに応じてextreme rayを計算する手続きに非常に多くの計算量を要する。文献6によれば、物体表面の法線ベクトルのうち線形独立なものがm個ある場合、extreme rayの数は最大でm(m−1)個である。したがって、物体形状が積み木のように単純なものでない限り、膨大な数の画像を計算しなければならなくなるため、複雑な形状の一般的な物体に対して全てのextreme rayを計算することは計算量の点で問題がある。また、物体形状が凸でなく、他の部分が光源を遮蔽して生じる影がある場合にはそのまま適用することはできない。   In the technique of method 1, the procedure for calculating extreme ray according to the complexity of the shape requires a large amount of calculation. According to Document 6, when there are m linearly independent normal vectors on the object surface, the maximum number of extreme rays is m (m−1). Therefore, unless the object shape is as simple as a building block, a huge number of images must be calculated, so calculating all extreme rays for a general object with a complex shape is a calculation There is a problem in terms of quantity. Further, when the object shape is not convex and there is a shadow caused by the other part blocking the light source, it cannot be applied as it is.

方法1,方法2の技術はともに、物体の位置や姿勢が変わった場合には、該位置姿勢に合わせた物体の画像を撮影し、extreme rayをすべて計算し直す必要がある。特に、方法2の技術では、extreme rayの計算時に、物体の画像に影を付ける計算処理を行うが、この処理は光線追跡など非常に多くの計算量を必要とするため、結果として照合処理に時間がかかるという問題が生じる。   In both methods 1 and 2, when the position and orientation of an object change, it is necessary to take an image of the object in accordance with the position and orientation and recalculate all extreme rays. In particular, in the technique of method 2, a calculation process for shadowing an object image is performed at the time of extreme ray calculation, but this process requires a large amount of calculation such as ray tracing. The problem is that it takes time.

方法3の技術では、照合対象となる物体に多数の方向から照明を当てた画像を撮影する必要があり、登録時に特別な照明装置が必要となってしまう。   In the technique of the method 3, it is necessary to take an image in which an object to be collated is illuminated from many directions, and a special illumination device is required at the time of registration.

また、照合対象となる物体の位置や姿勢が変わった場合には、該位置姿勢に合わせた物体の多数の照明条件の下での画像を撮影し直さなければならない。したがって、入力画像において想定されるあらゆる位置姿勢における画像を撮影しておかなければならないため、登録処理に手間がかかることや、あらかじめ登録されていない位置姿勢で撮影された画像は照合することができないなどの問題がある。   In addition, when the position or orientation of the object to be collated changes, it is necessary to re-capture an image of the object in accordance with the position and orientation under a number of illumination conditions. Therefore, since it is necessary to capture images at every possible position and orientation in the input image, it takes time for registration processing, and images captured at positions and orientations that are not registered in advance cannot be collated. There are problems such as.

文献8の技術では、入力画像における対象物体の位置姿勢が変化しても、登録物体の3次元形状によって位置姿勢を合わせた画像を生成することができるため、必要なすべての位置姿勢での画像群を登録時に撮影しておく必要はない。しかし、入力画像に位置姿勢を合わせた多数の照明条件の下での画像を生成する工程には、影を付ける処理など非常に多くの計算量を要するため、照合処理に時間がかかるという問題があった。   In the technique of Literature 8, even if the position and orientation of the target object in the input image change, it is possible to generate an image in which the position and orientation are matched by the three-dimensional shape of the registered object. You don't have to shoot the group at registration. However, the process of generating an image under a large number of illumination conditions that match the position and orientation of the input image requires a very large amount of calculation such as a shadowing process. there were.

本発明は、上記問題点に鑑みなされたものであり、照合に用いる入力データとして3次元形状を必要とせず通常のカメラで撮影した2次元画像により照合することが可能な物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体を提供することを目的とする。   The present invention has been made in view of the above problems, and does not require a three-dimensional shape as input data used for collation, and can perform collation using a two-dimensional image captured by a normal camera. It is an object of the present invention to provide a device and a recording medium recording the program.

また、本発明は、入力画像における対象物体の3次元的な位置姿勢の変化を補正可能であり、登録時に登録物体の必要なデータが簡便に測定可能であり、様々な照明条件の下で撮影された入力画像に対し照明条件の補正を高速な処理によって実現可能な物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体を提供することを目的とする。   In addition, the present invention can correct a change in the three-dimensional position and orientation of a target object in an input image, can easily measure necessary data of a registered object at the time of registration, and is photographed under various illumination conditions. An object of the present invention is to provide an object collation method, an object collation apparatus, and a recording medium on which the program is recorded, which can realize correction of illumination conditions for the input image by high-speed processing.

上記の目的を達成するために、本発明の物体照合方法は、様々な照明条件の下での登録物体の表面の各位置の輝度や色情報を表すテクスチャ群で張られるテクスチャ空間を表現する基底ベクトルを、登録物体の3次元形状を用いて、入力画像における対象物体の位置姿勢に合わせて変形する工程と、該変形された基底ベクトルにより表現される照明変動空間内の最も近い画像と前記入力画像との距離に基づいて対象物体が登録物体であるかどうかの判定を行う工程と、を有する。   In order to achieve the above object, the object matching method of the present invention is based on a basis for expressing a texture space spanned by a texture group representing luminance and color information at each position on the surface of a registered object under various illumination conditions. A step of deforming a vector according to the position and orientation of the target object in the input image using the three-dimensional shape of the registered object, the closest image in the illumination variation space represented by the deformed basis vector, and the input Determining whether the target object is a registered object based on a distance from the image.

上記の目的を達成するために、本発明の物体照合装置は、様々な照明条件の下での登録物体の表面の各位置の輝度や色情報を表すテクスチャ群で張られるテクスチャ空間を表現する基底ベクトルを、登録物体の3次元形状を用いて、入力画像における対象物体の位置姿勢に合わせて変形する手段と、該変形された基底ベクトルにより表現される照明変動空間内の最も近い画像と前記入力画像との距離に基づいて対象物体が登録物体であるかどうかの判定を行う手段と、を有する。   In order to achieve the above object, the object matching apparatus according to the present invention provides a basis for expressing a texture space spanned by a texture group representing luminance and color information at each position on the surface of a registered object under various illumination conditions. Means for deforming a vector according to the position and orientation of the target object in the input image using the three-dimensional shape of the registered object, the closest image in the illumination variation space represented by the deformed basis vector, and the input Means for determining whether the target object is a registered object based on a distance from the image.

上記の目的を達成するために、本発明の物体照合プログラムは、コンピュータに、様々な照明条件の下での登録物体の表面の各位置の輝度や色情報を表すテクスチャ群で張られるテクスチャ空間を表現する基底ベクトルを、登録物体の3次元形状を用いて、入力画像における対象物体の位置姿勢に合わせて変形する処理と、該変形された基底ベクトルにより表現される照明変動空間内の最も近い画像と前記入力画像との距離に基づいて対象物体が登録物体であるかどうかの判定を行う処理と、を実行させる。   In order to achieve the above object, the object matching program of the present invention provides a computer with a texture space spanned by texture groups representing luminance and color information of each position on the surface of a registered object under various lighting conditions. A process of transforming a base vector to be represented according to the position and orientation of the target object in the input image using the three-dimensional shape of the registered object, and the closest image in the illumination variation space represented by the deformed base vector And a process of determining whether the target object is a registered object based on the distance between the input image and the input image.

以上の説明から明らかなように、本発明によれば、登録部でのみ登録物体の3次元形状および物体表面の反射率または適当な照明条件の下での画像を計測すればよく、照合部における撮影手段としてはビデオカメラなどの通常の2次元画像を撮影する撮像装置があるだけで十分であり、照合段階において3次元形状測定装置を必要とせずに実用的な装置を構成できる。   As is clear from the above description, according to the present invention, only the registration unit needs to measure the three-dimensional shape of the registered object and the reflectance of the object surface or an image under appropriate illumination conditions. As the photographing means, it is sufficient to have an image pickup device such as a video camera for picking up a normal two-dimensional image, and a practical device can be configured without the need for a three-dimensional shape measuring device at the collation stage.

また、登録物体の3次元形状が登録されているので、入力画像における対象物体の3次元的な位置姿勢の変動に対して完全に補正することができる。さらに、照明条件の変動に対しても十分な補正を行うことができる。   Further, since the three-dimensional shape of the registered object is registered, it is possible to completely correct the three-dimensional position / posture variation of the target object in the input image. Furthermore, sufficient correction can be performed for variations in illumination conditions.

さらに、本発明の照明補正処理は、あらかじめ登録過程において計算済みである照明変動テクスチャ空間を、入力画像における対象物体の位置姿勢に合わせて変換して照明変動空間を生成するため、位置姿勢が変化しても照明変動テクスチャ群を生成し直す必要がなく、従来の技術である方法1,方法3よりも高速な処理で照合判定を行うことができる。   Furthermore, the illumination correction process of the present invention generates the illumination variation space by converting the illumination variation texture space that has been calculated in advance in the registration process according to the position and orientation of the target object in the input image. However, it is not necessary to regenerate the illumination variation texture group, and the collation determination can be performed by a process faster than the conventional methods 1 and 3.

以下、本発明の実施の形態を添付図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

(1)第1の実施の形態本発明の第1の実施の形態に係る物体照合方法は、図1に示す第1の実施例の物体照合装置で実行されるものであり、登録物体のデータをデータベースに登録する登録過程が、物体の3次元形状と、様々な照明条件の下での物体表面の各位置の輝度や色情報を表すテクスチャ群で張られる画像空間であるテクスチャ空間とを記憶する工程であり、入力される画像に対して登録データとの照合を行う照合過程が、2次元画像を入力画像として撮影する工程と、照合対象となる物体が前記入力画像における対象物体の位置姿勢で、様々な照明条件の下での画像群によって張られる画像空間である照明変動空間を前記3次元形状および前記テクスチャ空間から生成する工程と、前記照明変動空間と前記入力画像との距離に基づいて、照合対象となる物体であるかどうかの確認,登録物体のうちのどの物体であるかの検索,登録物体のうちの似ている物体の検索などの処理を行う工程とから構成されるものである。   (1) First Embodiment The object collation method according to the first embodiment of the present invention is executed by the object collation apparatus of the first embodiment shown in FIG. The process of registering the image in the database stores the three-dimensional shape of the object and the texture space, which is an image space spanned by texture groups representing the brightness and color information of each position on the object surface under various lighting conditions A matching process for matching an input image with registered data, a step of photographing a two-dimensional image as an input image, and a position and orientation of a target object in the input image Then, a step of generating an illumination variation space, which is an image space spanned by an image group under various illumination conditions, from the three-dimensional shape and the texture space, and a distance between the illumination variation space and the input image. And a process for performing processing such as checking whether the object is a target to be collated, searching for which of registered objects is similar, searching for similar objects of registered objects, and the like. It is.

第1の実施の形態に係る発明の物体照合方法では、照合対象となる物体表面の各位置の輝度または色を表すテクスチャは照明条件によって変化するが、これら照明変動によって生成される様々なテクスチャ群の張る空間(テクスチャ空間)と、登録物体の3次元形状とを登録しておくことにより、前記テクスチャ空間を、必要とされる位置姿勢に対象物体があるときに照明条件の変動によって生成される照明変動空間へと変換することが可能であり、これにより前記位置姿勢にある対象物体の様々な照明条件の下での画像を生成でき、照明補正処理を行うことで高精度な照合を行えることを利用している。   In the object collation method of the invention according to the first embodiment, the texture representing the brightness or color of each position on the object surface to be collated changes depending on the illumination condition, but various texture groups generated by these illumination fluctuations By registering the space (texture space) spanned by the object and the three-dimensional shape of the registered object, the texture space is generated by the fluctuation of illumination conditions when the target object is in the required position and orientation. It is possible to convert to an illumination variation space, which can generate an image of the target object in the position and orientation under various illumination conditions, and perform high-precision collation by performing illumination correction processing Is used.

さらに、第1の実施の形態に係る発明の物体照合方法によれば、対象物体の目的とする位置姿勢での照明変動空間を、登録物体のテクスチャ空間の簡単な座標変換のみによって生成することができるため、照合過程における計算量を大幅に軽減することができ、高速な物体照合処理を行うことが可能となる。   Furthermore, according to the object collation method of the invention according to the first embodiment, the illumination variation space at the target position and orientation of the target object can be generated only by simple coordinate transformation of the texture space of the registered object. Therefore, the amount of calculation in the matching process can be greatly reduced, and high-speed object matching processing can be performed.

まず、登録過程について説明する。   First, the registration process will be described.

登録物体測定工程において、登録物体の3次元形状および物体表面の反射率を測定する。これには、様々な測定装置や手法などを用いることができる。その一例として、例えば文献9(特願平11−123687号)記載の3次元形状測定装置を用いることができる。この他にも、文献1で述べられているような様々な装置や手段を利用可能である。   In the registered object measuring step, the three-dimensional shape of the registered object and the reflectance of the object surface are measured. For this, various measuring devices and methods can be used. As an example, for example, a three-dimensional shape measuring apparatus described in Document 9 (Japanese Patent Application No. 11-123687) can be used. In addition, various devices and means as described in Document 1 can be used.

次に、テクスチャ群生成工程において、物体表面上にテクスチャ空間の座標系(テクスチャ座標系)を設定し、該テクスチャ座標系を用いて物体表面の各点の色または輝度情報を画像として表し、該画像をテクスチャとする。前記テクスチャ座標系の設定方法には様々な手法が利用可能であるが、その一例として、図3に示すように、物体の重心を中心として物体を覆う球を考え、物体表面上の各点Pを重心を中心として前記球表面上へ投影し、投影された点Qの経度,緯度(s,t)をテクスチャ座標とする手法が利用できる。この他にも様々な装置や手段を利用可能である。   Next, in the texture group generation step, a texture space coordinate system (texture coordinate system) is set on the object surface, and the color or luminance information of each point on the object surface is represented as an image using the texture coordinate system, The image is textured. Various methods can be used as the texture coordinate system setting method. As an example, as shown in FIG. 3, a sphere covering the object with the center of gravity of the object as a center is considered, and each point P on the object surface is set. Is projected onto the sphere surface around the center of gravity, and the longitude and latitude (s, t) of the projected point Q can be used as texture coordinates. In addition, various devices and means can be used.

コンピュータグラフィックスの技法などを用いることにより、物体表面上の各位置の陰影や影による輝度や色の変化を計算し、様々な照明条件の下でのテクスチャ群を生成する。テクスチャの各画素の陰影の変化による輝度や色の変化は、該画素に対応する物体表面の反射率,3次元形状から計算できる法線方向,および照明の方向により計算することができる。影の生成に関しては、 前記3次元形状を用いて光線追跡などの処理を行うことで、前記画素に設定した照明条件の下で光があたるかどうかを判定することができる。   By using computer graphics techniques or the like, brightness and color changes due to shadows and shadows at each position on the object surface are calculated, and texture groups under various lighting conditions are generated. Changes in luminance and color due to changes in the shade of each pixel of the texture can be calculated from the reflectance of the object surface corresponding to the pixel, the normal direction that can be calculated from the three-dimensional shape, and the direction of illumination. Regarding the generation of shadows, it is possible to determine whether or not light is exposed under the illumination conditions set for the pixels by performing processing such as ray tracing using the three-dimensional shape.

様々な照明条件を設定し前記テクスチャ空間生成処理を行うことでテクスチャ群を生成できる。   A texture group can be generated by setting various illumination conditions and performing the texture space generation process.

次に、テクスチャ空間生成工程において、前記テクスチャ群が張る空間としてテクスチャ空間を生成する。   Next, in the texture space generation step, a texture space is generated as a space spanned by the texture group.

物体表面の反射率特性として完全散乱面を仮定し、物体形状が凸であり他の部分による光源の遮蔽によって生じる影がなく、光源が無限遠にあるとすれば、テクスチャの各画素(s,t)の輝度値I(s,t)は、画素に対応している物体表面の反射率B(s,t),法線方向,各照明の強度li,および方向により、数1でモデル化できる。   Assuming a perfect scattering surface as the reflectance characteristic of the object surface, and assuming that the object shape is convex and there is no shadow caused by shielding the light source by other parts, and the light source is at infinity, each pixel (s, The luminance value I (s, t) of t) is modeled by Equation 1 according to the reflectance B (s, t) of the object surface corresponding to the pixel, the normal direction, the intensity li and the direction of each illumination. it can.

Figure 0004379459
Figure 0004379459

ここで、max()の効果を無視すれば、照明が複数ある場合などを含め、任意の照明条件は、数2のように1つの照明ベクトルで表すことができる。   Here, if the effect of max () is ignored, an arbitrary illumination condition including a case where there are a plurality of illuminations can be represented by one illumination vector as shown in Equation 2.

Figure 0004379459
Figure 0004379459

したがって、照明変動により生成される物体のテクスチャの自由度は、照明ベクトルの次元、すなわち高々3次元になるが、実際には、max()の効果や、物体の他の部分により光源が遮蔽されて影ができること,反射特性が完全散乱面でないことなどによる効果があるので、これよりも高次元となる。しかし、大部分が3次元の部分空間で表せることから、実際のテクスチャの変動も、低次元の部分空間として十分近似できる。以下、この低次元の部分空間を、物体のテクスチャ空間と呼ぶ。   Therefore, the degree of freedom of the texture of the object generated by the illumination variation is at most three dimensions of the illumination vector, but in reality, the light source is shielded by the effect of max () and other parts of the object. Therefore, there is an effect by the fact that shadows can be made and the reflection characteristics are not a perfect scattering surface. However, since most can be expressed in a three-dimensional subspace, actual texture fluctuations can be sufficiently approximated as a low-dimensional subspace. Hereinafter, this low-dimensional subspace is called an object texture space.

テクスチャ空間の基底ベクトルを得るために、主成分分析を用いる。様々な照明条件の下での物体のテクスチャを多数用意し、照明条件の変動によって変化するテクスチャ群全体の集合を近似する。各テクスチャは、単一の無限遠にある点光源の下でのテクスチャとし、光源の方向を入力画像の撮影時の照明条件として考えられる全ての方向を包含するように適当な間隔で設定した多数のテクスチャを用意する。複数の照明の下でのテクスチャは単一の照明のテクスチャの和でかけるので、単一照明下のテクスチャのみで十分である。テクスチャ群の生成には登録されている3次元形状および表面の反射率を用いるが、その生成手段の一例としてコンピュータグラフィックスの基本機能を利用する方法がある。コンピュータグラフィックスの機能については、文献10(「OpenGLプログラミングガイド」, Mason Woo, Jackie Neider, Tom Davis,アジソン・ウェスレイ・パブリシャーズ・ジャパン)に詳しく述べられている。コンピュータに標準的に備わっている機能としては、物体表面の反射特性を完全散乱モデルとし、陰影だけを生成するものが多いが、本発明においては、陰影だけでなく光線追跡の技術を用いて影を再現するなど、できるだけ現実に近い画像を生成できるようにすることができる。   Principal component analysis is used to obtain texture space basis vectors. A large number of textures of objects under various lighting conditions are prepared, and an entire set of textures that change due to variations in lighting conditions is approximated. Each texture is a texture under a single point light source at infinity, and many light sources are set at appropriate intervals so as to include all possible directions for lighting conditions when shooting the input image. Prepare the texture. Since the texture under multiple lighting is the sum of the textures of the single lighting, only the texture under the single lighting is sufficient. The texture group is generated using the registered three-dimensional shape and surface reflectance. As an example of the generation means, there is a method of using a basic function of computer graphics. The functions of computer graphics are described in detail in Reference 10 ("OpenGL Programming Guide", Mason Woo, Jackie Neider, Tom Davis, Addison Wesley Publishers Japan). As a standard function of a computer, there are many functions that generate only a shadow by using a reflection characteristic of an object surface as a complete scattering model, but in the present invention, not only a shadow but also a ray tracing technique is used to detect a shadow. It is possible to generate an image as close to reality as possible.

以上述べたように、画像生成にコンピュータグラフィックスの機能を利用するのは一例であり、数値計算により照合に必要な画素について輝度値を計算することでテクスチャを生成することも、もちろん可能である。   As described above, the use of a computer graphics function for image generation is an example, and it is of course possible to generate a texture by calculating luminance values for pixels necessary for collation by numerical calculation. .

以下、テクスチャ全体のうち照合に用いる領域にある画素の輝度値を縦に並べたベクトルでテクスチャを表す。テクスチャ群にN個のテクスチャがあるとき、各テクスチャをベクトルで表すと、Vは数3で表される。   Hereinafter, a texture is represented by a vector in which luminance values of pixels in an area used for collation in the entire texture are vertically arranged. When there are N textures in the texture group, V is expressed by Equation 3 when each texture is expressed by a vector.

Figure 0004379459
Figure 0004379459

次に、Vの各固有値σiと固有ベクトルとを固有値の大きい順にM個まで求める。そして、物体jのテクスチャ空間をベクトルを基底とするM次元線形空間Ψjで近似する。ここで、テクスチャ空間の次元Mは、照明の補正処理に必要とされている精度との兼ね合いで決めることができる。M個の固有ベクトルを使った場合、その固有値の累積寄与率は、数4で計算できる。   Next, up to M eigenvalues σi and eigenvectors of V are calculated in descending order of eigenvalues. Then, the texture space of the object j is approximated by an M-dimensional linear space Ψj having a vector as a base. Here, the dimension M of the texture space can be determined in consideration of the accuracy required for the illumination correction process. When M eigenvectors are used, the cumulative contribution ratio of the eigenvalues can be calculated by Equation 4.

Figure 0004379459
Figure 0004379459

累積寄与率は、輝度値の差を用いてテクスチャの誤差を評価したときに、テクスチャ空間がどの程度正確に各テクスチャを表現できるかを表す数値である。この値に対して閾値を定めておけば、その閾値を上回るのに必要な次元数としてMを自動的に決定することができる。   The cumulative contribution rate is a numerical value representing how accurately each texture can be expressed by the texture space when the error of the texture is evaluated using the difference in luminance value. If a threshold value is defined for this value, M can be automatically determined as the number of dimensions required to exceed the threshold value.

次に、記憶工程において、前記3次元形状,および前記テクスチャ空間の固有ベクトルを登録データとして記憶しておく。   Next, in the storing step, the three-dimensional shape and the eigenvector of the texture space are stored as registered data.

次に、照合過程について説明する。   Next, the verification process will be described.

入力画像撮影工程において、ビデオカメラなどの撮像装置を用いて対象物体の2次元画像を入力画像として撮影する。   In the input image photographing step, a two-dimensional image of the target object is photographed as an input image using an imaging device such as a video camera.

位置姿勢推定工程では、入力画像を撮影したときの撮影条件である対象物体と撮像装置との間の位置・姿勢,撮像装置の内部パラメタ等を推定する。この位置姿勢推定工程は、手動または自動で行う様々な方法を利用することができる。   In the position / orientation estimation step, the position / orientation between the target object and the imaging apparatus, which are imaging conditions when the input image is captured, and internal parameters of the imaging apparatus are estimated. This position and orientation estimation step can use various methods that are performed manually or automatically.

例えば、手動で行う方法の一例として、登録物体の3次元形状およびテクスチャを用いてコンピュータグラフィックスにより生成した画像(以下、CG画像と呼ぶ)と対象物体の入力画像とを重ね合わせたときに両者ができるだけぴったり重なるように、対話型のインタフェースを用いて位置姿勢のパラメタを調節したり入力したりする方法を利用できる。   For example, as an example of a manual method, when an image generated by computer graphics using the three-dimensional shape and texture of a registered object (hereinafter referred to as a CG image) and an input image of a target object are superimposed, You can use a method of adjusting and inputting parameters of position and orientation using an interactive interface so that the two are as close as possible.

自動で位置姿勢の推定を行う方法の一例としては、様々な位置姿勢での登録物体のCG画像を生成し、各CG画像を対象物体の入力画像と比較し、最も似ている画像を求めることで位置姿勢や撮像装置のパラメタを決定する方法が利用できる。   As an example of a method for automatically estimating the position and orientation, a CG image of a registered object at various positions and orientations is generated, and each CG image is compared with an input image of the target object to obtain the most similar image. The method of determining the position and orientation and the parameters of the imaging device can be used.

また、画像を比較する代りに、物体の画像上で輝度値が大きく変化する部分など、特徴的な領域や点(以下、特徴点と呼ぶ)の位置を登録物体のCG画像と対象物体の入力画像とから検出し、前記特徴点の位置がもっとも近くなるようなCG画像を求めることで対象物体の位置姿勢や撮像装置のパラメタを計算する方法も利用できる。   Also, instead of comparing images, the position of a characteristic region or point (hereinafter referred to as a feature point) such as a portion where the luminance value greatly changes on the image of the object is input to the CG image of the registered object and the target object. A method of calculating the position and orientation of the target object and the parameters of the imaging apparatus by obtaining a CG image that is detected from the image and has the closest feature point position can also be used.

また、入力画像から対象物体の特徴点位置を検出し、各特徴点間の位置関係についての情報を利用して対象物体の位置姿勢を求める方法もある。文献11(「Ananalytic solution for the pose determination of human faces from a monocular image」, Shinn-Ying Ho , Hui-Ling Huang, Pattern Recognition Letters, Vol.19,1045-1054,1998)には、照合対象となる物体として人間の顔を用いる場合に目尻や口元といった特徴点を用い、両目の特徴点を結ぶ直線と左右の口元の特徴点を結ぶ直線とが互いに平行であるなどの位置関係を利用して位置姿勢を求める方法が記述されている。   There is also a method for detecting the position of the target object from the input image, and obtaining the position and orientation of the target object using information on the positional relationship between the feature points. Reference 11 (“Ananalytic solution for the pose determination of human faces from a monocular image”, Shinn-Ying Ho, Hui-Ling Huang, Pattern Recognition Letters, Vol. 19, 1045-1054, 1998) When using a human face as an object, use feature points such as the corners of the eyes and mouth, and use a positional relationship such as the straight line connecting the feature points of both eyes and the straight line connecting the feature points of the left and right mouths. A method for determining the posture is described.

また、登録物体の特徴点の位置を登録しておくことで、カメラキャリブレーションの方法が利用できる。これには多くの方法があり、一例として
文献12(「An Efficient and Accurate Camera Calibration Technique
for 3D Machine Vision」,Roger Y.
Tsai, Proc. CVPR'86, pp.364-374,1986)に記載の方法が利用できる。
In addition, a camera calibration method can be used by registering the positions of the feature points of the registered object. There are many ways to do this. For example, see Reference 12 (“An Efficient and Accurate Camera Calibration Technique”
for 3D Machine Vision ", Roger Y.
Tsai, Proc. CVPR '86, pp. 364-374, 1986) can be used.

次に、照明変動空間生成工程および距離計算工程について説明する。   Next, the illumination variation space generation step and the distance calculation step will be described.

物体の照合は、入力画像と物体jの照明変動空間Ψ’jとの距離を尺度として行うことができる。ここで、照明変動空間とは、物体jが入力画像の位置姿勢にあるときの照明変動による画像変動を包含する画像空間である。前記距離の計算方法の一例としては、例えば照明変動空間Ψ’j内にあって最も入力画像に近い画像と入力画像との間の距離を計算する手法が利用可能である。距離の尺度としては様々なものが利用可能であるが、ここでは、一例として輝度値の2乗誤差を直接用いる例をもって説明する。これらの手法は一例であり、この他にも様々な距離の定義や計算方法が利用可能である。   The collation of the object can be performed using the distance between the input image and the illumination fluctuation space Ψ′j of the object j as a scale. Here, the illumination variation space is an image space including image variation due to illumination variation when the object j is in the position and orientation of the input image. As an example of the distance calculation method, for example, a method of calculating a distance between an input image and an image closest to the input image in the illumination variation space Ψ′j can be used. Various measures of distance can be used, but here, an example in which the square error of the luminance value is directly used will be described as an example. These methods are only examples, and various other distance definitions and calculation methods can be used.

まず、照明変動空間生成工程において、登録物体の3次元形状,照明変動テクスチャ空間,および前記推定された位置姿勢を用いて、照明変動空間を生成する。方法1や方法3などの従来技術では、この照明変動空間生成工程において多数の照明変動画像を生成する必要があり、その工程で陰影や影の計算に多くの計算量を要するために照合過程の処理に時間がかかるという問題があった。   First, in the illumination variation space generation step, an illumination variation space is generated using the three-dimensional shape of the registered object, the illumination variation texture space, and the estimated position and orientation. In the conventional techniques such as method 1 and method 3, it is necessary to generate a large number of illumination variation images in this illumination variation space generation step, and a large amount of calculation is required for calculation of shadows and shadows in that step. There was a problem that processing took time.

本実施の形態では、登録物体のテクスチャ空間Ψjを推定された位置姿勢に合わせて変換することにより、容易に照明変動空間を生成可能である。この変換には様々な手法が利用可能であるが、一例として、テクスチャ空間の座標系から入力画像の座標系への変換を求めて照明変動空間を生成する、次のような手法を利用可能である。登録されているテクスチャ空間Ψjの各基底ベクトルの各要素の値を要素が対応する物体表面の輝度値とし、登録物体の3次元形状を用いて前記推定された位置姿勢における画像を生成する。この工程は、コンピュータグラフィックスの標準的機能のみで処理できるため、高速な演算が可能である。生成された各画像を基底ベクトルとすれば、該基底ベクトル群が張る空間として照明変動空間Ψ’jが生成できる。   In the present embodiment, the illumination variation space can be easily generated by converting the texture space Ψj of the registered object in accordance with the estimated position and orientation. Various methods can be used for this conversion. For example, the following method can be used to generate the illumination fluctuation space by obtaining the transformation from the coordinate system of the texture space to the coordinate system of the input image. is there. The value of each element of each basis vector of the registered texture space Ψj is set as the luminance value of the object surface to which the element corresponds, and an image at the estimated position and orientation is generated using the three-dimensional shape of the registered object. Since this process can be performed only by a standard function of computer graphics, high-speed calculation is possible. If each generated image is a base vector, an illumination variation space Ψ′j can be generated as a space spanned by the base vector group.

距離計算工程では、照明変動空間Ψ’j内でもっとも入力画像に近い画像として比較画像を、数5で生成できる。   In the distance calculation step, a comparative image can be generated by Equation 5 as an image closest to the input image in the illumination variation space Ψ′j.

Figure 0004379459
Figure 0004379459

ただし、ここで、ベクトル群は、ベクトル群を正規直交化した基底ベクトル群である。   Here, the vector group is a basis vector group obtained by orthonormalizing the vector group.

該比較画像と入力画像との距離の評価値Dは、輝度値の差の2乗和として数6で計算できる。   The evaluation value D of the distance between the comparison image and the input image can be calculated by Equation 6 as the sum of squares of the difference in luminance value.

Figure 0004379459
Figure 0004379459

照合判定工程では、前記評価値Dを入力画像と登録データとの類似度の評価値とし、これに基づいて、対象物体が登録物体であるかどうかの確認,登録物体のうちのどの物体であるかの検索,登録物体のうちの似ている物体の検索などの処理を行う判定処理を行う。例えば、簡単な閾値処理で対象物体が登録物体であるかの確認を行う場合は、ある閾値D’を定めておき、D<D’であれば対象物体が登録物体であると決定する。   In the collation determination step, the evaluation value D is used as an evaluation value of the similarity between the input image and the registered data. Based on the evaluation value D, it is confirmed whether the target object is a registered object, and which object is the registered object. Judgment processing is performed to perform processing such as searching for a similar object among registered objects. For example, when confirming whether the target object is a registered object by simple threshold processing, a certain threshold value D ′ is set, and if D <D ′, the target object is determined to be a registered object.

(2)第2の実施の形態本発明の第2の実施の形態に係る発明の物体照合方法は、図7に示す第2の実施例の物体照合装置で実行されるものであり、前記登録物体測定工程が、登録物体の3次元形状を測定する3次元形状測定工程と、実際に様々な照明条件を設定して物体表面の各位置の輝度や色情報を撮影してテクスチャ群を生成するテクスチャ撮影工程から構成され、前記テクスチャ群生成工程がなく、前記撮影したテクスチャ群を代わりに用いることを特徴とする。   (2) Second Embodiment The object collation method of the invention according to the second embodiment of the present invention is executed by the object collation apparatus of the second embodiment shown in FIG. The object measurement process includes a three-dimensional shape measurement process for measuring the three-dimensional shape of a registered object, and actually sets various illumination conditions and captures luminance and color information at each position on the object surface to generate a texture group. It is composed of a texture photographing process, there is no texture group generating process, and the photographed texture group is used instead.

第2の実施の形態に係る発明では、登録過程において登録物体の3次元形状および表面反射率を測定し照明変動テクスチャ群を生成する代わりに、実際に様々な照明条件を設定して物体の画像を撮影することにより、照明変動テクスチャ群を撮影できることを利用している。   In the invention according to the second embodiment, instead of measuring the three-dimensional shape and surface reflectance of a registered object and generating a lighting variation texture group in the registration process, various illumination conditions are actually set and the object image is set. The fact that the illumination fluctuation texture group can be photographed by photographing is utilized.

すなわち、第2の実施の形態に係る発明では、登録物体のテクスチャの照明条件による変動を包含するテクスチャ空間を生成するのに十分な照明変動テクスチャ群が撮影できるだけの適当な数の照明条件を設定し、その照明条件の下で画像情報を撮影しておけば、反射率を測定したりコンピュータグラフィックスによる画像生成における照明条件の設定や光線追跡による影の生成などの処理を行わなくても、照明変動空間を生成するためのテクスチャ群が生成できることを利用する。   That is, in the invention according to the second embodiment, an appropriate number of illumination conditions are set such that sufficient illumination variation texture groups can be captured to generate a texture space that includes variations due to the illumination conditions of the texture of the registered object. However, if image information is taken under the illumination conditions, processing such as setting reflectance conditions and generating shadows by ray tracing without measuring reflectance or image generation by computer graphics, The fact that a texture group for generating a lighting fluctuation space can be generated is used.

前記テクスチャ画像撮影処理に用いることのできる方法の一例として、次のような方法がある。登録物体の前方に半球型のやぐらを設置し、一様な間隔で適当な数のランプを取り付ける。そして、各ランプを点灯させながら画像を撮影する。この他にも、ランプをマニピュレータに取り付けて移動させながら画像を撮影するなどの様々な方法が利用可能である。   An example of a method that can be used for the texture image photographing process is as follows. A hemispherical tower is installed in front of the registered object, and an appropriate number of lamps are attached at uniform intervals. Then, an image is taken while each lamp is turned on. In addition to this, various methods such as taking an image while attaching and moving the lamp to the manipulator can be used.

(3)第3の実施の形態本発明の第3の実施の形態に係る発明の物体照合方法は、図8に示す第3の実施例の物体照合装置で実行されるものであり、第1または第2の実施の形態に係る発明の物体照合方法において、前記照明変動空間生成工程がない代わりに、前記3次元形状および前記推定された位置姿勢を用いて入力画像をテクスチャに変換する入力テクスチャ生成工程があり、前記距離計算工程が、前記入力テクスチャと前記テクスチャ空間との距離を計算する工程であることを特徴とする。   (3) Third Embodiment The object collating method of the invention according to the third embodiment of the present invention is executed by the object collating apparatus of the third embodiment shown in FIG. Alternatively, in the object matching method of the invention according to the second embodiment, an input texture that converts an input image into a texture using the three-dimensional shape and the estimated position and orientation instead of the illumination variation space generation step. There is a generation step, and the distance calculation step is a step of calculating a distance between the input texture and the texture space.

第3の実施の形態に係る発明では、テクスチャ空間を変換して位置姿勢を入力画像に合わせて照明変動空間を生成する代わりに、前記3次元形状および前記推定された位置姿勢を用いて入力画像の座標系からテクスチャ空間の座標系への座標変換を求め、該座標変換により入力画像を入力テクスチャに変換し、該入力テクスチャと前記テクスチャ空間との距離を物体照合の評価値として用いることができることを利用している。   In the invention according to the third embodiment, instead of converting the texture space and generating the illumination variation space by matching the position and orientation with the input image, the input image is used by using the three-dimensional shape and the estimated position and orientation. The coordinate transformation from the coordinate system of the texture to the coordinate system of the texture space can be obtained, the input image can be transformed into the input texture by the coordinate transformation, and the distance between the input texture and the texture space can be used as an evaluation value for object matching Is used.

前記座標変換を求めるためには様々な手法が利用可能であるが、一例として、テクスチャ空間の座標系によって一意に決まる色を対応する物体表面の色とし、登録物体の3次元形状を用いて前記推定された位置姿勢における画像を生成する。この工程は、コンピュータグラフィックスの標準的機能のみで処理できるため高速な演算が可能である。生成された画像の各画素の色は、その画素の対応するテクスチャ座標を示しているので、入力画像の座標系からテクスチャ空間の座標系への変換が容易に生成できる。   Various methods can be used to obtain the coordinate transformation. As an example, the color uniquely determined by the coordinate system of the texture space is set as the color of the corresponding object surface, and the three-dimensional shape of the registered object is used as the color. An image at the estimated position and orientation is generated. Since this process can be performed only by a standard function of computer graphics, high-speed calculation is possible. Since the color of each pixel of the generated image indicates the texture coordinate corresponding to that pixel, conversion from the coordinate system of the input image to the coordinate system of the texture space can be easily generated.

(4)第4の実施の形態本発明の第4の実施の形態に係る発明の物体照合方法は、図10に示す第4の実施例の物体照合装置で実行されるものであり、第1ないし第3の実施の形態に係る発明において、前記登録過程において複数の登録物体の3次元形状を測定する代わりに、1つないし少数の登録物体の3次元形状を測定するだけで、該1つないし少数の登録物体の3次元形状の平均となる平均形状を出力し、照合対象となる全ての物体の形状は計測せず、反射率の測定が、照合対象となる全ての物体について反射率の計測または1つないし複数の照明条件の下での画像情報の撮影を行うものであり、以降の処理においては3次元形状として前記平均形状だけを用いるものである。   (4) Fourth Embodiment The object collating method according to the fourth embodiment of the present invention is executed by the object collating apparatus of the fourth embodiment shown in FIG. In the invention according to the third embodiment, instead of measuring the three-dimensional shapes of a plurality of registered objects in the registration process, only the three-dimensional shapes of one or a few registered objects are measured. The average shape that is the average of the three-dimensional shapes of a small number of registered objects is output, the shapes of all objects to be collated are not measured, and the reflectance measurement is performed on all objects to be collated. Measurement or imaging of image information under one or more illumination conditions is performed, and only the average shape is used as a three-dimensional shape in the subsequent processing.

第4の実施の形態に係る発明では、特に互いに形状が類似している登録物体の場合には、全ての登録物体の3次元形状を測定しなくても、代表的な3次元形状データを代わりに用いることで、位置姿勢推定処理および照明補正処理が行えることを利用している。   In the invention according to the fourth embodiment, in the case of registered objects that are similar in shape to each other, representative three-dimensional shape data is replaced without measuring the three-dimensional shapes of all registered objects. It is used that the position and orientation estimation process and the illumination correction process can be performed.

平均形状の生成に利用できる方法の一例として、次のような方法がある。ここでは、2つの物体の平均形状を求める例をもって説明する。まず、物体1および物体2の3次元形状を測定する。そして、図11(a)に示すように、2つの物体の3次元形状を重心を一致させるように平行移動し、z軸に垂直な断面を考え、断面を適当な間隔でz軸方向に動かしながら、各断面上で平均形状を計算する。図11(b)に示すように、断面上で重心から物体の外側に向かった直線である平均計算軸を考え、 物体1および物体2の形状との交点をP1,P2とする。平均形状である点Pmの3次元座標は、2つの物体表面上の点P1,P2の3次元座標(x1,y1,z1),(x2,y2,z2)を平均したとする。この処理を平均計算軸を重心の周りに適当な間隔で回転しながら繰り返し行っていくことにより、物体1および物体2の平均形状が生成できる。3次元形状測定処理では、該平均形状を出力する。   An example of a method that can be used to generate an average shape is as follows. Here, an example in which the average shape of two objects is obtained will be described. First, the three-dimensional shapes of the object 1 and the object 2 are measured. Then, as shown in FIG. 11A, the three-dimensional shapes of the two objects are translated so that the centers of gravity coincide with each other, and a cross section perpendicular to the z axis is considered, and the cross sections are moved in the z axis direction at appropriate intervals. While calculating the average shape on each cross-section. As shown in FIG. 11B, an average calculation axis that is a straight line extending from the center of gravity to the outside of the object on the cross section is considered, and intersections between the shapes of the object 1 and the object 2 are P1 and P2. Assume that the three-dimensional coordinates of the point Pm having an average shape average the three-dimensional coordinates (x1, y1, z1) and (x2, y2, z2) of the points P1, P2 on the two object surfaces. By repeating this process while rotating the average calculation axis around the center of gravity at an appropriate interval, the average shapes of the objects 1 and 2 can be generated. In the three-dimensional shape measurement process, the average shape is output.

この方法は、照合対象とする物体の数が3個以上になっても適用できる。また、平均形状を求める方法は、この他にも様々なものが利用可能である。   This method can be applied even when the number of objects to be collated is three or more. Various other methods for obtaining the average shape can be used.

照合過程においては、データ記憶処理から前記平均形状を読み出し、各登録物体の3次元形状に代用する。   In the verification process, the average shape is read from the data storage process, and is substituted for the three-dimensional shape of each registered object.

(5)第5の実施の形態本発明の第5の実施の形態に係る発明の物体照合方法は、図12に示す第5の実施例の物体照合装置で実行されるものであり、前記登録過程において、登録データに登録物体の特徴的な部位の位置情報を付与して登録すること特徴とする。   (5) Fifth Embodiment The object collation method of the invention according to the fifth embodiment of the present invention is executed by the object collation apparatus of the fifth embodiment shown in FIG. In the process, the registration data is registered by adding position information of a characteristic part of the registered object.

第7の実施の形態に係る発明では、登録物体の特徴点の位置を抽出して登録データとして記憶し、入力画像の特徴点の3次元座標を登録データから知ることができれば、前記特徴点の画像上の位置および3次元座標を用いて入力画像中の対象物体の位置姿勢および撮像装置のパラメタを自動的に求めることができることを利用している。   In the invention according to the seventh embodiment, the position of the feature point of the registered object is extracted and stored as registration data, and if the three-dimensional coordinates of the feature point of the input image can be known from the registration data, The fact that the position and orientation of the target object in the input image and the parameters of the imaging device can be automatically obtained using the position on the image and the three-dimensional coordinates is utilized.

複数の点について画像上の位置および3次元座標が既知である場合に入力画像中の対象物体の位置姿勢および撮像装置のパラメタを自動的に求める方法としては、カメラキャリブレーションの方法が利用できる。これには多くの方法があり、一例として、文献12 (「An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision」,Roger Y. Tsai, Proc. CVPR'86, pp.364-374,1986)に記載の方法があるが、ここでは詳細については省略する。   As a method for automatically obtaining the position and orientation of the target object in the input image and the parameters of the imaging device when the position on the image and the three-dimensional coordinates are known for a plurality of points, a camera calibration method can be used. There are many methods for this, and an example is described in Reference 12 (“An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision”, Roger Y. Tsai, Proc. CVPR '86, pp. 364-374, 1986). However, details are omitted here.

(6)第6実施の形態本発明の第6の実施の形態に係る発明の物体照合方法は、図15に示す第6の実施例の物体照合装置で実行されるものであり、第1ないし第4の実施の形態に係る発明の物体照合方法において、登録物体の3次元形状の測定を行わず、別途図面等から3次元形状を入力するものである。   (6) Sixth Embodiment The object collation method of the invention according to the sixth embodiment of the present invention is executed by the object collation apparatus of the sixth embodiment shown in FIG. In the object collating method of the invention according to the fourth embodiment, the three-dimensional shape of the registered object is not measured, and the three-dimensional shape is separately input from a drawing or the like.

第6の実施の形態に係る発明では、登録物体の3次元形状が、その物体の設計図などとして図面やデータとして存在する場合には、登録物体の測定を行わなくとも、図面などからデータを入力することにより登録過程が行えることを利用している。   In the invention according to the sixth embodiment, when the three-dimensional shape of a registered object exists as a drawing or data as a design drawing or the like of the object, the data is obtained from the drawing or the like without measuring the registered object. The fact that the registration process can be performed by inputting is used.

一例として、照合対象となる物体が工業製品などの設計図の存在する物体である場合や、建築物などの3次元形状の測定が一般の3次元形状計測装置では困難であり別途測量等を行い形状を測定する場合には、図面等から登録物体の3次元形状を入力できる。   As an example, if the object to be collated is an object with a design drawing such as an industrial product, or the measurement of a three-dimensional shape of a building or the like is difficult with a general three-dimensional shape measuring device, a separate survey is performed. When measuring the shape, the three-dimensional shape of the registered object can be input from a drawing or the like.

また、第6の実施の形態に係る発明の物体照合方法は、登録物体の反射率の測定を行わず、別途図面等から反射率や色情報を入力するものである。   Further, the object collation method of the invention according to the sixth embodiment does not measure the reflectance of the registered object, but inputs the reflectance and color information separately from a drawing or the like.

第6の実施の形態に係る発明では、物体表面の反射率や色情報などが、その物体の設計図などとして図面やデータとして存在する場合には、前記反射率などの測定や撮影を行わなくとも、図面などからデータを入力することにより登録過程が行えることを利用している。   In the invention according to the sixth embodiment, when the reflectance or color information of the object surface exists as a drawing or data as a design drawing of the object, the reflectance or the like is not measured or photographed. In both cases, the registration process can be performed by inputting data from a drawing or the like.

この一例として、照合対象となる物体が工業製品などの物体表面の各部位の塗装の反射率が既知の物体である場合に、図面等から物体の3次元形状を入力できることを利用している。   As an example of this, when the object to be collated is an object whose coating reflectance of each part of the object surface such as an industrial product is known, the fact that the three-dimensional shape of the object can be input from a drawing or the like is used.

・第1の実施例図1は、本発明の第1の実施例の物体照合装置の構成を示すブロック図である。本実施例の物体照合装置は、登録物体測定手段110,照明変動テクスチャ群生成手段120,テクスチャ空間生成手段130,およびデータ記憶手段140を含む登録部100と、撮影手段210,位置姿勢推定手段220,照明変動空間生成手段230,距離計算手段240,および照合判定手段250を含む照合部200とから構成されている。   First Embodiment FIG. 1 is a block diagram showing a configuration of an object collating apparatus according to a first embodiment of the present invention. The object collation apparatus according to the present embodiment includes a registration unit 100 including a registered object measuring unit 110, an illumination variation texture group generating unit 120, a texture space generating unit 130, and a data storage unit 140, an imaging unit 210, and a position / orientation estimating unit 220. , Illumination variation space generation means 230, distance calculation means 240, and collation unit 200 including collation determination means 250.

図2は、第1の実施例の物体照合装置の具体的な構成例を示す図である。登録部100には、3次元形状測定装置,登録処理装置,データベース記憶装置等が含まれている。また、照合部200には、カメラ,照合処理装置等が含まれている。   FIG. 2 is a diagram illustrating a specific configuration example of the object matching apparatus according to the first embodiment. The registration unit 100 includes a three-dimensional shape measuring device, a registration processing device, a database storage device, and the like. The collation unit 200 includes a camera, a collation processing device, and the like.

図1に示されるように、登録部100では、物体の3次元形状およびテクスチャ空間を記憶しておく。照合部200では、ビデオカメラなどの撮像装置を用いて2次元の画像を撮影し、照合処理を行う処理装置に取り込み、登録物体との照合処理を行う。   As shown in FIG. 1, the registration unit 100 stores a three-dimensional shape and texture space of an object. The matching unit 200 takes a two-dimensional image using an imaging device such as a video camera, loads the image into a processing device that performs matching processing, and performs matching processing with a registered object.

まず、登録部100において、物体の照合に用いる登録データとして、物体の3次元形状,および様々な照明条件の下でのテクスチャの変動を包含するテクスチャ空間を記憶しておく。   First, the registration unit 100 stores a three-dimensional shape of an object and a texture space including texture variations under various illumination conditions as registration data used for object collation.

登録物体測定手段110は、3次元形状測定装置を用いて物体の3次元形状と、該3次元形状に対応する物体表面の反射率またはこれに相当する色情報とを測定する。これには、例えば、文献9記載の3次元形状測定装置を利用できる。この他にも、様々な装置が利用可能である。   The registered object measuring means 110 measures the three-dimensional shape of the object and the reflectance of the object surface corresponding to the three-dimensional shape or the color information corresponding thereto using a three-dimensional shape measuring apparatus. For this, for example, the three-dimensional shape measuring apparatus described in Document 9 can be used. In addition, various devices can be used.

照明変動テクスチャ群生成手段120は、図4に示すように、テクスチャ座標系生成手段121と、照明条件変化手段122と、陰影計算手段123とを備える。   As shown in FIG. 4, the illumination variation texture group generation unit 120 includes a texture coordinate system generation unit 121, an illumination condition change unit 122, and a shadow calculation unit 123.

テクスチャ座標系生成手段121は、物体の位置姿勢によらない物体表面上の各点の位置を表す座標系としてテクスチャ座標系を設定し、該テクスチャ座標(s,t)に対する物体表面の形状(3次元座標)および反射率を出力する。このテクスチャ座標系の設定方法には様々な方法を用いることができるが、ここでは一例として球面への投影を用いる手法を説明する。図3に示すように、物体の重心を中心として物体を覆う球を考え、物体表面上の各点Pを重心を中心として前記球表面上へ投影し、投影された点Qの経度,緯度(s,t)をテクスチャ座標とする手法が利用できる。この手法は、あくまで一例であり、この他にも登録する物体の形状に適した様々な手法を利用可能である。   The texture coordinate system generation unit 121 sets a texture coordinate system as a coordinate system that represents the position of each point on the object surface regardless of the position and orientation of the object, and the shape (3 of the object surface with respect to the texture coordinates (s, t)) Dimensional coordinates) and reflectivity are output. Various methods can be used for setting the texture coordinate system. Here, as an example, a method using projection onto a spherical surface will be described. As shown in FIG. 3, a sphere covering an object with the center of gravity of the object as a center is considered, and each point P on the surface of the object is projected onto the sphere surface with the center of gravity as the center, and the longitude, latitude ( A technique using s, t) as texture coordinates can be used. This method is merely an example, and various other methods suitable for the shape of the object to be registered can be used.

照明条件変化手段122は、照明変動空間を近似するのに十分な数の照明条件群を設定する。例えば、無限遠にある1つの点光源を考え、図5に示すような物体を中心とした球面の経度,緯度を表す(θ,φ)の角度で光源の方向を示すとし、経度θおよび緯度φを10°おきに−90°から90°まで変化させ、361種類の照明条件群を設定する。この光源の種類,および照明方向の設定間隔や範囲の決め方は一例であり、種々変更可能である。   The illumination condition changing means 122 sets a sufficient number of illumination condition groups to approximate the illumination variation space. For example, given a point light source at infinity, the direction of the light source is indicated by angles (θ, φ) representing the longitude and latitude of a sphere centered on an object as shown in FIG. φ is changed from −90 ° to 90 ° every 10 °, and 361 kinds of illumination condition groups are set. The type of the light source and how to determine the setting interval and range of the illumination direction are merely examples, and various changes can be made.

陰影計算手段123は、物体jの3次元形状および反射率を読み込み、照明条件変化手段122から入力される照明条件群における照明変動テクスチャ群を、コンピュータグラフィックスなどの機能を使って生成する。この処理は、一例として、グラフィックス機能を備えたコンピュータの基本機能をもって実現できる。コンピュータグラフィックスを用いた画像生成においては、様々な物体表面の反射モデル,カメラモデル等を使うことができる。一例としては、カメラモデルとしてピンホールカメラモデル,物体表面の反射モデルとして完全散乱モデルを用いることができる。これらのモデルは一例であり、光線追跡処理を行って影を付けたり、てかりを付けるために他の様々な反射モデルを用いることもできる。この画像生成処理において、物体表面の反射特性や光源などのモデルをより現実に近い正確なものとすることで、照合性能を向上させることができる。また、この画像生成は、コンピュータグラフィックスを用いなくとも、数値計算によって実現可能である。   The shadow calculation means 123 reads the three-dimensional shape and reflectance of the object j, and generates an illumination variation texture group in the illumination condition group input from the illumination condition change means 122 using a function such as computer graphics. As an example, this processing can be realized with a basic function of a computer having a graphics function. In image generation using computer graphics, various object surface reflection models, camera models, and the like can be used. As an example, a pinhole camera model can be used as the camera model, and a complete scattering model can be used as the reflection model of the object surface. These models are only examples, and various other reflection models can be used for performing a ray tracing process to add a shadow or to apply a shadow. In this image generation process, collation performance can be improved by making the model of the reflection characteristics of the object surface, the light source, and the like more accurate near reality. Further, this image generation can be realized by numerical calculation without using computer graphics.

テクスチャ空間生成手段130は、前記生成された照明変動テクスチャ群から、照明条件が様々に変動した場合のテクスチャの変動を包含するような画像空間であるテクスチャ空間を計算する。   The texture space generation unit 130 calculates a texture space, which is an image space that includes texture variations when the illumination conditions vary in various ways, from the generated illumination variation texture group.

これには様々な手法が利用可能であるが、本実施例では主成分分析を利用して、テクスチャ空間を低次元の線形空間として表す方法を用いる例を示す。   Various methods can be used for this, but in this embodiment, an example of using a method of representing a texture space as a low-dimensional linear space using principal component analysis will be described.

照明変動テクスチャ群生成手段120で生成された照明変動テクスチャ群からテクスチャ空間を前記数3に従って計算し、計算された基底ベクトル群を物体のテクスチャ空間Ψjとして出力する。本実施例では、固有値の大きい順にM個の基底ベクトルを求め、物体jのテクスチャ空間Ψjとして出力する。この基底ベクトルの数Mを一例として 前記数4で計算される累積寄与率が95%を超える数として決定するには、照明変動テクスチャ群の画像の数に等しい361または画素数がそれ以下である場合は画素数の数をNとし、N個の固有値を求め、となる数Mを求めて決定する。数Mの決定法は、他にも様々な基準を適用して決めることが可能である。   The texture space is calculated from the illumination variation texture group generated by the illumination variation texture group generation means 120 according to the above Equation 3, and the calculated basis vector group is output as the object texture space Ψj. In this embodiment, M basis vectors are obtained in descending order of eigenvalues, and are output as the texture space Ψj of the object j. Taking the number M of the basis vectors as an example, in order to determine that the cumulative contribution calculated in Equation 4 exceeds 95%, 361 equal to the number of images in the illumination variation texture group or the number of pixels is less than that. In this case, the number of pixels is N, N eigenvalues are obtained, and the following number M is obtained and determined. The determination method of the number M can be determined by applying various other criteria.

データ記憶手段140では、登録された各物体の3次元形状およびテクスチャ空間を記憶保持し、照合部200の処理のために適時読み出す。   The data storage unit 140 stores and holds the registered three-dimensional shape and texture space of each object, and reads them out for processing of the collation unit 200 in a timely manner.

以上の登録部100の処理を行った物体に対して、以下の照合部200において画像を用いた物体照合処理を行う。   The following collation unit 200 performs object collation processing using an image on the object that has been subjected to the processing of the registration unit 100 described above.

照合部200において、カメラなどの撮像装置を利用して対象物体の入力画像を撮影し、照合手段である処理装置に取り込む。   The verification unit 200 captures an input image of the target object using an imaging device such as a camera, and imports it into a processing device that is a verification unit.

撮影手段210では、カメラやビデオカメラなどの撮像装置を用いて対象物体の入力画像が撮影される。   The imaging unit 210 captures an input image of the target object using an imaging device such as a camera or a video camera.

位置姿勢推定手段220では、入力画像を撮影したときの撮影条件である物体の位置姿勢や撮像装置のパラメタ等を推定する。例えば、位置姿勢パラメタとして、物体の平行移動距離(Tx,Ty,Tz),回転角度(Rx,Ry,Rz),カメラの焦点距離f,および視野角αを用いる。そして、これらのパラメタを利用者が画面を見ながら手動で調整できるような対話型のインタフェースを処理装置上に備えておく。例えば、画面には前記8つのパラメタを用いてコンピュータグラフィックスにより生成された登録物体の画像と対象物体の入力画像とがスーパーインポーズ法により重ね合わされて表示されている。利用者は、2つの画像がぴったり重なるように前記8つのパラメタの値を調節し、適切なパラメタを決定する。この対話型のインタフェースについては一例であり、様々な形態のものが利用可能である。また、このような対話型インタフェースを用いなくとも、自動的に位置姿勢パラメタの計算を行ってもよい。   The position / orientation estimation unit 220 estimates the object position / orientation, imaging device parameters, and the like, which are imaging conditions when the input image is captured. For example, the parallel movement distance (Tx, Ty, Tz), the rotation angle (Rx, Ry, Rz), the camera focal length f, and the viewing angle α are used as the position and orientation parameters. An interactive interface is provided on the processing device so that the user can manually adjust these parameters while viewing the screen. For example, an image of a registered object generated by computer graphics using the eight parameters and an input image of the target object are superimposed on the screen and displayed by the superimpose method. The user adjusts the values of the eight parameters so that the two images are exactly overlapped, and determines an appropriate parameter. This interactive interface is an example, and various forms can be used. Further, the position and orientation parameters may be automatically calculated without using such an interactive interface.

照明変動空間生成手段230では、前記位置姿勢推定手段220の結果を利用して、入力画像と同じ位置姿勢で、様々な照明条件の下での物体の画像変動を包含する画像空間である照明変動空間を生成する。すなわち、登録されているテクスチャ空間Ψjを推定された位置姿勢に合わせて変換することにより、照明変動空間を生成する。この変換には様々な手法が利用可能であるが、一例として、テクスチャ空間の座標系から入力画像の座標系への変換を求めて照明変動空間を生成する、次のような手法を利用可能である。   The illumination fluctuation space generation means 230 uses the result of the position / orientation estimation means 220 and uses the result of the position / orientation estimation means 220 to create an illumination fluctuation that is an image space that includes image fluctuations of an object under various illumination conditions. Create a space. That is, the illumination variation space is generated by converting the registered texture space Ψj according to the estimated position and orientation. Various methods can be used for this conversion. For example, the following method can be used to generate the illumination fluctuation space by obtaining the transformation from the coordinate system of the texture space to the coordinate system of the input image. is there.

登録されているテクスチャ空間Ψjの各基底ベクトルの各要素の値を要素が対応する物体表面の輝度値とし、登録されている3次元形状を用いて前記推定された位置姿勢における画像群を生成する。この工程は、コンピュータグラフィックスの標準的機能のみで処理できるため高速な演算が可能である。生成された各画像をそのまま基底ベクトルとすれば、該基底ベクトル群が張る空間として照明変動空間Ψ’jが生成できる。生成された基底ベクトル群を正規直交化し、正規直交系をなす基底ベクトル群を計算する。   The value of each element of each basis vector of the registered texture space Ψj is used as the luminance value of the object surface to which the element corresponds, and an image group at the estimated position and orientation is generated using the registered three-dimensional shape. . Since this process can be performed only by a standard function of computer graphics, high-speed calculation is possible. If each generated image is directly used as a base vector, an illumination variation space Ψ′j can be generated as a space spanned by the base vector group. The generated basis vector group is orthonormalized, and a basis vector group forming an orthonormal system is calculated.

距離計算手段240では、照明変動空間Ψ’j内でもっとも入力画像に近い画像として比較画像を前記数5で生成し、該比較画像と入力画像との距離の評価値Dを前記数6で計算し出力する。   The distance calculation means 240 generates a comparison image as the image closest to the input image in the illumination variation space Ψ′j by the equation 5, and calculates the evaluation value D of the distance between the comparison image and the input image by the equation 6. Then output.

照合判定手段250では、前記評価値Dを入力画像と登録データとの類似度の評価値とし、これに基づいて、対象物体が登録物体であるかどうかの確認,登録物体のうちのどの物体であるかの検索,登録物体のうちの似ている物体の検索などの処理を行う判定処理を行う。例えば、簡単な閾値処理で対象物体が登録物体であるかの確認を行う場合は、ある閾値D’を定めておき、D<D’であれば対象物体が登録物体であると決定する。   In the collation determination unit 250, the evaluation value D is used as an evaluation value of the similarity between the input image and the registered data, and based on this, it is confirmed whether the target object is a registered object, and any object among the registered objects. Judgment processing is performed to perform processing such as searching for a certain object or searching for a similar object among registered objects. For example, when confirming whether the target object is a registered object by simple threshold processing, a certain threshold value D ′ is set, and if D <D ′, the target object is determined to be a registered object.

以上の距離の計算方法や照合判定方法はあくまで一例であり、この他にも様々な手法を適用可能である。   The above distance calculation method and collation determination method are merely examples, and various other methods can be applied.

・第2の実施例図7は、本発明の第2の実施例の物体照合装置の構成を示すブロック図である。本実施例の物体照合装置は、3次元形状測定手段2110,テクスチャ撮影手段2121,テクスチャ空間生成手段130,およびデータ記憶手段140を含む登録部2100と、撮影手段210,位置姿勢推定手段220,照明変動空間生成手段230,距離計算手段240,および照合判定手段250を含む照合部200とから構成されている。   Second Embodiment FIG. 7 is a block diagram showing the configuration of an object collating apparatus according to a second embodiment of the present invention. The object collation apparatus according to the present embodiment includes a registration unit 2100 including a three-dimensional shape measuring unit 2110, a texture photographing unit 2121, a texture space generating unit 130, and a data storage unit 140, a photographing unit 210, a position / orientation estimating unit 220, and an illumination. The variable space generation unit 230, the distance calculation unit 240, and the verification unit 200 including the verification determination unit 250 are configured.

第2実施例の物体照合装置は、第1の実施例の物体照合装置と比較し、登録物体測定手段110において反射率を測定する代わりに、テクスチャ撮影手段2121を追加し複数の照明条件の下で画像を撮影しておき、それらの画像を反射率の代わりに用いて照明変動テクスチャ群を生成する点,および照明条件変化手段122がない点が異なる。   Compared to the object collating apparatus of the first embodiment, the object collating apparatus of the second embodiment adds a texture photographing unit 2121 instead of measuring the reflectance in the registered object measuring unit 110, and has a plurality of illumination conditions. The difference is that an image is taken in advance and the illumination variation texture group is generated using these images instead of the reflectance, and the illumination condition changing means 122 is not provided.

まず、登録部2100において、登録物体の登録データとして、登録物体の3次元形状,および複数の照明条件の下での画像データを登録しておく。   First, the registration unit 2100 registers, as registration data for a registered object, the three-dimensional shape of the registered object and image data under a plurality of illumination conditions.

3次元形状測定手段2110では、前記第1の実施例における登録物体測定手段110と同様に、文献9記載の3次元形状測定装置を用いて登録物体の3次元形状を測定するが、反射率は測定しない。   The three-dimensional shape measuring means 2110 measures the three-dimensional shape of the registered object using the three-dimensional shape measuring apparatus described in Document 9, as with the registered object measuring means 110 in the first embodiment. Do not measure.

テクスチャ撮影手段2121では、前記第1の実施例における照明条件変化手段122から出力される照明条件と同等な照明条件を実際に設定して登録物体の画像群を撮影し、前記照明変動テクスチャ群生成手段120と同等の手法によって前記3次元形状を用いてテクスチャ座標系を生成し、該テクスチャ座標系に前記画像群を変換することにより照明変動テクスチャ群として出力する。例えば、登録物体の前方に登録物体を中心とした半球型のやぐらを設置し、適当な間隔で適当な数のランプを取り付ける。一例としては、登録物体に対して、図5に示される角度(θ,φ)において、θ,φについて−90度から90度までの範囲でそれぞれ15度間隔にランプを取り付け、各ランプを点灯させながら1枚ずつ画像を撮影する。この撮影方法および照明位置の設定方法は一例であり、この他にもランプをマニピュレータに取り付けて移動させながら画像を撮影するなど様々な方法が利用可能である。テクスチャ撮影手段2121は、前記の方法により撮影した画像群を照明変動テクスチャ群として出力する。   The texture photographing unit 2121 actually sets an illumination condition equivalent to the illumination condition output from the illumination condition changing unit 122 in the first embodiment to photograph the image group of the registered object, and generates the illumination variation texture group generation A texture coordinate system is generated using the three-dimensional shape by a method equivalent to that of the means 120, and the image group is converted into the texture coordinate system to be output as an illumination variation texture group. For example, a hemispherical tower centered on the registered object is installed in front of the registered object, and an appropriate number of lamps are attached at appropriate intervals. As an example, with respect to a registered object, at angles (θ, φ) shown in FIG. 5, lamps are attached at intervals of 15 degrees in the range from −90 degrees to 90 degrees with respect to θ and φ, and each lamp is turned on. Take one image at a time. This photographing method and the setting method of the illumination position are only examples, and various other methods such as photographing an image while attaching and moving the lamp to the manipulator can be used. The texture photographing unit 2121 outputs an image group photographed by the above method as an illumination variation texture group.

テクスチャ空間生成手段130およびデータ記憶手段140は、第1の実施例とまったく同等である。   The texture space generation means 130 and the data storage means 140 are exactly the same as those in the first embodiment.

以下の照合部200は、第1の実施例における照合部200と同等である。   The following verification unit 200 is equivalent to the verification unit 200 in the first embodiment.

・第3実施例図8は、本発明の第3の実施例の物体照合装置の構成を示すブロック図である。本実施例の物体照合装置は、登録物体測定手段110,照明変動テクスチャ群生成手段120,テクスチャ空間生成手段130,およびデータ記憶手段140を含む登録部100と、撮影手段210,位置姿勢推定手段220,入力テクスチャ生成手段231,距離計算手段241,および照合判定手段250を含む照合部3200とから構成されている。   Third Embodiment FIG. 8 is a block diagram showing the configuration of an object collating apparatus according to a third embodiment of the present invention. The object collation apparatus according to the present embodiment includes a registration unit 100 including a registered object measuring unit 110, an illumination variation texture group generating unit 120, a texture space generating unit 130, and a data storage unit 140, an imaging unit 210, and a position / orientation estimating unit 220. , An input texture generation unit 231, a distance calculation unit 241, and a collation unit 3200 including a collation determination unit 250.

登録部100は、第1の実施例における登録部100と同等である。   The registration unit 100 is equivalent to the registration unit 100 in the first embodiment.

照合部3200は、第1の実施例における照合部200に比較し、前記照明変動空間生成手段230がない代わりに、入力テクスチャ生成手段231があり、また、距離計算手段241が入力画像を変換した入力テクスチャとテクスチャ空間との距離を計算する点が異なる。   Compared with the verification unit 200 in the first embodiment, the verification unit 3200 includes an input texture generation unit 231 instead of the illumination variation space generation unit 230, and the distance calculation unit 241 converts the input image. The difference is that the distance between the input texture and the texture space is calculated.

撮影手段210から位置姿勢推定手段220までの処理は、第1の実施例とまったく同 等である。   The processing from the photographing means 210 to the position / orientation estimation means 220 is exactly the same as in the first embodiment.

入力テクスチャ生成手段231では、前記位置姿勢推定手段220の結果を利用して、 入力画像の各画素をテクスチャ座標に変換し変形することで入力テクスチャを生成する。この変換には様々な手法が利用可能であるが、一例として、入力画像の座標系(u,v)からテクスチャ空間の座標系(s,t)への変換を求めて照明変動空間を生成する次のような手法を利用可能である。   The input texture generation means 231 uses the result of the position / orientation estimation means 220 to generate an input texture by converting each pixel of the input image into texture coordinates and transforming it. Various methods can be used for this conversion. As an example, an illumination fluctuation space is generated by obtaining a conversion from the coordinate system (u, v) of the input image to the coordinate system (s, t) of the texture space. The following techniques can be used.

登録されている3次元形状に対し、物体表面の色としてテクスチャ座標(s,t)によって唯一に決まる色を割り当てた仮想物体を定義し、前記推定された位置姿勢にあるときの画像を生成する。この処理は、コンピュータグラフィックスの標準的機能のみで処理できるため高速な演算が可能である。生成された画像の各画素R(u,v)の色を見ればテクスチャ座標Q(s,t)がわかるので、 図9に示すように入力画像の座標系(u,v)からテクスチャ座標(s,t)への座標変換が求められる。入力画像上で照合に用いるすべての画素についてこの変換を適用し、 入力テクスチャを生成する。   For a registered three-dimensional shape, a virtual object assigned with a color that is uniquely determined by the texture coordinates (s, t) is defined as the color of the object surface, and an image when in the estimated position and orientation is generated. . Since this process can be performed only by a standard function of computer graphics, high-speed calculation is possible. Since the texture coordinates Q (s, t) can be found by looking at the color of each pixel R (u, v) in the generated image, the texture coordinates (u, v) from the coordinate system (u, v) of the input image as shown in FIG. A coordinate transformation to s, t) is required. This transformation is applied to all pixels used for matching on the input image to generate an input texture.

距離計算手段241では、テクスチャ空間Ψj内でもっとも入力テクスチャに近いテクスチャとして比較テクスチャを生成し、該比較テクスチャと入力テクスチャとの距離の評価値Dを出力する。   The distance calculation unit 241 generates a comparison texture as a texture closest to the input texture in the texture space Ψj, and outputs an evaluation value D of the distance between the comparison texture and the input texture.

登録されているテクスチャ空間Ψjを読み込み、各基底ベクトルのうち、入力画像で、見えていない領域(図9の領域B)を除き、前記入力テクスチャの生成時に入力画像と対応がついた画素(図9の領域A)に対応する要素のみを抜き出し、該要素を並べたベクトルを生成する。   The registered texture space Ψj is read, and pixels that correspond to the input image at the time of generation of the input texture, except for the region that is not visible in the input image (region B in FIG. 9), of each basis vector (see FIG. Only the elements corresponding to the region A) 9 are extracted, and a vector in which the elements are arranged is generated.

テクスチャ空間Ψjと入力テクスチャとの距離Dは、数7のように入力テクスチャをの線形和で表したときの誤差の最小値として最小二乗法で計算できる。   The distance D between the texture space Ψj and the input texture can be calculated by the least square method as the minimum value of the error when the input texture is expressed as a linear sum as shown in Equation 7.

Figure 0004379459
Figure 0004379459

・第4の実施例図10は、本発明の第4の実施例の物体照合装置の構成を示すブロック図である。本実施例の物体照合装置は、登録物体測定手段110,平均形状生成手段111,照明変動テクスチャ群生成手段120,テクスチャ空間生成手段130,およびデータ記憶手段141を含む登録部4100と、撮影手段210,位置姿勢推定手段220,照明変動空間生成手段230,距離計算手段240,および照合判定手段250を含む照合部200とから構成されている。   Fourth Embodiment FIG. 10 is a block diagram showing the configuration of an object collating apparatus according to a fourth embodiment of the present invention. The object collating apparatus according to the present embodiment includes a registration unit 4100 including a registered object measuring unit 110, an average shape generating unit 111, an illumination variation texture group generating unit 120, a texture space generating unit 130, and a data storage unit 141, and a photographing unit 210. , Position / orientation estimation means 220, illumination variation space generation means 230, distance calculation means 240, and collation unit 200 including collation determination means 250.

第4の実施例の物体照合装置は、第1の実施例の物体照合装置と比較し、登録部4100において複数の登録物体を登録する場合に、登録物体測定手段110で全ての登録物体の3次元形状を測定する代わりに、1つないし少数の登録物体の3次元形状を計測するだけで、平均形状生成手段111において該1つないし少数の登録物体の3次元形状の平均となる平均形状を出力し、照合対象となる全ての物体の形状は計測しない点,および照合部200において前記平均の3次元形状を利用する点が異なる。   Compared with the object collating apparatus of the first embodiment, the object collating apparatus of the fourth embodiment is configured such that the registered object measuring unit 110 compares all three registered objects when the registration unit 4100 registers a plurality of registered objects. Instead of measuring the three-dimensional shape, only the three-dimensional shape of one or a few registered objects is measured, and the average shape that is the average of the three-dimensional shapes of the one or a few registered objects is obtained in the average shape generating means 111. The difference is that the shapes of all the objects to be collated are not measured, and the collation unit 200 uses the average three-dimensional shape.

以下では、物体1および物体2の2つの登録物体を登録する例を用いて説明する。   Below, it demonstrates using the example which registers two registration objects of the object 1 and the object 2. FIG.

まず、登録部4100において、物体の照合に用いる登録データとして、物体1および物体2の2つの登録物体について、平均形状,およびそれぞれのテクスチャ空間を登録しておく。   First, the registration unit 4100 registers an average shape and respective texture spaces for two registered objects, the object 1 and the object 2, as registration data used for object matching.

登録物体測定手段110では、文献9記載の3次元形状測定装置を用いて、物体1および物体2の3次元形状を測定する。   The registered object measuring means 110 measures the three-dimensional shapes of the object 1 and the object 2 using the three-dimensional shape measuring apparatus described in Document 9.

平均形状生成手段111では、図11(a)に示すように、2つの物体1および物体2の3次元形状を重心を一致させるように平行移動し、z軸に垂直な断面を適当な間隔で設定し、それぞれの断面上で平均形状を計算する。図11(b)に示すように、断面上で重心から物体の外側に向かって平均計算軸となる直線を考え、物体1および物体2の形状との交点をP1,P2とする。平均形状である点Pmの3次元座標は、2つの物体表面上の点P1,P2の3次元座標(x1,y1,z1),(x2,y2,z2)を平均したとする。この処理を平均計算軸を重心の周りに回転しながら適当な間隔で行うことにより、 物体1および物体2の平均形状が生成できる。平均形状生成手段111では、該平均形状を出力する。   In the average shape generation means 111, as shown in FIG. 11A, the three-dimensional shapes of the two objects 1 and 2 are translated so that the centers of gravity coincide with each other, and a cross section perpendicular to the z axis is arranged at an appropriate interval. Set and calculate the average shape on each cross section. As shown in FIG. 11B, a straight line that is an average calculation axis from the center of gravity to the outside of the object on the cross section is considered, and the intersections with the shapes of the objects 1 and 2 are P1 and P2. Assume that the three-dimensional coordinates of the point Pm having an average shape average the three-dimensional coordinates (x1, y1, z1) and (x2, y2, z2) of the points P1, P2 on the two object surfaces. By performing this process at appropriate intervals while rotating the average calculation axis around the center of gravity, the average shapes of the object 1 and the object 2 can be generated. The average shape generation unit 111 outputs the average shape.

以下の処理では、前記平均形状を個々の物体の3次元形状の代わりに用い、データ記憶手段141では、前記平均形状および各物体のテクスチャ空間を記憶すること以外は、すべて第1の実施例と同等である。   In the following processing, the average shape is used instead of the three-dimensional shape of each object, and the data storage unit 141 is the same as in the first embodiment except that the average shape and the texture space of each object are stored. It is equivalent.

照合部200における処理は、物体1および物体2の形状としてデータ記憶手段141から読み出される3次元形状が前記平均形状である点のみが第1の実施例と異なり、他の処理は全て同様である。   The processing in the matching unit 200 is different from the first embodiment only in that the three-dimensional shape read from the data storage unit 141 as the shapes of the object 1 and the object 2 is the average shape, and the other processes are all the same. .

以上、第4の実施例では2つの登録物体を登録する際にその平均形状を記憶する例を説明したが、これはあくまで1例であり、登録物体の数が3つ以上になったり、そのうちの任意の数の登録物体の平均形状を求めて利用することも同様の処理により可能である。   As mentioned above, although the example which memorize | stores the average shape when registering two registration objects was demonstrated in the 4th Example, this is an example to the last, the number of registration objects may be three or more, It is also possible to obtain and use the average shape of an arbitrary number of registered objects by a similar process.

・第5の実施例図12は、本発明の第5の実施例の物体照合装置の構成を示すブロック図である。本実施例の物体照合装置は、登録物体測定手段110,照明変動テクスチャ群生成手段120,テクスチャ空間生成手段130,データ記憶手段143,および特徴点位置抽出手段150を含む登録部5100と、撮影手段210,位置姿勢推定手段221,照明変動空間生成手段230,距離計算手段240,および照合判定手段250を含む照合部5200とから構成されている。   Fifth Embodiment FIG. 12 is a block diagram showing the configuration of the object collating apparatus according to the fifth embodiment of the present invention. The object collation apparatus according to the present embodiment includes a registration unit 5100 including a registered object measurement unit 110, an illumination variation texture group generation unit 120, a texture space generation unit 130, a data storage unit 143, and a feature point position extraction unit 150, and an imaging unit. 210, a position / orientation estimation unit 221, an illumination variation space generation unit 230, a distance calculation unit 240, and a collation unit 5200 including a collation determination unit 250.

第5の実施例の物体照合装置は、第1の実施例の物体照合装置と比較し、登録部5100において、登録物体の画像上で輝度値が大きく変化するなどの特徴的な点の位置を抽出し特徴点位置として出力する特徴点位置抽出手段150が追加されている点,デー タ記憶手段143において前記特徴点位置も記憶する点,および照合部5200の位置姿勢推定手段221においてデータ記憶手段143から前記特徴点位置を読み込み対象物体の位置姿勢を自動的に推定する点が異なる。   The object collation apparatus of the fifth embodiment is different from the object collation apparatus of the first embodiment in that, in the registration unit 5100, the position of a characteristic point such as a luminance value greatly changing on the image of the registration object is determined. A feature point position extraction unit 150 for extracting and outputting as a feature point position is added, a point for storing the feature point position in the data storage unit 143, and a data storage unit in the position / orientation estimation unit 221 of the collation unit 5200. The difference is that the feature point position is read from 143 and the position and orientation of the target object are automatically estimated.

第5の実施例では、照合対象となる物体の一例として人の顔を用いる。   In the fifth embodiment, a human face is used as an example of an object to be collated.

まず、登録部5100において、物体の照合に用いる登録データとして、登録物体の3次元形状および反射率を測定し、該3次元形状および反射率などから登録物体の特徴点の3次元座標を求め、前記3次元形状,テクスチャ空間,および特徴点位置を登録しておく。   First, the registration unit 5100 measures the three-dimensional shape and reflectance of the registered object as registration data used for object matching, and obtains the three-dimensional coordinates of the feature points of the registered object from the three-dimensional shape and reflectance. The three-dimensional shape, texture space, and feature point position are registered.

登録物体測定手段110では、3次元形状測定装置を用いて登録物体の3次元形状および反射率を測定する。本実施例では、3次元形状測定装置の一例として、文献9記載の3次元形状測定装置を用いるが、この他にも様々な装置が利用可能である。   The registered object measuring means 110 measures the three-dimensional shape and reflectance of the registered object using a three-dimensional shape measuring apparatus. In this embodiment, the three-dimensional shape measuring device described in Document 9 is used as an example of the three-dimensional shape measuring device, but various other devices can be used.

特徴点位置抽出手段150では、登録物体の画像上で輝度値が大きく変化する部分など、特徴的な領域や点(特徴点)の位置を検出し、その3次元座標を特徴点位置として出力する。一例として、人物の顔を照合対象となる物体とする場合には、目じりや口元などの反射率が大きく変化している部位や鼻の頭などの3次元形状が大きく変化している部位を検出する。これは、手動で行うこともできるし、自動的に行う方法として前記文献2 (特許第2872776号「顔画像照合装置」)や、文献4(特開平6-168317号公報「個人識別装置」)記載の方法などの様々な方法を利用できる。本実施例では、図14に示すような位置の12個の点(0〜11)を特徴点として用いる。これらの特徴点の定義は、照合対象となる物体により様々に変更可能であることはいうまでもない。以下では、これら特徴点の3次元座標である特徴点位置を、で表す。   The feature point position extraction unit 150 detects the position of a characteristic region or point (feature point) such as a portion where the luminance value greatly changes on the image of the registered object, and outputs the three-dimensional coordinates as the feature point position. . As an example, when a person's face is an object to be collated, a part where the reflectance such as the eyes or the mouth changes greatly or a part where the three-dimensional shape such as the head of the nose changes significantly is detected. To do. This can be performed manually, or as a method of automatically performing the above-mentioned document 2 (Japanese Patent No. 2872776 “Face Image Matching Device”) or Document 4 (Japanese Patent Laid-Open No. 6-168317 “Personal Identification Device”). Various methods such as those described can be used. In this embodiment, twelve points (0 to 11) at positions as shown in FIG. 14 are used as feature points. It goes without saying that the definition of these feature points can be changed variously depending on the object to be collated. Below, the feature point position which is the three-dimensional coordinate of these feature points is represented by.

データ記憶手段143では、各登録物体の3次元形状,テクスチャ空間,および特徴点位置を記憶保持し、照合部5200の処理のために適時読み出す。   The data storage unit 143 stores and holds the three-dimensional shape, texture space, and feature point position of each registered object, and reads them out for processing by the matching unit 5200.

以上の登録部5100の処理を行った登録物体に対して、以下の照合部5200において対象物体の入力画像を用いた物体照合処理を行う。   The following verification unit 5200 performs object verification processing using the input image of the target object on the registered object that has been processed by the registration unit 5100 described above.

撮影手段210では、カメラやビデオカメラなどの撮像装置を用いて対象物体の入力画像が撮影される。   The imaging unit 210 captures an input image of the target object using an imaging device such as a camera or a video camera.

位置姿勢推定手段221では、入力画像を撮影したときの撮影条件である対象物体の位置姿勢や撮像装置のパラメタ等を推定する。   The position / orientation estimation means 221 estimates the position / orientation of the target object and the parameters of the imaging apparatus, which are the imaging conditions when the input image is captured.

図13を参照すると、位置姿勢推定手段221は、さらに、特徴点抽出手段222と、位置姿勢計算手段223とから構成されている。   Referring to FIG. 13, the position / orientation estimation unit 221 further includes a feature point extraction unit 222 and a position / orientation calculation unit 223.

特徴点抽出手段222では、前記登録部5100における特徴点位置抽出手段150で抽出した特徴点群と同じ特徴点の位置を入力画像から抽出し、入力画像上での位置を入力画像特徴点位置として出力する。これは、人が処理装置の画面上に表示された入力画像を見ながら手動で入力することもできるし、前記文献4および文献5に記載の方法などの前記特徴点位置抽出手段150で用いたのと同様の様々な方法を利用可能である。本実施例は、人の顔を照合する場合を一例として挙げているが、例えば多面体形状の物体を照合対象とする場合には頂点が特徴点として利用でき、画像からエッジを抽出し、それらの交点として多面体の頂点を検出することができる。また、物体表面に特徴的な模様がある場合などには、その模様の位置を利用することもできる。   The feature point extraction unit 222 extracts the same feature point position as the feature point group extracted by the feature point position extraction unit 150 in the registration unit 5100 from the input image, and uses the position on the input image as the input image feature point position. Output. This can be input manually by a person looking at the input image displayed on the screen of the processing apparatus, or used by the feature point position extraction means 150 such as the methods described in the literature 4 and literature 5. Various methods similar to those described above can be used. In the present embodiment, a case where a human face is collated is taken as an example. However, for example, when a polyhedral object is a collation target, a vertex can be used as a feature point, and an edge is extracted from an image. The vertex of the polyhedron can be detected as an intersection. Also, when there is a characteristic pattern on the object surface, the position of the pattern can be used.

位置姿勢計算手段223では、前記入力画像特徴点位置と、データ記憶手段143から読み出す特徴点位置とを利用し、入力画像中にある対象物体の位置姿勢や撮像装置のパラメタなどを計算し、位置姿勢として出力する。この計算には前記文献5の方法など様々な方法が利用可能であるが、本実施例では一例として位置姿勢のパラメタとして対象物体の平行移動距離(Tx,Ty,Tz),x,y,z軸の周りの回転角度(Rx,Ry,Rz),およびカメラの焦点距離fをとり、カメラモデルとしてピンホールカメラを用いて、次のような方法で行う。前記のように、焦点距離fなどの撮像装置のパラメタも含めて位置姿勢と呼ぶ。特徴点位置と入力画像特徴点位置との間の関係は、数8で表される。   The position / orientation calculation means 223 uses the input image feature point position and the feature point position read from the data storage means 143 to calculate the position / orientation of the target object in the input image, the parameters of the imaging device, and the like. Output as posture. For this calculation, various methods such as the method described in the above-mentioned document 5 can be used. In this embodiment, as an example, the parallel movement distance (Tx, Ty, Tz), x, y, z of the target object is used as a position and orientation parameter. The rotation angle (Rx, Ry, Rz) around the axis and the focal length f of the camera are taken, and a pinhole camera is used as the camera model, and the following method is used. As described above, the parameters including the parameters of the imaging device such as the focal length f are referred to as a position and orientation. The relationship between the feature point position and the input image feature point position is expressed by Equation 8.

Figure 0004379459
Figure 0004379459

ただし、ここで、a,b,cは、数9で表される値である。   Here, a, b, and c are values represented by Equation 9.

Figure 0004379459
Figure 0004379459

Rは、数10で表される回転を表す行列である。   R is a matrix representing the rotation expressed by Equation 10.

Figure 0004379459
Figure 0004379459

12個の各特徴点についての前記数8で計算される値と入力画像特徴点位置の値との誤差の総和が最小になるように、Rx,Ry,Rz,Tx,Ty,Tz,fを最適化計算により求める。この最適化の計算には、様々な方法が利用できる。求めたRx,Ry,Rz,Tx,Ty,Tz,fを位置姿勢パラメタとして出力する。   Rx, Ry, Rz, Tx, Ty, Tz, f are set so that the sum of errors between the value calculated by the equation 8 for each of the 12 feature points and the value of the input image feature point position is minimized. Obtained by optimization calculation. Various methods can be used for this optimization calculation. The obtained Rx, Ry, Rz, Tx, Ty, Tz, f are output as position and orientation parameters.

前記の位置姿勢パラメタやカメラモデルの定義および計算方法はあくまで一例であり、この他にも様々な方法を利用可能である。   The position and orientation parameters and the camera model definition and calculation method are merely examples, and various other methods can be used.

照明変動空間生成手段230以下の処理については、第1の実施例と同等である。   The processing after the illumination variation space generating means 230 is the same as in the first embodiment.

・第6の実施例図15は、本発明の第6の実施例の物体照合装置の構成を示すブロック図である。本実施例の物体照合装置は、登録物体入力手段112,照明変動テクスチャ群生成手段120,テクスチャ空間生成手段130,およびデータ記憶手段140を含む登録部6100と、撮影手段210,位置姿勢推定手段220,照明変動空間生成手段230,距離計算手段240,および照合判定手段250を含む照合部200とから構成されている。   Sixth Embodiment FIG. 15 is a block diagram showing a configuration of an object collating apparatus according to a sixth embodiment of the present invention. The object collating apparatus according to the present embodiment includes a registration unit 6100 including a registered object input unit 112, an illumination variation texture group generation unit 120, a texture space generation unit 130, and a data storage unit 140, an imaging unit 210, and a position and orientation estimation unit 220. , Illumination variation space generation means 230, distance calculation means 240, and collation unit 200 including collation determination means 250.

第6の実施例の物体照合装置は、照合対象の物体が工業製品であり、その形状の設計図がCAD(Computer Aided Design)データとして保存されており、表面の塗装の仕様がデザイン図によって決められているとする。このため、第6の実施例の物体照合装置は、図1に示した第1の実施例の物体照合装置と比較し、登録物体入力手段112において、設計図のCADデータから3次元形状を、デザイン図から反射率を読み込む点が異なる。   In the object collating apparatus of the sixth embodiment, the object to be collated is an industrial product, the design drawing of the shape is stored as CAD (Computer Aided Design) data, and the surface coating specifications are determined by the design drawing. Suppose that For this reason, the object collating apparatus of the sixth embodiment is compared with the object collating apparatus of the first embodiment shown in FIG. The difference is that the reflectance is read from the design drawing.

登録物体入力手段112は、設計図のCADデータを、照合部200で扱えるデータ形式に変換して3次元形状として出力する。また、デザイン図から登録物体の各部の色,表面の仕上げの方法などを読み込み、反射率に変換して出力する。照合部200については、第1の実施例と全く同等である。   The registered object input unit 112 converts the CAD data of the design drawing into a data format that can be handled by the matching unit 200 and outputs the data as a three-dimensional shape. In addition, the color of each part of the registered object, the method of finishing the surface, etc. are read from the design drawing, converted into reflectance, and output. The verification unit 200 is exactly the same as that in the first embodiment.

・第7の実施例図16は、本発明の第7の実施例の物体照合装置の構成を示すブロック図である。本実施例の物体照合装置は、図1に示した第1の実施例の物体照合装置に対して、登録部100に登録プログラムを記録した記録媒体1000を備え、照合部200に照合プログラムを記録した記録媒体2000を備える点が異なっている。これらの記録媒体1000,2000は、磁気ディスク,半導体メモリ,その他の記録媒体であってよい。   Seventh Embodiment FIG. 16 is a block diagram showing the configuration of the object collating apparatus according to the seventh embodiment of the present invention. The object collating apparatus according to the present embodiment includes a recording medium 1000 in which a registration program is recorded in the registration unit 100, and the collation program is recorded in the collation unit 200, in contrast to the object collation apparatus according to the first embodiment illustrated in FIG. The difference is that the recording medium 2000 is provided. These recording media 1000 and 2000 may be magnetic disks, semiconductor memories, or other recording media.

登録プログラムは、記録媒体1000から登録部100を構成するコンピュータに読み込まれ、当該コンピュータの動作を登録物体測定手段110,照明変動テクスチャ群生成手段120,テクスチャ空間生成手段130,およびデータ記憶手段140として制御する。登録プログラムの制御による登録部100の動作は、第1の実施例における登録部100の動作と全く同様になるので、その詳しい説明を割愛する。   The registration program is read from the recording medium 1000 into a computer constituting the registration unit 100, and the operations of the computer are registered object measurement means 110, illumination variation texture group generation means 120, texture space generation means 130, and data storage means 140. Control. Since the operation of the registration unit 100 under the control of the registration program is exactly the same as the operation of the registration unit 100 in the first embodiment, a detailed description thereof will be omitted.

また、照合プログラムは、記録媒体2000から照合部200を構成するコンピュータに読み込まれ、当該コンピュータの動作を撮影手段210,位置姿勢推定手段220,照明変動空間生成手段230,距離計算手段240,および照合判定手段250を含む照合部200として制御する。照合プログラムの制御による照合部200の動作は、第1の実施例における照合部200の動作と全く同様になるので、その詳しい説明を割愛する。   The collation program is read from the recording medium 2000 to a computer constituting the collation unit 200, and the operation of the computer is performed by the photographing unit 210, the position / orientation estimation unit 220, the illumination variation space generation unit 230, the distance calculation unit 240, and the collation. The collation unit 200 including the determination unit 250 is controlled. Since the operation of the collation unit 200 under the control of the collation program is exactly the same as the operation of the collation unit 200 in the first embodiment, its detailed description is omitted.

・第8の実施例図17は、本発明の第8の実施例の物体照合装置の構成を示すブロック図である。本実施例の物体照合装置は、図7に示した第2の実施例の物体照合装置に対して、登録部2100に登録プログラムを記録した記録媒体1010を備え、照合部200に照合プログラムを記録した記録媒体2000を備える点が異なっている。これらの記録媒体1010,2000は、磁気ディスク,半導体メモリ,その他の記録媒体であってよい。   Eighth Embodiment FIG. 17 is a block diagram showing a configuration of an object collating apparatus according to an eighth embodiment of the present invention. The object collation apparatus according to the present embodiment is provided with a recording medium 1010 in which a registration program is recorded in the registration unit 2100, and the collation program is recorded in the collation unit 200, compared to the object collation apparatus according to the second embodiment illustrated in FIG. The difference is that the recording medium 2000 is provided. These recording media 1010 and 2000 may be magnetic disks, semiconductor memories, or other recording media.

登録プログラムは、記録媒体1010から登録部2100を構成するコンピュータに読み込まれ、当該コンピュータの動作を3次元形状測定手段2110,テクスチャ撮影手段2121,テクスチャ空間生成手段130,およびデータ記憶手段140として制御する。登録プログラムの制御による登録部2100の動作は、第2の実施例における登録部2100の動作と全く同様になるので、その詳しい説明を割愛する。   The registration program is read from the recording medium 1010 into a computer constituting the registration unit 2100, and controls the operation of the computer as a three-dimensional shape measuring unit 2110, a texture photographing unit 2121, a texture space generating unit 130, and a data storage unit 140. . Since the operation of the registration unit 2100 under the control of the registration program is exactly the same as the operation of the registration unit 2100 in the second embodiment, its detailed description is omitted.

また、照合プログラムは、記録媒体2000から照合部200を構成するコンピュータに読み込まれ、当該コンピュータの動作を撮影手段210,位置姿勢推定手段220,照明変動空間生成手段230,距離計算手段240,および照合判定手段250を含む照合部200として制御する。照合プログラムの制御による照合部200の動作は、第2の実施例における照合部200の動作と全く同様になるので、その詳しい説明を割愛する。   The collation program is read from the recording medium 2000 to a computer constituting the collation unit 200, and the operation of the computer is performed by the photographing unit 210, the position / orientation estimation unit 220, the illumination variation space generation unit 230, the distance calculation unit 240, and the collation. The collation unit 200 including the determination unit 250 is controlled. Since the operation of the collation unit 200 under the control of the collation program is exactly the same as the operation of the collation unit 200 in the second embodiment, a detailed description thereof will be omitted.

・第9の実施例図18は、本発明の第8の実施例の物体照合装置の構成を示すブロック図である。本実施例の物体照合装置は、図8に示した第3の実施例の物体照合装置に対して、登録部100に登録プログラムを記録した記録媒体1000を備え、照合部3200に照合プログラムを記録した記録媒体2010を備える点が異なっている。これらの記録媒体1000,2010は、磁気ディスク,半導体メモリ,その他の記録媒体であってよい。   Ninth Embodiment FIG. 18 is a block diagram showing a configuration of an object collating apparatus according to an eighth embodiment of the present invention. The object collation apparatus according to the present embodiment is provided with a recording medium 1000 in which a registration program is recorded in the registration unit 100, and the collation program is recorded in the collation unit 3200 with respect to the object collation apparatus according to the third embodiment illustrated in FIG. The recording medium 2010 is different. These recording media 1000 and 2010 may be magnetic disks, semiconductor memories, or other recording media.

登録プログラムは、記録媒体1000から登録部100を構成するコンピュータに読み込まれ、当該コンピュータの動作を登録物体測定手段110,照明変動テクスチャ群生成手段120,テクスチャ空間生成手段130,およびデータ記憶手段140として制御する。登録プログラムの制御による登録部100の動作は、第3の実施例における登録部100の動作と全く同様になるので、その詳しい説明を割愛する。   The registration program is read from the recording medium 1000 into a computer constituting the registration unit 100, and the operations of the computer are registered object measurement means 110, illumination variation texture group generation means 120, texture space generation means 130, and data storage means 140. Control. Since the operation of the registration unit 100 under the control of the registration program is exactly the same as the operation of the registration unit 100 in the third embodiment, a detailed description thereof will be omitted.

また、照合プログラムは、記録媒体2010から照合部3200を構成するコンピュータに読み込まれ、当該コンピュータの動作を撮影手段210,位置姿勢推定手段220,入力テクスチャ生成手段231,距離計算手段241,および照合判定手段250を含む照合部3200として制御する。照合プログラムの制御による照合部3200の動作は、第3の実施例における照合部3200の動作と全く同様になるので、その詳しい説明を割愛する。   The collation program is read from the recording medium 2010 into a computer constituting the collation unit 3200, and the operation of the computer is performed by the photographing unit 210, the position / orientation estimation unit 220, the input texture generation unit 231, the distance calculation unit 241, and the collation determination. The collation unit 3200 including the means 250 is controlled. Since the operation of the collation unit 3200 under the control of the collation program is exactly the same as the operation of the collation unit 3200 in the third embodiment, a detailed description thereof will be omitted.

・第10の実施例図19は、本発明の第10の実施例の物体照合装置の構成を示すブロック図である。本実施例の物体照合装置は、図10に示した第4の実施例の物体照合装置に対して、登録部4100に登録プログラムを記録した記録媒体1020を備え、照合部200に照合プログラムを記録した記録媒体2000を備える点が異なっている。これらの記録媒体1020,2000は、磁気ディスク,半導体メモリ,その他の記録媒体であってよい。   Tenth Embodiment FIG. 19 is a block diagram showing a configuration of an object collating apparatus according to a tenth embodiment of the present invention. The object collation apparatus according to the present embodiment is provided with a recording medium 1020 in which a registration program is recorded in the registration unit 4100, and the collation program is recorded in the collation unit 200, compared to the object collation apparatus according to the fourth embodiment illustrated in FIG. The difference is that the recording medium 2000 is provided. These recording media 1020 and 2000 may be magnetic disks, semiconductor memories, or other recording media.

登録プログラムは、記録媒体1020から登録部4100を構成するコンピュータに読み込まれ、当該コンピュータの動作を登録物体測定手段110,平均形状生成手段111,照明変動テクスチャ群生成手段120,テクスチャ空間生成手段130,およびデータ記憶手段141として制御する。登録プログラムの制御による登録部4100の動作は、第4の実施例における登録部4100の動作と全く同様になるので、その詳しい説明を割愛する。   The registration program is read from the recording medium 1020 into a computer constituting the registration unit 4100, and the operations of the computer are registered object measurement means 110, average shape generation means 111, illumination variation texture group generation means 120, texture space generation means 130, The data storage unit 141 is controlled. Since the operation of the registration unit 4100 under the control of the registration program is exactly the same as the operation of the registration unit 4100 in the fourth embodiment, its detailed description is omitted.

また、照合プログラムは、記録媒体2000から照合部200を構成するコンピュータに読み込まれ、当該コンピュータの動作を撮影手段210,位置姿勢推定手段220,照明変動空間生成手段230,距離計算手段240,および照合判定手段250を含む照合部200として制御する。照合プログラムの制御による照合部200の動作は、第4の実施例における照合部200の動作と全く同様になるので、その詳しい説明を割愛する。   The collation program is read from the recording medium 2000 to a computer constituting the collation unit 200, and the operation of the computer is performed by the photographing unit 210, the position / orientation estimation unit 220, the illumination variation space generation unit 230, the distance calculation unit 240, and the collation. The collation unit 200 including the determination unit 250 is controlled. Since the operation of the collation unit 200 under the control of the collation program is exactly the same as the operation of the collation unit 200 in the fourth embodiment, a detailed description thereof will be omitted.

・第11の実施例図20は、本発明の第11の実施例の物体照合装置の構成を示すブロック図である。本実施例の物体照合装置は、図12に示した第5の実施例の物体照合装置に対して、登録部5100に登録プログラムを記録した記録媒体1030を備え、照合部5200に照合プログラムを記録した記録媒体2020を備える点が異なっている。これらの記録媒体1030,2020は、磁気ディスク,半導体メモリ,その他の記録媒体であってよい。   Eleventh Embodiment FIG. 20 is a block diagram showing the configuration of an object collating apparatus according to an eleventh embodiment of the present invention. The object collation apparatus according to the present embodiment is provided with a recording medium 1030 in which a registration program is recorded in the registration unit 5100, and the collation program is recorded in the collation unit 5200 with respect to the object collation apparatus according to the fifth embodiment illustrated in FIG. The difference is that the recording medium 2020 is provided. These recording media 1030 and 2020 may be magnetic disks, semiconductor memories, or other recording media.

登録プログラムは、記録媒体1030から登録部5100を構成するコンピュータに読み込まれ、当該コンピュータの動作を登録物体測定手段110,照明変動テクスチャ群生成手段120,テクスチャ空間生成手段130,データ記憶手段143,および特徴点位置抽出手段150として制御する。登録プログラムの制御による登録部5100の動作は、第5の実施例における登録部5100の動作と全く同様になるので、その詳しい説明を割愛する。   The registration program is read from the recording medium 1030 into a computer constituting the registration unit 5100, and the operation of the computer is registered object measurement means 110, illumination variation texture group generation means 120, texture space generation means 130, data storage means 143, and Control is performed as the feature point position extraction unit 150. Since the operation of the registration unit 5100 under the control of the registration program is exactly the same as the operation of the registration unit 5100 in the fifth embodiment, a detailed description thereof will be omitted.

また、照合プログラムは、記録媒体2020から照合部5200を構成するコンピュータに読み込まれ、当該コンピュータの動作を撮影手段210,位置姿勢推定手段221,照明変動空間生成手段230,距離計算手段240,および照合判定手段250を含む照合部5200として制御する。照合プログラムの制御による照合部5200の動作は、第5の実施例における照合部5200の動作と全く同様になるので、その詳しい説明を割愛する。   The collation program is read from the recording medium 2020 into a computer constituting the collation unit 5200, and the operation of the computer is performed by the photographing unit 210, the position / orientation estimation unit 221, the illumination variation space generation unit 230, the distance calculation unit 240, and the collation. The collation unit 5200 including the determination unit 250 is controlled. Since the operation of the collation unit 5200 under the control of the collation program is exactly the same as the operation of the collation unit 5200 in the fifth embodiment, its detailed description is omitted.

・第12の実施例図21は、本発明の第12の実施例の物体照合装置の構成を示すブロック図である。本実施例の物体照合装置は、図15に示した第6の実施例の物体照合装置に対して、登録部6100に登録プログラムを記録した記録媒体1040を備え、照合部200に照合プログラムを記録した記録媒体2000を備える点が異なっている。これらの記録媒体1040,2000は、磁気ディスク,半導体メモリ,その他の記録媒体であってよい。   Twelfth Embodiment FIG. 21 is a block diagram showing the configuration of an object collating apparatus according to a twelfth embodiment of the present invention. The object collation apparatus according to the present embodiment is provided with a recording medium 1040 in which a registration program is recorded in the registration unit 6100 as compared to the object collation apparatus according to the sixth embodiment illustrated in FIG. The difference is that the recording medium 2000 is provided. These recording media 1040 and 2000 may be magnetic disks, semiconductor memories, or other recording media.

登録プログラムは、記録媒体1040から登録部6100を構成するコンピュータに読み込まれ、当該コンピュータの動作を登録物体入力手段113,照明変動テクスチャ群生成手段120,テクスチャ空間生成手段130,およびデータ記憶手段140として制御する。登録プログラムの制御による登録部6100の動作は、第6の実施例における登録部6100の動作と全く同様になるので、その詳しい説明を割愛する。   The registration program is read from the recording medium 1040 into a computer constituting the registration unit 6100, and the operations of the computer are registered object input means 113, illumination variation texture group generation means 120, texture space generation means 130, and data storage means 140. Control. Since the operation of the registration unit 6100 under the control of the registration program is exactly the same as the operation of the registration unit 6100 in the sixth embodiment, a detailed description thereof will be omitted.

また、照合プログラムは、記録媒体2000から照合部200を構成するコンピュータに読み込まれ、当該コンピュータの動作を撮影手段210,位置姿勢推定手段220,照明変動空間生成手段230,距離計算手段240,および照合判定手段250を含む照合部200として制御する。照合プログラムの制御による照合部200の動作は、第2の実施例における照合部200の動作と全く同様になるので、その詳しい説明を割愛する。   The collation program is read from the recording medium 2000 to a computer constituting the collation unit 200, and the operation of the computer is performed by the photographing unit 210, the position / orientation estimation unit 220, the illumination variation space generation unit 230, the distance calculation unit 240, and the collation. The collation unit 200 including the determination unit 250 is controlled. Since the operation of the collation unit 200 under the control of the collation program is exactly the same as the operation of the collation unit 200 in the second embodiment, a detailed description thereof will be omitted.

本発明は、前記各実施例に述べたように、一般の物体に対して応用可能であるが、特に自動車の車種・型式の照合,人物の顔の照合などの応用にも有効である。   As described in the above embodiments, the present invention can be applied to general objects. However, the present invention is particularly effective for applications such as vehicle model / model verification and human face verification.

以上、本発明を前記各実施例に基づき具体的に説明したが、本発明は前記各実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは言うまでもない。   Although the present invention has been specifically described above based on the respective embodiments, it is needless to say that the present invention is not limited to the respective embodiments and can be variously modified without departing from the gist thereof.

本発明の第1の実施例の物体照合装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object collation apparatus of 1st Example of this invention. 本発明の物体照合装置の具体的構成の一例を示す図である。It is a figure which shows an example of the specific structure of the object collation apparatus of this invention. テクスチャ座標系を物体表面に対して定義する手法の一例を説明する図である。It is a figure explaining an example of the method of defining a texture coordinate system with respect to an object surface. 図1中の照明変動テクスチャ群生成手段の構成をより詳細に示すブロック図である。It is a block diagram which shows the structure of the illumination variation texture group production | generation means in FIG. 1 in detail. 照明条件を決める照明の物体に対する方向を表す角度を説明する図である。It is a figure explaining the angle showing the direction with respect to the object of the illumination which determines illumination conditions. 画像を利用した物体照合装置の例を示した図である。It is the figure which showed the example of the object collation apparatus using an image. 本発明の第2の実施例の物体照合装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object collation apparatus of the 2nd Example of this invention. 本発明の第3の実施例の物体照合装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object collation apparatus of the 3rd Example of this invention. 図8中の入力テクスチャ生成手段における入力画像座標からテクスチャ座標への変換を説明する図である。It is a figure explaining the conversion from the input image coordinate to a texture coordinate in the input texture production | generation means in FIG. 本発明の第4の実施例の物体照合装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object collation apparatus of the 4th Example of this invention. 図10中の平均形状生成手段における平均形状の生成方法を説明する図である。It is a figure explaining the production | generation method of the average shape in the average shape production | generation means in FIG. 本発明の第5の実施例の物体照合装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object collation apparatus of the 5th Example of this invention. 図12中の位置姿勢推定手段のより詳細な構成を示すブロック図である。It is a block diagram which shows the more detailed structure of the position and orientation estimation means in FIG. 照合対象となる物体の特徴点として用いる物体の部位の一例を示す図である。It is a figure which shows an example of the site | part of the object used as a feature point of the object used as collation object. 本発明の第6の実施例の物体照合装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object collation apparatus of the 6th Example of this invention. 本発明の第7の実施例の物体照合装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object collation apparatus of the 7th Example of this invention. 本発明の第8の実施例の物体照合装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object collation apparatus of the 8th Example of this invention. 本発明の第9の実施例の物体照合装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object collation apparatus of the 9th Example of this invention. 本発明の第10の実施例の物体照合装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object collation apparatus of the 10th Example of this invention. 本発明の第11の実施例の物体照合装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object collation apparatus of the 11th Example of this invention. 本発明の第12の実施例の物体照合装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object collation apparatus of the 12th Example of this invention. 従来の物体照合技術の一例として、登録時と照合時とでともに2次元の画像のみを用いる技術の構成を説明する図である。It is a figure explaining the structure of the technique which uses only a two-dimensional image both at the time of registration and the time of collation as an example of the conventional object collation technique. 従来の物体照合技術の一例として、登録時と照合時とでともに3次元形状を測定する技術の構成を説明する図である。It is a figure explaining the structure of the technique which measures a three-dimensional shape both at the time of registration and the time of collation as an example of the conventional object collation technique. 従来の物体照合技術の一例として、登録時と照合時とでともに2次元の画像を撮影し、位置姿勢の補正に標準3次元形状モデルを用いる技術の構成を説明する図である。As an example of a conventional object matching technique, it is a diagram illustrating a configuration of a technique that takes a two-dimensional image both during registration and during matching and uses a standard three-dimensional shape model for position and orientation correction. 従来の物体照合技術の一例として、登録時に多数の位置姿勢や照明条件の下で画像を撮影し認識を行う技術の構成を説明する図である。It is a figure explaining the structure of the technique which image | photographs and recognizes as an example of the conventional object collation technique under many position and orientation and illumination conditions at the time of registration. 従来の物体照合技術の一例として、登録時に複数の照明条件の下で2次元の画像を撮影し照明条件補正を行う技術の構成を説明する図である。It is a figure explaining the structure of the technique which image | photographs a two-dimensional image on several illumination conditions at the time of registration, and corrects illumination conditions as an example of the conventional object collation technique. 従来の物体照合技術の一例として、登録時に多数の照明条件の下で2次元の画像を撮影し照明条件補正を行う技術の構成を説明する図である。It is a figure explaining the structure of the technique which image | photographs a two-dimensional image on many illumination conditions at the time of registration, and corrects illumination conditions as an example of the conventional object collation technique.

符号の説明Explanation of symbols

100,2100,4100,5100,6100 登録部
110 登録物体測定手段
111 平均形状生成手段
112 登録物体入力手段
120 照明変動テクスチャ群生成手段
121 テクスチャ座標系生成手段
122 照明条件変化手段
123 陰影計算手段
130 テクスチャ空間生成手段
140,141,143 データ記憶手段
150 特徴点位置抽出手段
200,3200,5200 照合部
210 撮影手段
220,221 位置姿勢推定手段
230 照明変動空間生成手段
231 入力テクスチャ生成手段
240,241 距離計算手段
250 照合判定手段
1000,1010,1020,1030,1040 記録媒体
2000,2010,2020 記録媒体
2110 3次元形状測定手段
2121 テクスチャ撮影手段
100, 2100, 4100, 5100, 6100 Registration unit 110 Registered object measurement means 111 Average shape generation means 112 Registered object input means 120 Illumination variation texture group generation means 121 Texture coordinate system generation means 122 Illumination condition change means 123 Shadow calculation means 130 Texture Space generation means 140, 141, 143 Data storage means 150 Feature point position extraction means 200, 3200, 5200 Collation unit 210 Imaging means 220, 221 Position / orientation estimation means 230 Illumination variation space generation means 231 Input texture generation means 240, 241 Distance calculation Means 250 Collation determining means 1000, 1010, 1020, 1030, 1040 Recording medium 2000, 2010, 2020 Recording medium 2110 Three-dimensional shape measuring means 2121 Texture photographing means

Claims (6)

様々な照明条件の下での登録物体の表面の各位置の輝度や色情報を表すテクスチャ群で張られるテクスチャ空間を表現する基底ベクトルを、登録物体の3次元形状を用いて、入力画像における対象物体の位置姿勢に合わせて変形する工程と、該変形された基底ベクトルにより表現される照明変動空間内の最も近い画像と前記入力画像との距離に基づいて対象物体が登録物体であるかどうかの判定を行う工程と、を有することを特徴とする物体照合方法。 A base vector representing a texture space spanned by texture groups representing brightness and color information at each position on the surface of a registered object under various lighting conditions, and using a 3D shape of the registered object as a target in the input image A step of deforming in accordance with the position and orientation of the object, and whether the target object is a registered object based on a distance between the closest image in the illumination variation space represented by the deformed basis vector and the input image And a step of making a determination. 前記判定を元に、登録物体のうちのどの物体であるかの検索,もしくは、登録物体のうちの似ている物体の検索の少なくともいずれかを行う工程と、をさらに有することを特徴とする請求項1記載の物体照合方法。 The method further comprises a step of performing at least one of a search for a registered object and a search for a similar object among the registered objects based on the determination. Item 3. The object matching method according to Item 1. 様々な照明条件の下での登録物体の表面の各位置の輝度や色情報を表すテクスチャ群で張られるテクスチャ空間を表現する基底ベクトルを、登録物体の3次元形状を用いて、入力画像における対象物体の位置姿勢に合わせて変形する手段と、該変形された基底ベクトルにより表現される照明変動空間内の最も近い画像と前記入力画像との距離に基づいて対象物体が登録物体であるかどうかの判定を行う手段と、を有することを特徴とする物体照合装置。 The basis vector representing the texture space spanned by texture groups representing the brightness and color information of each position on the surface of the registered object under various lighting conditions, using the 3D shape of the registered object as the target in the input image Whether the target object is a registered object based on a distance between the input image and a means for deforming according to the position and orientation of the object, and a distance between the closest image in the illumination variation space expressed by the deformed basis vector and the input image An object collating apparatus comprising: means for performing determination; 前記判定を元に、登録物体のうちのどの物体であるかの検索,もしくは、登録物体のうちの似ている物体の検索の少なくともいずれかを行う手段と、をさらに有することを特徴とする請求項3記載の物体照合装置。 And a means for searching for at least one of registered objects or a similar object of registered objects based on the determination. Item 4. The object matching apparatus according to Item 3. コンピュータに、様々な照明条件の下での登録物体の表面の各位置の輝度や色情報を表すテクスチャ群で張られるテクスチャ空間を表現する基底ベクトルを、登録物体の3次元形状を用いて、入力画像における対象物体の位置姿勢に合わせて変形する処理と、該変形された基底ベクトルにより表現される照明変動空間内の最も近い画像と前記入力画像との距離に基づいて対象物体が登録物体であるかどうかの判定を行う処理と、を実行させることを特徴とする物体照合プログラム。 Using a 3D shape of the registered object, input a base vector that represents the texture space spanned by a texture group that represents the brightness and color information of each position on the surface of the registered object under various lighting conditions. The target object is a registered object based on the process of deforming according to the position and orientation of the target object in the image and the distance between the closest image in the illumination variation space represented by the deformed basis vector and the input image And a process for determining whether or not the object collation program is executed. 前記判定を元に、登録物体のうちのどの物体であるかの検索,もしくは、登録物体のうちの似ている物体の検索の少なくともいずれかを行う処理と、をさらに実行させることを特徴とする請求項5記載の物体照合プログラム。 And a process of performing at least one of searching for a registered object or searching for a similar object among registered objects based on the determination. The object collation program according to claim 5.
JP2006281413A 2006-10-16 2006-10-16 Object collation method, object collation apparatus, and recording medium recording the program Expired - Lifetime JP4379459B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006281413A JP4379459B2 (en) 2006-10-16 2006-10-16 Object collation method, object collation apparatus, and recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006281413A JP4379459B2 (en) 2006-10-16 2006-10-16 Object collation method, object collation apparatus, and recording medium recording the program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000353402A Division JP4167390B2 (en) 2000-11-20 2000-11-20 Object collation method, object collation apparatus, and recording medium recording the program

Publications (2)

Publication Number Publication Date
JP2007042136A JP2007042136A (en) 2007-02-15
JP4379459B2 true JP4379459B2 (en) 2009-12-09

Family

ID=37799985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006281413A Expired - Lifetime JP4379459B2 (en) 2006-10-16 2006-10-16 Object collation method, object collation apparatus, and recording medium recording the program

Country Status (1)

Country Link
JP (1) JP4379459B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058896A (en) * 2001-08-10 2003-02-28 Nec Corp Device, method and program for recognizing positioning attitude
US9626553B2 (en) 2014-09-17 2017-04-18 Canon Kabushiki Kaisha Object identification apparatus and object identification method
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008276406A (en) * 2007-04-26 2008-11-13 Toyota Motor Corp Face image processor
JP5624457B2 (en) * 2010-12-28 2014-11-12 株式会社東芝 Three-dimensional data processing apparatus, method and program
JP6831769B2 (en) * 2017-11-13 2021-02-17 株式会社日立製作所 Image search device, image search method, and setting screen used for it

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058896A (en) * 2001-08-10 2003-02-28 Nec Corp Device, method and program for recognizing positioning attitude
JP4573085B2 (en) * 2001-08-10 2010-11-04 日本電気株式会社 Position and orientation recognition device, position and orientation recognition method, and position and orientation recognition program
US9626553B2 (en) 2014-09-17 2017-04-18 Canon Kabushiki Kaisha Object identification apparatus and object identification method
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11455864B2 (en) 2018-07-25 2022-09-27 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Also Published As

Publication number Publication date
JP2007042136A (en) 2007-02-15

Similar Documents

Publication Publication Date Title
JP4167390B2 (en) Object collation method, object collation apparatus, and recording medium recording the program
US9818023B2 (en) Enhanced face detection using depth information
JP6681729B2 (en) Method for determining 3D pose of object and 3D location of landmark point of object, and system for determining 3D pose of object and 3D location of landmark of object
JP4553141B2 (en) Object posture estimation and verification system using weight information
JP4653606B2 (en) Image recognition apparatus, method and program
JP2001283216A (en) Image collating device, image collating method and recording medium in which its program is recorded
JP5812599B2 (en) Information processing method and apparatus
JP6011102B2 (en) Object posture estimation method
Azad et al. Stereo-based 6d object localization for grasping with humanoid robot systems
JP4284664B2 (en) Three-dimensional shape estimation system and image generation system
JP4379459B2 (en) Object collation method, object collation apparatus, and recording medium recording the program
TWI394093B (en) An image synthesis method
WO2004081853A1 (en) Viewpoint-invariant image matching and generation of three-dimensional models from two-dimensional imagery
GB2512460A (en) Position and orientation measuring apparatus, information processing apparatus and information processing method
JP4552431B2 (en) Image collation apparatus, image collation method, and image collation program
JP2004086929A5 (en)
JP5083715B2 (en) 3D position and orientation measurement method and apparatus
Yu et al. Head pose estimation in thermal images for human and robot interaction
CN112016495A (en) Face recognition method and device and electronic equipment
Aleksandrova et al. Approach for Creating a 3D Model of a Face from its 2D Image
JP2007140868A (en) Authentication system, authentication method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20070118

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20080616

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20090511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20090602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090825

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090907

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4379459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131002

Year of fee payment: 4

EXPY Cancellation because of completion of term