JP2010127819A - Device of detecting position of polyhedral body and method for detection - Google Patents

Device of detecting position of polyhedral body and method for detection Download PDF

Info

Publication number
JP2010127819A
JP2010127819A JP2008304301A JP2008304301A JP2010127819A JP 2010127819 A JP2010127819 A JP 2010127819A JP 2008304301 A JP2008304301 A JP 2008304301A JP 2008304301 A JP2008304301 A JP 2008304301A JP 2010127819 A JP2010127819 A JP 2010127819A
Authority
JP
Japan
Prior art keywords
image
model
normal direction
dimensional
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008304301A
Other languages
Japanese (ja)
Inventor
Yutaka Takeuchi
豊 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Holdings Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Holdings Ltd filed Critical Fuji Electric Holdings Ltd
Priority to JP2008304301A priority Critical patent/JP2010127819A/en
Publication of JP2010127819A publication Critical patent/JP2010127819A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device of detecting a position of a three-dimensional object capable of precisely recognizing a position and an attitude of an object even when the object has a glossy face, a face without a pattern or a black face, and to provide a method for detection. <P>SOLUTION: Model images of respective faces forming an object to be a measuring target are stored in a model image storage section. An image capturing device captures images of the measuring target as multi-viewpoint images. The imaged three-dimensional information is stored in an image information storage section. A plane face extracting section extracts a plane face from the stored three-dimensional image information. A normal line image conversion section converts the extracted plane face into a normal line image by using a first conversion matrix. A model correspondence image conversion section performs pattern matching between the converted normal line image and each of model images and determines a correspondence model image so as to convert the determined model image into a model correspondence image on the basis of a second conversion matrix. The position and the attitude of the target are recognized on the basis of the operated first and second conversion matrixes. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、複数の平面部を含んで構成される対象物を撮像装置で多視点画像として撮像し、撮像した多視点画像から対象物の姿勢及び位置を検出する多面体位置検出装置及び検出方法に関する。   The present invention relates to a polyhedron position detection device and a detection method for imaging a target object including a plurality of planar portions as a multi-viewpoint image with an imaging device and detecting the posture and position of the target object from the captured multi-viewpoint image. .

従来の対象物の3次元位置・姿勢を認識する装置としては、例えば1視点からの円柱型物体の形状を3次元計測装置(レーザスキャナ)で計測し、この3次元計測装置で計測した点群データのうちの任意の複数の点に係わる法線ベクトル算出し、この複数の法線ベクトルに基づいて回転軸直線算出部で円柱型物体の回転軸の方向(ベクトル)を算出し、さらに特定の座標平面上で回転軸直線が通る点求めて回転軸直線を求め、この回転軸直線に基づいてターゲット位置特定部で円柱型物体の位置を特定するようにした3次元物体位置検出装置が提案されている(例えば、特許文献1参照)。   As a conventional apparatus for recognizing the three-dimensional position / orientation of a target object, for example, a shape of a cylindrical object from one viewpoint is measured by a three-dimensional measuring apparatus (laser scanner), and the point group measured by the three-dimensional measuring apparatus is used. A normal vector related to a plurality of arbitrary points in the data is calculated, and a direction (vector) of the rotation axis of the cylindrical object is calculated by the rotation axis straight line calculation unit based on the plurality of normal vectors. A three-dimensional object position detection device has been proposed in which a point through which a rotation axis line passes on a coordinate plane is obtained to obtain a rotation axis line, and a position of a cylindrical object is specified by a target position specifying unit based on the rotation axis line. (For example, refer to Patent Document 1).

また、測定対象物体をステレオビジョンで撮像し、撮像した測定対象物体の距離画像から位置・姿勢を認識する方法も提案されている(例えば、特許文献2〜4参照)。
さらに、1個のカメラから撮像された2次元画像と事前に想定される複数の姿勢を撮影した2次元画像とを2次元パターンマッチにより対応付けることにより測定対象物の姿勢を認識する画像処理装置も提案されている(例えば、特許文献5参照)。
特開2006−139713号公報 特許第2961264号公報 特開平2007−183908号公報 特開平2001−143073号公報 特開2004−333422号公報
In addition, a method has been proposed in which a measurement target object is imaged with stereo vision, and a position / orientation is recognized from a distance image of the captured measurement target object (see, for example, Patent Documents 2 to 4).
Further, there is also an image processing apparatus that recognizes the posture of a measurement object by associating a two-dimensional image captured from one camera with a two-dimensional image obtained by photographing a plurality of postures assumed in advance by two-dimensional pattern matching. It has been proposed (see, for example, Patent Document 5).
JP 2006-139713 A Japanese Patent No. 2961264 Japanese Patent Laid-Open No. 2007-183908 Japanese Patent Laid-Open No. 2001-143073 JP 2004-333422 A

上述したように、対象物の3次元位置・姿勢を認識する特許文献1〜5に記載の従来例にあっては、大別すると、レーザースキャナにより測定された対象物の3次元点群データから位置・姿勢を認識する方式と、ステレオビジョンにより測定された対象物の距離画像から位置・姿勢を認識する方式と、1カメラから撮像された2次元画像と事前に想定される複数の姿勢を撮影した2次元画像を2次元パターンマッチにより対応付けることにより姿勢を認識する方式とがある。   As described above, in the conventional examples described in Patent Documents 1 to 5 for recognizing the three-dimensional position / orientation of an object, roughly classified, from the three-dimensional point cloud data of the object measured by a laser scanner. A method for recognizing position / posture, a method for recognizing position / posture from a distance image of an object measured by stereo vision, and a two-dimensional image taken from one camera and photographing a plurality of presumed postures. There is a method of recognizing the posture by associating the two-dimensional images made by two-dimensional pattern matching.

ここで、レーザースキャナにより測定され対象物の3次元点群データから位置・姿勢を認識する方式では、レーザースキャナにより3次元点群データを測定することが困難な対象物、例えば光沢面(金属など)のようにレーザー光を高い反射率で反射させる物体や、黒色などレーザー光を吸収する物体は、点群データを計測することが困難であるため、位置・姿勢の認識を行うことができないという未解決の課題がある。   Here, in the method of recognizing the position / orientation from the 3D point cloud data of the object measured by the laser scanner, it is difficult to measure the 3D point cloud data by the laser scanner, such as a glossy surface (metal etc.). It is difficult to measure point cloud data for objects that reflect laser light with high reflectivity, such as), or objects that absorb laser light, such as black, so that position and orientation cannot be recognized. There are unresolved issues.

また、ステレオビジョンにより測定された対象物の距離画像から位置・姿勢を認識する方式では、ステレオビジョンにより距離を測定することが困難な対象物、例えば光沢面(金属等)のように撮影される対象物の文様が対象物自体の文様でなく対象物に写った周辺の文様であるため、複数の画像間の対応がとれない場合や、文様がないため複数の画像間の対応がとれない場合は、距離画像を作成することが困難なため、位置・姿勢認識もできないという未解決の課題がある。こうした対象物ではエッジ部分などの距離計測は可能であるが、エッジ部分のみに基づいて位置・姿勢認識を行うことは、情報量が少ないために困難である。   Further, in the method of recognizing the position / orientation from the distance image of the object measured by stereo vision, the object is difficult to measure the distance by stereo vision, for example, it is photographed like a glossy surface (metal etc.). When the pattern of the target object is not the pattern of the target object itself but the surrounding pattern that appears on the target object, and there is no correspondence between multiple images, or there is no pattern and the correspondence between multiple images cannot be taken However, since it is difficult to create a distance image, there is an unsolved problem that position / posture recognition cannot be performed. Such an object can measure the distance of an edge portion or the like, but it is difficult to perform position / posture recognition based only on the edge portion because the amount of information is small.

しかも、上記2つの方式では、測定データ(3次元点群データや距離データ)から3次元特徴量を抽出し、事前に用意してある3次元モデルと3次元特徴量の辞書と、3次元特徴量のマッチングを行うことにより、測定データとモデルとの間の3次元対応点を複数求め、両者を関係付ける変換行列を求めることにより、位置・姿勢認識を行う方式である。例えば、特許文献2では、エッジを抽出し、セグメンテーションして生成される3次元幾何特徴と3次元輪郭線を特徴量とし、特許文献3では、対象物のコーナーを3次元特徴量とし、特許文献4では、エッジから直線群を検出し、直線群の交点を特徴量としている。こうした特徴量は、3次元点群データや距離画像が正しく測定されることを前提としているので、3次元点群データや距離画像が測定できない場合には認識もできないといった共通の未解決の課題がある。   Moreover, in the above two methods, 3D feature values are extracted from measurement data (3D point cloud data and distance data), a 3D model, a 3D feature dictionary, and 3D features are prepared in advance. This is a method of performing position / posture recognition by obtaining a plurality of three-dimensional corresponding points between measurement data and a model by performing quantity matching, and obtaining a transformation matrix relating the two. For example, in Patent Document 2, a three-dimensional geometric feature and a three-dimensional contour line generated by extracting and segmenting edges are used as feature values, and in Patent Document 3, a corner of an object is used as a three-dimensional feature value. In 4, the straight line group is detected from the edge, and the intersection of the straight line group is used as the feature amount. Since these feature quantities are based on the premise that the 3D point cloud data and the distance image are correctly measured, there is a common unresolved problem that the 3D point cloud data and the distance image cannot be recognized if they cannot be measured. is there.

また、1カメラから撮影された2次元画像と事前に想定される複数の姿勢を撮影した2次元画像を2次元パターンマッチにより対応付けることにより姿勢を認識する方式では、レーザースキャナやステレオビジョンのように距離計測を行わないため、光沢面や文様がない対象物の撮影が可能であり、姿勢認識は可能である。しかし、対象物の位置(距離)は、画像の大小関係から推定することになるため、位置(距離)を高精度で検出することは困難であるという未解決の課題がある。また、想定される複数の姿勢を撮影した2次元画像として、膨大な量の画像を用意しなければならないという未解決の課題もある。   In a method of recognizing a posture by associating a two-dimensional image photographed from one camera with a two-dimensional image obtained by photographing a plurality of postures assumed in advance by a two-dimensional pattern match, a laser scanner or stereo vision is used. Since distance measurement is not performed, an object having no glossy surface or pattern can be photographed, and posture recognition is possible. However, since the position (distance) of the object is estimated from the magnitude relationship of the images, there is an unsolved problem that it is difficult to detect the position (distance) with high accuracy. In addition, there is an unsolved problem that an enormous amount of images must be prepared as two-dimensional images obtained by photographing a plurality of assumed postures.

そこで、本発明は、上記従来例の未解決の課題に着目してなされたものであり、対象物が光沢面を有する場合や文様のない場合や黒色などの物体であっても位置・姿勢を高精度で認識することができる3次元物体位置検出装置及び検出方法を提供することを目的としている。   Therefore, the present invention has been made paying attention to the above-mentioned unsolved problems of the conventional example, and the position / posture can be set even when the object has a glossy surface, no pattern, or a black object. It is an object of the present invention to provide a three-dimensional object position detection apparatus and detection method that can be recognized with high accuracy.

上記目的を達成するために、一の形態に係る多面体位置検出装置は、測定対象となる既知の対象物を構成する各面の法線方向から撮像された画像をモデル画像として予め記憶するモデル画像記憶部と、前記対象物を多視点画像として撮像し、3次元画像情報を出力する撮像装置と、該撮像装置から出力される3次元画像情報を記憶する画像情報記憶部とを備えている。そして、前記画像情報記憶部に記憶された3次元画像情報に基づいて平面抽出部で平面を抽出する。次に、法線方向画像変換部で、前記3次元画像情報の対象物の位置および姿勢を前記平面抽出部で抽出した平面の法線方向からの画像である法線方向画像における対象物の位置および姿勢に変換するパラメータを表す第1のパラメータを求め、前記3次元画像情報の画像を法線方向画像に変換する。この法線方向画像変換部で変換した法線方向画像と前記モデル画像記憶部に記憶されている各モデル画像とを、モデル画像決定部で比較して対応するモデル画像を決定する。モデル対応画像変換部では、前記モデル画像決定部で決定したモデル画像の前記法線方向画像での対応位置における対象物の位置および姿勢を表す第2のパラメータを求め、前記モデル画像をその対応位置における画像であるモデル対応画像に変換する。そして、位置及び姿勢認識部で、前記演算した第1及び第2のパラメータに基づいて測定された対象物の位置及び姿勢を認識する。   In order to achieve the above object, a polyhedron position detection device according to one aspect stores a model image that stores in advance, as a model image, an image captured from the normal direction of each surface constituting a known object to be measured. A storage unit; an imaging device that captures the object as a multi-viewpoint image and outputs three-dimensional image information; and an image information storage unit that stores the three-dimensional image information output from the imaging device. Then, a plane is extracted by the plane extraction unit based on the three-dimensional image information stored in the image information storage unit. Next, in the normal direction image conversion unit, the position of the object in the normal direction image which is an image from the normal direction of the plane obtained by extracting the position and orientation of the object of the three-dimensional image information by the plane extraction unit Then, a first parameter representing a parameter to be converted into a posture is obtained, and the image of the three-dimensional image information is converted into a normal direction image. The normal image converted by the normal image conversion unit and each model image stored in the model image storage unit are compared by the model image determination unit to determine a corresponding model image. The model corresponding image conversion unit obtains a second parameter representing the position and orientation of the object at the corresponding position in the normal direction image of the model image determined by the model image determining unit, and the model image is determined as the corresponding position. Is converted into a model-corresponding image, which is an image at. Then, the position and orientation recognition unit recognizes the position and orientation of the object measured based on the calculated first and second parameters.

また、他の形態に係る多面体位置検出装置は、測定対象となる既知の対象物を構成する各面の法線方向から撮像された画像をモデル画像として予め記憶するモデル画像記憶部と、前記対象物を多視点画像として撮像し、3次元画像情報を出力する撮像装置と、該撮像装置から出力される3次元画像情報を記憶する画像情報記憶部とを備えている。そして、前記画像情報記憶部に記憶された3次元画像情報に基づいて平面抽出部で平面を抽出する。次に、法線方向画像変換部で、前記3次元画像情報の対象物の位置および姿勢を前記平面抽出部で抽出した平面の法線方向からの画像である法線方向画像における対象物の位置および姿勢に変換するパラメータを表す第1のパラメータを求め、前記3次元画像情報の画像を法線方向画像に変換する。この法線方向画像変換部で変換した法線方向画像と前記モデル画像記憶部に記憶されている各モデル画像とを、モデル画像決定部で比較して対応するモデル画像を決定する。モデル対応画像変換部では、前記モデル画像決定部で決定したモデル画像の前記法線方向画像での対応位置における対象物の位置および姿勢を表す第2のパラメータを求め、前記モデル画像をその対応位置における画像であるモデル対応画像に変換する。誤差演算部で、前記モデル画像に基づく画像と前記3次元画像情報に基づく画像とを用い、繰り返し処理により両者間の誤差の補正量を表す第3のパラメータを求める。そして、位置及び姿勢認識部で、前記演算した第1、第2及び第3のパラメータに基づいて測定された対象物の位置及び姿勢を認識する。   Further, the polyhedron position detection device according to another aspect includes a model image storage unit that stores in advance, as a model image, an image captured from a normal direction of each surface constituting a known object to be measured, and the target An imaging apparatus that captures an object as a multi-viewpoint image and outputs three-dimensional image information, and an image information storage unit that stores the three-dimensional image information output from the imaging apparatus are provided. Then, a plane is extracted by the plane extraction unit based on the three-dimensional image information stored in the image information storage unit. Next, in the normal direction image conversion unit, the position of the object in the normal direction image which is an image from the normal direction of the plane obtained by extracting the position and orientation of the object of the three-dimensional image information by the plane extraction unit Then, a first parameter representing a parameter to be converted into a posture is obtained, and the image of the three-dimensional image information is converted into a normal direction image. The normal image converted by the normal image conversion unit and each model image stored in the model image storage unit are compared by the model image determination unit to determine a corresponding model image. The model corresponding image conversion unit obtains a second parameter representing the position and orientation of the object at the corresponding position in the normal direction image of the model image determined by the model image determining unit, and the model image is determined as the corresponding position. Is converted into a model-corresponding image, which is an image at. The error calculation unit uses the image based on the model image and the image based on the three-dimensional image information, and obtains a third parameter representing an error correction amount between the two by iterative processing. Then, the position and orientation recognition unit recognizes the position and orientation of the object measured based on the calculated first, second, and third parameters.

さらに、一の形態に係る多面体位置検出方法は、測定対象となる既知の対象物を多視点画像として撮像し、3次元画像情報を出力する撮像装置を用いて、前記対象物を構成する各面の法線方向から撮像された画像をモデル画像としてモデル画像記憶部に予め記憶するモデル画像記憶ステップと、前記撮像装置から出力される3次元画像情報を記憶する画像情報記憶ステップと、記憶された前記3次元画像情報から平面を抽出する平面抽出ステップと、前記3次元画像情報の対象物の位置および姿勢を前記平面抽出部で抽出した平面の法線方向からの画像である法線方向画像における対象物の位置および姿勢に変換するパラメータを表す第1のパラメータを求め、前記3次元画像情報の画像を法線方向画像に変換する法線方向画像変換ステップと、変換した法線方向画像とモデル画像記憶ステップで記憶されているモデル画像とを比較して対応するモデル画像を決定するモデル画像決定ステップと、前記モデル画像決定ステップで決定したモデル画像の前記法線方向画像での対応位置における対象物の位置および姿勢を表す第2のパラメータを求め、前記モデル画像をその対応位置における画像であるモデル対応画像に変換するモデル対応画像変換ステップと、前記演算した第1及び第2のパラメータに基づいて測定された対象物の位置及び姿勢を認識する位置及び姿勢認識ステップとを備えている。   Furthermore, in the polyhedral position detection method according to one aspect, each surface constituting the object is imaged using an imaging device that images a known object to be measured as a multi-viewpoint image and outputs three-dimensional image information. A model image storing step for storing in advance an image captured from the normal direction of the image as a model image in a model image storage unit, an image information storing step for storing three-dimensional image information output from the imaging device, and A plane extraction step for extracting a plane from the three-dimensional image information, and a normal direction image that is an image from the normal direction of the plane extracted by the plane extraction unit with the position and orientation of the object of the three-dimensional image information. A normal direction image conversion step of obtaining a first parameter representing a parameter to be converted into the position and orientation of the object and converting the image of the three-dimensional image information into a normal direction image A model image determination step for determining a corresponding model image by comparing the converted normal direction image and the model image stored in the model image storage step, and the method of the model image determined in the model image determination step A model-corresponding image conversion step for obtaining a second parameter representing the position and orientation of the object at the corresponding position in the line direction image, and converting the model image into a model-corresponding image that is an image at the corresponding position; A position and orientation recognition step for recognizing the position and orientation of the object measured based on the first and second parameters.

また、他の形態に係る多面体位置検出方法は、測定対象となる既知の対象物を多視点画像として撮像し、3次元画像情報を出力する撮像装置を用いて、前記対象物を構成する各面の法線方向から撮像された画像をモデル画像としてモデル画像記憶部に予め記憶するモデル画像記憶ステップと、前記撮像装置から出力される3次元画像情報を記憶する画像情報記憶ステップと、記憶された前記3次元画像情報から平面を抽出する平面抽出ステップと、前記3次元画像情報の対象物の位置および姿勢を前記平面抽出部で抽出した平面の法線方向からの画像である法線方向画像における対象物の位置および姿勢に変換するパラメータを表す第1のパラメータを求め、前記3次元画像情報の画像を法線方向画像に変換する法線方向画像変換ステップと、変換した法線方向画像とモデル画像記憶ステップで記憶されている各モデル画像とを比較して対応するモデル画像を決定するモデル画像決定ステップと、前記モデル画像決定ステップで決定したモデル画像の前記法線方向画像での対応位置における対象物の位置および姿勢を表す第2のパラメータを求め、前記モデル画像をその対応位置における画像であるモデル対応画像に変換するモデル対応画像変換ステップと、前記モデル画像に基づく画像と前記3次元画像情報に基づく画像とを用い、繰り返し処理により両者間の誤差の補正量を表す第3のパラメータを求める誤差演算ステップと、前記演算した第1、第2及び第3のパラメータに基づいて測定された対象物の位置及び姿勢を認識する位置及び姿勢認識ステップとを備えている。   Further, in the polyhedral position detection method according to another embodiment, each surface constituting the object is imaged using an imaging device that images a known object to be measured as a multi-viewpoint image and outputs three-dimensional image information. A model image storing step for storing in advance an image captured from the normal direction of the image as a model image in a model image storage unit, an image information storing step for storing three-dimensional image information output from the imaging device, and A plane extraction step for extracting a plane from the three-dimensional image information, and a normal direction image that is an image from the normal direction of the plane extracted by the plane extraction unit with the position and orientation of the object of the three-dimensional image information. A normal direction image conversion step of obtaining a first parameter representing a parameter to be converted into the position and orientation of the object, and converting the image of the three-dimensional image information into a normal direction image; A model image determining step for determining a corresponding model image by comparing the converted normal direction image and each model image stored in the model image storing step, and the method of the model image determined in the model image determining step A model-corresponding image conversion step of obtaining a second parameter representing the position and orientation of the object at the corresponding position in the line direction image and converting the model image into a model-corresponding image that is an image at the corresponding position; Using the image based on the image and the image based on the three-dimensional image information, an error calculating step for obtaining a third parameter representing the correction amount of the error between the two by repetitive processing, and the calculated first, second and third A position and posture recognition step for recognizing the position and posture of the object measured based on these parameters.

本発明によれば、対象物を複数の平面を有する物体に特定し、多視点画像を撮像する撮像装置から出力される3次元画像情報に基づいて第1のパラメータを演算して法線方向画像に変換し、変換した法線方向画像と記憶されている各モデル画像とを比較して対応するモデル画像を決定し、決定したモデル画像の法線方向画像での対応位置から第2のパラメータを求めてモデル画像をモデル対応画像に変換し、第1及び第2のパラメータに基づいて対象物の位置及び姿勢を認識することにより、3次元特徴量では認識できないような少ない3次元測定点により対象物の位置・姿勢を検出することができるという効果を有する。   According to the present invention, a normal direction image is obtained by specifying a target object as an object having a plurality of planes and calculating a first parameter based on three-dimensional image information output from an imaging device that captures a multi-viewpoint image. And the converted normal direction image and each stored model image are compared to determine a corresponding model image, and the second parameter is determined from the corresponding position of the determined model image in the normal direction image. By converting the model image into a model-corresponding image and recognizing the position and orientation of the object based on the first and second parameters, the object can be obtained with fewer three-dimensional measurement points that cannot be recognized by the three-dimensional feature. This has the effect that the position / posture of an object can be detected.

また、決定したモデル画像に基づく画像と、3次元画像情報に基づく画像とを用いた繰り返し処理により両者間の誤差を表す第3のパラメータを求め、第1〜第3のパラメータに基づいて対象物の位置及び姿勢を認識することにより、各種変換や測定誤差或いは量子誤差よる位置および姿勢の認識誤差を高精度で補正することができる。   Further, a third parameter representing an error between the two is obtained by iterative processing using the image based on the determined model image and the image based on the three-dimensional image information, and the object is obtained based on the first to third parameters. The position and orientation recognition errors due to various conversions, measurement errors, or quantum errors can be corrected with high accuracy.

以下、本発明の実施の形態を、図面を伴って説明する。
図1は本発明のシステム構成図、図2には図1の演算処理装置の具体的構成を示すブロック図、図3は測定対象となる対象物の斜視図である。
図1において、1は多視点画像を撮像する撮像装置としてのステレオビジョンである。このステレオビジョン1では、2台以上の相対位置関係が既知である1組のカメラによって対象物を撮像して得られるステレオ画像間で画素毎の対応を探索し、三角測量の原理によって多視点画像情報としての3次元画像情報を復元する。このステレオビジョン1で撮像した対象物の3次元画像情報が例えばマイクロコンピュータで構成される演算処理装置2に供給される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
1 is a system configuration diagram of the present invention, FIG. 2 is a block diagram showing a specific configuration of the arithmetic processing apparatus of FIG. 1, and FIG. 3 is a perspective view of an object to be measured.
In FIG. 1, reference numeral 1 denotes stereo vision as an imaging device that captures multi-viewpoint images. In this stereo vision 1, the correspondence of each pixel is searched between stereo images obtained by capturing an object with a pair of cameras having two or more known relative positional relationships, and a multi-viewpoint image is obtained by the principle of triangulation. Three-dimensional image information as information is restored. The three-dimensional image information of the object imaged by the stereo vision 1 is supplied to the arithmetic processing unit 2 constituted by, for example, a microcomputer.

この演算処理装置2には、モデル画像記憶部としてのモデル画像データベース3及び表示装置4が接続されている。モデル画像データベース3には、測定対象となる既知の例えば少なくとも上下左右前後の6つの平面部を有する6面体で構成される対象物毎に、その各平面部の法線方向から1つのカメラで撮像した2次元法線方向画像情報と各2次元法線方向画像情報の夫々について90度、180度、270度回転させた画像情報とを合わせて24種類の法線方向画像情報がモデル画像情報として記憶されている。なお、2次元法線方向画像情報には、撮像時の対象物の3次元座標系における位置および姿勢を表す情報が含まれている。   The arithmetic processing device 2 is connected to a model image database 3 and a display device 4 as a model image storage unit. In the model image database 3, each known object to be measured, for example, an object composed of a hexahedron having at least six plane parts on the top, bottom, left, and right is imaged with one camera from the normal direction of each plane part. 24 types of normal direction image information as model image information is obtained by combining the two-dimensional normal direction image information and the image information rotated by 90 degrees, 180 degrees, and 270 degrees for each of the two-dimensional normal direction image information. It is remembered. Note that the two-dimensional normal direction image information includes information representing the position and orientation of the object in the three-dimensional coordinate system at the time of imaging.

また、演算処理装置2は、機能ブロック図で表すと図2に示すように、3次元計測部21、画像情報記憶部を含む情報記憶部22、点・エッジ選択部23、平面抽出部24、法線方向画像変換部25、モデル対応画像生成部26、誤差演算部としての補正変換行列演算部27及び変換行列演算部28を備えている。
ここで、本実施形態における対象物の条件としては、主として平面部により構成され、平面部のなす角が既知である多面体であるものとする。多面体の例としては、立方体、直方体、多角柱、多角錐、正多面体、切頂多面体、斜方多面体等がある。多面体の各面は完全な平面である必要はないが平面部とする。平面部とは、基礎となる平面に対して突起物や穴、凹凸などが存在する場合を言う。平面部のなす角が既知とは、対象物の平面の法線方向から撮像された2次元画像において、エッジ検出より検出されるエッジ部のなす角度が既知であるものをいう。
In addition, as shown in FIG. 2 in a functional block diagram, the arithmetic processing device 2 includes a three-dimensional measurement unit 21, an information storage unit 22 including an image information storage unit, a point / edge selection unit 23, a plane extraction unit 24, A normal direction image conversion unit 25, a model-corresponding image generation unit 26, a correction conversion matrix calculation unit 27 as an error calculation unit, and a conversion matrix calculation unit 28 are provided.
Here, it is assumed that the condition of the object in the present embodiment is a polyhedron that is mainly configured by a flat portion and an angle formed by the flat portion is known. Examples of the polyhedron include a cube, a rectangular parallelepiped, a polygonal column, a polygonal pyramid, a regular polyhedron, a truncated polyhedron, and an oblique polyhedron. Each surface of the polyhedron need not be a complete plane, but is a plane portion. A plane part means the case where a protrusion, a hole, an unevenness | corrugation, etc. exist with respect to the plane used as a foundation. The known angle formed by the plane portion means that the angle formed by the edge portion detected by the edge detection is known in a two-dimensional image captured from the normal direction of the plane of the object.

さらに、3次元位置・姿勢認識の定義は以下の通りである。例えば、3次元座標系の原点をステレオビジョン1の撮像原点とした場合には、撮像された対象物の位置・姿勢は、3次元座標系の原点に位置する対象物を3次元剛体変換したものである。したがって、この剛体変換行列(回転の自由度3、平行移動の自由度3)を求めることが、3次元位置・姿勢認識となる。なお、3次元座標系はステレオビジョン1の撮像原点を原点とするものに限定されるものではない。つまり、剛体変換行列は対象物の3次元位置・姿勢認識の一の表現形態であって、対象物の3次元位置・姿勢をパラメータとして表現できれば剛体変換行列に限られるものではない。よって、回転の3自由度と平行移動の3自由度による表現である必要はなく、さらに、方程式等の数式で表現されるものでも良い。   Furthermore, the definition of 3D position / posture recognition is as follows. For example, when the origin of the three-dimensional coordinate system is the imaging origin of stereovision 1, the position and orientation of the imaged object is a three-dimensional rigid transformation of the object located at the origin of the three-dimensional coordinate system. It is. Therefore, obtaining this rigid body transformation matrix (degree of freedom of rotation 3 and degree of freedom of translation 3) is three-dimensional position / posture recognition. Note that the three-dimensional coordinate system is not limited to the one having the imaging origin of the stereo vision 1 as the origin. That is, the rigid body transformation matrix is an expression form for recognizing the three-dimensional position / orientation of the object, and is not limited to the rigid body transformation matrix as long as the three-dimensional position / orientation of the object can be represented as a parameter. Therefore, it is not necessary to express with three degrees of freedom of rotation and three degrees of freedom of parallel movement, and may be expressed with mathematical expressions such as equations.

ステレオビジョン1による3次元計測は、先ず、公知の技術であるステレオビジョンにより、距離計測可能な点について距離計測を行う。精度の高い少数の点計測が目的であり、3次元点群データや距離画像のように密度の高い3次元形状を計測することは目的ではなく、金属面や文様のない対象物であっても、平面を構成するエッジとなる少数の点の計測は可能である。   In the three-dimensional measurement by the stereo vision 1, first, distance measurement is performed for points that can be distance-measured by stereo vision, which is a known technique. The purpose is to measure a small number of points with high accuracy, not to measure a dense three-dimensional shape such as three-dimensional point cloud data or distance images, even for objects without metal surfaces or patterns. It is possible to measure a small number of points that are edges constituting the plane.

3次元計測部21は、キーボード、マウス等の入力装置から画像情報読込要求が入力されたときに、ステレオビジョン1を作動させて、図3に示す直方体10の上面に直方体状の突起11を形成した対象物12を撮像した多視点画像情報に基づく3次元画像情報を読込み、読込んだ3次元画像情報を情報記憶部22の3次元画像情報記憶領域に記憶する。ここで、ステレオビジョン1で撮像した多視点画像は、図4に示すようになる。   When the image information reading request is input from an input device such as a keyboard or a mouse, the three-dimensional measuring unit 21 operates the stereo vision 1 to form the rectangular parallelepiped protrusion 11 on the upper surface of the rectangular parallelepiped 10 shown in FIG. The three-dimensional image information based on the multi-viewpoint image information obtained by imaging the target object 12 is read, and the read three-dimensional image information is stored in the three-dimensional image information storage area of the information storage unit 22. Here, the multi-viewpoint image captured by the stereo vision 1 is as shown in FIG.

情報記憶部22は、3次元計測部21で計測した3次元画像情報を記憶する3次元画像情報記憶領域を有すると共に、平面抽出部24での演算結果、法線方向画像変換部25、モデル対応画像生成部26、補正変換行列演算部27の演算結果等を記憶する。
点・エッジ選択部23は、3次元計測部21で読込んだ3次元画像情報に基づいて公知のステレオビジョン画像処理技術を用いて対応点を探索し、複数の点の距離(3次元座標)を求める。ここで、距離を求める点は、各平面に一様であることが望ましいが、平面を検出するために十分な数であればよく、数点で可能である。また、各平面のエッジを求め、ハフ変換等の公知の技術によって線分を求めておく。すなわち、点・エッジ選択部23では、図5に示すように、●で示す点と、太線で示すエッジ部の直線とを3次元計測する。
The information storage unit 22 has a three-dimensional image information storage area for storing the three-dimensional image information measured by the three-dimensional measurement unit 21, and the calculation result in the plane extraction unit 24, the normal direction image conversion unit 25, and the model correspondence The calculation results of the image generation unit 26 and the correction conversion matrix calculation unit 27 are stored.
The point / edge selection unit 23 searches for corresponding points using a known stereo vision image processing technique based on the three-dimensional image information read by the three-dimensional measurement unit 21, and the distances (three-dimensional coordinates) of a plurality of points. Ask for. Here, the points for obtaining the distance are desirably uniform on each plane, but may be a sufficient number for detecting the plane, and may be several. Further, the edge of each plane is obtained, and the line segment is obtained by a known technique such as Hough transform. That is, as shown in FIG. 5, the point / edge selection unit 23 three-dimensionally measures the point indicated by ● and the straight line of the edge indicated by a thick line.

平面抽出部24は、法線ベクトル演算部24a、平面検出部24b及び平面選択部24cを備えている。
法線ベクトル演算部24aでは、点・エッジ選択部23で選択された点及び線分は3次元座標を持っていることから、これらの3次元座標で表される各点が含まれる平面の法線ベクトルを演算する。この法線ベクトルの演算は、計測点数が少ないことから最小二乗法により平面を求めることが困難であるため、図6に示すように、先ず、基準点となる点▲とその近傍の2つの点●を選択し、基準点▲と2つの点●とにより定まる2つのベクトルの外積を法線ベクトルとする。次いで、基準点▲と他の2点との全ての組み合せについて、法線ベクトルを求める。求められた複数の法線ベクトルから最も度数の大きい法線ベクトルを基準点▲が含まれる平面の法線ベクトルとして採用する。
The plane extraction unit 24 includes a normal vector calculation unit 24a, a plane detection unit 24b, and a plane selection unit 24c.
In the normal vector calculation unit 24a, since the points and line segments selected by the point / edge selection unit 23 have three-dimensional coordinates, the method of the plane including each point represented by these three-dimensional coordinates is included. Calculate the line vector. Since the calculation of the normal vector has a small number of measurement points, it is difficult to obtain a plane by the method of least squares. Therefore, as shown in FIG. 6, first, a point ▲ serving as a reference point and two neighboring points are used. ● is selected, and the outer product of two vectors determined by the reference point ▲ and the two points ● is defined as a normal vector. Next, normal vectors are obtained for all combinations of the reference point ▲ and the other two points. The normal vector having the largest frequency is adopted as the normal vector of the plane including the reference point ▲ from the obtained plurality of normal vectors.

具体的には、図7に示すように、3次元ベクトル(xi,yi,zi)をXY平面での傾斜角θiとXY平面からZ軸に対する傾斜角φiとし、(θi,φi)で表される2次元表現に変換する。ここで、θは0〜360度、φは0〜180度である。ベクトルは全て上向き(Z>0)とすることで一般性は失われない。全ベクトル(xi,yi,zi)を、図8に示す所定角度(例えば5度区分)に区切ってθ及びφの2次元度数分布を計数する。計数した2次元度数分布において、度数が最大の区分に属する法線ベクトルを基準点が含まれる平面の法線ベクトルとして採用する。   Specifically, as shown in FIG. 7, a three-dimensional vector (xi, yi, zi) is defined as (θi, φi), which is an inclination angle θi on the XY plane and an inclination angle φi with respect to the Z axis from the XY plane. To a two-dimensional representation. Here, θ is 0 to 360 degrees, and φ is 0 to 180 degrees. Generality is not lost by making all the vectors upward (Z> 0). All vectors (xi, yi, zi) are divided into predetermined angles (for example, 5 degree sections) shown in FIG. 8, and the two-dimensional frequency distribution of θ and φ is counted. In the counted two-dimensional frequency distribution, the normal vector belonging to the section with the highest frequency is adopted as the normal vector of the plane including the reference point.

平面検出部24bでは、法線ベクトル演算部24aで演算された各基準点が含まれる平面の法線ベクトルから最も度数の大きい法線ベクトルを検出する。抽出された法線ベクトルを構成する点は、平面を構成する可能性のある点の集合となる。
最も度数の大きい法線ベクトルを(a,b,c)とするとき、平面の方程式は、
ax+by+cz+d=0
で表されるが、この段階ではdは求まっていない。
The plane detection unit 24b detects the normal vector having the highest frequency from the normal vectors of the plane including the reference points calculated by the normal vector calculation unit 24a. The points constituting the extracted normal vector are a set of points that may constitute a plane.
When the normal vector with the highest frequency is (a, b, c), the plane equation is
ax + by + cz + d = 0
However, d is not obtained at this stage.

平面選択部24cでは、平面検出部24bで抽出された法線ベクトルを構成する全ての点(xi,yi,zi)につき、平面の方程式ax+by+cz=−dにより−dを演算し、−dの度数分布を作成し、最も度数の高い区分に属する点を、求めるべき「平面に属する点」の集合として決定する。これは平行な平面群のなかで、最も属する点の数が多い平面となる。   The plane selection unit 24c calculates −d by the plane equation ax + by + cz = −d for all points (xi, yi, zi) constituting the normal vector extracted by the plane detection unit 24b, and the frequency of −d A distribution is created, and the points belonging to the category with the highest frequency are determined as a set of “points belonging to a plane” to be obtained. This is a plane having the largest number of points belonging to the group of parallel planes.

具体的には、図9(a)に示すように、平面の方程式を算出したときに、定数dが例えばd1、d2及びd3となり、d1の平面に属する点が5個、d2の平面に属する点が2個、d3に属する点が3個であるときには、度数分布は図9(b)に示すように、定数d1の度数が最も大きくなることから、ax+by+cz+d1=0と表現される平面が抽出される。   Specifically, as shown in FIG. 9A, when the plane equation is calculated, the constant d is, for example, d1, d2, and d3, and five points belonging to the plane d1 belong to the plane d2. When the number of points is two and the number of points belonging to d3 is three, the frequency distribution has the largest frequency of the constant d1, as shown in FIG. 9B, so that a plane expressed as ax + by + cz + d1 = 0 is extracted. Is done.

法線方向画像変換部25は、ステレオビジョン1で撮像された3次元画像情報の対象物の位置・姿勢を、平面抽出部24で抽出された平面の法線方向からの画像における対象物の位置・姿勢に変換するような第1のパラメータとしての変換行列を求め、この変換行列を用いて測定画像を法線方向画像に変換する。なお、法線方向画像とは、平面抽出部で抽出された平面の法線方向から視た場合の画像のことをいうものとする。以下、具体的に説明する。   The normal direction image conversion unit 25 determines the position / posture of the object of the 3D image information captured by the stereo vision 1 in the image from the normal direction of the plane extracted by the plane extraction unit 24. A conversion matrix as a first parameter that is converted into a posture is obtained, and the measurement image is converted into a normal direction image using this conversion matrix. The normal direction image refers to an image when viewed from the normal direction of the plane extracted by the plane extraction unit. This will be specifically described below.

まず、法線方向画像変換行列(P)演算部25aについて説明する。図10(a)及び(b)に示すように、2次元画像上の2次元座標系では、変換前後において、抽出された同一平面上の任意の3点が構成する2つのベクトルV1及びV2と、抽出された3点以外の任意の1点のベクトルV3はベクトルV1及びV2の線形結合にて一意に示すことができ、且つ変換前後で同一表現される。この条件を用いることで、図10(a)に示す3次元画像情報の画像における抽出された平面の全ての点が、図10(b)に示すような法線方向画像における点となるような、2次元座標の対応付けを求めることができる。   First, the normal direction image conversion matrix (P) calculation unit 25a will be described. As shown in FIGS. 10A and 10B, in the two-dimensional coordinate system on the two-dimensional image, two vectors V1 and V2 formed by arbitrary three extracted points on the same plane before and after the conversion, Any one vector V3 other than the extracted three points can be uniquely indicated by a linear combination of the vectors V1 and V2 and is represented identically before and after the conversion. By using this condition, all the points on the extracted plane in the image of the three-dimensional image information shown in FIG. 10A become points in the normal direction image as shown in FIG. Association of two-dimensional coordinates can be obtained.

3次元画像情報の画像を法線方向画像に変換することを考えると、この変換を表す行列は透視変換行列である。よって、透視変換行列を求めることは、測定された3次元画像情報における対象物の位置・姿勢を、法線方向画像における対象物の位置・姿勢に変換するための変換行列を求めることとなる。上述の対応付けされた点を用い、例えば公知の技術であるDLT(Direct Linear Transform)法を用いて、第1のパラメータとしての法線方向画像変換行列Pを求めることができる。   Considering that an image of 3D image information is converted into a normal direction image, a matrix representing this conversion is a perspective conversion matrix. Therefore, obtaining the perspective transformation matrix means obtaining a transformation matrix for converting the position / orientation of the object in the measured three-dimensional image information into the position / orientation of the object in the normal direction image. The normal direction image transformation matrix P as the first parameter can be obtained by using the above-described associated points and using, for example, a well-known technique such as a DLT (Direct Linear Transform) method.

座標(X0,Y0,Z0)を座標(X1,Y1,Z1)に変換する法線方向画像変換行列Pは下式のようになる。法線方向変換では入力は(X0,Y0,Z0)を、出力側は(X1,Y1,Z1)を使用する。   A normal direction image conversion matrix P for converting the coordinates (X0, Y0, Z0) to the coordinates (X1, Y1, Z1) is expressed by the following equation. In normal direction conversion, the input uses (X0, Y0, Z0), and the output side uses (X1, Y1, Z1).

Figure 2010127819
Figure 2010127819

ここで、法線方向画像変換行列PをDLT法で演算するには、2次元の変換前後の点対応{xi⇔xi′}が与えられた時、xi′=Hxiとなるような平面射影変換行列Hを求めることになる。ここで、行列Hは行列Pと等しい行列となる。
i′=Hxiの式の意味はxi′とHxiとが大きさの異なる同方向ベクトルであることを示す。つまり、xi′×Hxi=0であることと等価である。
Here, in order to calculate the normal direction image transformation matrix P by the DLT method, when a point correspondence {x i ⇔x i ′} before and after the two-dimensional transformation is given, x i ′ = Hx i. A plane projection transformation matrix H is obtained. Here, the matrix H is a matrix equal to the matrix P.
The meaning of the equation x i '= Hx i indicates that x i ' and Hx i are the same direction vectors having different sizes. That is, it is equivalent to x i ′ × Hx i = 0.

このため、先ず、各点対応xi⇔xi′について下記行列Aiを演算する。 Therefore, first, the following matrix A i is calculated for each point corresponding x i ⇔x i ′.

Figure 2010127819
Figure 2010127819

なお、数式2の行例Aiの3行目は、1行目と2行目の線形結合である。よって、行列Aiは、実質的に2×9行列として取り扱うことができる。
次いで、点対応の数をnとするとき、n個の2×9行列Aiをもとめて2n×9行列Aとする。
Note that the third line of the example line A i in Equation 2 is a linear combination of the first and second lines. Therefore, the matrix A i can be handled substantially as a 2 × 9 matrix.
Next, when the number of points corresponding to n is n, n 2 × 9 matrices A i are obtained to form a 2n × 9 matrix A.

行列Aを特異値分解し、最小特異値に対応する特異ベクトルをhとする。
h=(h11,h12,h13,h21,h22,h23,h31,h32,h33)
The matrix A is subjected to singular value decomposition, and the singular vector corresponding to the minimum singular value is set to h.
h = (h11, h12, h13, h21, h22, h23, h31, h32, h33)

Figure 2010127819
Figure 2010127819

法線方向画像変換部25は、法線方向画像変換行列(P)演算部25aで求めた法線方向画像変換行列Pを用い、各点について前述した数1の演算を行い,演算結果に基づいて法線方向画像情報を生成し、生成した法線方向画像情報を表示装置4に表示すると共に情報記憶部22に記憶する。   The normal direction image conversion unit 25 performs the above-described calculation of Equation 1 for each point using the normal direction image conversion matrix P obtained by the normal direction image conversion matrix (P) calculation unit 25a, and based on the calculation result. The normal direction image information is generated, and the generated normal direction image information is displayed on the display device 4 and stored in the information storage unit 22.

ここで、法線方向画像において同一平面として抽出された平面は抽出した平面の法線方向から視た場合の正しい形状に変換されるが、その他の面は実際にあり得ない変形状態になるが差し支えない。また、前述したように点・エッジ選択部23で、各エッジから線分を求めてあり、これらの線分は既知の角度となるはずである。このため、2次元座標の対応付けを求める際に、既知の角度となる線分が法線方向画像で取り得る方向となるように対応付けを選択することにより、図11に示すように選択した平面について正確な法線方向画像を得ることができ、図12に示すように、不適切な法線方向画像となることを防止することができる。   Here, the plane extracted as the same plane in the normal direction image is converted into a correct shape when viewed from the normal direction of the extracted plane, but the other planes are in a deformed state that is not actually possible. There is no problem. Further, as described above, the point / edge selection unit 23 obtains a line segment from each edge, and these line segments should have known angles. For this reason, when obtaining the association of the two-dimensional coordinates, the association is selected as shown in FIG. 11 by selecting the association so that the line segment having a known angle has a direction that can be taken in the normal direction image. An accurate normal direction image can be obtained for the plane, and an inappropriate normal direction image can be prevented as shown in FIG.

モデル対応画像生成部26は、モデル画像決定部としてのモデル画像マッチング部26a及びモデル対応画像変換部としての剛体変換行列(T1)演算部26bを備えている。
モデル画像マッチング部26aは、法線方向画像変換部25で生成した法線方向画像情報と、モデル画像データベース3に記憶されている図13に示す各面のモデル画像情報との間で、公知の2次元パターンマッチ処理を行って、該当するモデル画像情報を決定する。
The model corresponding image generation unit 26 includes a model image matching unit 26a as a model image determination unit and a rigid body transformation matrix (T1) calculation unit 26b as a model corresponding image conversion unit.
The model image matching unit 26a is known between the normal direction image information generated by the normal direction image conversion unit 25 and the model image information of each surface shown in FIG. 13 stored in the model image database 3. Two-dimensional pattern matching processing is performed to determine corresponding model image information.

ここで、モデル画像情報の画像サイズ(1画素サイズ)と法線方向画像情報の画像サイズとは等しくなるように調整する。すなわち、図14(a)に示すように、モデル画像データベース3に格納されているモデル画像情報の1画素のサイズをa(ミリメートル)とすると、対象物の実際のサイズがA(ミリメートル)である場合には、画像上での画素数はA/a画素となる。   Here, the image size (one pixel size) of the model image information and the image size of the normal direction image information are adjusted to be equal. That is, as shown in FIG. 14A, when the size of one pixel of the model image information stored in the model image database 3 is a (millimeter), the actual size of the object is A (millimeter). In this case, the number of pixels on the image is A / a pixels.

法線方向画像変換前の3次元画像情報は、図14(b)に示すように、任意の2つの特徴点の2次元座標(αx1,αy1)及び(αx2,αy2)間の3次元距離は既知である。この3次元距離をB(ミリメートル)とすると、法線方向画像における画素数は、必ずしもB/a画素とは限らない。
よって、法線方向画像変換後の法線方向画像情報では、図14(c)に示すように、上記特徴点の2次元座標(αx1,αy1)及び(αx2,αy2)に対応する特徴点の2次元座標(βx1,βy1)及び(βx2,βy2)間の3次元距離B(ミリメートル)の画素数がB/a画素となるように法線方向画像を決定する。
As shown in FIG. 14B, the three-dimensional image information before the normal direction image conversion is expressed by the three-dimensional distance between the two-dimensional coordinates (αx1, αy1) and (αx2, αy2) of any two feature points. Known. If this three-dimensional distance is B (millimeters), the number of pixels in the normal direction image is not necessarily B / a pixels.
Therefore, in the normal direction image information after the normal direction image conversion, as shown in FIG. 14C, the feature points corresponding to the two-dimensional coordinates (αx1, αy1) and (αx2, αy2) of the feature points are shown. The normal direction image is determined so that the number of pixels of the three-dimensional distance B (millimeter) between the two-dimensional coordinates (βx1, βy1) and (βx2, βy2) becomes B / a pixels.

したがって、変換前の特徴点座標(αxi,αyi)に対応する法線方向画像変換後の特徴点座標(βxi,βyi)を求めるときに、画素数がB/a画素となるように特徴点の2次元座標をγ(βxi,βyi)に設定して、法線方向画像情報とモデル画像情報とを等しいサイズとして比較・パターンマッチすることができる。
剛体変換行列(T1)演算部26bは、モデル画像マッチング部26aで決定したモデル画像情報が2次元画像のどの位置に存在するかが判明するので、モデル画像情報における対象物の位置・姿勢とに基づきマッチング位置における対象物の位置・姿勢を把握できる。よって、3次元座標系の原点にある対象物をマッチング位置における対象物の位置・姿勢に変換する第2のパラメータとしての剛体変換行列を求めることができる。3次元座標系の原点にある対象物の3次元座標(Xorg,Yorg,Zorg)に対する、マッチング位置の対象物の3次元座標(X1,Y1,Z1)は下式で表すことができる。
Therefore, when the feature point coordinates (βxi, βyi) after normal direction image conversion corresponding to the feature point coordinates (αxi, αyi) before conversion are obtained, the feature points are set so that the number of pixels becomes B / a pixels. By setting the two-dimensional coordinates to γ (βxi, βyi), the normal direction image information and the model image information can be compared and pattern matched with the same size.
Since the rigid body transformation matrix (T1) calculation unit 26b knows where the model image information determined by the model image matching unit 26a exists in the two-dimensional image, the rigid body transformation matrix (T1) calculation unit 26b determines the position and orientation of the object in the model image information. Based on this, the position / posture of the object at the matching position can be grasped. Therefore, it is possible to obtain a rigid body transformation matrix as a second parameter for converting the object at the origin of the three-dimensional coordinate system into the position / posture of the object at the matching position. The three-dimensional coordinates (X1, Y1, Z1) of the object at the matching position with respect to the three-dimensional coordinates (Xorg, Yorg, Zorg) of the object at the origin of the three-dimensional coordinate system can be expressed by the following equations.

Figure 2010127819
Figure 2010127819

ここで、剛体変換行列の算出方法の具体例は、入力(点数=N)は、
ターゲット上の点の集合(3次元座標):{P′i}、P′i=(p′i(x),p′i(y),p′(z))
対応するモデル上の点:{Pi}、Pi=(pi(x),pi(y),pi(z))
であり、課題は{P′i}を{Pi}に変換する剛体変換行列を求めることである。
Here, a specific example of the calculation method of the rigid transformation matrix is that the input (number of points = N) is
A set of points on the target (three-dimensional coordinates): {P′i}, P′i = (p′i (x), p′i (y), p ′ (z))
Corresponding points on the model: {Pi}, Pi = (pi (x), pi (y), pi (z))
The problem is to obtain a rigid transformation matrix that transforms {P′i} into {Pi}.

最小二乗解を求めるため、{P′i}と剛体変換した{Pi}の差異の二乗和を最小化する。   In order to obtain a least square solution, the sum of squares of differences between {P′i} and {Pi} subjected to rigid body transformation is minimized.

Figure 2010127819
Figure 2010127819

上記数式5において、Rは回転行列、Tは平行移動ベクトルを意味する。
中心点座標が等しいという仮定により、原点へ移動した点集合において下記関係がある。また、最後の式が最小化すべきターゲットである。
In Equation 5, R represents a rotation matrix and T represents a translation vector.
Assuming that the center point coordinates are equal, the following relationship is established in the point set moved to the origin. The last equation is the target to be minimized.

Figure 2010127819
Figure 2010127819

先ず、回転行列Rを求め、続いて平行移動ベクトルTを求める。
回転行列Rを求めるために、行列Hを使用する。
H=Σqiq′i t
行列Hを特異値分解(Singular Value Decomposition)する。
First, the rotation matrix R is obtained, and then the translation vector T is obtained.
In order to obtain the rotation matrix R, the matrix H is used.
H = Σq i q ′ i t
The matrix H is subjected to singular value decomposition (Singular Value Decomposition).

H=UΛVt
ここで、特異値分解においてUとVは正規直交行列、Λは特異値を対角成分に持つ対角行列を意味する。
続いて、行列Xを演算する。
X=VUt
行列Xの行列式が1の場合は、行列Xは回転行列Rに等しい、行列式が−1の場合は、本課題は解くことができないが、−1となることは殆どない。
H = UΛV t
Here, in singular value decomposition, U and V are orthonormal matrices, and Λ is a diagonal matrix having singular values as diagonal components.
Subsequently, the matrix X is calculated.
X = VU t
When the determinant of the matrix X is 1, the matrix X is equal to the rotation matrix R. When the determinant is -1, this problem cannot be solved, but it is rarely -1.

行列式の計算には、行列XをLU分解し、対角要素の積和を求める。この積和は行列式に等しい。
続いて、下式により平行移動ベクトルTを求めることができる。
T=p′−Rp
そして、剛体変換行列(T1)演算部26bで求めたT1行列に基づくマッチング位置における対象物の位置・姿勢と、モデル画像データベースに記憶されているモデル画像情報における対象物の位置・姿勢とに基づき、モデル画像をマッチング位置における画像であるモデル対応画像に変換して生成することで、生成したモデル対応画像情報を表示装置4に表示すると共に情報記憶部22に記憶する。
In calculating the determinant, the matrix X is subjected to LU decomposition, and the product sum of diagonal elements is obtained. This sum of products is equal to the determinant.
Subsequently, the translation vector T can be obtained by the following equation.
T = p′−Rp
Then, based on the position / posture of the object at the matching position based on the T1 matrix obtained by the rigid body transformation matrix (T1) calculation unit 26b, and the position / posture of the object in the model image information stored in the model image database. The model image is generated by converting the model image into a model-corresponding image that is an image at the matching position, so that the generated model-corresponding image information is displayed on the display device 4 and stored in the information storage unit 22.

補正変換行列(T2)演算部27は、法線方向画像情報が、変換や測定誤差あるいは量子化誤差によって対象物の線が正し方向へ変換されていないことが想定されるので、モデル画像情報を変換行列T1に基づき変換して生成したモデル対応画像と、3次元画像情報の画像を変換行列Pにより変換して生成した法線方向画像とを、繰り返し法(ICP:Iterative Closest Points)によって最適位置に合致させる補正量を演算する。ここで、合致させるとは、両者の関係を表す第3のパラメータとしての剛体変換行列T2を求めることである。なお、補正量を求めるためには上記のようにモデル対応画像と法線方向画像との関係に限定されることはなく、モデル画像に基づく画像と3次元画像情報の画像に基づく画像との関係であれば良い。よって、例えばモデル画像と3次元画像情報の画像を変換によりモデル画像に対応する画像に変換した画像との関係とすることもできる。   The correction transformation matrix (T2) calculation unit 27 assumes that the normal direction image information is not converted in the correct direction due to conversion, measurement error, or quantization error. The model-corresponding image generated by converting the image based on the conversion matrix T1 and the normal direction image generated by converting the image of the three-dimensional image information by the conversion matrix P are optimized by an iterative method (ICP: Iterative Closest Points). A correction amount to match the position is calculated. Here, “match” means obtaining a rigid transformation matrix T2 as a third parameter representing the relationship between the two. Note that the correction amount is not limited to the relationship between the model-corresponding image and the normal direction image as described above, but the relationship between the image based on the model image and the image based on the image of the three-dimensional image information. If it is good. Therefore, for example, a relationship between a model image and an image obtained by converting the image of the three-dimensional image information into an image corresponding to the model image by conversion may be used.

この剛体変換行列T2を求めるには、変換行列T1により特定される位置および姿勢で対象物が存在する画像であるモデル対応画像に対応する3次元点群M={Mi}={(mxi,myi,mzi)}と、3次元画像情報の画像を変換行列Pにより変換した法線方向画像とに対応する3次元点群S={Si}={(sxi,syi,szi)}とが与えられ、両者の点数は必ずしも等しくなく、両者の点対応もわかっていない場合に、点群Sを点群Mへ変換する剛体変換行列を求めることである。   In order to obtain the rigid transformation matrix T2, the three-dimensional point group M = {Mi} = {(mxi, myi) corresponding to the model correspondence image that is an image in which the object exists at the position and orientation specified by the transformation matrix T1. , Mzi)} and a three-dimensional point group S = {Si} = {(sxi, syi, szi)} corresponding to a normal direction image obtained by transforming the image of the three-dimensional image information by the transformation matrix P. When the points are not necessarily equal and the point correspondence between the two is not known, a rigid transformation matrix for converting the point group S to the point group M is obtained.

法線方向画像に対応する3次元点群Sの各点に対して、最も近い距離にあるモデル対応画像に対応する3次元点群Mの点を探索し、両者を対応点とする。距離としては、ユークリッド距離が一般的にもちいられるが、他の距離尺度を適用することもできる。
両者を対応付ける剛体変換行列T2を求める。この段階では、対応点が分かっており、且つ両者の点数も等しいので、前述した数4の剛体変換行列の算出方法を利用する。
For each point of the three-dimensional point group S corresponding to the normal direction image, a point of the three-dimensional point group M corresponding to the model corresponding image at the closest distance is searched, and both are used as corresponding points. The Euclidean distance is generally used as the distance, but other distance measures can be applied.
A rigid transformation matrix T2 that associates the two is obtained. At this stage, since the corresponding points are known and the scores of both are equal, the calculation method of the rigid transformation matrix of Formula 4 described above is used.

次いで、測定画像に対応する法線方向画像情報に対応する3次元点群Sの全点を剛体変換する。
次いで、剛体変換した3次元点群Sと3次元点群Mの差異が所定の閾値以下であれば、補正処理を終了し、そうでないときには剛体変換した3次元点群Sを新たな3次元点群Sとして上記補正処理を繰り返す。
Next, all the points of the three-dimensional point group S corresponding to the normal direction image information corresponding to the measurement image are subjected to rigid transformation.
Next, if the difference between the rigidly transformed 3D point group S and the 3D point group M is equal to or smaller than a predetermined threshold value, the correction process is terminated. Otherwise, the rigidly transformed 3D point group S is replaced with a new 3D point group. The above correction process is repeated for the group S.

ここで、一般的な繰り返し法ICPは3次元点群間の剛体変換行列を求める手法であるが、本実施形態では、2つの画像間の剛体変換行列を求めるように応用している。また、繰り返し法では、計算量が膨大であり,局所的最小値に陥るので、初期値依存性が強いという難点があるので、他の手法によりおおよその位置合わせ(剛体変換行列の初期値)を求め、両者をほぼ合わせた状態を初期値として繰り返し法を適用することが一般的である。   Here, the general iterative method ICP is a method for obtaining a rigid transformation matrix between three-dimensional point groups, but in the present embodiment, it is applied so as to obtain a rigid transformation matrix between two images. In addition, the iterative method requires a large amount of calculation and falls into a local minimum value, so there is a problem that the initial value dependency is strong. Therefore, approximate alignment (initial value of rigid transformation matrix) can be performed by other methods. It is common to apply the iterative method with the initial value of a state in which both are obtained and substantially combined.

具体的には、本実施形態では、図15(a)に示すように、実線図示の法線方向画像Sと、破線図示のモデル対応画像Mとでは両者の位置はほぼ合っている。
このため、先ず、図15(b)に示すように、法線方向画像Sから、例えば格子状に点を選択する(ランダムであってもよく、エッジ等の特徴のある点に限定することも効果的である)。
Specifically, in the present embodiment, as shown in FIG. 15A, the normal direction image S shown by the solid line and the model corresponding image M shown by the broken line almost match each other.
For this reason, first, as shown in FIG. 15B, points are selected from the normal direction image S in, for example, a lattice shape (may be random or limited to points having features such as edges). Effective).

続いて、図15(c)に示すように、法線方向画像Sにおいて抽出された点の座標(i,j)に対して、モデル対応画像Mの座標(i,j)を中心とした矩形領域1を対応させる。
続いて、図16に示すように、法線方向画像Sにおける点(i,j)を中心とした矩形領域1より小さい矩形領域2を設け、一方のモデル対応画像Mの矩形領域1において、矩形領域2のサイズの2次元パターンマッチングを行い、最も類似した点を抽出し、これを法線方向画像Sの座標(i,j)に対応する点とする。
Subsequently, as shown in FIG. 15C, a rectangle centered on the coordinates (i, j) of the model corresponding image M with respect to the coordinates (i, j) of the points extracted in the normal direction image S. Region 1 is made to correspond.
Subsequently, as shown in FIG. 16, a rectangular area 2 smaller than the rectangular area 1 around the point (i, j) in the normal direction image S is provided, and the rectangular area 1 of one model-corresponding image M has a rectangular shape. Two-dimensional pattern matching of the size of the region 2 is performed, the most similar point is extracted, and this is set as a point corresponding to the coordinate (i, j) of the normal direction image S.

続いて、複数の対応する点を求め、両者の剛体変換行列T2を求める。
続いて、法線方向画像Sを剛体変換した点と、モデル対応画像Mの点の差異が閾値以下になれば終了し、そうでなければ剛体変換した正面視画像を新たな法線方向画像Sとして設定してから上記剛体変換処理を繰り返す。
変換行列演算部28では、3次元座標の原点に対象物がある場合の3次元座標(Xorg,Yorg,Xorg)tを測定画像の3次元座標(X0,Y0,Z0)tに変換する変換式P-1・T2・T1を演算する。
Subsequently, a plurality of corresponding points are obtained, and a rigid transformation matrix T2 of both is obtained.
Subsequently, the process ends when the difference between the point of the normal direction image S that has undergone rigid transformation and the point of the model-corresponding image M is less than or equal to the threshold value, otherwise the front view image that has undergone rigid transformation has been converted to a new normal direction image S. Then, the rigid body transformation process is repeated.
The conversion matrix calculation unit 28 converts the three-dimensional coordinates (Xorg, Yorg, Xorg) t when there is an object at the origin of the three-dimensional coordinates into the three-dimensional coordinates (X0, Y0, Z0) t of the measurement image. P −1 · T2 · T1 is calculated.

すなわち、上述した変換式の関係をまとめると、
測定画像の3次元座標(X0,Y0,Z0)t
法線方向画像の3次元座標P(X0,Y0,Z0)t
3次元座標の原点にある対象物の3次元座標(Xorg,Yorg,Xorg)t
法線方向画像情報とマッチするモデル対応画像の3次元座標T1(Xorg,Yorg,Zorg)t
同、誤差補正済画像の3次元座標T2・T1(Xorg,Yorg,Zorg)t
となる。法線方向画像の3次元座標と誤差補正済み画像の3次元座標とは等しいので、
P(X0,Y0,Z0)t=T2・T1(Xorg,Yorg,Zorg)t
(X0,Y0,Z0)t=P-1・T2・T1(Xorg,Yorg,Zorg)t
となる。
That is, when the relationship of the above-described conversion formula is summarized,
3D coordinates of measurement image (X0, Y0, Z0) t
Three-dimensional coordinates P (X0, Y0, Z0) t of normal direction image
3D coordinates (Xorg, Yorg, Xorg) of the object at the origin of the 3D coordinates t
Three-dimensional coordinates T1 (Xorg, Yorg, Zorg) t of the model corresponding image that matches the normal direction image information
Similarly, the three-dimensional coordinates T2 · T1 (Xorg, Yorg, Zorg) t of the error-corrected image
It becomes. Since the 3D coordinates of the normal direction image and the 3D coordinates of the error corrected image are equal,
P (X0, Y0, Z0) t = T2 · T1 (Xorg, Yorg, Zorg) t
(X0, Y0, Z0) t = P −1 · T2 · T1 (Xorg, Yorg, Zorg) t
It becomes.

したがって、3次元座標の原点にある対象物の3次元座標(Xorg,Yorg,Zorg)tを測定画像の3次元座標(X0,Y0,Z0)tに変換するための変換式は、P-1・T1・T2として求めることができ、3次元画像情報における対象物の位置・姿勢を認識できたことになる。
次に、上記実施形態の動作を説明する。
Therefore, the conversion formula for converting the three-dimensional coordinates (Xorg, Yorg, Zorg) t of the object at the origin of the three-dimensional coordinates into the three-dimensional coordinates (X0, Y0, Z0) t of the measurement image is P −1. It can be obtained as T1 and T2, and the position and orientation of the object in the three-dimensional image information can be recognized.
Next, the operation of the above embodiment will be described.

今、図3に示す直方体10の上面に直方体状の突起11を形成した対象物12がステレオビジョン1の視野範囲内に存在し、この対象物12の位置及び姿勢を認識するには、予めモデル画像データベース3に、図13に示す該当する対象物12の上下左右前後の6平面における平面の法線方向から撮像したモデル画像と、各モデル画像の90度、180度及び270度回転させた24種類のモデル画像を記憶させておく。   Now, an object 12 having a rectangular parallelepiped protrusion 11 formed on the upper surface of the rectangular parallelepiped 10 shown in FIG. 3 is present in the visual field range of the stereo vision 1, and in order to recognize the position and orientation of the object 12, a model is used in advance. In the image database 3, model images picked up from normal directions of planes in six planes of the target object 12 shown in FIG. 13 on the top, bottom, left, and right sides, and rotated by 90 degrees, 180 degrees, and 270 degrees of each model image 24. A model image of a type is stored.

この状態で、演算処理装置2の3次元計測部21で、ステレオビジョン1に対して撮像指令を出力する。ステレオビジョン1では、図4に示す対象物12の多視点画像情報(ステレオ画像)を撮像し、演算処理装置2では、撮像した多視点画像情報に基づく3次元画像情報を読込み、読込んだ3次元画像情報を情報記憶部22の3次元画像情報記憶領域に記憶する。点・エッジ選択部23は、3次元計測部21で読込んだ3次元画像情報に基づいて公知のステレオビジョン画像処理技術を用いて対応点を探索し、複数の点の距離(3次元座標)を求める。求めた3次元画像情報を情報記憶部22の3次元画像情報記憶領域に記憶する。   In this state, the three-dimensional measuring unit 21 of the arithmetic processing device 2 outputs an imaging command to the stereo vision 1. In the stereo vision 1, the multi-viewpoint image information (stereo image) of the object 12 shown in FIG. 4 is imaged, and in the arithmetic processing device 2, the 3D image information based on the captured multi-viewpoint image information is read and read 3 The three-dimensional image information is stored in the three-dimensional image information storage area of the information storage unit 22. The point / edge selection unit 23 searches for corresponding points using a known stereo vision image processing technique based on the three-dimensional image information read by the three-dimensional measurement unit 21, and the distances (three-dimensional coordinates) of a plurality of points. Ask for. The obtained three-dimensional image information is stored in the three-dimensional image information storage area of the information storage unit 22.

そして、平面抽出部24で、3次元画像情報記憶領域に記憶されている3次元画像情報を読出し、法線ベクトル演算部24aで、3次元画像情報に表される2つ又は3つの平面で、所定数の特徴点を選択し、平面の法線ベクトルを演算する基準となる特徴点と他の2つの特徴点とのベクトルの外積から平面の法線ベクトルを求める。次いで、基準となる特徴点と近傍の全ての2点との組合わせについて平面の法線ベクトルを求める。そして、演算した平面の法線ベクトル(xi,yi,xi)を2次元表現(θi,Φi)へ変換する。   Then, the plane extraction unit 24 reads out the 3D image information stored in the 3D image information storage area, and the normal vector calculation unit 24a uses two or three planes represented by the 3D image information. A predetermined number of feature points are selected, and a plane normal vector is obtained from the outer product of the vector of the feature point serving as a reference for calculating the plane normal vector and the other two feature points. Next, a normal vector of the plane is obtained for the combination of the reference feature point and all the two nearby points. Then, the calculated normal vector (xi, yi, xi) of the plane is converted into a two-dimensional representation (θi, Φi).

そして、例えば5度区分に区切ってθ及びΦの2次元度数分布を計数し、計数した2次元度数分布において、度数が最大の区分の法線ベクトルを基準となる特徴点が含まれる平面の法線ベクトルとして採用する。
そして、平面検出部24bで、採用された基準となる特徴点が含まれる平面の法線ベクトルで表される平面の方程式を算出する。算出した平面の方程式に基づいて平面選択部24cで、平面の方程式の定数項−dの度数分布を作成し、最も度数の高い区分に属する点を求めるべき注視する平面に属する点の集合として決定する。
Then, for example, the two-dimensional frequency distribution of θ and Φ is counted by dividing into five-degree sections, and in the counted two-dimensional frequency distribution, the plane method including the feature points based on the normal vector of the section with the highest frequency is included. Adopt as a line vector.
Then, the plane detection unit 24b calculates an equation of a plane represented by a normal vector of the plane including the adopted reference feature point. Based on the calculated plane equation, the plane selection unit 24c creates a frequency distribution of the constant term -d of the plane equation, and determines the point belonging to the highest frequency category as a set of points belonging to the plane to be observed. To do.

このようにして、注視する平面の検出が終了すると、法線方向画像変換部25では、法線方向画像変換行列演算部25aにて3次元画像情報における対象物の位置・姿勢を平面抽出部で抽出した平面の法線方向画像における対象物の位置・姿勢に変換する第1の変換行列となる法線方向画像変換行列Pを、例えばDLT法を用いて求める。そして、法線方向画像変換行列Pに基づいて数1の演算を行って3次元画像情報の3次元座標(x0,y0,z0)から法線方向画像の3次元座標(x1,y1,z1)を演算して、さらに図11に示す法線方向画像情報を生成し、この法線方向画像情報を表示装置4に表示する。   In this way, when the detection of the plane to be watched is completed, the normal direction image conversion unit 25 uses the plane direction extraction unit to calculate the position / posture of the object in the three-dimensional image information in the normal direction image conversion matrix calculation unit 25a. A normal direction image conversion matrix P that is a first conversion matrix that is converted into the position and orientation of the object in the extracted normal direction image of the plane is obtained by using, for example, the DLT method. Then, based on the normal direction image transformation matrix P, the calculation of Formula 1 is performed, and the three-dimensional coordinates (x1, y1, z1) of the normal direction image from the three-dimensional coordinates (x0, y0, z0) of the three-dimensional image information. Is further generated to generate normal direction image information shown in FIG. 11, and the normal direction image information is displayed on the display device 4.

そして、モデル対応画像生成部26では、法線方向画像情報と、モデル画像データベース3に格納されている対象物の各平面の法線方向から撮像された画像に対応する24種類のモデル画像情報とを、モデル画像マッチング部26aで2次元パターンマッチングして、図13で□で囲った該当するモデル画像情報を決定する。
この2次元パターンマッチングの結果として、決定したモデル画像が2次元画像のどの位置に存在するかが判明するので、モデル画像情報における対象物の位置・姿勢とに基づきマッチング位置における対象物の位置・姿勢を把握する。これにより、3次元座標の原点にある対象物の位置・姿勢をマッチング位置における対象物の位置・姿勢に変換する剛体変換行列T1を求めることができる。これにより、3次元座標の原点に対象物がある場合の3次元座標(Xorg,Yorg,Zorg)に対するモデル対応画像の3次元座標(X1,Y1,Z1)を数4から算出することができる。さらに、モデル対応画像はモデル画像情報における対象物の位置・姿勢と剛体変換行列T1とに基づき、モデル画像を変換することでモデル対応画像を生成できる。
Then, the model-corresponding image generation unit 26 includes normal direction image information and 24 types of model image information corresponding to images captured from the normal direction of each plane of the object stored in the model image database 3. The model image matching unit 26a performs two-dimensional pattern matching to determine corresponding model image information surrounded by a square in FIG.
As a result of this two-dimensional pattern matching, it is determined in which position in the two-dimensional image the determined model image exists. Therefore, based on the position / posture of the target in the model image information, Know your posture. Accordingly, it is possible to obtain the rigid body transformation matrix T1 for converting the position / posture of the target at the origin of the three-dimensional coordinates into the position / posture of the target at the matching position. Thereby, the three-dimensional coordinates (X1, Y1, Z1) of the model corresponding image with respect to the three-dimensional coordinates (Xorg, Yorg, Zorg) when the target is at the origin of the three-dimensional coordinates can be calculated from Equation 4. Further, the model correspondence image can be generated by converting the model image based on the position / posture of the object in the model image information and the rigid body transformation matrix T1.

この算出結果から、法線方向画像とモデル対応画像とを表示すると図15(a)に示すように、法線方向画像Sとモデル対応画像Mとが略一致した初期状態となる。
このとき、法線方向画像Sとモデル対応画像Mとは略一致しているが、図15(a)に示すように、モデル対応画像Mに対して法線方向画像Sが反時計方向に多少回転している場合には、繰り返し法(ICP)によって第3の変換行列T2を用いる補正を行ない、この補正を剛体変換した法線方向画像Sとモデル対応画像Mとの差異が所定の閾値以下となるまで繰り返すことにより、高精度の補正を行なって剛体変換した法線方向画像Sとモデル対応画像Mとを正確に合致させることができる。
From this calculation result, when the normal direction image and the model corresponding image are displayed, as shown in FIG. 15A, the normal direction image S and the model corresponding image M substantially coincide with each other.
At this time, the normal direction image S and the model-corresponding image M substantially coincide with each other. However, as shown in FIG. In the case of rotation, correction using the third transformation matrix T2 is performed by an iterative method (ICP), and the difference between the normal direction image S obtained by rigid transformation of the correction and the model corresponding image M is less than a predetermined threshold value. By repeating until the normal direction image S and the model corresponding image M, which have been subjected to high-precision correction and subjected to rigid body transformation, can be accurately matched.

そして、法線方向画像に変換するための法線方向変換行列(第1の変換行列)Pと、3次元座標系の原点に対象物がある場合の3次元座標をモデル対応画像での3次元座標に変換するための剛体変換行列(第2の変換行列)T1と、補正変換行列(第3の変換行列)T2とに基づいて3次元座標系の原点に対象物がある場合の3次元座標を測定画像情報の3次元座標に変換するための変換式は前述したP-1・T1・T2として求めることができ、対象物12の位置及び姿勢を正確に認識することができる。 Then, the normal direction transformation matrix (first transformation matrix) P for transforming into a normal direction image and the three-dimensional coordinates in the model-corresponding image when the object is at the origin of the three-dimensional coordinate system Three-dimensional coordinates when the object is at the origin of the three-dimensional coordinate system based on a rigid transformation matrix (second transformation matrix) T1 for transformation into coordinates and a correction transformation matrix (third transformation matrix) T2 Can be obtained as the aforementioned P −1 · T1 · T2, and the position and orientation of the object 12 can be accurately recognized.

また、平面抽出部24で3次元画像情報から平面を抽出する場合に、3点の特徴点で、法線ベクトルを算出し、算出した法線ベクトルに基づいて平面を抽出するようにしているので、最小二乗法を適用する場合のように多数の特徴点を選択する必要がなく、対象物が光を反射する光沢面を有する場合や文様ない場合や黒色などの物体であっても、少ない特徴点の選択によって平面を抽出することができる。しかも、法線方向画像情報を生成する際に、エッジに対応する直線のなす角度が既知の線分を検出するようにしているので、法線方向画像情報を生成したときに、主たる直線のなす角度が既知であるので、主たる直線が既知の角度となるように、法線方向画像への変換を行なうことにより、法線方向画像を正確に生成することができる。   Further, when the plane extraction unit 24 extracts a plane from the three-dimensional image information, the normal vector is calculated from the three feature points, and the plane is extracted based on the calculated normal vector. There is no need to select a large number of feature points as in the case of applying the least squares method, and there are few features even if the target object has a glossy surface that reflects light, no pattern, or a black object A plane can be extracted by selecting a point. Moreover, when generating the normal direction image information, a line segment having a known angle formed by the straight line corresponding to the edge is detected. Therefore, when the normal direction image information is generated, the main line is formed. Since the angle is known, the normal direction image can be accurately generated by performing conversion to the normal direction image so that the main straight line has a known angle.

そして、モデル画像データベース3に記憶されている24種のモデル画像と、法線方向画像との2次元パターンマッチングを行なう際に、図14(a)〜(c)に示すサイズ合わせ処理を実行することにより、法線方向画像とモデル画像とを等しいサイズとして、比較・パターンマッチすることができる。
なお、上記実施形態においては、法線方向画像変換行列Pを算出した後に、剛体変換行列T1を算出し、次いで補正変換行列T2を算出し、各行列に基づいて対象物の位置及び姿勢を認識する場合について説明した。しかしながら、法線方向画像Sとモデル対応画像Mとが一致している場合には、補正変換行列T2の算出処理を省略して、法線方向変換行列P及び剛体変換行列T1に基づいて対象物の位置及び姿勢を認識するようにしてもよい。
Then, when performing the two-dimensional pattern matching between the 24 types of model images stored in the model image database 3 and the normal direction image, the size matching process shown in FIGS. 14A to 14C is executed. Thus, the normal direction image and the model image can be compared and pattern matched with the same size.
In the above embodiment, after calculating the normal direction image conversion matrix P, the rigid body conversion matrix T1 is calculated, and then the correction conversion matrix T2 is calculated, and the position and orientation of the object are recognized based on each matrix. Explained when to do. However, when the normal direction image S and the model corresponding image M match, the calculation process of the correction conversion matrix T2 is omitted, and the object is based on the normal direction conversion matrix P and the rigid body conversion matrix T1. The position and orientation may be recognized.

また、上記実施形態においては、法線方向画像変換行列Pの算出にDLT法を適用した場合について説明したが、これに限定されるものではなく、ゴールドスタンダートアルゴリズムやDLT法より精度の高い正規化DLTアルゴリズムを適用するようにしてもよい。さらに、上述したDLT法は、点対応にガウシアンノイズは含まれるが誤った対応が含まれないことを前提としているが、誤った対応が含まれることを想定する場合には、RASAC(Random Sample Comsensus)法、最尤推定(Maximum Likehood Estimation)法、LMS(Least Median of Sauare)法などを適用することができる。   In the above embodiment, the case where the DLT method is applied to the calculation of the normal direction image conversion matrix P has been described. However, the present invention is not limited to this, and normalization with higher accuracy than the Gold Standard algorithm or the DLT method is performed. A DLT algorithm may be applied. Further, the DLT method described above is based on the assumption that Gaussian noise is included in the point correspondence but no incorrect correspondence is included. ) Method, a maximum likelihood estimation (LIM) method, a LMS (Least Median of Sauer) method, and the like.

さらに、上記実施形態においては、ステレオビジョン1として2つのステレオカメラで2視点画像情報を撮像する場合について説明したが、これに限定されるものではなく、3つ以上のカメラを適用して多視点画像情報を撮像するようにしてもよい。   Furthermore, in the above-described embodiment, the case where two-viewpoint image information is captured by two stereo cameras as stereovision 1 has been described. However, the present invention is not limited to this, and multiple viewpoints can be applied by applying three or more cameras. You may make it image-capture image information.

本発明のシステム構成の概略を示すシステム構成図である。1 is a system configuration diagram showing an outline of a system configuration of the present invention. 演算処理装置の機能ブロックを示す機能ブロック図である。It is a functional block diagram which shows the functional block of an arithmetic processing unit. 測定対象となる対象物の斜視図である。It is a perspective view of the target object used as a measuring object. ステレオビジョンで撮像した多視点画像を示す説明図である。It is explanatory drawing which shows the multi-viewpoint image imaged with the stereo vision. 特徴点及びエッジの選択状況を示す説明図である。It is explanatory drawing which shows the selection condition of a feature point and an edge. 法線ベクトルを示す説明図である。It is explanatory drawing which shows a normal vector. 法線ベクトルを2次元表現した場合の説明図である。It is explanatory drawing at the time of expressing a normal vector two-dimensionally. 法線ベクトルの度数分布を示す説明図である。It is explanatory drawing which shows the frequency distribution of a normal vector. 平面の方程式と度数表示を表す説明図である。It is explanatory drawing showing the equation and frequency display of a plane. 法線方向画像への座標変換の前後を表す説明図である。It is explanatory drawing showing before and after the coordinate conversion to a normal line direction image. 正確な法線方向画像を示す説明図である。It is explanatory drawing which shows an exact normal line direction image. 不適切な法線方向画像を示す説明図である。It is explanatory drawing which shows an inappropriate normal line direction image. モデル画像データベースに記憶されているモデル画像を示す説明図である。It is explanatory drawing which shows the model image memorize | stored in the model image database. 法線方向画像のサイズあわせ処理を示す説明図である。It is explanatory drawing which shows the size adjustment process of a normal direction image. 法線方向画像Sとモデル対応画像Mとの関係を示す説明図である。It is explanatory drawing which shows the relationship between the normal line direction image S and the model corresponding | compatible image M. FIG. 正面視画像Sと正面視モデル画像Mとの補正を説明するための説明図である。It is explanatory drawing for demonstrating correction | amendment with the front view image S and the front view model image M. FIG.

符号の説明Explanation of symbols

1…ステレオビジョン、2…演算処理装置、3…モデル画像データベース、4…表示装置、10…直方体、11…突起、12…対象物、21…3次元計測部、22…情報記憶部、23…点・エッジ選択部、24…平面抽出部、24a…法線ベクトル演算部、24b…平面検出部、24c…平面選択部、25…法線方向画像変換部、25a…法線方向画像変換行列演算部、26…モデル対応画像生成部、26a…モデル画像マッチング部、26b…剛体変換行列演算部、27a…対応点検索部、27b…T2行列演算部、28…変換行列演算部   DESCRIPTION OF SYMBOLS 1 ... Stereovision, 2 ... Arithmetic processing apparatus, 3 ... Model image database, 4 ... Display apparatus, 10 ... Rectangular parallelepiped, 11 ... Protrusion, 12 ... Object, 21 ... Three-dimensional measurement part, 22 ... Information storage part, 23 ... Point / edge selection unit, 24 ... plane extraction unit, 24a ... normal vector calculation unit, 24b ... plane detection unit, 24c ... plane selection unit, 25 ... normal direction image conversion unit, 25a ... normal direction image conversion matrix calculation , 26 ... model-corresponding image generation unit, 26a ... model image matching unit, 26b ... rigid transformation matrix calculation unit, 27a ... corresponding point search unit, 27b ... T2 matrix calculation unit, 28 ... transformation matrix calculation unit

Claims (4)

測定対象となる既知の対象物を構成する各面の法線方向から撮像された画像をモデル画像として予め記憶するモデル画像記憶部と、
前記対象物を多視点画像として撮像し、3次元画像情報を出力する撮像装置と、
該撮像装置から出力される3次元画像情報を記憶する画像情報記憶部と、
該画像情報記憶部に記憶された3次元画像情報から平面を抽出する平面抽出部と、
前記3次元画像情報の対象物の位置および姿勢を前記平面抽出部で抽出した平面の法線方向からの画像である法線方向画像における対象物の位置および姿勢に変換するパラメータを表す第1のパラメータを求め、前記3次元画像情報の画像を法線方向画像に変換する法線方向画像変換部と、
該法線方向画像変換部で変換した法線方向画像と前記モデル画像記憶部に記憶されている各モデル画像とを比較して対応するモデル画像を決定するモデル画像決定部と、
前記モデル画像決定部で決定したモデル画像の前記法線方向画像での対応位置における対象物の位置および姿勢を表す第2のパラメータを求め、前記モデル画像をその対応位置における画像であるモデル対応画像に変換するモデル対応画像変換部と、
前記演算した第1及び第2のパラメータに基づいて測定された対象物の位置及び姿勢を認識する位置及び姿勢認識部と
を備えたことを特徴とする多面体位置検出装置。
A model image storage unit that stores in advance, as a model image, an image captured from the normal direction of each surface constituting a known object to be measured;
An imaging device that images the object as a multi-viewpoint image and outputs three-dimensional image information;
An image information storage unit for storing three-dimensional image information output from the imaging device;
A plane extraction unit that extracts a plane from the three-dimensional image information stored in the image information storage unit;
A first parameter representing the position and orientation of the object in the three-dimensional image information, which is converted into the position and orientation of the object in a normal direction image that is an image from the normal direction of the plane extracted by the plane extraction unit. A normal direction image conversion unit for obtaining a parameter and converting the image of the three-dimensional image information into a normal direction image;
A model image determining unit that compares the normal direction image converted by the normal direction image converting unit with each model image stored in the model image storage unit and determines a corresponding model image;
A second parameter representing the position and orientation of the object at the corresponding position in the normal direction image of the model image determined by the model image determining unit is obtained, and the model image corresponding to the model image is an image at the corresponding position A model-compatible image converter that converts to
A polyhedron position detection device comprising: a position and posture recognition unit for recognizing a position and posture of an object measured based on the calculated first and second parameters.
測定対象となる既知の対象物を構成する各面の法線方向から撮像された画像をモデル画像として予め記憶するモデル画像記憶部と、
前記対象物を多視点画像として撮像し、3次元画像情報を出力する撮像装置と、
該撮像装置から出力される3次元画像情報を記憶する画像情報記憶部と、
該画像情報記憶部に記憶された3次元画像情報から平面を抽出する平面抽出部と、
前記3次元画像情報の対象物の位置および姿勢を前記平面抽出部で抽出した平面の法線方向からの画像である法線方向画像における対象物の位置および姿勢に変換するパラメータを表す第1のパラメータを求め、前記3次元画像情報の画像を法線方向画像に変換する法線方向画像変換部と、
該法線方向画像変換部で変換した法線方向画像と前記モデル画像記憶部に記憶されている各モデル画像とを比較して対応するモデル画像を決定するモデル画像決定部と、
前記モデル画像決定部で決定したモデル画像の前記法線方向画像での対応位置における対象物の位置および姿勢を表す第2のパラメータを求め、前記モデル画像をその対応位置における画像であるモデル対応画像に変換するモデル対応画像変換部と、
前記モデル画像に基づく画像と前記3次元画像情報に基づく画像とを用い、繰り返し処理により両者間の誤差の補正量を表す第3のパラメータを求める誤差演算部と、
前記演算した第1、第2及び第3のパラメータに基づいて測定された対象物の位置及び姿勢を認識する位置及び姿勢認識部と
を備えたことを特徴とする多面体位置検出装置。
A model image storage unit that stores in advance, as a model image, an image captured from the normal direction of each surface constituting a known object to be measured;
An imaging device that images the object as a multi-viewpoint image and outputs three-dimensional image information;
An image information storage unit for storing three-dimensional image information output from the imaging device;
A plane extraction unit that extracts a plane from the three-dimensional image information stored in the image information storage unit;
A first parameter representing the position and orientation of the object in the three-dimensional image information converted into the position and orientation of the object in the normal direction image that is an image from the normal direction of the plane extracted by the plane extraction unit. A normal direction image converting unit for obtaining a parameter and converting the image of the three-dimensional image information into a normal direction image;
A model image determining unit that compares the normal direction image converted by the normal direction image converting unit with each model image stored in the model image storage unit and determines a corresponding model image;
A second parameter representing the position and orientation of the object at the corresponding position in the normal direction image of the model image determined by the model image determining unit is obtained, and the model image corresponding to the model image is an image at the corresponding position A model-compatible image converter that converts to
Using an image based on the model image and an image based on the three-dimensional image information, an error calculation unit for obtaining a third parameter representing a correction amount of an error between the two by iterative processing;
A polyhedron position detection device comprising: a position and posture recognition unit for recognizing the position and posture of an object measured based on the calculated first, second, and third parameters.
測定対象となる既知の対象物を多視点画像として撮像し、3次元画像情報を出力する撮像装置を用いて、前記対象物を構成する各面の法線方向から撮像された画像をモデル画像としてモデル画像記憶部に予め記憶するモデル画像記憶ステップと、
前記撮像装置から出力される3次元画像情報を記憶する画像情報記憶ステップと、
記憶された前記3次元画像情報から平面を抽出する平面抽出ステップと、
前記3次元画像情報の対象物の位置および姿勢を前記平面抽出部で抽出した平面の法線方向からの画像である法線方向画像における対象物の位置および姿勢に変換するパラメータを表す第1のパラメータを求め、前記3次元画像情報の画像を法線方向画像に変換する法線方向画像変換ステップと、
変換した法線方向画像とモデル画像記憶ステップで記憶されているモデル画像とを比較して対応するモデル画像を決定するモデル画像決定ステップと、
前記モデル画像決定ステップで決定したモデル画像の前記法線方向画像での対応位置における対象物の位置および姿勢を表す第2のパラメータを求め、前記モデル画像をその対応位置における画像であるモデル対応画像に変換するモデル対応画像変換ステップと、
前記演算した第1及び第2のパラメータに基づいて測定された対象物の位置及び姿勢を認識する位置及び姿勢認識ステップと
を備えたことを特徴とする多面体位置検出方法。
An image captured from a normal direction of each surface constituting the object is used as a model image by using an imaging device that captures a known object to be measured as a multi-viewpoint image and outputs three-dimensional image information. A model image storage step for storing in advance in the model image storage unit;
An image information storage step for storing three-dimensional image information output from the imaging device;
A plane extraction step of extracting a plane from the stored three-dimensional image information;
A first parameter representing the position and orientation of the object in the three-dimensional image information, which is converted into the position and orientation of the object in a normal direction image that is an image from the normal direction of the plane extracted by the plane extraction unit. A normal direction image conversion step of obtaining a parameter and converting the image of the three-dimensional image information into a normal direction image;
A model image determination step for determining a corresponding model image by comparing the converted normal direction image and the model image stored in the model image storage step;
A second parameter representing the position and orientation of the object at the corresponding position in the normal direction image of the model image determined in the model image determining step is obtained, and the model corresponding image is an image at the corresponding position. A model-compatible image conversion step for converting to
A polyhedron position detection method comprising: a position and posture recognition step for recognizing the position and posture of an object measured based on the calculated first and second parameters.
測定対象となる既知の対象物を多視点画像として撮像し、3次元画像情報を出力する撮像装置を用いて、前記対象物を構成する各面の法線方向から撮像された画像をモデル画像としてモデル画像記憶部に予め記憶するモデル画像記憶ステップと、
前記撮像装置から出力される3次元画像情報を記憶する画像情報記憶ステップと、
記憶された前記3次元画像情報から平面を抽出する平面抽出ステップと、
前記3次元画像情報の対象物の位置および姿勢を前記平面抽出部で抽出した平面の法線方向からの画像である法線方向画像における対象物の位置および姿勢に変換するパラメータを表す第1のパラメータを求め、前記3次元画像情報の画像を法線方向画像に変換する法線方向画像変換ステップと、
変換した法線方向画像とモデル画像記憶ステップで記憶されている各モデル画像とを比較して対応するモデル画像を決定するモデル画像決定ステップと、
前記モデル画像決定ステップで決定したモデル画像の前記法線方向画像での対応位置における対象物の位置および姿勢を表す第2のパラメータを求め、前記モデル画像をその対応位置における画像であるモデル対応画像に変換するモデル対応画像変換ステップと、
前記モデル画像に基づく画像と前記3次元画像情報に基づく画像とを用い、繰り返し処理により両者間の誤差の補正量を表す第3のパラメータを求める誤差演算ステップと、
前記演算した第1、第2及び第3のパラメータに基づいて測定された対象物の位置及び姿勢を認識する位置及び姿勢認識ステップと
を備えたことを特徴とする多面体位置検出方法。
An image captured from a normal direction of each surface constituting the object is used as a model image by using an imaging device that captures a known object to be measured as a multi-viewpoint image and outputs three-dimensional image information. A model image storage step for storing in advance in the model image storage unit;
An image information storage step for storing three-dimensional image information output from the imaging device;
A plane extraction step of extracting a plane from the stored three-dimensional image information;
A first parameter representing the position and orientation of the object in the three-dimensional image information, which is converted into the position and orientation of the object in a normal direction image that is an image from the normal direction of the plane extracted by the plane extraction unit. A normal direction image conversion step of obtaining a parameter and converting the image of the three-dimensional image information into a normal direction image;
A model image determining step for comparing the converted normal direction image and each model image stored in the model image storing step to determine a corresponding model image;
A second parameter representing the position and orientation of the object at the corresponding position in the normal direction image of the model image determined in the model image determining step is obtained, and the model corresponding image is an image at the corresponding position. A model-compatible image conversion step for converting to
Using an image based on the model image and an image based on the three-dimensional image information, an error calculation step for obtaining a third parameter representing a correction amount of an error between the two by iterative processing;
A polyhedron position detection method comprising: a position and posture recognition step for recognizing the position and posture of an object measured based on the calculated first, second, and third parameters.
JP2008304301A 2008-11-28 2008-11-28 Device of detecting position of polyhedral body and method for detection Pending JP2010127819A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008304301A JP2010127819A (en) 2008-11-28 2008-11-28 Device of detecting position of polyhedral body and method for detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008304301A JP2010127819A (en) 2008-11-28 2008-11-28 Device of detecting position of polyhedral body and method for detection

Publications (1)

Publication Number Publication Date
JP2010127819A true JP2010127819A (en) 2010-06-10

Family

ID=42328319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008304301A Pending JP2010127819A (en) 2008-11-28 2008-11-28 Device of detecting position of polyhedral body and method for detection

Country Status (1)

Country Link
JP (1) JP2010127819A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012011608A1 (en) * 2010-07-23 2012-01-26 Canon Kabushiki Kaisha Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
JP2012103134A (en) * 2010-11-10 2012-05-31 Topcon Corp Structure model creation apparatus and method thereof
WO2012141235A1 (en) * 2011-04-13 2012-10-18 株式会社トプコン Three-dimensional point group position data processing device, three-dimensional point group position data processing system, three-dimensional point group position data processing method and program
JP2013003970A (en) * 2011-06-20 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> Object coordinate system conversion device, object coordinate system conversion method and object coordinate system conversion program
JP2014134856A (en) * 2013-01-08 2014-07-24 Nec Corp Subject identification device, subject identification method, and subject identification program
JP2014157509A (en) * 2013-02-15 2014-08-28 Canon Inc Information processing device and information processing method
JP2015134410A (en) * 2013-12-20 2015-07-27 ローランドディー.ジー.株式会社 Printer and printing method
JP2016170050A (en) * 2015-03-12 2016-09-23 キヤノン株式会社 Position attitude measurement device, position attitude measurement method and computer program
JP2017039189A (en) * 2015-08-20 2017-02-23 株式会社東芝 Layout detector and picking apparatus
JP2017151652A (en) * 2016-02-23 2017-08-31 村田機械株式会社 Object state specification method, object state specification apparatus, and conveyance vehicle
JP2018077837A (en) * 2016-10-28 2018-05-17 Jfeスチール株式会社 Position recognition method and system, and abnormality determination method and system
CN112729883A (en) * 2020-12-17 2021-04-30 中国标准化研究院 Dummy for testing sitting posture pressure comfort

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935061A (en) * 1995-07-19 1997-02-07 Agency Of Ind Science & Technol Image processing method
JP2003042732A (en) * 2001-08-02 2003-02-13 Topcon Corp Apparatus, method and program for measurement of surface shape as well as surface-state mapping apparatus
JP2004295223A (en) * 2003-03-25 2004-10-21 Fanuc Ltd Image processing apparatus and robot system
JP2007245283A (en) * 2006-03-15 2007-09-27 Nissan Motor Co Ltd Workpiece attitude detecting device, workpiece attitude detecting method, picking system, and picking method
JP2008135064A (en) * 2008-02-12 2008-06-12 Fujitsu Ltd Image conversion method and device, image irecognition device, robot controller, and image projection device
JP2008217544A (en) * 2007-03-06 2008-09-18 Yaskawa Electric Corp Object detection method, object detector, and robot provided with the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935061A (en) * 1995-07-19 1997-02-07 Agency Of Ind Science & Technol Image processing method
JP2003042732A (en) * 2001-08-02 2003-02-13 Topcon Corp Apparatus, method and program for measurement of surface shape as well as surface-state mapping apparatus
JP2004295223A (en) * 2003-03-25 2004-10-21 Fanuc Ltd Image processing apparatus and robot system
JP2007245283A (en) * 2006-03-15 2007-09-27 Nissan Motor Co Ltd Workpiece attitude detecting device, workpiece attitude detecting method, picking system, and picking method
JP2008217544A (en) * 2007-03-06 2008-09-18 Yaskawa Electric Corp Object detection method, object detector, and robot provided with the same
JP2008135064A (en) * 2008-02-12 2008-06-12 Fujitsu Ltd Image conversion method and device, image irecognition device, robot controller, and image projection device

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012011608A1 (en) * 2010-07-23 2012-01-26 Canon Kabushiki Kaisha Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
JP2012026895A (en) * 2010-07-23 2012-02-09 Canon Inc Position attitude measurement device, position attitude measurement method, and program
JP2012103134A (en) * 2010-11-10 2012-05-31 Topcon Corp Structure model creation apparatus and method thereof
JP6030549B2 (en) * 2011-04-13 2016-11-24 株式会社トプコン 3D point cloud position data processing apparatus, 3D point cloud position data processing system, 3D point cloud position data processing method and program
WO2012141235A1 (en) * 2011-04-13 2012-10-18 株式会社トプコン Three-dimensional point group position data processing device, three-dimensional point group position data processing system, three-dimensional point group position data processing method and program
JPWO2012141235A1 (en) * 2011-04-13 2014-07-28 株式会社トプコン 3D point cloud position data processing apparatus, 3D point cloud position data processing system, 3D point cloud position data processing method and program
US9053547B2 (en) 2011-04-13 2015-06-09 Kabushiki Kaisha Topcon Three-dimensional point cloud position data processing device, three-dimensional point cloud position data processing system, and three-dimensional point cloud position data processing method and program
JP2016186488A (en) * 2011-04-13 2016-10-27 株式会社トプコン Three-dimensional data processing apparatus, three-dimensional data processing system, three-dimensional data processing method, and program
JP2013003970A (en) * 2011-06-20 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> Object coordinate system conversion device, object coordinate system conversion method and object coordinate system conversion program
JP2014134856A (en) * 2013-01-08 2014-07-24 Nec Corp Subject identification device, subject identification method, and subject identification program
JP2014157509A (en) * 2013-02-15 2014-08-28 Canon Inc Information processing device and information processing method
JP2015134410A (en) * 2013-12-20 2015-07-27 ローランドディー.ジー.株式会社 Printer and printing method
JP2016170050A (en) * 2015-03-12 2016-09-23 キヤノン株式会社 Position attitude measurement device, position attitude measurement method and computer program
JP2017039189A (en) * 2015-08-20 2017-02-23 株式会社東芝 Layout detector and picking apparatus
JP2017151652A (en) * 2016-02-23 2017-08-31 村田機械株式会社 Object state specification method, object state specification apparatus, and conveyance vehicle
JP2018077837A (en) * 2016-10-28 2018-05-17 Jfeスチール株式会社 Position recognition method and system, and abnormality determination method and system
CN112729883A (en) * 2020-12-17 2021-04-30 中国标准化研究院 Dummy for testing sitting posture pressure comfort
WO2022126911A1 (en) * 2020-12-17 2022-06-23 中国标准化研究院 Dummy for sitting posture pressure comfort test

Similar Documents

Publication Publication Date Title
JP2010127819A (en) Device of detecting position of polyhedral body and method for detection
US8447099B2 (en) Forming 3D models using two images
US8452081B2 (en) Forming 3D models using multiple images
JP6426968B2 (en) INFORMATION PROCESSING APPARATUS AND METHOD THEREOF
US6721444B1 (en) 3-dimensional object recognition method and bin-picking system using the method
JP5839929B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP5713159B2 (en) Three-dimensional position / orientation measurement apparatus, method and program using stereo images
JP6444027B2 (en) Information processing apparatus, information processing apparatus control method, information processing system, and program
KR101857472B1 (en) A method of calibrating a camera and a system therefor
Orghidan et al. Camera calibration using two or three vanishing points
Zhou et al. Extrinsic calibration of a camera and a lidar based on decoupling the rotation from the translation
WO2014061372A1 (en) Image-processing device, image-processing method, and image-processing program
US20120294534A1 (en) Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus
JP6677522B2 (en) Information processing apparatus, control method for information processing apparatus, and program
JP6836561B2 (en) Image processing device and image processing method
JP2013178656A (en) Image processing device, image processing method, and image processing program
CN112815843B (en) On-line monitoring method for printing deviation of workpiece surface in 3D printing process
JP6172432B2 (en) Subject identification device, subject identification method, and subject identification program
JP2016217941A (en) Three-dimensional evaluation device, three-dimensional data measurement system and three-dimensional measurement method
JPH07103715A (en) Method and apparatus for recognizing three-dimensional position and attitude based on visual sense
JP3476710B2 (en) Euclidean 3D information restoration method and 3D information restoration apparatus
CN112949769B (en) Target detection method and target detection system
KR20160049639A (en) Stereoscopic image registration method based on a partial linear method
CN113034673B (en) 3D point cloud modeling system and computer readable storage medium
JP7298687B2 (en) Object recognition device and object recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121228

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130528