JP2014178967A - Three-dimensional object recognition device and three-dimensional object recognition method - Google Patents
Three-dimensional object recognition device and three-dimensional object recognition method Download PDFInfo
- Publication number
- JP2014178967A JP2014178967A JP2013053561A JP2013053561A JP2014178967A JP 2014178967 A JP2014178967 A JP 2014178967A JP 2013053561 A JP2013053561 A JP 2013053561A JP 2013053561 A JP2013053561 A JP 2013053561A JP 2014178967 A JP2014178967 A JP 2014178967A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- image
- orientation
- resolution
- evaluation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、形状が既知の認識対象となる3次元物体を認識するための3次元物体認識装置及び3次元物体認識方法に関する。 The present invention relates to a three-dimensional object recognition device and a three-dimensional object recognition method for recognizing a three-dimensional object to be recognized whose shape is known.
生産ラインにおいてロボットアームによる部品等の正確な操作を可能とするため、山積みにされた部品等を個々に認識し、各部品の位置及び姿勢を認識する3次元物体認識装置が近年開発されている。 In order to enable accurate operation of parts and the like by a robot arm in a production line, a three-dimensional object recognition device has been developed in recent years that recognizes a pile of parts individually and recognizes the position and orientation of each part. .
従来、このような3次元物体認識装置としては、例えば、認識対象物を所定方向からカメラで撮影した画像から認識対象物のエッジすなわち輪郭等の特徴を抽出し、撮影画像を構成する各画素について最も近いエッジまでの距離をそれぞれ計算し、認識対象物の輪郭形状を表わす3次元モデルを撮影画像上に射影して照合することにより認識対象物の位置姿勢を認識するものがある。また、撮影画像を構成する各画素に、最も近いエッジまでの距離を画素値としてそれぞれ記憶させたディスタンスマップを作成し、このディスタンスマップを参照することにより、処理速度を向上させた3次元物体認識装置が提案されている(例えば、特許文献1参照)。また、3次元物体認識装置としては、認識対象物の表面の点の3次元座標を示す3次元点群を用いて認識対象物の位置姿勢を認識するものもある。 Conventionally, as such a three-dimensional object recognition device, for example, for each pixel constituting a captured image, a feature such as an edge of a recognition target, that is, a contour, is extracted from an image obtained by capturing the recognition target with a camera from a predetermined direction. There is a technique for recognizing the position and orientation of a recognition object by calculating the distance to the nearest edge and projecting and collating a three-dimensional model representing the contour shape of the recognition object onto a captured image. In addition, a distance map in which the distance to the nearest edge is stored as a pixel value in each pixel constituting the captured image is created, and the processing speed is improved by referring to the distance map, thereby recognizing a three-dimensional object. An apparatus has been proposed (see, for example, Patent Document 1). Some 3D object recognition apparatuses recognize the position and orientation of a recognition object using a 3D point group indicating the 3D coordinates of points on the surface of the recognition object.
しかしながら、特許文献1の3次元物体認識装置等のように輪郭を用いて認識対象物の位置姿勢を認識する手法では、2次元画像を用いて認識を行っているため、似通った画像が存在すれば、本来は認識対象物が存在しない場所に誤って認識されてしまう虞があるとともに、画像から輪郭が抽出されない場合には、認識対象物の位置姿勢を認識できないという問題がある。また、このような問題が生じた場合には処理時間も遅くなる。また、3次元点群を用いて認識対象物の位置姿勢を認識する手法では、輪郭部分の位置決めに曖昧性が残るという問題がある。
However, in the method of recognizing the position and orientation of the recognition object using the contour, such as the three-dimensional object recognition device of
本発明は、上記のような課題に鑑みてなされたものであって、認識対象物の位置姿勢の誤認識を抑制して、認識精度を向上させ、且つ処理速度を向上させることができる3次元物体認識装置及び3次物体認識方法を提供することを目的とする。 The present invention has been made in view of the above-described problems, and can suppress misrecognition of the position and orientation of a recognition target object, improve recognition accuracy, and improve processing speed. An object of the present invention is to provide an object recognition device and a tertiary object recognition method.
上記目的を達成するために、請求項1に記載の3次元物体認識装置は、認識対象物の輪郭及び表面形状を表わす3次元モデルを記憶する3次元モデル記憶手段と、前記認識対象物を所定方向から撮影して画像を取得する画像取得手段と、前記認識対象物の表面の点の3次元座標を示す3次元点群を計測する3次元計測手段と、前記画像取得手段により取得した画像又は前記3次元計測手段により得られた3次元計測結果から前記認識対象物のエッジを抽出するエッジ抽出手段と、前記エッジ抽出手段により抽出されたエッジとあらゆる位置姿勢における前記3次元モデルの輪郭形状を示す3次元輪郭点に基づいて求められる輪郭評価値、及び、前記3次元計測手段により得られた3次元計測結果とあらゆる位置姿勢における前記3次元モデルの表面形状を示す3次元面点に基づいて求められる点群評価値を用いて前記認識対象物の位置姿勢を評価する位置姿勢評価手段と、を備えることを特徴としている。
In order to achieve the above object, a three-dimensional object recognition apparatus according to
請求項2記載の3次元物体認識装置は、前記位置姿勢評価手段が、前記輪郭評価値と前記点群評価値の比率を調整することを特徴としている。
The three-dimensional object recognition apparatus according to
請求項3記載の3次元物体認識装置は、前記画像取得手段により取得した画像を構成する各画素に、前記エッジ抽出手段により抽出されたエッジのうち最も近いエッジまでの距離と、前記最も近いエッジの向きとを画像値として記憶させたディスタンスマップを記憶するディスタンスマップ記憶手段と、前記3次元計測手段により計測された3次元点群の前記画像取得手段により取得された画像上の各画像座標に、前記所定方向と異なる方向から前記認識対象物を撮像した場合に得られる画像の前記各画像座標に対応する画像座標である対応座標をそれぞれ記憶させた対応座標マップを記憶する対応座標マップ記憶手段と、を備え、前記位置姿勢評価手段は、前記ディスタンスマップ上に、あらゆる位置姿勢における前記3次元モデルの前記3次元輪郭点を射影して照合することにより得られる前記輪郭評価値、及び、前記対応座標マップ上に、あらゆる位置姿勢における前記3次元モデルの前記3次元面点を射影して照合することにより得られる前記点群評価値を用いて前記認識対象物の位置姿勢を評価することを特徴としている。
The three-dimensional object recognition device according to
請求項4記載の3次元物体認識装置は、前記画像取得手段により取得した画像の解像度を異なる比率で低下させた複数枚の画像を有する画像ピラミッドを作成する画像ピラミッド作成手段と、前記位置姿勢評価手段により得られた最も高い評価値を初期値として用いて、前記認識対象物の位置姿勢の最適化を行う位置姿勢最適化手段と、を備え、前記エッジ抽出手段は、前記画像ピラミッド作成手段により作成された画像ピラミッドにおける各解像度の画像から前記認識対象物のエッジを抽出し、前記ディスタンスマップ記憶手段は、前記画像ピラミッド作成手段により作成された画像ピラミッドにおける各解像度の画像の各画素に、前記エッジ抽出手段により前記各解像度の画像から抽出されたエッジのうち最も近いエッジまでの距離と、前記最も近いエッジの向きとを画像値として記憶させた各解像度のディスタンスマップを記憶し、前記対応座標マップ記憶手段は、前記3次元計測手段により計測された3次元点群の前記画像ピラミッド作成手段により作成された画像ピラミッドにおける各解像度の画像上の各画像座標に、前記所定方向と異なる方向から前記認識対象物を撮像した場合に得られる各解像度の画像の前記各画像座標に対応する画像座標である対応座標をそれぞれ記憶させた各解像度の対応座標マップを記憶し、前記位置姿勢評価手段は、解像度が最も低い前記ディスタンスマップ上に、あらゆる位置姿勢における前記3次元モデルの前記3次元輪郭点を射影して照合することにより得られる前記輪郭評価値、及び、解像度が最も低い前記対応座標マップ上に、あらゆる位置姿勢における前記3次元モデルの前記3次元面点を射影して照合することにより得られる前記点群評価値を用いて前記認識対象物の位置姿勢を評価し、前記位置姿勢最適化手段は、前記位置姿勢評価手段により得られた最も高い評価値を初期値とし、該初期値を前記位置姿勢評価手段で用いられた前記ディスタンスマップ及び前記対応座標マップよりも高い解像度のディスタンスマップ及び対応座標マップを用いて、予め設定された精度に到達又は最も高い解像度のディスタンスマップ及び対応座標マップを用いた位置姿勢の評価が終了するまで最適化を行うことを特徴としている。
The three-dimensional object recognition apparatus according to
請求項5記載の3次元物体認識装置は、前記位置姿勢評価手段又は前記位置姿勢最適化手段により得られた前記認識対象物の位置姿勢の評価結果を表示する表示手段を備えることを特徴としている。
The three-dimensional object recognition apparatus according to
請求項6記載の3次元物体認識方法は、認識対象物の輪郭及び表面形状を表わす3次元モデルを3次元モデル記憶手段に記憶する3次元モデル記憶ステップと、前記認識対象物を所定方向から撮影して画像を取得する画像取得ステップと、前記認識対象物の表面の点の3次元座標を示す3次元点群を計測する3次元計測ステップと、前記画像取得ステップで取得した画像又は前記3次元計測ステップで得られた3次元計測結果から前記認識対象物のエッジを抽出するエッジ抽出ステップと、前記エッジ抽出ステップで抽出されたエッジとあらゆる位置姿勢における前記3次元モデルの輪郭形状を示す3次元輪郭点に基づいて求められる輪郭評価値、及び、前記3次元計測ステップで得られた3次元計測結果とあらゆる位置姿勢における前記3次元モデルの表面形状を示す3次元面点に基づいて求められる点群評価値を用いて前記認識対象物の位置姿勢を評価する位置姿勢評価ステップと、を備えることを特徴としている。 The three-dimensional object recognition method according to claim 6, wherein a three-dimensional model storage step of storing a three-dimensional model representing the contour and surface shape of the recognition object in a three-dimensional model storage means, and photographing the recognition object from a predetermined direction. An image acquisition step for acquiring an image, a three-dimensional measurement step for measuring a three-dimensional point group indicating a three-dimensional coordinate of a surface point of the recognition object, and the image acquired in the image acquisition step or the three-dimensional An edge extraction step for extracting an edge of the recognition object from the three-dimensional measurement result obtained in the measurement step, and a three-dimensional shape indicating the edge extracted in the edge extraction step and the contour shape of the three-dimensional model at any position and orientation The contour evaluation value obtained based on the contour point, the 3D measurement result obtained in the 3D measurement step, and the 3 in all positions and orientations It is characterized in that it comprises a position and orientation evaluation step of evaluating the position and orientation of the recognition object with the point group evaluation value calculated on the basis of the three-dimensional surface points of a surface shape of the original model.
請求項7記載の3次元物体認識方法は、前記位置姿勢評価ステップが、前記輪郭評価値と前記点群評価値の比率を調整することを特徴としている。
The three-dimensional object recognition method according to
請求項8記載の3次元物体認識方法は、前記画像取得ステップで取得した画像を構成する各画素に、前記エッジ抽出ステップで抽出されたエッジのうち最も近いエッジまでの距離と、前記最も近いエッジの向きとを画像値として記憶させたディスタンスマップをディスタンスマップ記憶手段に記憶するディスタンスマップ記憶ステップと、前記3次元計測ステップで計測された3次元点群の前記画像取得ステップにより取得された画像上の各画像座標に、前記所定方向と異なる方向から前記認識対象物を撮像した場合に得られる画像の前記各画像座標に対応する画像座標である対応座標をそれぞれ記憶させた対応座標マップを対応座標マップ記憶手段に記憶する対応座標マップ記憶ステップと、を備え、前記位置姿勢評価ステップは、前記ディスタンスマップ上に、あらゆる位置姿勢における前記3次元モデルの前記3次元輪郭点を射影して照合することにより得られる前記輪郭評価値、及び、前記対応座標マップ上に、あらゆる位置姿勢における前記3次元モデルの前記3次元面点を射影して照合することにより得られる前記点群評価値を用いて前記認識対象物の位置姿勢を評価することを特徴としている。
The three-dimensional object recognition method according to
請求項9記載の3次元物体認識方法は、前記画像取得ステップで取得した画像の解像度を異なる比率で低下させた複数枚の画像を有する画像ピラミッドを作成する画像ピラミッド作成ステップと、前記位置姿勢評価ステップで得られた最も高い評価値を初期値として用いて、前記認識対象物の位置姿勢の最適化を行う位置姿勢最適化ステップと、を備え、前記抽出ステップは、前記画像ピラミッド作成ステップで作成された画像ピラミッドにおける各解像度の画像から前記認識対象物のエッジを抽出し、前記ディスタンスマップ記憶ステップは、前記画像ピラミッド作成ステップで作成された画像ピラミッドにおける各解像度の画像の各画素に、前記エッジ抽出ステップで前記各解像度の画像から抽出されたエッジのうち最も近いエッジまでの距離と、前記最も近いエッジの向きとを画像値として記憶させた各解像度のディスタンスマップを前記ディスタンスマップ記憶手段に記憶し、前記対応座標マップ記憶ステップは、前記3次元計測ステップで計測された3次元点群の前記画像ピラミッド作成ステップで作成された画像ピラミッドにおける各解像度の画像上の各画像座標に、前記所定方向と異なる方向から前記認識対象物を撮像した場合に得られる各解像度の画像の前記各画像座標に対応する画像座標である対応座標をそれぞれ記憶させた各解像度の対応座標マップを前記対応座標マップ記憶手段に記憶し、前記位置姿勢評価ステップは、解像度が最も低い前記ディスタンスマップ上に、あらゆる位置姿勢における前記3次元モデルの前記3次元輪郭点を射影して照合することにより得られる前記輪郭評価値、及び、解像度が最も低い前記対応座標マップ上に、あらゆる位置姿勢における前記3次元モデルの前記3次元面点を射影して照合することにより得られる前記点群評価値を用いて前記認識対象物の位置姿勢を評価し、前記位置姿勢最適化ステップは、前記位置姿勢評価ステップで得られた最も高い評価値を初期値とし、該初期値を前記位置姿勢評価ステップで用いられた前記ディスタンスマップ及び前記対応座標マップよりも高い解像度のディスタンスマップ及び対応座標マップを用いて、予め設定された精度に到達又は最も高い解像度のディスタンスマップ及び対応座標マップを用いた位置姿勢の評価が終了するまで最適化を行うことを特徴としている。
The three-dimensional object recognition method according to
請求項10記載の3次元物体認識方法は、前記位置姿勢評価ステップ又は前記位置姿勢最適化ステップにより得られた前記認識対象物の位置姿勢の評価結果を表示する表示ステップを備えることを特徴としている。
The three-dimensional object recognition method according to
請求項1及び6に記載の発明によれば、画像上のエッジを用いた輪郭評価値と、3次元点群を用いた点群評価値との双方を融合した評価値を用いて、認識対象物の位置姿勢の評価を行うので、認識対象物の位置姿勢の誤認識を抑制し、認識精度及び処理速度を向上させることができる。 According to the first and sixth aspects of the present invention, a recognition target is obtained by using an evaluation value obtained by fusing both an outline evaluation value using an edge on an image and a point cloud evaluation value using a three-dimensional point cloud. Since the position and orientation of the object is evaluated, it is possible to suppress erroneous recognition of the position and orientation of the recognition target object, and to improve the recognition accuracy and the processing speed.
請求項2及び7に記載の発明によれば、輪郭評価値と点群評価値の比率を調整することができるので、画像からエッジが抽出できないような場合でも輪郭評価値の比率を下げて点群評価値の比率を上げることにより認識対象物の位置姿勢を認識することができる。 According to the second and seventh aspects of the invention, since the ratio between the contour evaluation value and the point group evaluation value can be adjusted, the ratio of the contour evaluation value is lowered even when the edge cannot be extracted from the image. The position and orientation of the recognition object can be recognized by increasing the ratio of the group evaluation values.
請求項3及び8に記載の発明によれば、画像取得手段により取得した画像を構成する各画素に、エッジ抽出手段により抽出されたエッジのうち最も近いエッジまでの距離と、前記最も近いエッジの向きとを画像値として記憶させたディスタンスマップ上に、あらゆる位置姿勢における前記3次元モデルの前記3次元輪郭点を射影して照合することにより得られる輪郭評価値と、3次元計測手段により計測された3次元点群の画像取得手段により取得された画像上の各画像座標に、異なる方向から認識対象物を撮像した場合に得られる画像の前記各画像座標に対応する画像座標である対応座標をそれぞれ記憶させた対応座標マップ上に、あらゆる位置姿勢における3次元モデルの3次元面点を射影して照合することにより得られる点群評価値との双方を融合した評価値を用いて、認識対象物の位置姿勢の評価を行うので、認識対象物の位置姿勢の誤認識を抑制し、認識精度及び処理速度をより向上させることができる。 According to the third and eighth aspects of the present invention, the distance from the edge extracted by the edge extraction unit to the nearest edge of each pixel constituting the image acquired by the image acquisition unit and the closest edge A contour evaluation value obtained by projecting and collating the three-dimensional contour point of the three-dimensional model at any position and orientation on a distance map in which the orientation is stored as an image value is measured by a three-dimensional measuring unit. In addition, corresponding coordinates that are image coordinates corresponding to the image coordinates of the image obtained when the recognition target object is imaged from different directions are displayed on the image coordinates on the image acquired by the image acquisition unit of the three-dimensional point group. Point cloud evaluation values obtained by projecting and collating 3D surface points of the 3D model at any position and orientation on the corresponding coordinate maps stored respectively Using the evaluation value that combines both, since the evaluation of the position and orientation of the recognition object, and suppress the erroneous recognition of the position and orientation of the recognition object, it is possible to further improve the recognition accuracy and processing speed.
請求項4及び9に記載の発明によれば、画像取得手段により取得した画像の解像度を異なる比率で低下させた複数枚の画像を有する画像ピラミッドを作成する。そして、前記画像ピラミッドにおける各解像度の画像の各画素に、エッジ抽出手段により前記各解像度の画像から抽出されたエッジのうち最も近いエッジまでの距離と、前記最も近いエッジの向きとを画像値として記憶させた各解像度のディスタンスマップのうち解像度が最も低いディスタンスマップ上に、あらゆる位置姿勢における3次元モデルの3次元輪郭点を射影して照合することにより得られる輪郭評価値と、3次元計測手段により計測された3次元点群の前記画像ピラミッド作成手段により作成された画像ピラミッドにおける各解像度の画像上の各画像座標に、異なる方向から認識対象物を撮像した場合に得られる各解像度の画像の前記各画像座標に対応する画像座標である対応座標をそれぞれ記憶させた各解像度の対応座標マップのうち解像度が最も低い対応座標マップ上に、あらゆる位置姿勢における3次元モデルの3次元面点を射影して照合することにより得られる点群評価値との双方を融合した評価値を用いて、認識対象物の位置姿勢の評価を行い、最も高い評価値を初期値として、認識対象物の位置姿勢の最適化を行うので、処理速度をより向上させることができる。 According to the fourth and ninth aspects of the invention, an image pyramid having a plurality of images in which the resolution of the image acquired by the image acquisition means is reduced at different ratios is created. Then, for each pixel of the image of each resolution in the image pyramid, the distance to the nearest edge among the edges extracted from the image of each resolution by the edge extraction means and the direction of the nearest edge are used as image values. Contour evaluation values obtained by projecting and collating the three-dimensional contour points of the three-dimensional model at any position and orientation on the distance map having the lowest resolution among the stored distance maps of the respective resolutions, and three-dimensional measuring means The image of each resolution obtained when the recognition object is imaged from different directions at each image coordinate on the image of each resolution in the image pyramid created by the image pyramid creation means of the three-dimensional point group measured by Corresponding coordinate maps for each resolution storing corresponding coordinates, which are image coordinates corresponding to the image coordinates, respectively. On the corresponding coordinate map having the lowest resolution, the evaluation value is obtained by fusing both the point cloud evaluation value obtained by projecting and collating the 3D surface points of the 3D model at any position and orientation, Since the position and orientation of the recognition target are evaluated and the position and orientation of the recognition target are optimized using the highest evaluation value as an initial value, the processing speed can be further improved.
請求項5及び10に記載の発明によれば、認識対象物の位置姿勢の評価結果を視覚的に容易に把握することができる。 According to the fifth and tenth aspects of the present invention, the evaluation result of the position and orientation of the recognition object can be easily grasped visually.
以下に本発明の実施形態に係る3次元物体認識装置1について、図面を参照しつつ説明する。図1に示すように、3次元物体認識装置1は、作業台2の上に載置された3次元形状を有する認識対象物3の位置姿勢を認識するためのものであって、この認識対象物3の画像の取得及び認識対象物3の表面の点の3次元座標を示す3次元点群の計測を行うための3次元センサ4と、認識対象物3を把持するためのロボットアーム5と、3次元センサ4から入力される画像や点群データに基づいてロボットアーム5の動作を制御するコンピュータ6とを備えている。
Hereinafter, a three-dimensional
3次元センサ4は、認識対象物3の画像を取得するための機能(画像取得手段)及び認識対象物3の表面の点の3次元座標を示す3次元点群の計測を行う機能(3次元計測手段)を有するものであって、従来公知の3次元計測技術等を適用することができる。また、3次元センサ4として、例えば、認識対象物3に対してパターン光を投光する投光手段(不図示)と、このパターン光が投光された認識対象物3を異なる位置に設けられた基準カメラと参照カメラとからなるステレオカメラ(不図示)とを備え、該ステレオカメラにより撮像して得られた複数の画像間で対応する画素を特定し、対応付けられた基準画像上の画素と、参照画像上の画素との位置の差(視差)に三角測量の原理を適用することにより、基準カメラから当該画素に対応する計測対象物上の点までの距離を計測して認識対象物3の3次元点群を取得しても良い。尚、3次元センサ4の数は、特に限定されるものではなく、認識対象物3の画像の取得及び3次元点群の計測を行うことができれば良く、1台又は2台以上の複数であっても良い。また、認識対象物3の画像を取得するための機能と3次元計測を行うための機能を別々に設けるように構成されていても良い。
The three-
コンピュータ6は、図1に示すように、3次元センサ4により得られた3次元計測結果や画像データ等を記憶する画像メモリ7と、認識対象物3の認識を行うための処理プログラム等を格納するハードディスク8と、該ハードディスク8から読み出された処理プログラムを一時記憶するRAM(Random Access Memory)9と、この処理プログラムに従って3次元認識処理を行うCPU(Central Proceessing Unit)10と、画像メモリ7に記憶された画像データやCPU10によって求められた認識結果等を表示するための表示部11と、マウスやキーボード等で構成される操作部12と、これら各部を互いに接続するシステムバス13とを有している。尚、本実施形態では、3次元物体3の認識を行う処理プログラムをハードディスク8に格納している例を示しているが、これに代えて、コンピュータ読み取り可能な記憶媒体(不図示)に格納しておき、この記録媒体から処理プログラムを読み出すように構成することも可能である。
As shown in FIG. 1, the computer 6 stores an
以下、3次元物体認識装置1による処理の流れについて図2のフローチャートを用いながら説明する。本実施形態に係る3次元物体認識装置1では、図2に示すように、まずオフラインで認識対象物3の認識用の3次元モデルを作成して3次元モデル記憶手段14に記憶しておく(S101)。3次元モデルは、認識対象物3の3次元形状情報を含むものであって、認識対象物3の輪郭形状を表わす3次元輪郭点データ及び表面形状を表わす3次元面点データ等を有しており、3次元CAD等を利用して作成される。ここでは、3次元CAD等を利用して、予めオフラインで3次元センサ4の位置から考えて可能性のある全範囲に渡って、あらゆる姿勢(3自由度)における3次元モデルを作成し、3次元モデル記憶手段14に記憶している。尚、この3次元モデルの作成方法は、特に限定されるものではなく、認識対象物3の3次元形状情報を含むものであれば良く、従来公知の方法を用いることができる。
Hereinafter, the flow of processing by the three-dimensional
次に、3次元センサ4により認識対象物3の表面の点の3次元座標を示す3次元点群の計測及び認識対象物3の画像を取得する(S102)。そして、3次元センサ4から認識対象物3を撮影した原画像が入力されると、画像ピラミッド作成手段21では、この入力された原画像に基づいて、画像ピラミッドを作成し(S103)、図1に示す画像メモリ7に記憶する。
Next, the measurement of the three-dimensional point group which shows the three-dimensional coordinate of the point of the surface of the
画像ピラミッド17は、図3に示すように、3次元センサ4により取得した原画像18の解像度を異なる比率で低下させた複数枚の画像18A〜18cを有するものである。CPU10では、例えば、図3に示すように、縦横両方向にそれぞれn個ずつのピクセルが並んだ原画像18が入力された場合、この原画像を最高解像度画像として、1/2縮小を繰り返すことにより、縦横両方向にそれぞれn/2個のピクセルが並んだ第1ピラミッド画像18A、縦横両方向にそれぞれn/4個のピクセルが並んだ第2ピラミッド画像18B、縦横両方向にそれぞれn/8個のピクセルが並んだ第3ピラミッド画像18Cを作成する。尚、図3では、3段階の異なる低解像度の画像18A〜18cを有する画像ピラミッド17を作成した例を示しているが、段階数は特に限定されるものではなく、入力画像の大きさ等に応じて適宜変更しても良い。
As shown in FIG. 3, the
次に、エッジ抽出手段22では、画像ピラミッド作成手段21により作成された画像ピラミッド17における各解像度のそれぞれの画像18〜18Cに対して認識対象物のエッジを抽出する(S104)。尚、エッジの抽出の仕方は、特に限定されるものではなく、例えば、3次元計測により得られるデプス値又は面の法線方向の違いに基づいてエッジを抽出しても良いし、輝度画像からエッジを抽出しても良く、従来公知の方法を用いることができる。
Next, the
次に、CPU10では、エッジ抽出手段22で各解像度のそれぞれの画像から抽出されたエッジを用いて、各解像度毎のディスタンスマップを作成し、それらをディスタンスマップ記憶手段15に記憶する(S105)。ディスタンスマップ19は、図4に示すように、画像ピラミッド作成手段21により作成された画像ピラミッド17における各解像度の画像18〜18Cに対してそれぞれ認識対象物のエッジ20a(斜線で示す部分)を抽出して、画像を構成する各画素20に、抽出したエッジ20aのうち最も近い最近エッジ点までの距離と、最近エッジ点の向きとを画素値として記録させたものである。このディスタンスマップ19は、例えば、995年12月発刊の電子情報通信学会論文誌Vol.J78、No.12の「ユークリッド距離変換アルゴリズムの効率化」、加藤敏洋、平田富夫、斉藤豊文、吉瀬謙二、第1750〜1757頁に記載されている方法に基づいて作成されるものであり、ここではその詳細な作成の仕方の説明については省略する。このように、各解像度毎のディスタンスマップ19を作成して記憶しておくことにより、画素20を参照することで、その画素20から最も近いエッジ20aまでの距離がわかるので、後述する位置姿勢評価手段23及び最適化手段24での処理速度を向上させることができる。
Next, the
また、CPU10は、図5及び図6に示すように、3次元センサ4aにより計測された3次元点群の画像ピラミッド作成手段21により作成された画像ピラミッド17における各解像度の画像I上の画像座標(μi,νi)に、3次元センサ4bで3次元センサ4aと異なる方向から認識対象物3を撮像した場合に得られる各解像度の画像K上の、画像座標(μi,νi)に対応する画像座標である対応座標(μk,νk)をそれぞれ記憶させた各解像度毎の対応座標マップ25を作成し、それらを対応座標マップ記憶手段16に記憶する(S106)。対応座標マップ25の作成の仕方としては、既にS102の処理で3次元センサ4aにより画素ごとの3次元点(3次元点群)が計測されているので、例えば、図6に示すように、画像座標(μi,νi)の3次元点を3次元センサ4aとは異なる方向から取得した場合の画像平面Kに射影し、画像座標(μi,νi)に対応する画像座標である対応座標(μk,νk)を求める。そして、この対応座標(μk,νk)を画像座標(μi,νi)に記憶する。この際、3次元センサ4bを平行化しておけば、νi=νkとなるため、処理を簡易化することができる。このような処理を画像Iの画素ごとに行うことにより、対応座標マップ25を作成することができる。図5では、対応座標マップ25を概念的に示しており、画像座標(μi,νi)=(10,20)には、対応座標μk=5が記憶されている場合を示している。尚、本実施形態のように、1台の3次元センサ4aを用いて認識対象物の画像の取得及び3次元計測を行う場合には、図6に示すように、仮想的にもう1台の3次元センサ4bが3次元センサ4aとは異なる所定の位置に存在すると仮定することにより、上記のような方法で対応座標マップ25を作成することができる。つまり、3次元センサ4bの焦点距離、主点座標等のカメラパラメータを全て仮想的に決定する。また、図6に示すように、3次元センサ4aの第1センサ座標系Xc=[Xc Yc Zc]Tと仮想の3次元センサ4bの第2センサ座標系との間には、回転行列R及び並進移動ベクトルtが存在するが、これらも仮想的に決定することにより、3次元センサ4bの座標系Xc’=[Xc’ Yc’ Zc’]Tを求めることができる。そして、この仮想的に設定した3次元センサ4bの画像K上に3次元点を射影することにより、対応座標(μk,νk)を求めることが可能となる。また、複数のカメラ、例えば、ステレオカメラを用いて、対応座標マップ25を作成する場合には、ステレオカメラで認識対象物を撮影し、ステレオマッチングにより、一方のカメラの画像座標(μi,νi)と対応する、他方のカメラの画像座標(μk,νk)を得ることにより、対応座標マップ25を作成すれば良い。
Further, as shown in FIGS. 5 and 6, the
次に、位置姿勢評価手段23では、S105でディスタンスマップ記憶手段15に記憶されたディスタンスマップの19のうち解像度が最も低いディスタンスマップ、及び、S106で対応座標マップ記憶手段16に記憶された対応座標マップ25のうち解像度が最も低い対応座標マップにあらゆる位置姿勢(6自由度)の3次元モデルを照合させることにより、認識対象物3の位置姿勢の評価を行う(S107)。位置姿勢評価手段23では、例えば、下記数式(2)の位置姿勢の評価値算出関数を用いて、認識対象物3の位置姿勢の評価を行う。数式(2)の評価値算出関数は、右辺第1項に示す輪郭評価値と右辺第2項に示す点群評価値を融合させた1つの評価値によって認識対象物3の位置姿勢の評価を行う関数であって、パラメータα(0≦α≦1)によって輪郭評価値と点群評価値の融合比率を調整することができる。また、数式(1)は、モデル座標系のi番目の3次元点を3次元センサkの画像へ射影する数式を表わしている。
数式(2)の評価値算出関数では、下記の数式(3)によって求められる評価値Skiを輪郭の評価で用いる全ての点の数Ikで足し合わせて点の数Ikで割ったものを輪郭の評価を行う3次元センサの総数Kで足し合わせて3次元センサの総数Kで割ったものに、パラメータαを乗じた値である輪郭評価値と、下記の数式(4)によって求められる評価値Sljを点群の評価で用いる全ての点の数Jlで足し合わせて点の数Jlで割ったものを点群の評価を行う3次元センサの総数Lで足し合わせて3次元センサの総数Lで割ったものに、パラメータ(1−α)を乗じた値である点群評価値とを足し合わせたものである。尚、本実施形態のように輪郭の評価及び点群の評価に同じ3次元センサを用いて行う場合には、K=Lとなる。
数式(3)に示す評価値Skiは、下記の数式(5)に示すように、3次元モデルの3次元輪郭点を3次元センサkの画像上へ射影し、ディスタンスマップを参照させることにより求められる、エッジまでの距離に基づく評価値と、下記の数式(6)に示すように、3次元モデルの3次元輪郭点を3次元センサkの画像上へ射影した射影点の勾配方向と最近エッジの勾配方向の差に基づく評価値とを掛け合わせたものである。
数式(5)では、例えば、図7(a)に示すように、射影点と最近エッジまでの距離の閾値τaが設定されており、最近エッジまでの距離の差が小さい時には、この関数は1に近い数字を出力し、差が大きくなるにつれて0に近づく結果を出力する。そして、最近エッジまでの距離の自乗が閾値τaの自乗よりも大きくなる場合には、0を出力結果とする。尚、図7(a)では、閾値τa=4.0に設定した例を示しているが、この閾値τaの値は、特に限定されるものではなく、求められる認識精度等に応じて適宜設定されるものである。また、数式(6)では、例えば、図7(b)に示すように、射影点の勾配方向と最近エッジの勾配方向との内積の閾値τβ1、τβ2が設定されており、最近エッジの勾配方向との差の自乗が閾値τβ1の自乗以下の時には1を出力し、最近エッジの勾配方向との差の自乗が閾値τβ1の自乗より大きく、τβ2の自乗より小さい時には、勾配方向の差が閾値τβ1に近づくにつれて関数は1に近い数値を出力し、勾配方向の差が閾値τβ2に近づくにつれて関数は0に近づくような結果を出力する。そして、最近エッジの勾配方向との差の自乗が閾値τβ2の自乗以上の場合には、0を出力結果とする。尚、図7(b)では、閾値τβ1=cos20°、τβ2=cos36°に設定した例を示しているが、この閾値τβ1、τβ2の値は、特に限定されるものではなく、求められる認識精度等に応じて適宜設定されるものである。また、数式(5)及び数式(6)は、輪郭を用いた評価に関する関数の一例であり、輪郭の類似度を評価する関数はこれに限られるものではない。
In Equation (5), for example, as shown in FIG. 7A, a threshold τ a for the distance from the projection point to the nearest edge is set, and when the difference in distance to the nearest edge is small, this function is A number close to 1 is output, and a result approaching 0 is output as the difference increases. Then, recently when the square of the distance to the edge is greater than the square of the threshold tau a, the
数式(4)に示す評価値Sljは、下記の数式(7)に示すように、3次元モデルの3次元面点を3次元センサkの画像上へ射影し、対応座標マップを参照させることにより得た対応座標と3次元モデルの3次元面点を3次元センサlの画像上に射影して得た画像座標との距離の差に基づく評価値と、下記の数式(8)に示すように、射影された3次元モデル面上の3次元面点の法線方向と、射影先の画素に対応する3次元計測点の法線方向との内積の差に基づく評価値とを掛け合わせたものである。
数式(7)では、対応座標からの距離の閾値τbが設定されており、対応座標からの距離の差が小さい時には、この関数は1に近い数字を出力し、差が大きくなるにつれて0に近づく結果を出力する。そして、対応座標からの距離の自乗が閾値τbの自乗よりも大きくなる場合には、0を出力結果とするものである。また、数式(8)では、射影された3次元モデル面上の3次元面点の法線方向と射影先の画素に対応する3次元計測点の法線方向との内積の閾値τγ1、τγ2が設定されており、法線方向の差の自乗が閾値τγ1の自乗以下の時には1を出力し、法線方向の差の自乗が閾値τγ1の自乗より大きく、τβ2の自乗より小さい時には、法線方向の差が閾値τγ1に近づくにつれて関数は1に近い数値を出力し、法線方向の差が閾値τγ2に近づくにつれて関数は0に近づくような結果を出力する。そして、法線方向の差の自乗が閾値τγ2の自乗以上の場合には、0を出力結果とする。尚、数式(7)及び数式(8)は、点群を用いた評価に関する関数の一例であり、点群の類似度を評価する関数はこれに限られるものではない。 In equation (7), a threshold τ b for the distance from the corresponding coordinate is set, and when the difference in distance from the corresponding coordinate is small, this function outputs a number close to 1 and becomes 0 as the difference increases. Output the approaching result. When the square of the distance from the corresponding coordinate is larger than the square of the threshold τ b , 0 is output. Further, in the equation (8), threshold values τ γ1 , τ of inner products between the normal direction of the three-dimensional surface point on the projected three-dimensional model surface and the normal direction of the three-dimensional measurement point corresponding to the projection destination pixel. When γ2 is set and the square of the difference in the normal direction is less than or equal to the square of the threshold τ γ1 , 1 is output, and the square of the difference in the normal direction is larger than the square of the threshold τ γ1 and smaller than the square of τ β2 Sometimes, the function outputs a value close to 1 as the normal direction difference approaches the threshold τ γ1, and the function outputs a result such that the function approaches 0 as the normal direction difference approaches the threshold τ γ2 . When the square of the difference in the normal direction is equal to or larger than the square of the threshold τ γ2 , 0 is set as the output result. Equations (7) and (8) are examples of functions related to evaluation using point clouds, and the functions for evaluating the similarity of point clouds are not limited to these.
位置姿勢評価手段23では、例えば、このように数式(2)に示すような評価値算出関数を用いて、認識対象物の位置姿勢の評価を行い、最も評価値の高いものを初期値解候補とする。尚、本実施形態では、3次元モデルを画像上に射影して照合を行っている例を示しているが、3次元モデルを初期探索用に射影した状態のテンプレートを作成し、このテンプレートを用いて認識対象物の位置姿勢の評価を行うようにしても良い。これにより、更に処理速度を向上させることができる。 In the position / orientation evaluation means 23, for example, the position / orientation of the recognition object is evaluated using the evaluation value calculation function as shown in Equation (2), and the candidate with the highest evaluation value is determined as the initial value solution candidate. And In this embodiment, an example is shown in which a three-dimensional model is projected onto an image and collation is performed. Thus, the position and orientation of the recognition target object may be evaluated. Thereby, the processing speed can be further improved.
次に、最適化手段24では、位置姿勢評価手段23により得られた初期値解候補を、より高解像度のディスタンスマップと対応座標マップを用いて、最適化を実行し(S108)、位置姿勢の認識精度をより高精度にする。最適化手段24では、位置姿勢評価手段23により得られた解候補の位置姿勢を初期値とし、その位置姿勢の3次元モデルをより高解像度である画像に射影し、ディスタンスマップと対応座標マップを用いて、位置姿勢評価手段23と同様に評価値を計算する。この際、評価値の最大化を実現する手法として、例えば、従来公知のマーカード法等を用いることができる。尚、最適化の手法は、これに限定されるものではなく、従来公知の他の最適化法を用いても良い。
Next, the
そして、S108で最適化された評価結果に基づき、位置及び姿勢が必要な精度を満たしているか否かを判定し(S109)、必要な精度を満たしていると判断した場合は(S109:YES)、その結果を最終結果として出力し(S110)、処理を終了する。一方、必要な精度を満たしていないと判断した場合は(S109:NO)、まだ位置及び姿勢を評価していない高解像度のディスタンスマップ及び対象座標マップがあるか否かを判定し(S111)、そのような未処理のディスタンスマップ及び対象座標マップがないと判断した場合は(S111:NO)、その時点での結果を最終結果として出力し(S110)、処理を終了する。一方、未処理のディスタンスマップ及び対象座標マップがあると判断した場合は(S111:YES)、S108へ戻って残りのディスタンスマップ及び対象座標マップについて同様の処理を行う。そして、未処理のディスタンスマップ及び対象座標マップが無くなるまでこれを繰り返す。このように、必要な精度に達するまで、より解像度の高いディスタンスマップ及び対象座標マップを用いて処理を行うことにより、認識対象物3の位置及び姿勢をより高い精度で認識することができる。
Then, based on the evaluation result optimized in S108, it is determined whether or not the position and orientation satisfy the required accuracy (S109). If it is determined that the required accuracy is satisfied (S109: YES) The result is output as the final result (S110), and the process is terminated. On the other hand, if it is determined that the required accuracy is not satisfied (S109: NO), it is determined whether there is a high-resolution distance map and target coordinate map that have not yet been evaluated for position and orientation (S111). If it is determined that there is no such unprocessed distance map and target coordinate map (S111: NO), the result at that time is output as the final result (S110), and the process is terminated. On the other hand, if it is determined that there are unprocessed distance maps and target coordinate maps (S111: YES), the process returns to S108 and the same processing is performed for the remaining distance maps and target coordinate maps. This is repeated until there is no unprocessed distance map and target coordinate map. In this way, the position and orientation of the
3次元物体認識装置1では、このように画像上のエッジを用いた輪郭評価値と、3次元点群を用いた点群評価値との双方を融合した評価値を用いて、認識対象物3の位置姿勢の評価を行うので、認識対象物3の位置姿勢の誤認識を抑制し、認識精度及び処理速度を向上させることができる。また、数式(2)のパラメータαを調整することで、輪郭評価値と点群評価値の融合比率を調整することができるので、画像からエッジが抽出できないような場合でも輪郭評価値の比率を下げて点群評価値の比率を上げることにより認識対象物の位置姿勢を認識することができる。
In the three-dimensional
尚、本発明の実施の形態は上述の形態に限るものではなく、本発明の思想の範囲を逸脱しない範囲で適宜変更することができる。 The embodiment of the present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the scope of the idea of the present invention.
本発明に係る3次元物体認識装置及び3次元物体認識方法は、生産ライン等における部品等の認識を行うための技術として有効に利用することができる。また、サービスロボットが部屋の中等で自分の位置姿勢を特定する技術としても有効に利用することができる。 The three-dimensional object recognition apparatus and the three-dimensional object recognition method according to the present invention can be effectively used as a technique for recognizing components in a production line or the like. In addition, the service robot can be effectively used as a technique for specifying its position and orientation in a room or the like.
1 3次元物体認識装置
3 認識対象物
4 3次元センサ
11 表示部
14 3次元モデル記憶手段
15 ディスタンスマップ記憶手段
16 対応座標マップ記憶手段
17 画像ピラミッド
18 画像
19 ディスタンスマップ
20 画素
21 画像ピラミッド作成手段
22 エッジ抽出手段
23 位置姿勢評価手段
24 最適化手段
25 対応座標マップ
DESCRIPTION OF
Claims (10)
前記認識対象物を所定方向から撮影して画像を取得する画像取得手段と、
前記認識対象物の表面の点の3次元座標を示す3次元点群を計測する3次元計測手段と、
前記画像取得手段により取得した画像又は前記3次元計測手段により得られた3次元計測結果から前記認識対象物のエッジを抽出するエッジ抽出手段と、
前記エッジ抽出手段により抽出されたエッジとあらゆる位置姿勢における前記3次元モデルの輪郭形状を示す3次元輪郭点に基づいて求められる輪郭評価値、及び、前記3次元計測手段により得られた3次元計測結果とあらゆる位置姿勢における前記3次元モデルの表面形状を示す3次元面点に基づいて求められる点群評価値を用いて前記認識対象物の位置姿勢を評価する位置姿勢評価手段と、を備えることを特徴とする3次元物体認識装置。 3D model storage means for storing a 3D model representing the contour and surface shape of the recognition object;
Image acquisition means for acquiring an image by photographing the recognition object from a predetermined direction;
Three-dimensional measuring means for measuring a three-dimensional point group indicating three-dimensional coordinates of points on the surface of the recognition object;
Edge extraction means for extracting an edge of the recognition object from an image acquired by the image acquisition means or a three-dimensional measurement result obtained by the three-dimensional measurement means;
A contour evaluation value obtained on the basis of the edge extracted by the edge extraction means and a three-dimensional contour point indicating the contour shape of the three-dimensional model at any position and orientation, and the three-dimensional measurement obtained by the three-dimensional measurement means A position and orientation evaluation means for evaluating the position and orientation of the recognition object using a point cloud evaluation value obtained based on a result and a three-dimensional surface point indicating the surface shape of the three-dimensional model at any position and orientation; A three-dimensional object recognition device.
前記3次元計測手段により計測された3次元点群の前記画像取得手段により取得された画像上の各画像座標に、前記所定方向と異なる方向から前記認識対象物を撮像した場合に得られる画像の前記各画像座標に対応する画像座標である対応座標をそれぞれ記憶させた対応座標マップを記憶する対応座標マップ記憶手段と、を備え、
前記位置姿勢評価手段は、前記ディスタンスマップ上に、あらゆる位置姿勢における前記3次元モデルの前記3次元輪郭点を射影して照合することにより得られる前記輪郭評価値、及び、前記対応座標マップ上に、あらゆる位置姿勢における前記3次元モデルの前記3次元面点を射影して照合することにより得られる前記点群評価値を用いて前記認識対象物の位置姿勢を評価することを特徴とする請求項1又は2に記載の3次元物体認識装置。 A distance map in which each pixel constituting the image acquired by the image acquisition unit stores the distance to the closest edge among the edges extracted by the edge extraction unit and the direction of the closest edge as image values. Distance map storage means for storing
An image obtained when the recognition object is imaged from a direction different from the predetermined direction at each image coordinate on the image acquired by the image acquisition unit of the three-dimensional point group measured by the three-dimensional measurement unit. A corresponding coordinate map storage unit that stores a corresponding coordinate map in which corresponding coordinates that are image coordinates corresponding to the respective image coordinates are stored;
The position / orientation evaluation means projects the contour evaluation value obtained by projecting and collating the three-dimensional contour point of the three-dimensional model at any position / orientation on the distance map, and on the corresponding coordinate map. The position and orientation of the recognition object is evaluated using the point cloud evaluation value obtained by projecting and collating the three-dimensional surface points of the three-dimensional model at any position and orientation. The three-dimensional object recognition apparatus according to 1 or 2.
前記位置姿勢評価手段により得られた最も高い評価値を初期値として用いて、前記認識対象物の位置姿勢の最適化を行う位置姿勢最適化手段と、を備え、
前記エッジ抽出手段は、前記画像ピラミッド作成手段により作成された画像ピラミッドにおける各解像度の画像から前記認識対象物のエッジを抽出し、
前記ディスタンスマップ記憶手段は、前記画像ピラミッド作成手段により作成された画像ピラミッドにおける各解像度の画像の各画素に、前記エッジ抽出手段により前記各解像度の画像から抽出されたエッジのうち最も近いエッジまでの距離と、前記最も近いエッジの向きとを画像値として記憶させた各解像度のディスタンスマップを記憶し、
前記対応座標マップ記憶手段は、前記3次元計測手段により計測された3次元点群の前記画像ピラミッド作成手段により作成された画像ピラミッドにおける各解像度の画像上の各画像座標に、前記所定方向と異なる方向から前記認識対象物を撮像した場合に得られる各解像度の画像の前記各画像座標に対応する画像座標である対応座標をそれぞれ記憶させた各解像度の対応座標マップを記憶し、
前記位置姿勢評価手段は、解像度が最も低い前記ディスタンスマップ上に、あらゆる位置姿勢における前記3次元モデルの前記3次元輪郭点を射影して照合することにより得られる前記輪郭評価値、及び、解像度が最も低い前記対応座標マップ上に、あらゆる位置姿勢における前記3次元モデルの前記3次元面点を射影して照合することにより得られる前記点群評価値を用いて前記認識対象物の位置姿勢を評価し、
前記位置姿勢最適化手段は、前記位置姿勢評価手段により得られた最も高い評価値を初期値とし、該初期値を前記位置姿勢評価手段で用いられた前記ディスタンスマップ及び前記対応座標マップよりも高い解像度のディスタンスマップ及び対応座標マップを用いて、予め設定された精度に到達又は最も高い解像度のディスタンスマップ及び対応座標マップを用いた位置姿勢の評価が終了するまで最適化を行うことを特徴とする請求項1乃至3のいずれかに記載の3次元物体認識装置。 An image pyramid creating means for creating an image pyramid having a plurality of images in which the resolution of the image obtained by the image obtaining means is reduced at different ratios;
Position and orientation optimization means for optimizing the position and orientation of the recognition object using the highest evaluation value obtained by the position and orientation evaluation means as an initial value,
The edge extraction unit extracts an edge of the recognition object from an image of each resolution in the image pyramid created by the image pyramid creation unit,
The distance map storage unit is configured to connect each pixel of each resolution image in the image pyramid created by the image pyramid creation unit to the nearest edge among the edges extracted from the resolution image by the edge extraction unit. Storing a distance map of each resolution in which the distance and the direction of the nearest edge are stored as image values;
The corresponding coordinate map storage means differs from the predetermined direction in each image coordinate on an image of each resolution in the image pyramid created by the image pyramid creation means of the three-dimensional point group measured by the three-dimensional measurement means. Storing a corresponding coordinate map of each resolution storing corresponding coordinates which are image coordinates corresponding to the respective image coordinates of the image of each resolution obtained when the recognition object is imaged from a direction;
The position / orientation evaluation means projects the three-dimensional contour points of the three-dimensional model at any position / orientation on the distance map having the lowest resolution, and the contour evaluation value obtained by collating The position and orientation of the recognition object is evaluated using the point group evaluation value obtained by projecting and collating the three-dimensional surface points of the three-dimensional model at any position and orientation on the lowest corresponding coordinate map. And
The position and orientation optimization means sets the highest evaluation value obtained by the position and orientation evaluation means as an initial value, and the initial value is higher than the distance map and the corresponding coordinate map used in the position and orientation evaluation means. Using the resolution distance map and the corresponding coordinate map, optimization is performed until a preset accuracy is reached or evaluation of the position and orientation using the highest resolution distance map and the corresponding coordinate map is completed. The three-dimensional object recognition apparatus according to any one of claims 1 to 3.
前記認識対象物を所定方向から撮影して画像を取得する画像取得ステップと、
前記認識対象物の表面の点の3次元座標を示す3次元点群を計測する3次元計測ステップと、
前記画像取得ステップで取得した画像又は前記3次元計測ステップで得られた3次元計測結果から前記認識対象物のエッジを抽出するエッジ抽出ステップと、
前記エッジ抽出ステップで抽出されたエッジとあらゆる位置姿勢における前記3次元モデルの輪郭形状を示す3次元輪郭点に基づいて求められる輪郭評価値、及び、前記3次元計測ステップで得られた3次元計測結果とあらゆる位置姿勢における前記3次元モデルの表面形状を示す3次元面点に基づいて求められる点群評価値を用いて前記認識対象物の位置姿勢を評価する位置姿勢評価ステップと、を備えることを特徴とする3次元物体認識方法。 A three-dimensional model storage step for storing a three-dimensional model representing the contour and surface shape of the recognition object in the three-dimensional model storage means;
An image acquisition step of acquiring an image by photographing the recognition object from a predetermined direction;
A three-dimensional measurement step of measuring a three-dimensional point group indicating the three-dimensional coordinates of the points on the surface of the recognition object;
An edge extraction step of extracting an edge of the recognition object from the image acquired in the image acquisition step or the three-dimensional measurement result obtained in the three-dimensional measurement step;
A contour evaluation value obtained based on the edge extracted in the edge extraction step and a three-dimensional contour point indicating the contour shape of the three-dimensional model at any position and orientation, and the three-dimensional measurement obtained in the three-dimensional measurement step A position and orientation evaluation step for evaluating the position and orientation of the recognition object using a point cloud evaluation value obtained based on a result and a three-dimensional surface point indicating the surface shape of the three-dimensional model at any position and orientation; A three-dimensional object recognition method characterized by:
前記3次元計測ステップで計測された3次元点群の前記画像取得ステップにより取得された画像上の各画像座標に、前記所定方向と異なる方向から前記認識対象物を撮像した場合に得られる画像の前記各画像座標に対応する画像座標である対応座標をそれぞれ記憶させた対応座標マップを対応座標マップ記憶手段に記憶する対応座標マップ記憶ステップと、を備え、
前記位置姿勢評価ステップは、前記ディスタンスマップ上に、あらゆる位置姿勢における前記3次元モデルの前記3次元輪郭点を射影して照合することにより得られる前記輪郭評価値、及び、前記対応座標マップ上に、あらゆる位置姿勢における前記3次元モデルの前記3次元面点を射影して照合することにより得られる前記点群評価値を用いて前記認識対象物の位置姿勢を評価することを特徴とする請求項1又は2に記載の3次元物体認識方法。 A distance map in which each pixel constituting the image acquired in the image acquisition step stores the distance to the closest edge among the edges extracted in the edge extraction step and the direction of the closest edge as image values A distance map storage step for storing the distance map in the distance map storage means;
An image obtained when the recognition object is imaged from a direction different from the predetermined direction at each image coordinate on the image acquired by the image acquisition step of the three-dimensional point group measured in the three-dimensional measurement step. A corresponding coordinate map storing step for storing a corresponding coordinate map storing corresponding coordinates, which are image coordinates corresponding to the respective image coordinates, in a corresponding coordinate map storing unit,
In the position and orientation evaluation step, the contour evaluation value obtained by projecting and collating the three-dimensional contour point of the three-dimensional model at any position and orientation on the distance map, and the corresponding coordinate map The position and orientation of the recognition object is evaluated using the point cloud evaluation value obtained by projecting and collating the three-dimensional surface points of the three-dimensional model at any position and orientation. 3. The three-dimensional object recognition method according to 1 or 2.
前記位置姿勢評価ステップで得られた最も高い評価値を初期値として用いて、前記認識対象物の位置姿勢の最適化を行う位置姿勢最適化ステップと、を備え、
前記抽出ステップは、前記画像ピラミッド作成ステップで作成された画像ピラミッドにおける各解像度の画像から前記認識対象物のエッジを抽出し、
前記ディスタンスマップ記憶ステップは、前記画像ピラミッド作成ステップで作成された画像ピラミッドにおける各解像度の画像の各画素に、前記エッジ抽出ステップで前記各解像度の画像から抽出されたエッジのうち最も近いエッジまでの距離と、前記最も近いエッジの向きとを画像値として記憶させた各解像度のディスタンスマップを前記ディスタンスマップ記憶手段に記憶し、
前記対応座標マップ記憶ステップは、前記3次元計測ステップで計測された3次元点群の前記画像ピラミッド作成ステップで作成された画像ピラミッドにおける各解像度の画像上の各画像座標に、前記所定方向と異なる方向から前記認識対象物を撮像した場合に得られる各解像度の画像の前記各画像座標に対応する画像座標である対応座標をそれぞれ記憶させた各解像度の対応座標マップを前記対応座標マップ記憶手段に記憶し、
前記位置姿勢評価ステップは、解像度が最も低い前記ディスタンスマップ上に、あらゆる位置姿勢における前記3次元モデルの前記3次元輪郭点を射影して照合することにより得られる前記輪郭評価値、及び、解像度が最も低い前記対応座標マップ上に、あらゆる位置姿勢における前記3次元モデルの前記3次元面点を射影して照合することにより得られる前記点群評価値を用いて前記認識対象物の位置姿勢を評価し、
前記位置姿勢最適化ステップは、前記位置姿勢評価ステップで得られた最も高い評価値を初期値とし、該初期値を前記位置姿勢評価ステップで用いられた前記ディスタンスマップ及び前記対応座標マップよりも高い解像度のディスタンスマップ及び対応座標マップを用いて、予め設定された精度に到達又は最も高い解像度のディスタンスマップ及び対応座標マップを用いた位置姿勢の評価が終了するまで最適化を行うことを特徴とする請求項6乃至8のいずれかに記載の3次元物体認識方法。 An image pyramid creating step for creating an image pyramid having a plurality of images in which the resolution of the image obtained in the image obtaining step is reduced at different ratios;
A position and orientation optimization step for optimizing the position and orientation of the recognition object using the highest evaluation value obtained in the position and orientation evaluation step as an initial value,
The extraction step extracts an edge of the recognition object from an image of each resolution in the image pyramid created in the image pyramid creation step,
In the distance map storing step, each pixel of each resolution image in the image pyramid created in the image pyramid creation step is connected to the nearest edge among the edges extracted from the image of each resolution in the edge extraction step. Storing a distance map of each resolution in which the distance and the direction of the nearest edge are stored as image values in the distance map storage means;
The corresponding coordinate map storing step differs from the predetermined direction in each image coordinate on the image of each resolution in the image pyramid created in the image pyramid creation step of the three-dimensional point group measured in the three-dimensional measurement step. A corresponding coordinate map of each resolution in which corresponding coordinates, which are image coordinates corresponding to the respective image coordinates of an image of each resolution obtained when the recognition object is imaged from a direction, is stored in the corresponding coordinate map storage unit. Remember,
In the position and orientation evaluation step, the contour evaluation value obtained by projecting and collating the three-dimensional contour points of the three-dimensional model at any position and orientation on the distance map having the lowest resolution, and the resolution is The position and orientation of the recognition object is evaluated using the point group evaluation value obtained by projecting and collating the three-dimensional surface points of the three-dimensional model at any position and orientation on the lowest corresponding coordinate map. And
In the position and orientation optimization step, the highest evaluation value obtained in the position and orientation evaluation step is set as an initial value, and the initial value is higher than the distance map and the corresponding coordinate map used in the position and orientation evaluation step. Using the resolution distance map and the corresponding coordinate map, optimization is performed until a preset accuracy is reached or evaluation of the position and orientation using the highest resolution distance map and the corresponding coordinate map is completed. The three-dimensional object recognition method according to claim 6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013053561A JP6198104B2 (en) | 2013-03-15 | 2013-03-15 | 3D object recognition apparatus and 3D object recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013053561A JP6198104B2 (en) | 2013-03-15 | 2013-03-15 | 3D object recognition apparatus and 3D object recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014178967A true JP2014178967A (en) | 2014-09-25 |
JP6198104B2 JP6198104B2 (en) | 2017-09-20 |
Family
ID=51698830
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013053561A Active JP6198104B2 (en) | 2013-03-15 | 2013-03-15 | 3D object recognition apparatus and 3D object recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6198104B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017156968A (en) * | 2016-03-01 | 2017-09-07 | キヤノン株式会社 | Information processing device, information processing method, program |
JPWO2022149425A1 (en) * | 2021-01-06 | 2022-07-14 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6937995B2 (en) | 2018-04-05 | 2021-09-22 | オムロン株式会社 | Object recognition processing device and method, and object picking device and method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010205095A (en) * | 2009-03-05 | 2010-09-16 | 3D Media Co Ltd | Three-dimensional object recognition device, three-dimensional object recognition program, and computer readable recording medium having program recorded therein |
JP2012026974A (en) * | 2010-07-27 | 2012-02-09 | 3D Media Co Ltd | Three-dimensional object recognition device and three-dimensional object recognition method |
JP2012123781A (en) * | 2010-11-19 | 2012-06-28 | Canon Inc | Information processing device, information processing system and information processing method |
-
2013
- 2013-03-15 JP JP2013053561A patent/JP6198104B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010205095A (en) * | 2009-03-05 | 2010-09-16 | 3D Media Co Ltd | Three-dimensional object recognition device, three-dimensional object recognition program, and computer readable recording medium having program recorded therein |
JP2012026974A (en) * | 2010-07-27 | 2012-02-09 | 3D Media Co Ltd | Three-dimensional object recognition device and three-dimensional object recognition method |
JP2012123781A (en) * | 2010-11-19 | 2012-06-28 | Canon Inc | Information processing device, information processing system and information processing method |
Non-Patent Citations (1)
Title |
---|
徐剛 外1名: "ステレオカメラ方式によるロボットビジョン", 計測と制御, vol. 第50巻 第2号, JPN6017005433, 10 February 2011 (2011-02-10), pages 126 - 131, ISSN: 0003604404 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017156968A (en) * | 2016-03-01 | 2017-09-07 | キヤノン株式会社 | Information processing device, information processing method, program |
JPWO2022149425A1 (en) * | 2021-01-06 | 2022-07-14 | ||
JP7188644B2 (en) | 2021-01-06 | 2022-12-13 | 東洋紡株式会社 | Image analysis method of product containing fiber, its program and analysis device |
Also Published As
Publication number | Publication date |
---|---|
JP6198104B2 (en) | 2017-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4677536B1 (en) | 3D object recognition apparatus and 3D object recognition method | |
CN110568447B (en) | Visual positioning method, device and computer readable medium | |
JP4940461B2 (en) | 3D object recognition apparatus and 3D object recognition method | |
JP6465789B2 (en) | Program, apparatus and method for calculating internal parameters of depth camera | |
JP5812599B2 (en) | Information processing method and apparatus | |
JP6125188B2 (en) | Video processing method and apparatus | |
JP6723061B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP6573419B1 (en) | Positioning method, robot and computer storage medium | |
CN110176032B (en) | Three-dimensional reconstruction method and device | |
US11654571B2 (en) | Three-dimensional data generation device and robot control system | |
JP5951043B2 (en) | Image measuring device | |
CN110926330B (en) | Image processing apparatus, image processing method, and program | |
JPWO2015132981A1 (en) | Position measuring apparatus and position measuring method | |
JP2017033429A (en) | Three-dimensional object inspection device | |
JP6172432B2 (en) | Subject identification device, subject identification method, and subject identification program | |
CN114766042A (en) | Target detection method, device, terminal equipment and medium | |
TW202014993A (en) | Information processing device, program, and information processing method | |
JP4649559B2 (en) | 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded | |
JP2017003525A (en) | Three-dimensional measuring device | |
JP6198104B2 (en) | 3D object recognition apparatus and 3D object recognition method | |
JP2018195070A (en) | Information processing apparatus, information processing method, and program | |
JP6347610B2 (en) | Image processing apparatus and three-dimensional spatial information acquisition method | |
JP5748355B2 (en) | Three-dimensional coordinate calculation apparatus, three-dimensional coordinate calculation method, and program | |
KR102410300B1 (en) | Apparatus for measuring position of camera using stereo camera and method using the same | |
KR101673144B1 (en) | Stereoscopic image registration method based on a partial linear method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170810 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6198104 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |