JP4649559B2 - 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded - Google Patents
3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded Download PDFInfo
- Publication number
- JP4649559B2 JP4649559B2 JP2009051500A JP2009051500A JP4649559B2 JP 4649559 B2 JP4649559 B2 JP 4649559B2 JP 2009051500 A JP2009051500 A JP 2009051500A JP 2009051500 A JP2009051500 A JP 2009051500A JP 4649559 B2 JP4649559 B2 JP 4649559B2
- Authority
- JP
- Japan
- Prior art keywords
- edge
- dimensional object
- orientation
- projection point
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 claims description 16
- 238000011156 evaluation Methods 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 9
- 238000005457 optimization Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 description 10
- 230000036544 posture Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000000470 constituent Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、形状が既知の3次元物体を、カメラ等で撮影した2次元画像における輪郭などの特徴から認識する3次元物体認識装置、並びに3次元物体認識プログラム及びこれが記録されたコンピュータ読み取り可能な記録媒体に関する。 The present invention relates to a three-dimensional object recognition apparatus for recognizing a three-dimensional object having a known shape from features such as an outline in a two-dimensional image photographed by a camera or the like, a three-dimensional object recognition program, and a computer-readable computer on which the same is recorded. The present invention relates to a recording medium.
生産ラインにおいてロボットアームによる部品等の正確な操作を可能とするため、山積みにされた部品等を個々に認識し、各部品の位置及び姿勢を認識する3次元物体認識装置が近年開発されている。この3次元物体認識装置は、まず3次元物体を所定方向からカメラで撮影した画像から3次元物体のエッジすなわち輪郭などの特徴を抽出し、撮影画像を構成する各ピクセルについて最も近いエッジまでの距離をそれぞれ計算する。次に、3次元物体認識装置は、3次元物体を種々の位置及び姿勢に置いた状態で撮影画像に投影し、エッジを構成する各点の座標をそれぞれ算出する。そして、3次元物体認識装置は、両者を比較した誤差に基づいてその位置及び姿勢を評価し、最も評価の高い位置及び姿勢をその3次元物体の位置及び姿勢として認識する。 In order to enable accurate operation of parts and the like by a robot arm in a production line, a three-dimensional object recognition device has been developed in recent years that recognizes a pile of parts individually and recognizes the position and orientation of each part. . This three-dimensional object recognition apparatus first extracts features such as edges of a three-dimensional object, ie, contours, from an image obtained by photographing the three-dimensional object with a camera from a predetermined direction, and the distance to the nearest edge for each pixel constituting the photographed image. Respectively. Next, the three-dimensional object recognition device projects the three-dimensional object on the captured image in various positions and postures, and calculates the coordinates of each point constituting the edge. Then, the three-dimensional object recognition apparatus evaluates the position and orientation based on an error obtained by comparing the two, and recognizes the position and orientation with the highest evaluation as the position and orientation of the three-dimensional object.
しかし、3次元物体の位置及び姿勢を変化させる度に、撮影画像を構成する各ピクセルについて最も近いエッジまでの距離を計算したのでは、高性能な処理装置が必要となりコストが高くなる。従って、この問題を解消すべく、ディスタンスマップを予め作成することが提案されている(例えば特許文献1参照)。このディスタンスマップは、撮影画像を構成する各ピクセルに、最も近いエッジまでの距離を画素値としてそれぞれ持たせたものであり、このディスタンスマップを参照することにより、最も近いエッジまでの距離を一々計算する手間を省くことができる。 However, each time the position and orientation of the three-dimensional object are changed, calculating the distance to the nearest edge for each pixel constituting the captured image requires a high-performance processing device and increases the cost. Therefore, in order to solve this problem, it has been proposed to create a distance map in advance (see, for example, Patent Document 1). This distance map is obtained by assigning the distance to the nearest edge to each pixel constituting the captured image as a pixel value. By referring to this distance map, the distance to the nearest edge is calculated one by one. This saves you time and effort.
しかし、従来の3次元物体認識装置は、認識対象物の隠れの影響によってロバスト性が悪いという問題があった。すなわち、部品等が山積みされた状態では、カメラ方向から見ると、認識対象である3次元物体の一部が他の物体によって隠された状態となる場合がある。そして、あるピクセルから最も近いエッジが隠れた状態となった場合、最も近いエッジまでの距離が誤って計算されるため、3次元物体の位置及び姿勢を正しく評価することができず、誤認識が発生する。 However, the conventional three-dimensional object recognition apparatus has a problem that the robustness is poor due to the influence of hiding the recognition object. That is, in a state in which parts and the like are stacked, when viewed from the camera direction, a part of the three-dimensional object that is a recognition target may be hidden by another object. And when the closest edge from a certain pixel is hidden, the distance to the closest edge is calculated incorrectly, so the position and orientation of the three-dimensional object cannot be correctly evaluated, resulting in erroneous recognition. appear.
また、本発明に係る3次元認識システムは、予め定めた複数の位置及び姿勢を評価して最適なものを選択するに留まるため、3次元物体の本来の位置及び姿勢と比較して誤差が生じる場合があり、認識精度が悪いという問題もある。 In addition, since the three-dimensional recognition system according to the present invention only selects an optimum one by evaluating a plurality of predetermined positions and postures, an error occurs compared to the original position and posture of the three-dimensional object. In some cases, the recognition accuracy is poor.
本発明は、このような問題に鑑みてなされたものであり、2次元画像における輪郭などの特徴から3次元物体を認識する3次元物体認識装置において、隠れの影響を排除してロバスト性を向上させるとともに、位置及び姿勢を最適化して認識精度を高める手段を提供する。 The present invention has been made in view of such problems, and in a three-dimensional object recognition apparatus that recognizes a three-dimensional object from features such as contours in a two-dimensional image, improves the robustness by eliminating the influence of hiding. And a means for optimizing the position and orientation to increase the recognition accuracy.
上記目的を達成するための本発明の請求項1に係る3次元物体認識装置は、認識対象である3次元物体を所定方向から撮影して画像を取得するカメラと、前記3次元物体の位置及び姿勢を変化させながら、前記3次元物体のエッジを構成するサンプリング点のうち前記カメラから視認可能なサンプリング点をカメラ画像にそれぞれ投影し、各投影点の座標及び各投影点におけるエッジの向きをそれぞれ算出する投影点座標算出手段と、前記3次元物体の位置及び姿勢と、前記各投影点の座標及び各投影点におけるエッジの向きとを対応付けて格納したルックアップテーブルを記憶するルックアップテーブル記憶手段と、前記カメラが取得した原画像に基づいて、該原画像の解像度を異なる比率で低下させた複数枚のピラミッド画像を作成するピラミッド画像作成手段と、解像度が最も低い前記ピラミッド画像について前記3次元物体のエッジを抽出するエッジ抽出手段と、解像度が最も低い前記ピラミッド画像を構成する各ピクセルに、抽出したエッジのうち最も近いエッジまでの距離と、前記最も近いエッジの向きとを画素値として持たせてなる方向付きディスタンスマップを作成する方向付きディスタンスマップ作成手段と、前記方向付きディスタンスマップ上に、前記ルックアップテーブルに格納された前記各投影点をそれぞれマッピングする投影点マッピング手段と、前記各投影点におけるエッジの向きと、前記方向付きディスタンスマップにおいて前記各投影点に対応するピクセルが持つ最も近いエッジの向きとをそれぞれ比較し、両者が略一致する投影点群について対応するピクセル群が持つ最も近いエッジまでの距離の自乗和を算出し、その算出結果に基づいて前記3次元物体の位置及び姿勢を評価する位置姿勢評価手段と、該位置姿勢評価手段によって前記3次元物体の実際の位置及び姿勢に近いと評価された位置及び姿勢を、前記自乗和が最小となるように最適化する位置姿勢最適化手段と、を備えるものである。
In order to achieve the above object, a three-dimensional object recognition apparatus according to
また、請求項2に係る3次元物体認識装置は、前記エッジ抽出手段が、サブピクセル精度で前記3次元物体のエッジを抽出し、前記位置姿勢評価手段が、前記最も近いエッジまでの距離として、前記ピクセル群から前記サブピクセル精度のエッジへ降ろした垂線の長さを用いるものである。
Further, in the three-dimensional object recognition apparatus according to
また、請求項3に係る3次元物体認識装置は、コンピュータを、認識対象である3次元物体の位置及び姿勢を変化させながら、前記3次元物体のエッジを構成するサンプリング点のうちカメラから視認可能なサンプリング点をカメラ画像にそれぞれ投影し、各投影点の座標及び各投影点におけるエッジの向きをそれぞれ算出する投影点座標算出手段と、前記3次元物体の位置及び姿勢と、前記各投影点の座標及び各投影点におけるエッジの向きとを対応付けて格納したルックアップテーブルを記憶するルックアップテーブル記憶手段と、前記カメラが取得した原画像に基づいて、該原画像の解像度を異なる比率で低下させた複数枚のピラミッド画像を作成するピラミッド画像作成手段と、解像度が最も低い前記ピラミッド画像について前記3次元物体のエッジを抽出するエッジ抽出手段と、解像度が最も低い前記ピラミッド画像を構成する各ピクセルに、抽出したエッジのうち最も近いエッジまでの距離と、前記最も近いエッジの向きとを画素値として持たせてなる方向付きディスタンスマップを作成する方向付きディスタンスマップ作成手段と、前記方向付きディスタンスマップ上に、前記ルックアップテーブルに格納された前記各投影点をそれぞれマッピングする投影点マッピング手段と、前記各投影点におけるエッジの向きと、前記方向付きディスタンスマップにおいて前記各投影点に対応するピクセルが持つ最も近いエッジの向きとをそれぞれ比較し、両者が略一致する投影点群について対応するピクセル群が持つ最も近いエッジまでの距離の自乗和を算出し、その算出結果に基づいて前記3次元物体の位置及び姿勢を評価する位置姿勢評価手段と、該位置姿勢評価手段によって前記3次元物体の実際の位置及び姿勢に近いと評価された位置及び姿勢を、前記自乗和が最小となるように最適化する位置姿勢最適化手段として機能させるものである。
The three-dimensional object recognition apparatus according to
また、請求項4に係る3次元物体認識プログラムが記録されたコンピュータ読み取り可能な記録媒体は、請求項3に記載の3次元物体認識プログラムが記録されたものである。
A computer-readable recording medium on which the three-dimensional object recognition program according to
本発明の請求項1に係る3次元物体認識装置によれば、位置姿勢評価手段が、方向付けディスタンスマップとエッジの向きが略一致する投影点だけについて自乗和を算出する。従って、カメラの方向から見て3次元物体の一部が他の物体によって隠された状態であって、最も近いエッジまでの距離が誤って計算されたピクセルに関しては、エッジの向きが一致せず、自乗和を算出する対象から除外される。これにより、いわゆる隠れの影響を低減して、ロバスト性を向上させることができる。また、解像度が最も低いピラミッド画像を用いてルックアップテーブルに格納された位置及び姿勢を評価するので、処理速度を高速化することができる。また、位置姿勢最適化手段が、実際の位置及び姿勢に近いと評価された位置及び姿勢を更に最適化するので、位置及び姿勢の認識精度を向上させることができる。 According to the three-dimensional object recognition apparatus of the first aspect of the present invention, the position / orientation evaluation means calculates the sum of squares only for the projected points whose edge directions substantially coincide with the orientation distance map. Therefore, the edge direction does not match for a pixel in which a part of a three-dimensional object is hidden by another object when viewed from the camera direction and the distance to the nearest edge is erroneously calculated. And excluded from the target of calculating the sum of squares. Thereby, the so-called hiding effect can be reduced and the robustness can be improved. Further, since the position and orientation stored in the lookup table are evaluated using the pyramid image having the lowest resolution, the processing speed can be increased. In addition, since the position and orientation optimization unit further optimizes the position and orientation evaluated to be close to the actual position and orientation, the position and orientation recognition accuracy can be improved.
また、請求項2に係る3次元物体認識装置によれば、ピラミッド画像についてのエッジ抽出をサブピクセル精度で行うので、位置及び姿勢の認識精度を向上させることができる。 In addition, according to the three-dimensional object recognition apparatus according to the second aspect, the edge extraction of the pyramid image is performed with sub-pixel accuracy, so that the position and orientation recognition accuracy can be improved.
また、請求項3に係る3次元物体認識プログラムによれば、請求項1に係る3次元物体認識装置と同様の効果が得られる。 Further, according to the three-dimensional object recognition program according to the third aspect, the same effect as the three-dimensional object recognition apparatus according to the first aspect can be obtained.
また、請求項4に係る3次元物体認識プログラムが記録されたコンピュータ読み取り可能な記録媒体によれば、請求項1に係る3次元物体認識装置と同様の効果が得られる。 According to the computer-readable recording medium on which the three-dimensional object recognition program according to the fourth aspect is recorded, the same effect as that of the three-dimensional object recognition apparatus according to the first aspect can be obtained.
図1は、本実施例に係る3次元物体認識装置1の構成を示す模式図である。3次元物体認識装置1は、作業台2の上に置かれた認識対象としての3次元物体3と、この3次元物体3を異なる方向から撮影する2台のカメラ4と、3次元物体3を把持するためのロボットアーム5と、各カメラ4から入力された撮影画像に基づいてロボットアーム5の動作を制御するコンピュータ6とを備えるものである。
FIG. 1 is a schematic diagram illustrating a configuration of a three-dimensional
コンピュータ6は、図1に示すように、カメラ4が撮影した画像データ等を記憶する画像メモリ7と、3次元物体認識プログラム8を格納するハードディスク9と、該ハードディスク9から読み出された3次元物体認識プログラム8を一時記憶するRAM(Randaom Access Memory)10と、この3次元物体認識プログラム8に従って3次元物体3の位置及び姿勢を算出するCPU(Central Processing Unit)11と、画像メモリ7に記憶された画像データやCPU11による算出結果を表示するための表示部12と、マウスやキーボード等で構成される操作部13と、これら各部を互いに接続するシステムバス14とを有している。尚、本実施例では3次元物体認識プログラム8をハードディスク9に格納しているが、これに代えて、コンピュータ読み取り可能な記録媒体(不図示)に格納しておき、この記録媒体から読み出すことも可能である。
As shown in FIG. 1, the computer 6 includes an image memory 7 for storing image data taken by the
以下、3次元物体認識プログラム8による処理手順について説明する。図2は、3次元物体認識プログラム8による処理の流れを示すフローチャートである。まず、CPU11は、3次元物体3を撮影した原画像がカメラ4から入力されると、この原画像に基づいて複数枚のピラミッド画像を作成し(S1)、図1に示す画像メモリ7に記憶する。図3は、ピラミッド画像15を説明するための説明図である。ピラミッド画像15は、原画像16の解像度を所定の比率で低下させたものである。例えば、CPU11は、縦横両方向にそれぞれn個ずつのピクセルが並んだ原画像16が入力された場合、縦横両方向にそれぞれn/2個のピクセルが並んだ第1ピラミッド画像15A、縦横両方向にそれぞれn/4個のピクセルが並んだ第2ピラミッド画像15B、縦横両方向にそれぞれn/8個のピクセルが並んだ第3ピラミッド画像15Cを作成する。尚、本実施例では3段階のピラミッド画像15を作成したが、この段階数は入力画像の大きさに応じて適宜変更することができる。
Hereinafter, a processing procedure by the three-dimensional
次に、CPU11は、図2に示すように、解像度が最も低い第3ピラミッド画像15Cについて3次元物体3のエッジを抽出する(S2)。ここで、このエッジ抽出としては、ピクセル精度でのエッジ抽出を行う。図4は、エッジ抽出を説明するための説明図であって、原画像16の一部をピクセルレベルまで拡大した状態を示している。ピクセル精度でのエッジ抽出によれば、図において黒く塗り潰されたエッジ構成ピクセル17の集合体としてエッジが抽出される(以下、このエッジを「ピクセルエッジ18」と呼ぶ)。尚、本実施例では処理速度を優先させるべくピクセル精度でのエッジ抽出を行ったが、高い認識精度が要求される場合には、サブピクセル精度でのエッジ抽出を行ってもよい。サブピクセル精度でのエッジ抽出によれば、図4に直線で示すように、隣接ピクセル間隔D以下の精度でエッジが抽出される(以下、このエッジを「サブピクセルエッジ19」と呼ぶ)。
Next, as shown in FIG. 2, the
次に、CPU11は、図2に示すように、方向付きディスタンスマップを作成し(S3)、図1に示すRAM8に記憶する。方向付きディスタンスマップとは、図に詳細は示さないが、エッジ抽出を行った第3ピラミッド画像15Cを構成する各ピクセルに、そのピクセルから最も近いピクセルエッジ18までの距離と、最も近いピクセルエッジ18の向きとを画素値として持たせたものである。
Next, as shown in FIG. 2, the
次に、CPU11は、方向付きディスタンスマップ上に、予め記憶したルックアップテーブルに格納された投影点をそれぞれマッピングする(S4)。このルックアップテーブルとは、3次元物体3の形状やカメラ4の位置等に応じ、CPU11が事前に作成してRAM10等に記憶したものである。その作成方法は、図5に示すように、3次元物体3の各エッジ20の上にサンプリング点21を設定し、各サンプリング点21がカメラ4から視認可能であるか否かを判定する。そして、カメラ4から視認可能と判断したサンプリング点21だけをカメラ画像22に投影し、投影点23の座標及び投影点23におけるエッジ24の向きを算出する。この作業を、カメラ4の位置等から考えて可能性のある全範囲に渡って、3次元物体3の位置(3自由度)及び姿勢(3自由度)を十分に細かく変化させながら、繰り返し行う。そして、3次元物体3の位置及び姿勢に対応付けて、投影点23の座標と投影点23におけるエッジ20の向きとを格納することにより、ルックアップテーブルを作成する。CPU11は、このルックアップテーブルに格納された各投影点23を、その座標に基づいて方向付きディスタンスマップ上に順次配置する。尚、方向付きディスタンスマップでは、最も近いピクセルエッジ18までの距離は画素毎にしか格納されていないため、投影点23のマッピングに際し、投影点23の座標値が小数部分を有する場合には、いわゆるバイリニア補間を用いることによって投影点23の配置位置を決定すればよい。
Next, the
次に、CPU11は、マッピングされた各投影点23におけるエッジ24の向きと、方向付けディスタンスマップ上でその投影点23に対応するピクセルが画素値として持つ最も近いピクセルエッジ18の向きとを比較する。そして、両者が一致する投影点群について、CPU11は、その投影点群に対応するピクセル群が持つ最も近いピクセルエッジ18までの距離の自乗和を算出し、その算出結果に基づいて、3次元物体3の位置及び姿勢を評価する(S5)。すなわち、投影点23からなるエッジ24と、ピラミッド画像15Aにおけるピクセルエッジ18とを比較した時の誤差の大きさに基づいて、ルックアップテーブルに従って決定した位置及び姿勢が、3次元物体3の実際の位置及び姿勢からどの程度近いかを評価する。
Next, the
ここで、前記自乗和の算出に際しては、最も近いエッジまでの距離として、図4に示す対象ピクセル25からピクセルエッジ18までの距離Laを用いる。このピクセルエッジ18までの距離Laとは、図で黒く塗り潰されたエッジ構成ピクセル17までの最短距離を意味している。尚、前述のようにピラミッド画像15についてのエッジ抽出をサブピクセル精度で行った場合には、最も近いエッジまでの距離として、図4に示す対象ピクセル25からサブピクセルエッジ19までの距離Lbを用いてもよい。このサブピクセルエッジ19までの距離Lbとは、対象ピクセル25からサブピクセルエッジ19へと降ろした垂線26の長さを意味している。また、要求される処理速度と認識精度の兼ね合いによっては、最も近いエッジまでの距離として距離Laと距離Lbを混在させて用いてもよい。例えば、距離Lbが隣接ピクセル間距離Dに満たない場合には距離Lbを用い、距離Lbが隣接ピクセル間距離D以上である場合には距離Laを用いるようにしてもよい。
Here, when calculating the sum of squares, the distance La from the
そして、評価の結果、ルックアップテーブルに従って決定した位置及び姿勢が、3次元物体3の実際の位置及び姿勢に近いと判断した場合、CPU11は、前記自乗和が最小となるように、当該位置及び姿勢を最適化する(S6)。ここで、この最適化には、従来公知のレーベンバーグ・マーカート法を用いる。このように、方向付けディスタンスマップとエッジの向きが略一致する投影点23だけについて前記自乗和を算出するので、カメラ4の方向から見て3次元物体3の一部が他の物体によって隠された状態であって、最も近いエッジまでの距離が誤って計算されたピクセルに関しては、エッジの向きが一致せず、前記自乗和を算出する対象から除外される。これにより、いわゆる隠れの影響を低減して、ロバスト性を向上させることができる。また、自乗和が最小となるように位置及び姿勢を最適化することにより、位置及び姿勢の認識精度を向上させることができる。尚、位置及び姿勢の最適化の手法としては、レーベンバーグ・マーカート法に限られず、従来公知の他の非線形最適化手法を用いてもよい。
If the
その後、CPU11は、S6で最適化した位置及び精度が必要な精度を満たしているか否かを判定し(S7)、必要な精度を満たしていると判断した場合は(S7:Yes)、第1ピラミッド画像15Aについて得られた位置及び姿勢を最終結果として出力し(S8)、処理を終了する。一方、S7での判定の結果、必要な精度を満たしていないと判断した場合は(S7:No)、未処理のピラミッド画像15があるか否かを判定し(S9)、未処理のピラミッド画像15はないと判断した場合は(S9:No)、第1ピラミッド画像15Aの結果を最終結果として出力し(S8)、処理を終了する。一方、未処理のピラミッド画像15があると判断した場合は(S9:Yes)、S2へ戻って残りのピラミッド画像15例えば第2ピラミッド画像15Bについて同様の処理を行う。そして、未処理のピラミッド画像15が無くなるまでこれを繰り返す。このように、必要な精度に達するまで、より解像度の高いピラミッド画像15について処理を行うことにより、3次元物体3の位置及び姿勢をより高い精度で認識することができる。もちろん、高速な処理速度が要求される場合には、所定段階のピラミッド画像15で処理が終了するよう予め定めておいてもよいし、また所定段階のピラミッド画像15だけについて処理を行うように予め定めておいてもよい。
Thereafter, the
本発明に係る3次元物体認識装置は、ロボットアーム以外の他の機器の動作制御に用いることも可能である。 The three-dimensional object recognition apparatus according to the present invention can also be used for operation control of devices other than the robot arm.
1 3次元物体認識装置
3 3次元物体
4 カメラ
8 3次元物体認識プログラム
15 ピラミッド画像
15C 第3ピラミッド画像
16 原画像
18 ピクセルエッジ
19 サブピクセルエッジ
21 サンプリング点
22 カメラ画像
23 投影点
DESCRIPTION OF
Claims (4)
前記3次元物体の位置及び姿勢を変化させながら、前記3次元物体のエッジを構成するサンプリング点のうち前記カメラから視認可能なサンプリング点をカメラ画像にそれぞれ投影し、各投影点の座標及び各投影点におけるエッジの向きをそれぞれ算出する投影点座標算出手段と、
前記3次元物体の位置及び姿勢と、前記各投影点の座標及び各投影点におけるエッジの向きとを対応付けて格納したルックアップテーブルを記憶するルックアップテーブル記憶手段と、
前記カメラが取得した原画像に基づいて、該原画像の解像度を異なる比率で低下させた複数枚のピラミッド画像を作成するピラミッド画像作成手段と、
解像度が最も低い前記ピラミッド画像について前記3次元物体のエッジを抽出するエッジ抽出手段と、
解像度が最も低い前記ピラミッド画像を構成する各ピクセルに、抽出したエッジのうち最も近いエッジまでの距離と、前記最も近いエッジの向きとを画素値として持たせてなる方向付きディスタンスマップを作成する方向付きディスタンスマップ作成手段と、
前記方向付きディスタンスマップ上に、前記ルックアップテーブルに格納された前記各投影点をそれぞれマッピングする投影点マッピング手段と、
前記各投影点におけるエッジの向きと、前記方向付きディスタンスマップにおいて前記各投影点に対応するピクセルが持つ最も近いエッジの向きとをそれぞれ比較し、両者が略一致する投影点群について対応するピクセル群が持つ最も近いエッジまでの距離の自乗和を算出し、その算出結果に基づいて前記3次元物体の位置及び姿勢を評価する位置姿勢評価手段と、
該位置姿勢評価手段によって前記3次元物体の実際の位置及び姿勢に近いと評価された位置及び姿勢を、前記自乗和が最小となるように最適化する位置姿勢最適化手段と、
を備えることを特徴とする3次元物体認識装置。 A camera that captures an image by photographing a three-dimensional object to be recognized from a predetermined direction;
While changing the position and orientation of the three-dimensional object, the sampling points that are visible from the camera among the sampling points constituting the edge of the three-dimensional object are respectively projected onto the camera image, and the coordinates of each projection point and each projection Projection point coordinate calculating means for calculating the direction of the edge at each point;
Look-up table storage means for storing a look-up table in which the position and orientation of the three-dimensional object are associated with the coordinates of the projection points and the direction of the edge at each projection point;
Pyramid image creation means for creating a plurality of pyramid images in which the resolution of the original image is reduced at different ratios based on the original image acquired by the camera;
Edge extraction means for extracting an edge of the three-dimensional object for the pyramid image having the lowest resolution;
Direction to create a directional distance map in which each pixel constituting the pyramid image with the lowest resolution has the distance to the nearest edge among the extracted edges and the direction of the nearest edge as pixel values With distance map creation means,
Projection point mapping means for mapping each of the projection points stored in the look-up table on the directional distance map;
The direction of the edge at each projection point is compared with the direction of the nearest edge of the pixel corresponding to the projection point in the directional distance map, and the pixel group corresponding to the projection point group in which both are substantially the same Position and orientation evaluation means for calculating the sum of squares of the distance to the nearest edge of the image and evaluating the position and orientation of the three-dimensional object based on the calculation result;
Position and orientation optimization means for optimizing the position and orientation evaluated by the position and orientation evaluation means as being close to the actual position and orientation of the three-dimensional object so that the sum of squares is minimized;
A three-dimensional object recognition apparatus comprising:
前記位置姿勢評価手段が、前記最も近いエッジまでの距離として、前記ピクセル群から前記サブピクセル精度のエッジへ降ろした垂線の長さを用いることを特徴とする請求項1に記載の3次元物体認識装置。 The edge extraction means extracts the edge of the three-dimensional object with sub-pixel accuracy;
2. The three-dimensional object recognition according to claim 1, wherein the position and orientation evaluation unit uses a length of a perpendicular line dropped from the pixel group to the sub-pixel precision edge as a distance to the nearest edge. apparatus.
認識対象である3次元物体の位置及び姿勢を変化させながら、前記3次元物体のエッジを構成するサンプリング点のうちカメラから視認可能なサンプリング点をカメラ画像にそれぞれ投影し、各投影点の座標及び各投影点におけるエッジの向きをそれぞれ算出する投影点座標算出手段と、
前記3次元物体の位置及び姿勢と、前記各投影点の座標及び各投影点におけるエッジの向きとを対応付けて格納したルックアップテーブルを記憶するルックアップテーブル記憶手段と、
前記カメラが取得した原画像に基づいて、該原画像の解像度を異なる比率で低下させた複数枚のピラミッド画像を作成するピラミッド画像作成手段と、
解像度が最も低い前記ピラミッド画像について前記3次元物体のエッジを抽出するエッジ抽出手段と、
解像度が最も低い前記ピラミッド画像を構成する各ピクセルに、抽出したエッジのうち最も近いエッジまでの距離と、前記最も近いエッジの向きとを画素値として持たせてなる方向付きディスタンスマップを作成する方向付きディスタンスマップ作成手段と、
前記方向付きディスタンスマップ上に、前記ルックアップテーブルに格納された前記各投影点をそれぞれマッピングする投影点マッピング手段と、
前記各投影点におけるエッジの向きと、前記方向付きディスタンスマップにおいて前記各投影点に対応するピクセルが持つ最も近いエッジの向きとをそれぞれ比較し、両者が略一致する投影点群について対応するピクセル群が持つ最も近いエッジまでの距離の自乗和を算出し、その算出結果に基づいて前記3次元物体の位置及び姿勢を評価する位置姿勢評価手段と、
該位置姿勢評価手段によって前記3次元物体の実際の位置及び姿勢に近いと評価された位置及び姿勢を、前記自乗和が最小となるように最適化する位置姿勢最適化手段
として機能させるための3次元物体認識プログラム。 Computer
While changing the position and orientation of the three-dimensional object that is the recognition target, among the sampling points that constitute the edge of the three-dimensional object, the sampling points that are visible from the camera are respectively projected onto the camera image, and the coordinates of each projection point and Projection point coordinate calculating means for calculating the direction of the edge at each projection point;
Look-up table storage means for storing a look-up table in which the position and orientation of the three-dimensional object are associated with the coordinates of the projection points and the direction of the edge at each projection point;
Pyramid image creation means for creating a plurality of pyramid images in which the resolution of the original image is reduced at different ratios based on the original image acquired by the camera;
Edge extraction means for extracting an edge of the three-dimensional object for the pyramid image having the lowest resolution;
Direction to create a directional distance map in which each pixel constituting the pyramid image with the lowest resolution has the distance to the nearest edge among the extracted edges and the direction of the nearest edge as pixel values With distance map creation means,
Projection point mapping means for mapping each of the projection points stored in the look-up table on the directional distance map;
The direction of the edge at each projection point is compared with the direction of the nearest edge of the pixel corresponding to the projection point in the directional distance map, and the pixel group corresponding to the projection point group in which both are substantially the same Position and orientation evaluation means for calculating the sum of squares of the distance to the nearest edge of the image and evaluating the position and orientation of the three-dimensional object based on the calculation result;
3 for causing the position and orientation evaluated by the position and orientation evaluation means to be close to the actual position and orientation of the three-dimensional object to function as position and orientation optimization means for optimizing the sum of squares to be minimized. Dimensional object recognition program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009051500A JP4649559B2 (en) | 2009-03-05 | 2009-03-05 | 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009051500A JP4649559B2 (en) | 2009-03-05 | 2009-03-05 | 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010205095A JP2010205095A (en) | 2010-09-16 |
JP4649559B2 true JP4649559B2 (en) | 2011-03-09 |
Family
ID=42966487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009051500A Active JP4649559B2 (en) | 2009-03-05 | 2009-03-05 | 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4649559B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11189053B2 (en) | 2018-06-04 | 2021-11-30 | Canon Kabushiki Kaisha | Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4677536B1 (en) * | 2009-11-20 | 2011-04-27 | 株式会社三次元メディア | 3D object recognition apparatus and 3D object recognition method |
JP2013101045A (en) * | 2011-11-08 | 2013-05-23 | Fanuc Ltd | Recognition device and recognition method of three-dimensional position posture of article |
JP5899951B2 (en) * | 2012-01-18 | 2016-04-06 | セイコーエプソン株式会社 | Robot apparatus and position and orientation detection method |
JP6198104B2 (en) * | 2013-03-15 | 2017-09-20 | 株式会社三次元メディア | 3D object recognition apparatus and 3D object recognition method |
US11006039B1 (en) | 2020-02-13 | 2021-05-11 | Mujin, Inc. | Method and system for determining occlusion within a camera field of view |
CN111723688B (en) * | 2020-06-02 | 2024-03-12 | 合肥的卢深视科技有限公司 | Human body action recognition result evaluation method and device and electronic equipment |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009093611A (en) * | 2007-10-11 | 2009-04-30 | Mwtec Software Gmbh | System and method for recognizing three-dimensional object |
-
2009
- 2009-03-05 JP JP2009051500A patent/JP4649559B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009093611A (en) * | 2007-10-11 | 2009-04-30 | Mwtec Software Gmbh | System and method for recognizing three-dimensional object |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11189053B2 (en) | 2018-06-04 | 2021-11-30 | Canon Kabushiki Kaisha | Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2010205095A (en) | 2010-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4677536B1 (en) | 3D object recognition apparatus and 3D object recognition method | |
CN112348815B (en) | Image processing method, image processing apparatus, and non-transitory storage medium | |
CN110568447B (en) | Visual positioning method, device and computer readable medium | |
JP4649559B2 (en) | 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded | |
JP6011102B2 (en) | Object posture estimation method | |
US6671399B1 (en) | Fast epipolar line adjustment of stereo pairs | |
JP4785880B2 (en) | System and method for 3D object recognition | |
US20180189556A1 (en) | Hand gesture recognition for virtual reality and augmented reality devices | |
CN108629843B (en) | Method and equipment for realizing augmented reality | |
JP6299234B2 (en) | Display control method, information processing apparatus, and display control program | |
WO2017119940A1 (en) | Hand gesture recognition for cursor control | |
JP6716996B2 (en) | Image processing program, image processing apparatus, and image processing method | |
JP6256475B2 (en) | Image processing apparatus, image processing method, and image processing program | |
CN111079565B (en) | Construction method and identification method of view two-dimensional attitude template and positioning grabbing system | |
CN111401266B (en) | Method, equipment, computer equipment and readable storage medium for positioning picture corner points | |
JP5468824B2 (en) | Method and apparatus for determining shape match in three dimensions | |
EP3825804A1 (en) | Map construction method, apparatus, storage medium and electronic device | |
JP5762099B2 (en) | Posture recognition apparatus, work robot, posture recognition method, program, and recording medium | |
US8472756B2 (en) | Method for producing high resolution image | |
JP6016242B2 (en) | Viewpoint estimation apparatus and classifier learning method thereof | |
JP5083715B2 (en) | 3D position and orientation measurement method and apparatus | |
JP2001101419A (en) | Method and device for image feature tracking processing and three-dimensional data preparing method | |
JP6851089B2 (en) | Adaptive 3D space generation method and its system | |
CN116912195A (en) | Rotation target detection method, system, electronic device and storage medium | |
JP2009146150A (en) | Method and device for detecting feature position |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100907 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101007 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4649559 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131224 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131224 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131224 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |