JP6066562B2 - Measuring device, measuring method and program - Google Patents
Measuring device, measuring method and program Download PDFInfo
- Publication number
- JP6066562B2 JP6066562B2 JP2012014657A JP2012014657A JP6066562B2 JP 6066562 B2 JP6066562 B2 JP 6066562B2 JP 2012014657 A JP2012014657 A JP 2012014657A JP 2012014657 A JP2012014657 A JP 2012014657A JP 6066562 B2 JP6066562 B2 JP 6066562B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- orientation
- model
- smoothing
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Description
本発明は、物体の位置及び姿勢のうちの少なくとも何れか一方を計測する技術に関するものである。 The present invention relates to a technique for measuring at least one of the position and orientation of an object.
近年のロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、ハンド等のエンドエフェクタによって部品を把持して組立を行う。ロボットが部品を把持するためには、把持の対象となる部品とロボット(ハンド)との間の相対的な位置及び姿勢を計測する必要がある。位置及び姿勢を計測する方法としては、カメラによって撮影される2次元画像データ上から検出される特徴や、距離センサから得られる距離画像データに対して物体の3次元形状モデルを当てはめるモデルフィッティングによる計測が一般的である。非特許文献1には、距離画像データを用いて位置及び姿勢を計測する方法が開示されている。非特許文献1に開示される方法では、予め物体を3次元形状モデルによって表現し、距離画像データから変換された3次元点群データに3次元形状モデルを当てはめることにより物体の位置及び姿勢を計測する。具体的には、非特許文献2に開示されるIterative Closest Point(ICP)アルゴリズムを用い、位置及び姿勢の概略値に基づいた最近傍ポリゴンの探索と、点とポリゴンとの距離の総和が最小となるような位置及び姿勢の更新とが繰り返し行われる。 Along with the development of robot technology in recent years, robots are instead performing complicated tasks that have been performed by humans, such as assembly of industrial products. Such a robot performs assembly by gripping a part with an end effector such as a hand. In order for the robot to grip the part, it is necessary to measure the relative position and orientation between the part to be gripped and the robot (hand). As a method of measuring the position and orientation, measurement is performed by model fitting in which a three-dimensional shape model of an object is applied to features detected from two-dimensional image data captured by a camera or distance image data obtained from a distance sensor. Is common. Non-Patent Document 1 discloses a method of measuring position and orientation using distance image data. In the method disclosed in Non-Patent Document 1, an object is represented in advance by a three-dimensional shape model, and the position and orientation of the object are measured by applying the three-dimensional shape model to the three-dimensional point cloud data converted from the distance image data. To do. Specifically, the Iterative Closest Point (ICP) algorithm disclosed in Non-Patent Document 2 is used to search for the nearest polygon based on the approximate values of position and orientation, and the sum of the distances between the points and the polygon is minimum. The position and orientation are updated repeatedly.
しかしながら、上述した従来技術は、最近傍となる3次元点と3次元形状モデル面との距離(残差)という局所的な情報を最小化することで位置及び姿勢を算出するアルゴリズムである。そのため、高周波の凹凸形状が含まれる物体等の滑らかではない形状の物体に対しては、全体としては残差が残っている場合でも、一部の凹凸部分の局所的な残差が小さくなることによって、誤った位置姿勢に計算が収束してしまう可能性が高い。 However, the above-described conventional technique is an algorithm for calculating the position and orientation by minimizing local information such as the distance (residual) between the nearest three-dimensional point and the three-dimensional shape model surface. Therefore, for an object with a non-smooth shape, such as an object that contains high-frequency unevenness, even if the residual remains as a whole, the local residual of some unevenness is reduced. Therefore, there is a high possibility that the calculation will converge to an incorrect position and orientation.
このような問題に対し、[Kok−Lim Low and Anselmo Lastra,“Reliable and Rapidly−Converging ICP Algorithm Using Multiresolution Smoothing,”The International Conference on 3−D Digital Imaging and Modeling(3DIM),2003.]に開示されるように、物体の形状を滑らかな形状に変換して位置及び姿勢を推定する手法が知られている。この手法は、対象となる点群に対して、B−Spline曲面を当てはめ、点群をスムージングして、凹凸形状を滑らかな面に変換することにより、高周波の凹凸形状に起因する位置及び姿勢の推定に関する問題を解決している。 To this problem, [Kok-Lim Low and Anselmo Lastra, “Reliable and Rapidly-Converging ICP Algorithm Usage Multi-Resolution 3”, “The International Conferencing 3”, “The International Conferencing 3”. As disclosed in Japanese Patent Application Laid-Open No. 2005-218867, there is known a method for estimating the position and orientation by converting the shape of an object into a smooth shape. In this method, a B-Spline curved surface is applied to a target point group, the point group is smoothed, and the uneven shape is converted into a smooth surface. It solves the estimation problem.
しかし、この手法は、同じようなデータ量及び形状であるような3次元点群同士を用いた位置及び姿勢の推定を前提とした手法であるため、距離画像データと3次元形状モデルという異種のデータを用いた位置及び姿勢の推定に対して適用することはできない。一般的に、3次元形状モデルは物体の全周の情報を備えているのに対し、距離画像データは1視点から観察できる物体表面の3次元情報しか格納していない。そのため、3次元形状モデルに対して当てはめたB−Splineの曲面情報と、距離画像データに対して当てはめたB−Splineの情報とは大きく異なる。異なるパラメータのB−Spline曲面に基づいてスムージングした場合、その結果となる形状は、両者で大きく異なってしまい、スムージングした結果同士を用いてモデルフィッティングを行うことが有効でなくなる。従って、距離画像データと3次元形状モデルという異種のデータを用いたモデルフィッティングにおける高周波の凹凸形状の問題に対し、従来の手法を適用することはできない。 However, since this method is based on the presumption of position and orientation estimation using 3D point groups that have the same data amount and shape, the distance image data and the 3D shape model are different. It cannot be applied to position and orientation estimation using data. In general, a three-dimensional shape model includes information about the entire circumference of an object, whereas distance image data stores only three-dimensional information of an object surface that can be observed from one viewpoint. Therefore, the B-Spline curved surface information applied to the three-dimensional shape model is greatly different from the B-Spline information applied to the distance image data. When smoothing is performed based on B-Spline curved surfaces having different parameters, the resulting shapes are greatly different from each other, and it is not effective to perform model fitting using the smoothed results. Therefore, the conventional method cannot be applied to the problem of high-frequency unevenness in model fitting using dissimilar data such as distance image data and a three-dimensional shape model.
そこで、本発明の目的は、物体の形状に高周波の凹凸が含まれる場合でも、安定的に物体の位置及び姿勢を測定することにある。 Accordingly, an object of the present invention is to stably measure the position and orientation of an object even when the shape of the object includes high-frequency irregularities.
本発明の計測装置は、位置及び姿勢のうちの少なくとも何れか一つの計測対象となる物体が撮像された画像データを入力する入力手段と、前記入力手段により入力された前記画像データに対して、前記物体を表すモデルを投影する投影手段と、前記画像データ及び前記投影手段により前記画像データに対して投影されたモデルを平滑化する平滑化手段と、前記平滑化手段により平滑化された前記画像データ上の座標と、前記画像データに対して投影され、前記平滑化された前記モデル上の座標とを対応付ける対応付け手段と、前記対応付け手段により対応付けられた結果に基づいて、前記物体の位置及び姿勢のうちの少なくとも何れか一方を計測する計測手段とを有し、前記平滑化手段は、前記計測手段による前記物体の位置及び姿勢のうちの少なくとも何れか一方の計測処理の経過に応じた度合いで、前記画像データを平滑化することを特徴とする。 The measuring apparatus of the present invention is an input unit that inputs image data obtained by imaging an object to be measured at least one of position and orientation, and the image data input by the input unit , Projection means for projecting a model representing the object, smoothing means for smoothing the image data and a model projected on the image data by the projection means, and the image smoothed by the smoothing means Corresponding means for associating the coordinates on the data with the coordinates on the smoothed model projected onto the image data, and on the basis of the result of the association by the associating means Measuring means for measuring at least one of the position and orientation, and the smoothing means includes the position and orientation of the object by the measuring means. In degree with the elapse of at least one of the measurement process, characterized by smoothing the image data.
本発明によれば、物体の形状に高周波の凹凸が含まれる場合でも、安定的に物体の位置及び姿勢を測定することが可能となる。 According to the present invention, it is possible to stably measure the position and orientation of an object even when the shape of the object includes high-frequency irregularities.
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.
先ず、本発明の第1の実施形態について説明する。第1の実施形態では、物体の位置及び姿勢の概略は既知であると仮定し、3次元形状モデルと距離画像データとを用いて物体の位置及び姿勢を推定するものである。即ち、第1の実施形態では、対象となる3次元形状モデルが距離画像データの画像平面上に投影されることにより、視点から3次元形状モデルまでの距離が格納された距離画像データと同じデータ形式に3次元形状モデルが変換される。そして、両者のデータがスムージングされた後、計測対象の物体(以下、単に「物体」と称す)の位置及び姿勢が推定される。これにより、物体の位置及び姿勢を安定的に計測することが可能となる。 First, a first embodiment of the present invention will be described. In the first embodiment, it is assumed that the outline of the position and orientation of an object is known, and the position and orientation of the object are estimated using a three-dimensional shape model and distance image data. That is, in the first embodiment, the same data as the distance image data in which the distance from the viewpoint to the 3D shape model is stored by projecting the target 3D shape model onto the image plane of the distance image data. A three-dimensional shape model is converted into a form. Then, after both data are smoothed, the position and orientation of the measurement target object (hereinafter simply referred to as “object”) are estimated. As a result, the position and orientation of the object can be stably measured.
図1は、本発明の第1の実施形態に係る情報処理装置1の構成を示す図である。図1に示すように、情報処理装置1は、3次元モデル保存部110、距離画像入力部120、概略位置姿勢入力部130、3次元モデル投影部140、スムージング部150、対応付け部160及び位置姿勢算出部170を備える。3次元モデルデータ保存部110は3次元形状モデル10を保存する。3次元データ計測装置20は距離画像入力部120に接続される。情報処理装置1は、3次元モデル保存部110に保存される物体の形状を表す3次元形状モデル10に基づいて、距離画像データ中に撮像される物体の位置及び姿勢を計測する。なお、本実施形態において、3次元モデル保存部110に保存される3次元形状モデル10は、例えば工業部品の設計3次元CADデータのように、現実に撮像される物体の形状に即していることが好ましい。情報処理装置1は、計測装置の適用例となる構成である。
FIG. 1 is a diagram showing a configuration of an information processing apparatus 1 according to the first embodiment of the present invention. As illustrated in FIG. 1, the information processing apparatus 1 includes a three-dimensional
3次元データ計測装置20は、物体を含むシーン中の複数の点と当該3次元データ計測装置20との距離を計測し、距離画像データを出力する。ここでいう距離画像データとは、画素毎に3次元データ計測装置20からの距離が格納されている画像データである。本実施形態の3次元データ計測装置20では、対象に照射したレーザ光の反射光を撮影し、三角測量により距離を計測するアクティブ式の距離センサを使用している。但し、距離センサはこれに限るものではない。即ち、光の飛行時間を利用するTime−of−flight方式の距離センサを使用してもよいし、ステレオカメラによって撮影される画像データから三角測量によって3次元データ計測装置20からの距離を計算するパッシブ式の距離センサを使用してもよい。その他、距離画像データを出力することができれば、いかなる距離センサを用いてもよい。
The three-dimensional
3次元データ計測装置20から出力される距離画像データは、距離画像入力部120を介して情報処理装置1に入力される。3次元データ計測装置20の焦点距離、主点位置及びレンズ歪みパラメータ等の内部パラメータは、当該3次元データ計測装置20の仕様を参照することによって得られる。また、[R.Y.Tsai,"A versatile camera calibration technique for high−accuracy 3D machine vision metrology using off−the−shelf TV cameras and lenses,"IEEE Journal of Robotics and Automation,vol.RA−3,no.4,1987.]に開示される方法によって事前に3次元データ計測装置20をキャリブレーションして内部パラメータを得るようにしてもよい。
The distance image data output from the three-dimensional
距離画像入力部120は、3次元データ計測装置20から距離画像データを入力する。3次元形状モデル保存部110は、物体の3次元形状モデル10を保存する。本実施形態では、3次元面から構成される3次元形状モデル10によって物体を表現している。即ち、3次元形状モデル10は、点の集合と、各点を結んで構成される面の集合とによって定義される。
The distance
概略位置姿勢入力部130は、情報処理装置1に対する物体の位置及び姿勢の概略値を入力する。ここで情報処理装置1に対する物体の位置及び姿勢とは、距離画像データを撮像する3次元データ計測装置20のカメラ座標系における物体の位置及び姿勢を意味する。但し、カメラ座標系に対する相対的な位置及び姿勢が既知で且つ変化しなければ、情報処理装置1の何れの部分を基準としてもよい。本実施形態では、情報処理装置1は時間軸方向に連続して計測を行うものとして、前回(前時刻)の計測値を位置及び姿勢の概略値として用いるものとする。但し、位置及び姿勢の概略値の入力方法はこれに限るものではない。例えば、過去の位置及び姿勢の計測を基に物体の速度や角速度を時系列フィルタにより推定し、過去の位置及び姿勢について推定された速度及び角速度から、現在の位置及び姿勢を予測したものでもよい。また、様々な姿勢で撮像された物体の距離画像データをテンプレートとして保持しておき、入力される距離画像データとテンプレートとのマッチング(テンプレートマッチング)により、物体の位置及び姿勢の概略値を推定してもよい。その他、他のセンサによって物体の位置及び姿勢の計測が可能である場合、当該センサの出力値を位置及び姿勢の概略値として用いてもよい。物体の位置及び姿勢の計測が可能なセンサとして、例えば、トランスミッタが発する磁界を物体に装着されるレシーバで検出することにより位置及び姿勢を計測する磁気式センサが挙げられる。また、物体上に配置されたマーカを固定されたカメラで撮影することにより位置及び姿勢を計測する光学式センサを使用してもよい。また、6自由度の位置及び姿勢の計測が可能なセンサであれば、いかなるセンサを用いてもよい。さらに、物体の置かれているおおよその位置や姿勢が予めわかっている場合には、その値を概略値として用いてもよい。
The approximate position and
モデル投影部140は、3次元形状モデル保存部110に保存される3次元形状モデルを、概略位置姿勢入力部130により入力された位置及び姿勢の概略値を用いて、距離画像データの画像平面上に投影する。この投影処理の結果として、視点から3次元形状モデルの表面までの距離が格納された距離画像データ(以下、モデル距離画像データと称す)が生成される。
The
スムージング部150は、距離画像入力部130から入力された距離画像データと、モデル投影部140により生成されたモデル距離画像データとに対して、スムージング処理を施す。対応付け部160は、スムージング部150においてスムージング処理が施された距離画像データとモデル距離画像データとの対応付けを行う。位置姿勢算出部170は、対応付け部160において対応付けられた結果に基づいて、物体の位置及び姿勢を計測する。
The smoothing
図2は、本発明の第1の実施形態に係る情報処理装置1の処理を示すフローチャートである。以下、図2を参照しながら、第1の実施形態に係る情報処理装置1の処理について説明する。 FIG. 2 is a flowchart showing processing of the information processing apparatus 1 according to the first embodiment of the present invention. Hereinafter, the processing of the information processing apparatus 1 according to the first embodiment will be described with reference to FIG.
ステップS1010において、情報処理装置1は初期化処理を行う。即ち、概略位置姿勢入力部120は、物体の位置及び姿勢の概略値を初期値として入力する。本実施形態では、この初期値として入力された位置及び姿勢の概略値を、撮像された距離画像データに基づいて逐次更新していくことにより、物体の位置及び姿勢を計測する。そのため、物体の位置及び姿勢の計測を開始する前に、予め物体の位置及び姿勢の概略値を初期値として与えておく必要がある。本実施形態においては、上述したように、前回(前時刻)の計測値を位置及び姿勢の概略値として用いるものとする。
In step S1010, the information processing apparatus 1 performs an initialization process. That is, the approximate position and
ステップS1020において、距離画像入力部130は、モデルフィッティングにより物体の位置及び姿勢を算出するための距離画像データを3次元データ計測装置20から入力する。以下では、距離画像入力部130において入力された距離画像データを計測距離画像データと称す。なお、計測距離画像データは、画素毎に3次元データ計測装置20からの物体を含む対象までの距離を格納している。
In step S1020, the distance
ステップS1030において、3次元モデル投影部140は、3次元形状モデル10を計測距離画像データと同等のデータ量及び性質になるように変換を行う。具体的には、3次元モデル投影部140は、ステップS1020において入力された計測距離画像データの画像平面上に3次元形状モデル10を投影する。これにより、計測距離画像データと同じように視点から3次元形状モデル10までの距離が格納されたモデル距離画像データが生成される。本実施形態では、ステップS1010において入力された物体の位置パラメータ、姿勢パラメータ及び変形パラメータの概略値と、キャリブレーション済みの3次元データ計測装置20の内部パラメータとを用いて、3次元形状モデル10をレンダリングする。レンダリングにより、視点から3次元形状モデル10の表面までの距離がデプスバッファに格納される。3次元モデル投影部140は、デプスバッファに格納された距離をモデル距離画像データにおいて格納される距離として取り扱う。以上の処理により、3次元形状モデル10が計測距離画像データと同等のデータ形式に変換される。
In step S1030, the three-dimensional
ステップS1040において、スムージング部150は、ステップS1030で生成されたモデル距離画像データとステップS1020で入力された計測距離画像データとに対し、画像平面上での近傍の画素に基づいたスムージング処理を施す。本実施形態では、スムージング処理として、着目画素の近傍のN×Nピクセルの範囲において、標準偏差σのガウシアンフィルタによる平滑化が行われる。ガウシアンカーネルの標準偏差σは、モデル距離画像データ及び計測距離画像データをどの程度平滑化するかを決定するパラメータであり、σが大きくなればなるほど物体の形状は滑らかになる。その結果、位置及び姿勢の推定処理は安定するが、形状を平滑化した分だけ推定される位置及び姿勢が曖昧になる。Nは近傍を規定する範囲を示しており、その値は任意に決めてもよいし、ガウシアンカーネルの標準偏差σから求めてもよい。モデル距離画像データ及び計測距離画像データの平滑化が行える限り、Nの設定に制限はない。また、スムージング処理は、ガウシアンフィルタの適用に限らず、平均化フィルタやメディアンフィルタを適用する等、画像データの平滑化を行う処理であれば何でもよく、特に制限はない。本実施形態では、標準偏差σを1、近傍の範囲Nを3に設定してガウシアンフィルタによる平滑化処理を行うものとする。以上のようなスムージング処理をモデル距離画像データ及び計測距離画像データ上の全画素に対して行うことにより、形状が滑らかに処理されたモデル距離画像データ及び計測距離画像データが得られる。以下では、形状が滑らかに処理されたモデル距離画像データを平滑化モデル距離画像データと称し、同じく形状が滑らかに処理された計測距離画像データを平滑化計測処理画像データと称す。
In step S1040, the smoothing
次に、スムージング部150は、平滑化モデル距離画像データ及び平滑化計測距離画像データから3次元点群の座標を算出する。即ち、スムージング部150は、平滑化計測距離画像データの各画素について、画素の位置に対応する視線ベクトルと、当該画素に格納される距離とを乗算することにより、各画素に対応する3次元点群の座標を求める。また、スムージング部150は、平滑化モデル距離画像データに対しても同様の処理を行い、平滑化モデル距離画像データの各画素に対応する3次元点群を求める。但し、平滑化モデル距離画像データの場合、3次元形状モデル10に該当する領域でない部分には無効な距離が格納されているため、この部分の3次元点群は求めない。また、平滑化モデル距離画像データに関しては、各画素の3次元法線も求めておく。具体的には、着目画素と隣り合う画素の3点の3次元座標の外積を計算することにより、着目画素の3次元法線が求められる。
Next, the smoothing
以上の処理を、平滑化モデル距離画像データと平滑化計測距離画像データとの全画素に対して行うことにより、平滑化モデル距離画像データと平滑化計測距離画像データとのそれぞれについて、滑らかな形状に変換された3次元点群が得られる。 By performing the above processing on all pixels of the smoothed model distance image data and the smoothed measured distance image data, a smooth shape is obtained for each of the smoothed model distance image data and the smoothed measured distance image data. A three-dimensional point group converted into is obtained.
ステップS1050において、対応付け部160は、ステップS1040で生成された平滑化計測距離画像データと平滑化モデル距離画像データとの対応付けを行う。本実施形態では、平滑化モデル距離画像データ上の画素と3次元点群との関係は既知であるとして、平滑化モデル距離画像データ上の3次元形状モデル10に該当する領域の全画素に対して、画像平面上で同じ2次元座標となる平滑化計測距離画像データの3次元点を参照する。これにより、平滑化モデル距離画像データと平滑化計測距離画像データとの3次元点が対応付けられる。但し、平滑化モデル距離画像データ上の3次元形状モデル10に該当する領域内の全画素に対して処理を行うのではなく、当該領域内の画像平面上で等間隔になるように、或いは、3次元空間上で等間隔になるように間引いて処理してもよい。なお、対応付け処理を行う3次元点は、データ量と計算量とのトレードオフとなる。位置及び姿勢の算出処理に十分なだけの対応付けが得られる限り、処理する3次元点の選択は何れの場合でよく、特に制限はない。以上の処理により、平滑化計測距離画像データと平滑化モデル距離画像データ間の3次元点の対応付けが行われる。
In step S1050, the
ステップS1060において、位置姿勢算出部170は、平滑化計測距離画像データと平滑化モデル距離画像データ間の3次元点の対応付けに基づいて、非線形最適化計算を用いて物体の位置及び姿勢を算出する。本実施形態では、非線形最適化手法としてGauss-Newton法を用いるものとする。なお、非線形最適化手法はGauss-Newton法に限るものではない。例えば、より計算がロバストであるLevenberg-Marquardt法を用いてもよいし、よりシンプルな方法である最急降下法を用いてもよい。また、共役勾配法やICCG法等、他の非線形最適化計算手法を用いてもよい。
In step S1060, the position /
また、物体の位置及び姿勢の算出は、平滑化モデル距離画像データ中の各3次元点が、対応する平滑化計測距離画像データ中の3次元点に当てはまるように物体の位置及び姿勢の概略値を反復して更新することにより行われる。より具体的には、位置姿勢算出部170は、平滑化計測距離画像データ中の3次元点と、平滑化モデル距離画像データ中の3次元点及び3次元法線とから、3次元空間中での点と平面との符号付距離を物体の位置及び姿勢の関数として線形近似する。
In addition, the calculation of the position and orientation of the object is performed by calculating approximate values of the position and orientation of the object so that each three-dimensional point in the smoothed model distance image data applies to the corresponding three-dimensional point in the smoothed measurement distance image data. This is done by repeatedly updating. More specifically, the position /
次に、位置姿勢算出部170は、符号付距離を0としたときに位置及び姿勢について成り立つ線形方程式を組立て、この線形方程式を連立方程式として解く。これにより、位置姿勢算出部170は、物体の位置及び姿勢の微小変化を求め、位置及び姿勢の概略値を更新する。以上の処理を繰り返すことにより、最終的な位置及び姿勢が算出される。なお、平滑化モデル距離画像データと平滑化計測距離画像データとの誤差の最小化処理に関しては、本発明の本質に関わる話ではないため、記述を省略する。最小化処理の詳細は、非特許文献[Y.Chen and G.Medioni,“Object modeling by registration of multiple range images,”Image and Vision Computing,10(3),pp.145−155,1992.]を参照されたい。
Next, the position /
ステップS1070において、位置姿勢算出部170は、位置及び姿勢の算出処理の終了が指示されたか否かを判定する。位置及び姿勢の算出処理の終了が指示された場合、処理は終了する。一方、位置及び姿勢の算出処理の終了が指示されていない場合、処理はステップS1010に戻り、情報処理装置1は、新たな計測距離画像データを取得して、物体の位置及び姿勢を再度計測する。
In step S <b> 1070, the position /
以上のように、本実施形態では、3次元形状モデルを計測距離画像データと同じ形式に変換し、モデル距離画像データと計測距離画像データとの双方に対してスムージング処理を実行するようにしている。これにより、両者の形状を類似したまま平滑化を施すことが可能となる。本実施形態では、物体の形状が滑らかになるように変換することにより、物体の形状の凹凸が原因で発生する位置及び姿勢の測定処理の不安定性が減少し、物体の形状に凹凸がある物体に対して安定した位置及び姿勢の推定が可能となる。 As described above, in the present embodiment, the three-dimensional shape model is converted into the same format as the measurement distance image data, and the smoothing process is executed on both the model distance image data and the measurement distance image data. . This makes it possible to perform smoothing while keeping the shapes of the two similar. In this embodiment, by converting the object shape to be smooth, the instability of the position and orientation measurement processing caused by the unevenness of the object shape is reduced, and the object has an uneven shape. It is possible to estimate a stable position and posture.
第1の実施形態では、ステップS1040における平滑化処理のパラメータを固定させていた。但し、平滑化処理のパラメータはこれに限るものではない。例えば、位置及び姿勢の測定処理の経過、即ちループ回数(ステップS1070で分岐した回数)に応じて、平滑化処理の度合い、即ちパラメータを変更させてもよい。具体的には、ループ回数が少ないうちは、大きく平滑化するように平滑化処理のパラメータを設定し、ループ回数が多くなるにつれ、平滑化を小さくするように平滑化処理のパラメータを設定してもよい。これにより、繰り返し計算の最初は物体の形状を大きく平滑化することにより、安定した位置及び姿勢の測定処理を行い、繰り返し計算の後半は、物体の形状の平滑化を少なくすることにより、位置及び姿勢の測定処理の精度を高めることが可能になる。平滑化処理のパラメータを設定する方法は、以上に挙げた方法に限るものでなく、正常な平滑化処理が行えるパラメータを設定する限り、何れの方法を用いてもよい。 In the first embodiment, the parameters of the smoothing process in step S1040 are fixed. However, the parameter of the smoothing process is not limited to this. For example, the degree of smoothing processing, that is, the parameter may be changed according to the progress of the position and orientation measurement processing, that is, the number of loops (the number of branches in step S1070). Specifically, when the number of loops is small, the parameter of the smoothing process is set so as to be greatly smoothed, and as the number of loops is increased, the parameter of the smoothing process is set so as to reduce the smoothing. Also good. Thus, at the beginning of the iterative calculation, a stable position and orientation measurement process is performed by largely smoothing the shape of the object, and in the second half of the iterative calculation, the position and the position are reduced by reducing the smoothing of the object shape. It is possible to improve the accuracy of the posture measurement process. The method for setting the parameters for the smoothing process is not limited to the above-described methods, and any method may be used as long as the parameters that enable normal smoothing processing are set.
第1の実施形態では、3次元形状モデル10は、面の集合によって構成されるモデルを前提としていた。しかし、物体を表現するモデル形式はこれに限るものではない。例えば、3次元点の集合により構成されるモデルを用いてもよい。この場合、ステップS1030における3次元形状モデル10の変換処理では、モデルのレンダリング処理を行わずに、モデルを構成する各3次元点を、計測距離画像データの画像平面上に投影することで、モデル距離画像データを生成する。具体的には、ステップS1010において入力された物体の位置パラメータ、姿勢パラメータ及び変形パラメータの概略値と、キャリブレーション済みの3次元データ計測装置20の内部パラメータとを用いて、モデルを構成する3次元点を画像平面に投影する。そして、3次元点に対応する画像平面上の画素に、視点からモデルを構成する点までの距離を格納することでモデル距離画像データを生成する。なお、3次元形状モデル10を構成する形式は、以上に挙げた方法に限るものでなく、3次元形状モデル10から計測距離画像データと同等のデータ形式に変換することができる形式である限り、何れの形式を用いてもよい。
In the first embodiment, the three-
次に、本発明の第2の実施形態について説明する。第1の実施形態では、3次元形状モデルを距離画像データ形式に変換し、モデル距離画像データ全体に対してスムージング処理を実行することにより、物体の位置及び姿勢を計測する手法について説明した。これに対し、第2の実施形態では、3次元形状モデルを距離画像データ形式には変換せず、3次元形状モデル上で定義されるモデル表面上の3次元点毎に平滑化することにより、物体の位置及び姿勢を計測する手法について説明する。 Next, a second embodiment of the present invention will be described. In the first embodiment, the method of measuring the position and orientation of the object by converting the three-dimensional shape model into the distance image data format and executing the smoothing process on the entire model distance image data has been described. In contrast, in the second embodiment, the three-dimensional shape model is not converted into the distance image data format, but is smoothed for each three-dimensional point on the model surface defined on the three-dimensional shape model, A method for measuring the position and orientation of an object will be described.
図3は、本発明の第2の実施形態に係る情報処理装置2の構成を示す図である。図3に示すように、情報処理装置2は、3次元モデル保存部210、距離画像入力部220、概略位置姿勢入力部230、3次元モデル投影部240、スムージング部250、対応付け部260及び位置姿勢算出部270を備える。3次元モデルデータ保存部210は3次元形状モデル10を保存する。3次元データ計測装置20は距離画像入力部220に接続される。情報処理装置2は、3次元モデル保存部210に保存されている物体の形状を表す3次元形状モデル10に基づいて、距離画像データ中に撮像される物体の位置及び姿勢を計測する。なお、第2の実施形態における3次元形状モデル10も、第1の実施形態における3次元形状モデル10と同様に、現実に撮像される物体の形状に即していることが好ましい。
FIG. 3 is a diagram showing a configuration of the information processing apparatus 2 according to the second embodiment of the present invention. As illustrated in FIG. 3, the information processing apparatus 2 includes a 3D
3次元形状モデル保存部210は、位置及び姿勢の計測対象となる物体の3次元形状モデル10を保存する。本実施形態では、法線情報を持った3次元点から構成される3次元形状モデル10によって物体を表現している。即ち、3次元形状モデル10は、3次元点の集合と、3次元点それぞれに対するその点の法線方向の集合とによって定義される。
The three-dimensional shape
3次元モデル投影部240は、3次元形状モデル保存部210に保存された3次元形状モデル10を、概略位置姿勢入力部130により入力された位置及び姿勢の概略値を用いて、距離画像データの画像平面上に投影する。この投影処理の結果として、3次元形状モデル中の3次元点群の、画像平面上での2次元座標が算出される。
The three-dimensional
対応付け部250は、3次元形状モデル10中の3次元点群と距離画像データとの対応付けを行う。スムージング部260は、3次元形状モデル10中の3次元点群と距離画像データ中の3次元点群とに対してスムージング処理を行う。
The
なお、距離画像入力部220、概略位置姿勢入力部230及び位置姿勢算出部270は、第1の実施形態における距離画像入力部120、概略位置姿勢入力部130及び位置姿勢算出部170と同一であるため、これらについては説明を省略する。
The distance
図4は、第2の実施形態に係る情報処理装置2の処理を示すフローチャートである。以下、図4を参照しながら、第2の実施形態に係る情報処理装置2の処理について説明する。 FIG. 4 is a flowchart showing processing of the information processing apparatus 2 according to the second embodiment. Hereinafter, the processing of the information processing apparatus 2 according to the second embodiment will be described with reference to FIG.
ステップS2010において、情報処理装置2は初期化処理を行う。なお、ステップS2010は、第1の実施形態におけるステップS1010と同様の処理であるため、詳細な説明は省略する。 In step S2010, the information processing apparatus 2 performs an initialization process. Note that step S2010 is the same processing as step S1010 in the first embodiment, and thus detailed description thereof is omitted.
ステップS2020において、距離画像入力部220は、モデルフィッティングにより物体の位置及び姿勢を算出するための距離画像データを3次元データ計測装置20から入力する。なお、ステップS2020は、第1の実施形態におけるステップS1020と同様の処理であるため、詳細な説明は省略する。
In step S2020, the distance
ステップS2030において、対応付け部250は、3次元形状モデル10中の3次元点群と距離画像データとを対応付ける。具体的には、対応付け部250は、3次元形状モデル中の3次元点群を、ステップS2010において入力された物体の位置及び姿勢の概略値と、キャリブレーション済みの3次元データ計測装置20の内部パラメータとを用いて、距離画像データの画像平面に投影する。これにより、3次元形状モデル10の3次元点群と距離画像データ中の3次元点群とが対応付けられる。なお、3次元点群の座標の算出方法は、ステップS1040で説明した処理と同様である。3次元形状モデル10中の3次元点群全点について対応付けが終わると、処理はステップS2040に移行する。
In step S2030, the associating
ステップS2040において、スムージング部260は、ステップS2030にて対応付けられた3次元形状モデル10中の3次元点群と距離画像データ中の3次元点群とに対し、画像平面上の近傍の画素に基づいたスムージング処理を行う。即ち、スムージング部260は、3次元形状モデル10の3次元点それぞれに対し、画像平面上でN×Nピクセル以内の近傍となる他の3次元点の座標を算出し、近傍の3次元点の座標の平均を新たな3次元点の座標の値として採用することでスムージング処理を行う。この処理は、3次元形状モデル10の3次元点群と距離画像データ中の3次元点群とに対して同じように行われる。なお、画像平面上での近傍を定義するNの値の設定に特に制限はない。また、本実施形態では、3次元点の座標のスムージング処理として、近傍の3次元点の座標の平均を採用したが、これに限るものではない。例えば、3次元空間中の距離を係数として、近いものほど重みを大きくさせてもよい。以上の処理を3次元形状モデル10中の3次元点群と距離画像データ中の3次元点群とに対して施すことにより、3次元形状モデル10と距離画像データとのそれぞれについて、滑らかな形状に変換された3次元点群が得られる。
In step S2040, the smoothing
ステップS2050において、位置姿勢算出部270は、ステップS2040でスムージング処理が施された3次元形状モデル中の3次元点群と距離画像データの3次元点群とに基づいて、非線形最適化計算を用いて物体の位置及び姿勢を算出する。最適化計算の処理は、第1の実施形態におけるステップS1060と同様の処理であるため、詳細な説明は省略する。
In step S2050, the position /
ステップS2060において、位置姿勢算出部270は、位置及び姿勢の算出処理を終了する指示が入力されたか否かを判定する。位置及び姿勢の算出処理を終了する指示が入力された場合、処理は終了する。一方、位置及び姿勢の算出処理を終了する指示が入力されていない場合、処理はステップS2010に戻り、情報処理装置2は、新たな距離画像データを取得して、物体の位置及び姿勢を再度計測する。
In step S2060, the position /
以上のように、本実施形態では、3次元形状モデル中の3次元点群と距離画像データ中の3次元点群とに対し、画像平面上の近傍に基づくスムージング処理を行い、滑らかな形状に変換している。これにより、物体の形状の凹凸が原因で発生する位置及び姿勢の計測処理の不安定性が減少し、物体の形状に凹凸がある物体に対して安定した位置及び姿勢の推定が可能となる。 As described above, in the present embodiment, smoothing processing based on the neighborhood on the image plane is performed on the three-dimensional point group in the three-dimensional shape model and the three-dimensional point group in the distance image data to obtain a smooth shape. It has been converted. As a result, the instability of the position and orientation measurement processing caused by the unevenness of the shape of the object is reduced, and the stable position and orientation can be estimated for an object having unevenness in the shape of the object.
第1及び第2の実施形態では、位置姿勢算出部170及び位置姿勢算出部270は、物体の位置及び姿勢の両方を算出することを前提としていた。しかし、本発明は位置及び姿勢の両パラメータを推定する方式に限るものでない。例えば、位置及び姿勢のいずれか一方だけを算出しても特に問題ない。この場合、ステップS1060及びS2050において、推定しないパラメータ(位置パラメータを推定する場合は姿勢パラメータ、姿勢パラメータを推定する場合は位置パラメータ)に関しては、ステップS1010又はS2010において入力された概略の値を設定し、固定値として扱って繰り返し処理を行えばよい。
In the first and second embodiments, it is assumed that the position /
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
1、2:情報処理装置、10:3次元形状モデル、20:3次元データ計測装置、110、210:3次元モデル保存部、120、220:距離画像入力部、130、230:概略位置姿勢入力部、140、240:3次元モデル投影部、150、250:スムージング部、160、260:対応付け部、170、270:位置姿勢算出部 1, 2: Information processing device, 10: Three-dimensional shape model, 20: Three-dimensional data measurement device, 110, 210: Three-dimensional model storage unit, 120, 220: Distance image input unit, 130, 230: Approximate position and orientation input , 140, 240: three-dimensional model projection unit, 150, 250: smoothing unit, 160, 260: association unit, 170, 270: position and orientation calculation unit
Claims (5)
前記入力手段により入力された前記画像データに対して、前記物体を表すモデルを投影する投影手段と、
前記画像データ及び前記投影手段により前記画像データに対して投影されたモデルを平滑化する平滑化手段と、
前記平滑化手段により平滑化された前記画像データ上の座標と、前記画像データに対して投影され、前記平滑化された前記モデル上の座標とを対応付ける対応付け手段と、
前記対応付け手段により対応付けられた結果に基づいて、前記物体の位置及び姿勢のうちの少なくとも何れか一方を計測する計測手段と
を有し、
前記平滑化手段は、前記計測手段による前記物体の位置及び姿勢のうちの少なくとも何れか一方の計測処理の経過に応じた度合いで、前記画像データを平滑化することを特徴とする計測装置。 Input means for inputting image data obtained by imaging an object to be measured at least one of position and orientation;
Projecting means for projecting a model representing the object on the image data input by the input means;
Smoothing means for smoothing the model projected on the image data by the image data and the projection means ;
Association means for associating coordinates on the image data smoothed by the smoothing means with coordinates on the model projected onto the image data and smoothed ;
Measuring means for measuring at least one of the position and orientation of the object based on the result of association by the association unit;
The measurement apparatus characterized in that the smoothing means smoothes the image data at a degree corresponding to the progress of at least one of the position and orientation of the object by the measurement means.
位置及び姿勢のうちの少なくとも何れか一つの計測対象となる物体が撮像された画像データを入力する入力ステップと、An input step of inputting image data obtained by imaging an object to be measured at least one of position and orientation;
前記入力ステップにおいて入力された前記画像データに対して、前記物体を表すモデルを投影する投影ステップと、A projecting step of projecting a model representing the object to the image data input in the input step;
前記画像データ及び前記投影ステップにおいて前記画像データに対して投影されたモデルを平滑化する平滑化ステップと、A smoothing step of smoothing a model projected on the image data and the image data in the projecting step;
前記平滑化ステップにおいて平滑化された前記画像データ上の座標と、前記画像データに対して投影され、前記平滑化された前記モデル上の座標とを対応付ける対応付けステップと、An associating step for associating the coordinates on the image data smoothed in the smoothing step with the coordinates on the model that are projected and smoothed on the image data;
前記対応付けステップにおいて対応付けられた結果に基づいて、前記物体の位置及び姿勢のうちの少なくとも何れか一方を計測する計測ステップとA measurement step of measuring at least one of the position and orientation of the object based on the result of association in the association step;
を含み、Including
前記平滑化ステップにおいては、前記計測ステップにおける前記物体の位置及び姿勢のうちの少なくとも何れか一方の計測処理の経過に応じた度合いで、前記画像データを平滑化することを特徴とする計測方法。In the smoothing step, the image data is smoothed at a degree corresponding to the progress of the measurement process of at least one of the position and orientation of the object in the measurement step.
前記入力ステップにおいて入力された前記画像データに対して、前記物体を表すモデルを投影する投影ステップと、A projecting step of projecting a model representing the object to the image data input in the input step;
前記画像データ及び前記投影ステップにおいて前記画像データに対して投影されたモデルを平滑化する平滑化ステップと、A smoothing step of smoothing a model projected on the image data and the image data in the projecting step;
前記平滑化ステップにおいて平滑化された前記画像データ上の座標と、前記画像データに対して投影され、前記平滑化された前記モデル上の座標とを対応付ける対応付けステップと、An associating step for associating the coordinates on the image data smoothed in the smoothing step with the coordinates on the model that are projected and smoothed on the image data;
前記対応付けステップにおいて対応付けられた結果に基づいて、前記物体の位置及び姿勢のうちの少なくとも何れか一方を計測する計測ステップとA measurement step of measuring at least one of the position and orientation of the object based on the result of association in the association step;
をコンピュータに実行させ、To the computer,
前記平滑化ステップにおいては、前記計測ステップにおける前記物体の位置及び姿勢のうちの少なくとも何れか一方の計測処理の経過に応じた度合いで、前記画像データを平滑化するプログラム。In the smoothing step, a program for smoothing the image data to a degree corresponding to the progress of at least one of the position and orientation of the object in the measurement step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012014657A JP6066562B2 (en) | 2012-01-26 | 2012-01-26 | Measuring device, measuring method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012014657A JP6066562B2 (en) | 2012-01-26 | 2012-01-26 | Measuring device, measuring method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013156038A JP2013156038A (en) | 2013-08-15 |
JP6066562B2 true JP6066562B2 (en) | 2017-01-25 |
Family
ID=49051389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012014657A Active JP6066562B2 (en) | 2012-01-26 | 2012-01-26 | Measuring device, measuring method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6066562B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014005181A1 (en) * | 2014-04-03 | 2015-10-08 | Astrium Gmbh | Position and orientation of objects |
US9098754B1 (en) * | 2014-04-25 | 2015-08-04 | Google Inc. | Methods and systems for object detection using laser point clouds |
JP6009502B2 (en) * | 2014-07-29 | 2016-10-19 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing apparatus and information processing method |
JP6915326B2 (en) * | 2017-03-17 | 2021-08-04 | 富士フイルムビジネスイノベーション株式会社 | Image processing equipment, image processing systems and programs |
JP7278761B2 (en) * | 2018-03-30 | 2023-05-22 | キヤノン株式会社 | Image processing device, image processing method and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5320216B2 (en) * | 2009-08-26 | 2013-10-23 | パナソニック株式会社 | Image processing apparatus, image processing system, and image processing method |
JP2011175477A (en) * | 2010-02-24 | 2011-09-08 | Canon Inc | Three-dimensional measurement apparatus, processing method and program |
JP2011227696A (en) * | 2010-04-20 | 2011-11-10 | Seiko Epson Corp | Object detection device, object detection method, object detection program and robot |
-
2012
- 2012-01-26 JP JP2012014657A patent/JP6066562B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013156038A (en) | 2013-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200096317A1 (en) | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium | |
JP5839929B2 (en) | Information processing apparatus, information processing system, information processing method, and program | |
JP5567908B2 (en) | Three-dimensional measuring apparatus, measuring method and program | |
JP6324025B2 (en) | Information processing apparatus and information processing method | |
JP6180087B2 (en) | Information processing apparatus and information processing method | |
JP5839971B2 (en) | Information processing apparatus, information processing method, and program | |
JP5393318B2 (en) | Position and orientation measurement method and apparatus | |
JP5297403B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, program, and storage medium | |
JP5627325B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, and program | |
JP5480667B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, program | |
JP6092530B2 (en) | Image processing apparatus and image processing method | |
JP5615055B2 (en) | Information processing apparatus and processing method thereof | |
JP2011141174A (en) | Three-dimensional measurement apparatus and control method thereof | |
JP6066562B2 (en) | Measuring device, measuring method and program | |
Zhi et al. | Simultaneous hand-eye calibration and reconstruction | |
JP2015212644A (en) | Information processor, method thereof, measurement device and work device | |
JP2016170050A (en) | Position attitude measurement device, position attitude measurement method and computer program | |
JP5698815B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP6626338B2 (en) | Information processing apparatus, control method for information processing apparatus, and program | |
JP6040264B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP2012225888A (en) | Position posture measurement device and position posture measurement method | |
JP5991730B2 (en) | Measuring device, measuring method and program | |
US11978228B2 (en) | Systems and methods for determining an orientation of an image | |
JP5938201B2 (en) | Position / orientation measuring apparatus, processing method thereof, and program | |
JP6766229B2 (en) | Position and posture measuring device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161220 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6066562 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |