JP6066562B2 - Measuring device, measuring method and program - Google Patents

Measuring device, measuring method and program Download PDF

Info

Publication number
JP6066562B2
JP6066562B2 JP2012014657A JP2012014657A JP6066562B2 JP 6066562 B2 JP6066562 B2 JP 6066562B2 JP 2012014657 A JP2012014657 A JP 2012014657A JP 2012014657 A JP2012014657 A JP 2012014657A JP 6066562 B2 JP6066562 B2 JP 6066562B2
Authority
JP
Japan
Prior art keywords
image data
orientation
model
smoothing
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012014657A
Other languages
Japanese (ja)
Other versions
JP2013156038A (en
Inventor
圭祐 立野
圭祐 立野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012014657A priority Critical patent/JP6066562B2/en
Publication of JP2013156038A publication Critical patent/JP2013156038A/en
Application granted granted Critical
Publication of JP6066562B2 publication Critical patent/JP6066562B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体の位置及び姿勢のうちの少なくとも何れか一方を計測する技術に関するものである。   The present invention relates to a technique for measuring at least one of the position and orientation of an object.

近年のロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、ハンド等のエンドエフェクタによって部品を把持して組立を行う。ロボットが部品を把持するためには、把持の対象となる部品とロボット(ハンド)との間の相対的な位置及び姿勢を計測する必要がある。位置及び姿勢を計測する方法としては、カメラによって撮影される2次元画像データ上から検出される特徴や、距離センサから得られる距離画像データに対して物体の3次元形状モデルを当てはめるモデルフィッティングによる計測が一般的である。非特許文献1には、距離画像データを用いて位置及び姿勢を計測する方法が開示されている。非特許文献1に開示される方法では、予め物体を3次元形状モデルによって表現し、距離画像データから変換された3次元点群データに3次元形状モデルを当てはめることにより物体の位置及び姿勢を計測する。具体的には、非特許文献2に開示されるIterative Closest Point(ICP)アルゴリズムを用い、位置及び姿勢の概略値に基づいた最近傍ポリゴンの探索と、点とポリゴンとの距離の総和が最小となるような位置及び姿勢の更新とが繰り返し行われる。   Along with the development of robot technology in recent years, robots are instead performing complicated tasks that have been performed by humans, such as assembly of industrial products. Such a robot performs assembly by gripping a part with an end effector such as a hand. In order for the robot to grip the part, it is necessary to measure the relative position and orientation between the part to be gripped and the robot (hand). As a method of measuring the position and orientation, measurement is performed by model fitting in which a three-dimensional shape model of an object is applied to features detected from two-dimensional image data captured by a camera or distance image data obtained from a distance sensor. Is common. Non-Patent Document 1 discloses a method of measuring position and orientation using distance image data. In the method disclosed in Non-Patent Document 1, an object is represented in advance by a three-dimensional shape model, and the position and orientation of the object are measured by applying the three-dimensional shape model to the three-dimensional point cloud data converted from the distance image data. To do. Specifically, the Iterative Closest Point (ICP) algorithm disclosed in Non-Patent Document 2 is used to search for the nearest polygon based on the approximate values of position and orientation, and the sum of the distances between the points and the polygon is minimum. The position and orientation are updated repeatedly.

D.A.Simon,M.Hebert,and T.Kanade,“Real−time 3−D pose estimation using a high−speed range sensor,”Proc.1994 IEEE International Conference on Robotics and Automation(ICRA‘94),pp.2235−2241,1994.D. A. Simon, M.C. Hebert, and T.W. Kanade, “Real-time 3-D position estimation using a high-speed range sensor,” Proc. 1994 IEEE International Conference on Robotics and Automation (ICRA '94), pp. 2235-2241, 1994. P.J.Besl and N.D.McKay,“A method for registration of 3−D shapes,”IEEE Transactions on Pattern Analysis and Machine Intelligence,vol.14,no.2,pp.239−256,1992.P. J. et al. Besl and N.M. D. McKay, “A method for registration of 3-D shapes,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 14, no. 2, pp. 239-256, 1992.

しかしながら、上述した従来技術は、最近傍となる3次元点と3次元形状モデル面との距離(残差)という局所的な情報を最小化することで位置及び姿勢を算出するアルゴリズムである。そのため、高周波の凹凸形状が含まれる物体等の滑らかではない形状の物体に対しては、全体としては残差が残っている場合でも、一部の凹凸部分の局所的な残差が小さくなることによって、誤った位置姿勢に計算が収束してしまう可能性が高い。   However, the above-described conventional technique is an algorithm for calculating the position and orientation by minimizing local information such as the distance (residual) between the nearest three-dimensional point and the three-dimensional shape model surface. Therefore, for an object with a non-smooth shape, such as an object that contains high-frequency unevenness, even if the residual remains as a whole, the local residual of some unevenness is reduced. Therefore, there is a high possibility that the calculation will converge to an incorrect position and orientation.

このような問題に対し、[Kok−Lim Low and Anselmo Lastra,“Reliable and Rapidly−Converging ICP Algorithm Using Multiresolution Smoothing,”The International Conference on 3−D Digital Imaging and Modeling(3DIM),2003.]に開示されるように、物体の形状を滑らかな形状に変換して位置及び姿勢を推定する手法が知られている。この手法は、対象となる点群に対して、B−Spline曲面を当てはめ、点群をスムージングして、凹凸形状を滑らかな面に変換することにより、高周波の凹凸形状に起因する位置及び姿勢の推定に関する問題を解決している。   To this problem, [Kok-Lim Low and Anselmo Lastra, “Reliable and Rapidly-Converging ICP Algorithm Usage Multi-Resolution 3”, “The International Conferencing 3”, “The International Conferencing 3”. As disclosed in Japanese Patent Application Laid-Open No. 2005-218867, there is known a method for estimating the position and orientation by converting the shape of an object into a smooth shape. In this method, a B-Spline curved surface is applied to a target point group, the point group is smoothed, and the uneven shape is converted into a smooth surface. It solves the estimation problem.

しかし、この手法は、同じようなデータ量及び形状であるような3次元点群同士を用いた位置及び姿勢の推定を前提とした手法であるため、距離画像データと3次元形状モデルという異種のデータを用いた位置及び姿勢の推定に対して適用することはできない。一般的に、3次元形状モデルは物体の全周の情報を備えているのに対し、距離画像データは1視点から観察できる物体表面の3次元情報しか格納していない。そのため、3次元形状モデルに対して当てはめたB−Splineの曲面情報と、距離画像データに対して当てはめたB−Splineの情報とは大きく異なる。異なるパラメータのB−Spline曲面に基づいてスムージングした場合、その結果となる形状は、両者で大きく異なってしまい、スムージングした結果同士を用いてモデルフィッティングを行うことが有効でなくなる。従って、距離画像データと3次元形状モデルという異種のデータを用いたモデルフィッティングにおける高周波の凹凸形状の問題に対し、従来の手法を適用することはできない。   However, since this method is based on the presumption of position and orientation estimation using 3D point groups that have the same data amount and shape, the distance image data and the 3D shape model are different. It cannot be applied to position and orientation estimation using data. In general, a three-dimensional shape model includes information about the entire circumference of an object, whereas distance image data stores only three-dimensional information of an object surface that can be observed from one viewpoint. Therefore, the B-Spline curved surface information applied to the three-dimensional shape model is greatly different from the B-Spline information applied to the distance image data. When smoothing is performed based on B-Spline curved surfaces having different parameters, the resulting shapes are greatly different from each other, and it is not effective to perform model fitting using the smoothed results. Therefore, the conventional method cannot be applied to the problem of high-frequency unevenness in model fitting using dissimilar data such as distance image data and a three-dimensional shape model.

そこで、本発明の目的は、物体の形状に高周波の凹凸が含まれる場合でも、安定的に物体の位置及び姿勢を測定することにある。   Accordingly, an object of the present invention is to stably measure the position and orientation of an object even when the shape of the object includes high-frequency irregularities.

本発明の計測装置は、位置及び姿勢のうちの少なくとも何れか一つの計測対象となる物体が撮像された画像データを入力する入力手段と、前記入力手段により入力された前記画像データに対して、前記物体を表すモデルを投影する投影手段と、前記画像データ及び前記投影手段により前記画像データに対して投影されたモデルを平滑化する平滑化手段と、前記平滑化手段により平滑化された前記画像データ上の座標と、前記画像データに対して投影され、前記平滑化された前記モデル上の座標とを対応付ける対応付け手段と、前記対応付け手段により対応付けられた結果に基づいて、前記物体の位置及び姿勢のうちの少なくとも何れか一方を計測する計測手段とを有し、前記平滑化手段は、前記計測手段による前記物体の位置及び姿勢のうちの少なくとも何れか一方の計測処理の経過に応じた度合いで、前記画像データを平滑化することを特徴とする。 The measuring apparatus of the present invention is an input unit that inputs image data obtained by imaging an object to be measured at least one of position and orientation, and the image data input by the input unit , Projection means for projecting a model representing the object, smoothing means for smoothing the image data and a model projected on the image data by the projection means, and the image smoothed by the smoothing means Corresponding means for associating the coordinates on the data with the coordinates on the smoothed model projected onto the image data, and on the basis of the result of the association by the associating means Measuring means for measuring at least one of the position and orientation, and the smoothing means includes the position and orientation of the object by the measuring means. In degree with the elapse of at least one of the measurement process, characterized by smoothing the image data.

本発明によれば、物体の形状に高周波の凹凸が含まれる場合でも、安定的に物体の位置及び姿勢を測定することが可能となる。   According to the present invention, it is possible to stably measure the position and orientation of an object even when the shape of the object includes high-frequency irregularities.

本発明の第1の実施形態に係る情報処理装置の構成を示す図である。It is a figure which shows the structure of the information processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る情報処理装置の処理を示すフローチャートである。It is a flowchart which shows the process of the information processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る情報処理装置の構成を示す図である。It is a figure which shows the structure of the information processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る情報処理装置の処理を示すフローチャートである。It is a flowchart which shows the process of the information processing apparatus which concerns on the 2nd Embodiment of this invention.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.

先ず、本発明の第1の実施形態について説明する。第1の実施形態では、物体の位置及び姿勢の概略は既知であると仮定し、3次元形状モデルと距離画像データとを用いて物体の位置及び姿勢を推定するものである。即ち、第1の実施形態では、対象となる3次元形状モデルが距離画像データの画像平面上に投影されることにより、視点から3次元形状モデルまでの距離が格納された距離画像データと同じデータ形式に3次元形状モデルが変換される。そして、両者のデータがスムージングされた後、計測対象の物体(以下、単に「物体」と称す)の位置及び姿勢が推定される。これにより、物体の位置及び姿勢を安定的に計測することが可能となる。   First, a first embodiment of the present invention will be described. In the first embodiment, it is assumed that the outline of the position and orientation of an object is known, and the position and orientation of the object are estimated using a three-dimensional shape model and distance image data. That is, in the first embodiment, the same data as the distance image data in which the distance from the viewpoint to the 3D shape model is stored by projecting the target 3D shape model onto the image plane of the distance image data. A three-dimensional shape model is converted into a form. Then, after both data are smoothed, the position and orientation of the measurement target object (hereinafter simply referred to as “object”) are estimated. As a result, the position and orientation of the object can be stably measured.

図1は、本発明の第1の実施形態に係る情報処理装置1の構成を示す図である。図1に示すように、情報処理装置1は、3次元モデル保存部110、距離画像入力部120、概略位置姿勢入力部130、3次元モデル投影部140、スムージング部150、対応付け部160及び位置姿勢算出部170を備える。3次元モデルデータ保存部110は3次元形状モデル10を保存する。3次元データ計測装置20は距離画像入力部120に接続される。情報処理装置1は、3次元モデル保存部110に保存される物体の形状を表す3次元形状モデル10に基づいて、距離画像データ中に撮像される物体の位置及び姿勢を計測する。なお、本実施形態において、3次元モデル保存部110に保存される3次元形状モデル10は、例えば工業部品の設計3次元CADデータのように、現実に撮像される物体の形状に即していることが好ましい。情報処理装置1は、計測装置の適用例となる構成である。   FIG. 1 is a diagram showing a configuration of an information processing apparatus 1 according to the first embodiment of the present invention. As illustrated in FIG. 1, the information processing apparatus 1 includes a three-dimensional model storage unit 110, a distance image input unit 120, an approximate position and orientation input unit 130, a three-dimensional model projection unit 140, a smoothing unit 150, an association unit 160, and a position. An attitude calculation unit 170 is provided. The 3D model data storage unit 110 stores the 3D shape model 10. The three-dimensional data measuring device 20 is connected to the distance image input unit 120. The information processing apparatus 1 measures the position and orientation of the object imaged in the distance image data based on the three-dimensional shape model 10 representing the shape of the object stored in the three-dimensional model storage unit 110. In the present embodiment, the three-dimensional shape model 10 stored in the three-dimensional model storage unit 110 conforms to the shape of an object that is actually imaged, for example, design three-dimensional CAD data of an industrial part. It is preferable. The information processing apparatus 1 is a configuration that is an application example of a measurement apparatus.

3次元データ計測装置20は、物体を含むシーン中の複数の点と当該3次元データ計測装置20との距離を計測し、距離画像データを出力する。ここでいう距離画像データとは、画素毎に3次元データ計測装置20からの距離が格納されている画像データである。本実施形態の3次元データ計測装置20では、対象に照射したレーザ光の反射光を撮影し、三角測量により距離を計測するアクティブ式の距離センサを使用している。但し、距離センサはこれに限るものではない。即ち、光の飛行時間を利用するTime−of−flight方式の距離センサを使用してもよいし、ステレオカメラによって撮影される画像データから三角測量によって3次元データ計測装置20からの距離を計算するパッシブ式の距離センサを使用してもよい。その他、距離画像データを出力することができれば、いかなる距離センサを用いてもよい。   The three-dimensional data measuring device 20 measures the distance between a plurality of points in the scene including the object and the three-dimensional data measuring device 20, and outputs distance image data. The distance image data here is image data in which the distance from the three-dimensional data measuring device 20 is stored for each pixel. In the three-dimensional data measurement apparatus 20 of the present embodiment, an active distance sensor that captures the reflected light of the laser light irradiated on the object and measures the distance by triangulation is used. However, the distance sensor is not limited to this. That is, a time-of-flight distance sensor that uses the time of flight of light may be used, or the distance from the three-dimensional data measuring device 20 is calculated by triangulation from image data captured by a stereo camera. A passive distance sensor may be used. In addition, any distance sensor may be used as long as the distance image data can be output.

3次元データ計測装置20から出力される距離画像データは、距離画像入力部120を介して情報処理装置1に入力される。3次元データ計測装置20の焦点距離、主点位置及びレンズ歪みパラメータ等の内部パラメータは、当該3次元データ計測装置20の仕様を参照することによって得られる。また、[R.Y.Tsai,"A versatile camera calibration technique for high−accuracy 3D machine vision metrology using off−the−shelf TV cameras and lenses,"IEEE Journal of Robotics and Automation,vol.RA−3,no.4,1987.]に開示される方法によって事前に3次元データ計測装置20をキャリブレーションして内部パラメータを得るようにしてもよい。   The distance image data output from the three-dimensional data measuring device 20 is input to the information processing device 1 via the distance image input unit 120. Internal parameters such as the focal length, principal point position, and lens distortion parameters of the three-dimensional data measuring device 20 are obtained by referring to the specifications of the three-dimensional data measuring device 20. [R. Y. Tsai, "A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV ceras and ens. RA-3, no. 4, 1987. The internal parameters may be obtained by calibrating the three-dimensional data measuring apparatus 20 in advance by the method disclosed in FIG.

距離画像入力部120は、3次元データ計測装置20から距離画像データを入力する。3次元形状モデル保存部110は、物体の3次元形状モデル10を保存する。本実施形態では、3次元面から構成される3次元形状モデル10によって物体を表現している。即ち、3次元形状モデル10は、点の集合と、各点を結んで構成される面の集合とによって定義される。   The distance image input unit 120 inputs distance image data from the three-dimensional data measurement device 20. The three-dimensional shape model storage unit 110 stores the three-dimensional shape model 10 of the object. In the present embodiment, an object is represented by a three-dimensional shape model 10 composed of a three-dimensional surface. That is, the three-dimensional shape model 10 is defined by a set of points and a set of surfaces formed by connecting the points.

概略位置姿勢入力部130は、情報処理装置1に対する物体の位置及び姿勢の概略値を入力する。ここで情報処理装置1に対する物体の位置及び姿勢とは、距離画像データを撮像する3次元データ計測装置20のカメラ座標系における物体の位置及び姿勢を意味する。但し、カメラ座標系に対する相対的な位置及び姿勢が既知で且つ変化しなければ、情報処理装置1の何れの部分を基準としてもよい。本実施形態では、情報処理装置1は時間軸方向に連続して計測を行うものとして、前回(前時刻)の計測値を位置及び姿勢の概略値として用いるものとする。但し、位置及び姿勢の概略値の入力方法はこれに限るものではない。例えば、過去の位置及び姿勢の計測を基に物体の速度や角速度を時系列フィルタにより推定し、過去の位置及び姿勢について推定された速度及び角速度から、現在の位置及び姿勢を予測したものでもよい。また、様々な姿勢で撮像された物体の距離画像データをテンプレートとして保持しておき、入力される距離画像データとテンプレートとのマッチング(テンプレートマッチング)により、物体の位置及び姿勢の概略値を推定してもよい。その他、他のセンサによって物体の位置及び姿勢の計測が可能である場合、当該センサの出力値を位置及び姿勢の概略値として用いてもよい。物体の位置及び姿勢の計測が可能なセンサとして、例えば、トランスミッタが発する磁界を物体に装着されるレシーバで検出することにより位置及び姿勢を計測する磁気式センサが挙げられる。また、物体上に配置されたマーカを固定されたカメラで撮影することにより位置及び姿勢を計測する光学式センサを使用してもよい。また、6自由度の位置及び姿勢の計測が可能なセンサであれば、いかなるセンサを用いてもよい。さらに、物体の置かれているおおよその位置や姿勢が予めわかっている場合には、その値を概略値として用いてもよい。   The approximate position and orientation input unit 130 inputs approximate values of the position and orientation of the object with respect to the information processing apparatus 1. Here, the position and orientation of the object with respect to the information processing apparatus 1 mean the position and orientation of the object in the camera coordinate system of the three-dimensional data measurement apparatus 20 that captures the distance image data. However, any part of the information processing apparatus 1 may be used as a reference if the relative position and orientation relative to the camera coordinate system are known and do not change. In the present embodiment, it is assumed that the information processing apparatus 1 continuously performs measurement in the time axis direction, and uses the previous (previous time) measurement value as an approximate value of the position and orientation. However, the method for inputting the approximate values of the position and orientation is not limited to this. For example, the speed and angular velocity of an object may be estimated using a time series filter based on past position and orientation measurements, and the current position and orientation may be predicted from the speed and angular velocity estimated for the past position and orientation. . In addition, distance image data of an object captured in various postures is stored as a template, and approximate values of the position and posture of the object are estimated by matching the input distance image data with the template (template matching). May be. In addition, when the position and orientation of the object can be measured by another sensor, the output value of the sensor may be used as the approximate value of the position and orientation. As a sensor capable of measuring the position and orientation of an object, for example, a magnetic sensor that measures the position and orientation by detecting a magnetic field generated by a transmitter with a receiver attached to the object can be cited. Moreover, you may use the optical sensor which measures a position and attitude | position by image | photographing the marker arrange | positioned on the object with the camera fixed. Any sensor may be used as long as it can measure the position and orientation with six degrees of freedom. Further, when the approximate position or posture where the object is placed is known in advance, the value may be used as the approximate value.

モデル投影部140は、3次元形状モデル保存部110に保存される3次元形状モデルを、概略位置姿勢入力部130により入力された位置及び姿勢の概略値を用いて、距離画像データの画像平面上に投影する。この投影処理の結果として、視点から3次元形状モデルの表面までの距離が格納された距離画像データ(以下、モデル距離画像データと称す)が生成される。   The model projection unit 140 uses the approximate position and orientation values input by the approximate position and orientation input unit 130 on the 3D shape model storage unit 110 on the image plane of the distance image data. Project to. As a result of this projection processing, distance image data (hereinafter referred to as model distance image data) in which the distance from the viewpoint to the surface of the three-dimensional shape model is stored is generated.

スムージング部150は、距離画像入力部130から入力された距離画像データと、モデル投影部140により生成されたモデル距離画像データとに対して、スムージング処理を施す。対応付け部160は、スムージング部150においてスムージング処理が施された距離画像データとモデル距離画像データとの対応付けを行う。位置姿勢算出部170は、対応付け部160において対応付けられた結果に基づいて、物体の位置及び姿勢を計測する。   The smoothing unit 150 performs a smoothing process on the distance image data input from the distance image input unit 130 and the model distance image data generated by the model projection unit 140. The associating unit 160 associates the distance image data subjected to the smoothing process in the smoothing unit 150 with the model distance image data. The position / orientation calculation unit 170 measures the position and orientation of the object based on the result associated with the association unit 160.

図2は、本発明の第1の実施形態に係る情報処理装置1の処理を示すフローチャートである。以下、図2を参照しながら、第1の実施形態に係る情報処理装置1の処理について説明する。   FIG. 2 is a flowchart showing processing of the information processing apparatus 1 according to the first embodiment of the present invention. Hereinafter, the processing of the information processing apparatus 1 according to the first embodiment will be described with reference to FIG.

ステップS1010において、情報処理装置1は初期化処理を行う。即ち、概略位置姿勢入力部120は、物体の位置及び姿勢の概略値を初期値として入力する。本実施形態では、この初期値として入力された位置及び姿勢の概略値を、撮像された距離画像データに基づいて逐次更新していくことにより、物体の位置及び姿勢を計測する。そのため、物体の位置及び姿勢の計測を開始する前に、予め物体の位置及び姿勢の概略値を初期値として与えておく必要がある。本実施形態においては、上述したように、前回(前時刻)の計測値を位置及び姿勢の概略値として用いるものとする。   In step S1010, the information processing apparatus 1 performs an initialization process. That is, the approximate position and orientation input unit 120 inputs approximate values of the position and orientation of the object as initial values. In the present embodiment, the approximate position and orientation values input as the initial values are sequentially updated based on the captured distance image data, thereby measuring the position and orientation of the object. Therefore, before starting the measurement of the position and orientation of the object, it is necessary to give approximate values of the position and orientation of the object as initial values in advance. In the present embodiment, as described above, the measurement value of the previous time (previous time) is used as the approximate value of the position and orientation.

ステップS1020において、距離画像入力部130は、モデルフィッティングにより物体の位置及び姿勢を算出するための距離画像データを3次元データ計測装置20から入力する。以下では、距離画像入力部130において入力された距離画像データを計測距離画像データと称す。なお、計測距離画像データは、画素毎に3次元データ計測装置20からの物体を含む対象までの距離を格納している。   In step S1020, the distance image input unit 130 inputs distance image data for calculating the position and orientation of the object by model fitting from the three-dimensional data measurement apparatus 20. Hereinafter, the distance image data input in the distance image input unit 130 is referred to as measurement distance image data. The measurement distance image data stores the distance from the three-dimensional data measurement apparatus 20 to the target including the object for each pixel.

ステップS1030において、3次元モデル投影部140は、3次元形状モデル10を計測距離画像データと同等のデータ量及び性質になるように変換を行う。具体的には、3次元モデル投影部140は、ステップS1020において入力された計測距離画像データの画像平面上に3次元形状モデル10を投影する。これにより、計測距離画像データと同じように視点から3次元形状モデル10までの距離が格納されたモデル距離画像データが生成される。本実施形態では、ステップS1010において入力された物体の位置パラメータ、姿勢パラメータ及び変形パラメータの概略値と、キャリブレーション済みの3次元データ計測装置20の内部パラメータとを用いて、3次元形状モデル10をレンダリングする。レンダリングにより、視点から3次元形状モデル10の表面までの距離がデプスバッファに格納される。3次元モデル投影部140は、デプスバッファに格納された距離をモデル距離画像データにおいて格納される距離として取り扱う。以上の処理により、3次元形状モデル10が計測距離画像データと同等のデータ形式に変換される。   In step S1030, the three-dimensional model projection unit 140 converts the three-dimensional shape model 10 so as to have a data amount and property equivalent to the measurement distance image data. Specifically, the three-dimensional model projection unit 140 projects the three-dimensional shape model 10 on the image plane of the measurement distance image data input in step S1020. As a result, model distance image data storing the distance from the viewpoint to the three-dimensional shape model 10 is generated in the same manner as the measured distance image data. In the present embodiment, the three-dimensional shape model 10 is obtained by using the approximate values of the position parameter, posture parameter, and deformation parameter of the object input in step S1010 and the internal parameters of the calibrated three-dimensional data measurement apparatus 20. Render. By the rendering, the distance from the viewpoint to the surface of the three-dimensional shape model 10 is stored in the depth buffer. The three-dimensional model projection unit 140 handles the distance stored in the depth buffer as the distance stored in the model distance image data. With the above processing, the three-dimensional shape model 10 is converted into a data format equivalent to the measurement distance image data.

ステップS1040において、スムージング部150は、ステップS1030で生成されたモデル距離画像データとステップS1020で入力された計測距離画像データとに対し、画像平面上での近傍の画素に基づいたスムージング処理を施す。本実施形態では、スムージング処理として、着目画素の近傍のN×Nピクセルの範囲において、標準偏差σのガウシアンフィルタによる平滑化が行われる。ガウシアンカーネルの標準偏差σは、モデル距離画像データ及び計測距離画像データをどの程度平滑化するかを決定するパラメータであり、σが大きくなればなるほど物体の形状は滑らかになる。その結果、位置及び姿勢の推定処理は安定するが、形状を平滑化した分だけ推定される位置及び姿勢が曖昧になる。Nは近傍を規定する範囲を示しており、その値は任意に決めてもよいし、ガウシアンカーネルの標準偏差σから求めてもよい。モデル距離画像データ及び計測距離画像データの平滑化が行える限り、Nの設定に制限はない。また、スムージング処理は、ガウシアンフィルタの適用に限らず、平均化フィルタやメディアンフィルタを適用する等、画像データの平滑化を行う処理であれば何でもよく、特に制限はない。本実施形態では、標準偏差σを1、近傍の範囲Nを3に設定してガウシアンフィルタによる平滑化処理を行うものとする。以上のようなスムージング処理をモデル距離画像データ及び計測距離画像データ上の全画素に対して行うことにより、形状が滑らかに処理されたモデル距離画像データ及び計測距離画像データが得られる。以下では、形状が滑らかに処理されたモデル距離画像データを平滑化モデル距離画像データと称し、同じく形状が滑らかに処理された計測距離画像データを平滑化計測処理画像データと称す。   In step S1040, the smoothing unit 150 performs a smoothing process on the model distance image data generated in step S1030 and the measured distance image data input in step S1020 based on neighboring pixels on the image plane. In the present embodiment, as the smoothing process, smoothing by a Gaussian filter with a standard deviation σ is performed in the range of N × N pixels near the target pixel. The standard deviation σ of the Gaussian kernel is a parameter that determines how much the model distance image data and the measured distance image data are smoothed. The larger the σ, the smoother the shape of the object. As a result, the position and orientation estimation processing is stabilized, but the estimated position and orientation are ambiguous as the shape is smoothed. N indicates a range defining the neighborhood, and the value may be arbitrarily determined or may be obtained from the standard deviation σ of the Gaussian kernel. As long as the model distance image data and the measurement distance image data can be smoothed, the setting of N is not limited. The smoothing process is not limited to application of a Gaussian filter, and any process that smoothes image data, such as applying an averaging filter or a median filter, may be used, and is not particularly limited. In the present embodiment, it is assumed that the standard deviation σ is set to 1 and the range N in the vicinity is set to 3, and smoothing processing using a Gaussian filter is performed. By performing the smoothing process as described above on all the pixels on the model distance image data and the measurement distance image data, the model distance image data and the measurement distance image data whose shape is processed smoothly can be obtained. Hereinafter, model distance image data whose shape has been smoothly processed is referred to as smoothed model distance image data, and measurement distance image data whose shape has been smoothly processed is referred to as smoothed measurement processing image data.

次に、スムージング部150は、平滑化モデル距離画像データ及び平滑化計測距離画像データから3次元点群の座標を算出する。即ち、スムージング部150は、平滑化計測距離画像データの各画素について、画素の位置に対応する視線ベクトルと、当該画素に格納される距離とを乗算することにより、各画素に対応する3次元点群の座標を求める。また、スムージング部150は、平滑化モデル距離画像データに対しても同様の処理を行い、平滑化モデル距離画像データの各画素に対応する3次元点群を求める。但し、平滑化モデル距離画像データの場合、3次元形状モデル10に該当する領域でない部分には無効な距離が格納されているため、この部分の3次元点群は求めない。また、平滑化モデル距離画像データに関しては、各画素の3次元法線も求めておく。具体的には、着目画素と隣り合う画素の3点の3次元座標の外積を計算することにより、着目画素の3次元法線が求められる。   Next, the smoothing unit 150 calculates the coordinates of the three-dimensional point group from the smoothed model distance image data and the smoothed measurement distance image data. That is, the smoothing unit 150 multiplies each pixel of the smoothed measurement distance image data by a line-of-sight vector corresponding to the position of the pixel and a distance stored in the pixel, thereby obtaining a three-dimensional point corresponding to each pixel. Find the coordinates of the group. Further, the smoothing unit 150 performs the same process on the smoothed model distance image data, and obtains a three-dimensional point group corresponding to each pixel of the smoothed model distance image data. However, in the case of the smoothed model distance image data, an invalid distance is stored in a portion that is not an area corresponding to the three-dimensional shape model 10, and therefore the three-dimensional point group of this portion is not obtained. For the smoothed model distance image data, the three-dimensional normal of each pixel is also obtained. Specifically, the three-dimensional normal of the pixel of interest is obtained by calculating the outer product of the three-dimensional coordinates of three points of pixels adjacent to the pixel of interest.

以上の処理を、平滑化モデル距離画像データと平滑化計測距離画像データとの全画素に対して行うことにより、平滑化モデル距離画像データと平滑化計測距離画像データとのそれぞれについて、滑らかな形状に変換された3次元点群が得られる。   By performing the above processing on all pixels of the smoothed model distance image data and the smoothed measured distance image data, a smooth shape is obtained for each of the smoothed model distance image data and the smoothed measured distance image data. A three-dimensional point group converted into is obtained.

ステップS1050において、対応付け部160は、ステップS1040で生成された平滑化計測距離画像データと平滑化モデル距離画像データとの対応付けを行う。本実施形態では、平滑化モデル距離画像データ上の画素と3次元点群との関係は既知であるとして、平滑化モデル距離画像データ上の3次元形状モデル10に該当する領域の全画素に対して、画像平面上で同じ2次元座標となる平滑化計測距離画像データの3次元点を参照する。これにより、平滑化モデル距離画像データと平滑化計測距離画像データとの3次元点が対応付けられる。但し、平滑化モデル距離画像データ上の3次元形状モデル10に該当する領域内の全画素に対して処理を行うのではなく、当該領域内の画像平面上で等間隔になるように、或いは、3次元空間上で等間隔になるように間引いて処理してもよい。なお、対応付け処理を行う3次元点は、データ量と計算量とのトレードオフとなる。位置及び姿勢の算出処理に十分なだけの対応付けが得られる限り、処理する3次元点の選択は何れの場合でよく、特に制限はない。以上の処理により、平滑化計測距離画像データと平滑化モデル距離画像データ間の3次元点の対応付けが行われる。   In step S1050, the association unit 160 associates the smoothed measurement distance image data generated in step S1040 with the smoothed model distance image data. In the present embodiment, it is assumed that the relationship between the pixels on the smoothed model distance image data and the three-dimensional point group is known, and for all the pixels in the region corresponding to the three-dimensional shape model 10 on the smoothed model distance image data. Then, the 3D point of the smoothed measurement distance image data having the same 2D coordinates on the image plane is referred to. As a result, the three-dimensional points of the smoothed model distance image data and the smoothed measurement distance image data are associated with each other. However, the processing is not performed on all the pixels in the region corresponding to the three-dimensional shape model 10 on the smoothed model distance image data so as to be equally spaced on the image plane in the region, or You may process by thinning out so that it may become equal intervals on three-dimensional space. Note that the three-dimensional point on which the association process is performed is a trade-off between the data amount and the calculation amount. As long as the correspondence sufficient for the position and orientation calculation processing is obtained, the selection of the three-dimensional point to be processed is not limited in any case. With the above processing, the three-dimensional points are associated between the smoothed measurement distance image data and the smoothed model distance image data.

ステップS1060において、位置姿勢算出部170は、平滑化計測距離画像データと平滑化モデル距離画像データ間の3次元点の対応付けに基づいて、非線形最適化計算を用いて物体の位置及び姿勢を算出する。本実施形態では、非線形最適化手法としてGauss-Newton法を用いるものとする。なお、非線形最適化手法はGauss-Newton法に限るものではない。例えば、より計算がロバストであるLevenberg-Marquardt法を用いてもよいし、よりシンプルな方法である最急降下法を用いてもよい。また、共役勾配法やICCG法等、他の非線形最適化計算手法を用いてもよい。   In step S1060, the position / orientation calculation unit 170 calculates the position and orientation of the object using nonlinear optimization calculation based on the association of the three-dimensional points between the smoothed measurement distance image data and the smoothed model distance image data. To do. In this embodiment, the Gauss-Newton method is used as the nonlinear optimization method. Note that the nonlinear optimization method is not limited to the Gauss-Newton method. For example, the Levenberg-Marquardt method, which is more robust in calculation, may be used, or the steepest descent method, which is a simpler method, may be used. Further, other nonlinear optimization calculation methods such as a conjugate gradient method and an ICCG method may be used.

また、物体の位置及び姿勢の算出は、平滑化モデル距離画像データ中の各3次元点が、対応する平滑化計測距離画像データ中の3次元点に当てはまるように物体の位置及び姿勢の概略値を反復して更新することにより行われる。より具体的には、位置姿勢算出部170は、平滑化計測距離画像データ中の3次元点と、平滑化モデル距離画像データ中の3次元点及び3次元法線とから、3次元空間中での点と平面との符号付距離を物体の位置及び姿勢の関数として線形近似する。   In addition, the calculation of the position and orientation of the object is performed by calculating approximate values of the position and orientation of the object so that each three-dimensional point in the smoothed model distance image data applies to the corresponding three-dimensional point in the smoothed measurement distance image data. This is done by repeatedly updating. More specifically, the position / orientation calculation unit 170 calculates a three-dimensional space from a three-dimensional point in the smoothed measurement distance image data and a three-dimensional point and a three-dimensional normal in the smoothed model distance image data. The signed distance between the point and the plane is linearly approximated as a function of the position and orientation of the object.

次に、位置姿勢算出部170は、符号付距離を0としたときに位置及び姿勢について成り立つ線形方程式を組立て、この線形方程式を連立方程式として解く。これにより、位置姿勢算出部170は、物体の位置及び姿勢の微小変化を求め、位置及び姿勢の概略値を更新する。以上の処理を繰り返すことにより、最終的な位置及び姿勢が算出される。なお、平滑化モデル距離画像データと平滑化計測距離画像データとの誤差の最小化処理に関しては、本発明の本質に関わる話ではないため、記述を省略する。最小化処理の詳細は、非特許文献[Y.Chen and G.Medioni,“Object modeling by registration of multiple range images,”Image and Vision Computing,10(3),pp.145−155,1992.]を参照されたい。   Next, the position / orientation calculation unit 170 assembles a linear equation that holds for the position and orientation when the signed distance is 0, and solves this linear equation as a simultaneous equation. As a result, the position / orientation calculation unit 170 obtains minute changes in the position and orientation of the object, and updates the approximate values of the position and orientation. By repeating the above processing, the final position and orientation are calculated. Note that the error minimization processing between the smoothed model distance image data and the smoothed measured distance image data is not related to the essence of the present invention, and thus description thereof is omitted. For details of the minimization process, see Non-Patent Document [Y. Chen and G. Medioni, “Object modeling by registration range images,” Image and Vision Computing, 10 (3), pp. 145-155, 1992. Please refer to].

ステップS1070において、位置姿勢算出部170は、位置及び姿勢の算出処理の終了が指示されたか否かを判定する。位置及び姿勢の算出処理の終了が指示された場合、処理は終了する。一方、位置及び姿勢の算出処理の終了が指示されていない場合、処理はステップS1010に戻り、情報処理装置1は、新たな計測距離画像データを取得して、物体の位置及び姿勢を再度計測する。   In step S <b> 1070, the position / orientation calculation unit 170 determines whether or not the end of the position and orientation calculation processing has been instructed. When the end of the position and orientation calculation process is instructed, the process ends. On the other hand, if the end of the position and orientation calculation processing is not instructed, the processing returns to step S1010, and the information processing apparatus 1 acquires new measurement distance image data and measures the position and orientation of the object again. .

以上のように、本実施形態では、3次元形状モデルを計測距離画像データと同じ形式に変換し、モデル距離画像データと計測距離画像データとの双方に対してスムージング処理を実行するようにしている。これにより、両者の形状を類似したまま平滑化を施すことが可能となる。本実施形態では、物体の形状が滑らかになるように変換することにより、物体の形状の凹凸が原因で発生する位置及び姿勢の測定処理の不安定性が減少し、物体の形状に凹凸がある物体に対して安定した位置及び姿勢の推定が可能となる。   As described above, in the present embodiment, the three-dimensional shape model is converted into the same format as the measurement distance image data, and the smoothing process is executed on both the model distance image data and the measurement distance image data. . This makes it possible to perform smoothing while keeping the shapes of the two similar. In this embodiment, by converting the object shape to be smooth, the instability of the position and orientation measurement processing caused by the unevenness of the object shape is reduced, and the object has an uneven shape. It is possible to estimate a stable position and posture.

第1の実施形態では、ステップS1040における平滑化処理のパラメータを固定させていた。但し、平滑化処理のパラメータはこれに限るものではない。例えば、位置及び姿勢の測定処理の経過、即ちループ回数(ステップS1070で分岐した回数)に応じて、平滑化処理の度合い、即ちパラメータを変更させてもよい。具体的には、ループ回数が少ないうちは、大きく平滑化するように平滑化処理のパラメータを設定し、ループ回数が多くなるにつれ、平滑化を小さくするように平滑化処理のパラメータを設定してもよい。これにより、繰り返し計算の最初は物体の形状を大きく平滑化することにより、安定した位置及び姿勢の測定処理を行い、繰り返し計算の後半は、物体の形状の平滑化を少なくすることにより、位置及び姿勢の測定処理の精度を高めることが可能になる。平滑化処理のパラメータを設定する方法は、以上に挙げた方法に限るものでなく、正常な平滑化処理が行えるパラメータを設定する限り、何れの方法を用いてもよい。   In the first embodiment, the parameters of the smoothing process in step S1040 are fixed. However, the parameter of the smoothing process is not limited to this. For example, the degree of smoothing processing, that is, the parameter may be changed according to the progress of the position and orientation measurement processing, that is, the number of loops (the number of branches in step S1070). Specifically, when the number of loops is small, the parameter of the smoothing process is set so as to be greatly smoothed, and as the number of loops is increased, the parameter of the smoothing process is set so as to reduce the smoothing. Also good. Thus, at the beginning of the iterative calculation, a stable position and orientation measurement process is performed by largely smoothing the shape of the object, and in the second half of the iterative calculation, the position and the position are reduced by reducing the smoothing of the object shape. It is possible to improve the accuracy of the posture measurement process. The method for setting the parameters for the smoothing process is not limited to the above-described methods, and any method may be used as long as the parameters that enable normal smoothing processing are set.

第1の実施形態では、3次元形状モデル10は、面の集合によって構成されるモデルを前提としていた。しかし、物体を表現するモデル形式はこれに限るものではない。例えば、3次元点の集合により構成されるモデルを用いてもよい。この場合、ステップS1030における3次元形状モデル10の変換処理では、モデルのレンダリング処理を行わずに、モデルを構成する各3次元点を、計測距離画像データの画像平面上に投影することで、モデル距離画像データを生成する。具体的には、ステップS1010において入力された物体の位置パラメータ、姿勢パラメータ及び変形パラメータの概略値と、キャリブレーション済みの3次元データ計測装置20の内部パラメータとを用いて、モデルを構成する3次元点を画像平面に投影する。そして、3次元点に対応する画像平面上の画素に、視点からモデルを構成する点までの距離を格納することでモデル距離画像データを生成する。なお、3次元形状モデル10を構成する形式は、以上に挙げた方法に限るものでなく、3次元形状モデル10から計測距離画像データと同等のデータ形式に変換することができる形式である限り、何れの形式を用いてもよい。   In the first embodiment, the three-dimensional shape model 10 is premised on a model constituted by a set of faces. However, the model format for representing an object is not limited to this. For example, a model constituted by a set of three-dimensional points may be used. In this case, in the conversion process of the three-dimensional shape model 10 in step S1030, without rendering the model, each three-dimensional point constituting the model is projected onto the image plane of the measurement distance image data, thereby Generate range image data. Specifically, the three-dimensional configuration of the model using the approximate values of the position parameter, posture parameter, and deformation parameter of the object input in step S1010 and the internal parameters of the calibrated three-dimensional data measurement apparatus 20 Project points onto the image plane. Then, the model distance image data is generated by storing the distance from the viewpoint to the point constituting the model in the pixel on the image plane corresponding to the three-dimensional point. In addition, the format which comprises the three-dimensional shape model 10 is not restricted to the method mentioned above, As long as it is a format which can be converted into the data format equivalent to measurement distance image data from the three-dimensional shape model 10, Any format may be used.

次に、本発明の第2の実施形態について説明する。第1の実施形態では、3次元形状モデルを距離画像データ形式に変換し、モデル距離画像データ全体に対してスムージング処理を実行することにより、物体の位置及び姿勢を計測する手法について説明した。これに対し、第2の実施形態では、3次元形状モデルを距離画像データ形式には変換せず、3次元形状モデル上で定義されるモデル表面上の3次元点毎に平滑化することにより、物体の位置及び姿勢を計測する手法について説明する。   Next, a second embodiment of the present invention will be described. In the first embodiment, the method of measuring the position and orientation of the object by converting the three-dimensional shape model into the distance image data format and executing the smoothing process on the entire model distance image data has been described. In contrast, in the second embodiment, the three-dimensional shape model is not converted into the distance image data format, but is smoothed for each three-dimensional point on the model surface defined on the three-dimensional shape model, A method for measuring the position and orientation of an object will be described.

図3は、本発明の第2の実施形態に係る情報処理装置2の構成を示す図である。図3に示すように、情報処理装置2は、3次元モデル保存部210、距離画像入力部220、概略位置姿勢入力部230、3次元モデル投影部240、スムージング部250、対応付け部260及び位置姿勢算出部270を備える。3次元モデルデータ保存部210は3次元形状モデル10を保存する。3次元データ計測装置20は距離画像入力部220に接続される。情報処理装置2は、3次元モデル保存部210に保存されている物体の形状を表す3次元形状モデル10に基づいて、距離画像データ中に撮像される物体の位置及び姿勢を計測する。なお、第2の実施形態における3次元形状モデル10も、第1の実施形態における3次元形状モデル10と同様に、現実に撮像される物体の形状に即していることが好ましい。   FIG. 3 is a diagram showing a configuration of the information processing apparatus 2 according to the second embodiment of the present invention. As illustrated in FIG. 3, the information processing apparatus 2 includes a 3D model storage unit 210, a distance image input unit 220, an approximate position / posture input unit 230, a 3D model projection unit 240, a smoothing unit 250, an association unit 260, and a position. An attitude calculation unit 270 is provided. The three-dimensional model data storage unit 210 stores the three-dimensional shape model 10. The three-dimensional data measuring device 20 is connected to the distance image input unit 220. The information processing apparatus 2 measures the position and orientation of the object imaged in the distance image data based on the three-dimensional shape model 10 representing the shape of the object stored in the three-dimensional model storage unit 210. In addition, it is preferable that the 3D shape model 10 in the second embodiment conforms to the shape of the object that is actually imaged, similarly to the 3D shape model 10 in the first embodiment.

3次元形状モデル保存部210は、位置及び姿勢の計測対象となる物体の3次元形状モデル10を保存する。本実施形態では、法線情報を持った3次元点から構成される3次元形状モデル10によって物体を表現している。即ち、3次元形状モデル10は、3次元点の集合と、3次元点それぞれに対するその点の法線方向の集合とによって定義される。   The three-dimensional shape model storage unit 210 stores the three-dimensional shape model 10 of the object whose position and orientation are to be measured. In the present embodiment, an object is represented by a three-dimensional shape model 10 composed of three-dimensional points having normal line information. That is, the three-dimensional shape model 10 is defined by a set of three-dimensional points and a set of normal directions of the points with respect to each of the three-dimensional points.

3次元モデル投影部240は、3次元形状モデル保存部210に保存された3次元形状モデル10を、概略位置姿勢入力部130により入力された位置及び姿勢の概略値を用いて、距離画像データの画像平面上に投影する。この投影処理の結果として、3次元形状モデル中の3次元点群の、画像平面上での2次元座標が算出される。   The three-dimensional model projection unit 240 uses the approximate values of the position and orientation input from the approximate position and orientation input unit 130 for the three-dimensional shape model 10 stored in the three-dimensional shape model storage unit 210 to calculate the distance image data. Project onto the image plane. As a result of this projection processing, two-dimensional coordinates on the image plane of the three-dimensional point group in the three-dimensional shape model are calculated.

対応付け部250は、3次元形状モデル10中の3次元点群と距離画像データとの対応付けを行う。スムージング部260は、3次元形状モデル10中の3次元点群と距離画像データ中の3次元点群とに対してスムージング処理を行う。   The association unit 250 associates the three-dimensional point group in the three-dimensional shape model 10 with the distance image data. The smoothing unit 260 performs a smoothing process on the three-dimensional point group in the three-dimensional shape model 10 and the three-dimensional point group in the distance image data.

なお、距離画像入力部220、概略位置姿勢入力部230及び位置姿勢算出部270は、第1の実施形態における距離画像入力部120、概略位置姿勢入力部130及び位置姿勢算出部170と同一であるため、これらについては説明を省略する。   The distance image input unit 220, the approximate position and orientation input unit 230, and the position and orientation calculation unit 270 are the same as the distance image input unit 120, the approximate position and orientation input unit 130, and the position and orientation calculation unit 170 in the first embodiment. Therefore, description of these will be omitted.

図4は、第2の実施形態に係る情報処理装置2の処理を示すフローチャートである。以下、図4を参照しながら、第2の実施形態に係る情報処理装置2の処理について説明する。   FIG. 4 is a flowchart showing processing of the information processing apparatus 2 according to the second embodiment. Hereinafter, the processing of the information processing apparatus 2 according to the second embodiment will be described with reference to FIG.

ステップS2010において、情報処理装置2は初期化処理を行う。なお、ステップS2010は、第1の実施形態におけるステップS1010と同様の処理であるため、詳細な説明は省略する。   In step S2010, the information processing apparatus 2 performs an initialization process. Note that step S2010 is the same processing as step S1010 in the first embodiment, and thus detailed description thereof is omitted.

ステップS2020において、距離画像入力部220は、モデルフィッティングにより物体の位置及び姿勢を算出するための距離画像データを3次元データ計測装置20から入力する。なお、ステップS2020は、第1の実施形態におけるステップS1020と同様の処理であるため、詳細な説明は省略する。   In step S2020, the distance image input unit 220 inputs distance image data for calculating the position and orientation of the object by model fitting from the three-dimensional data measurement apparatus 20. Note that step S2020 is the same processing as step S1020 in the first embodiment, and thus detailed description thereof is omitted.

ステップS2030において、対応付け部250は、3次元形状モデル10中の3次元点群と距離画像データとを対応付ける。具体的には、対応付け部250は、3次元形状モデル中の3次元点群を、ステップS2010において入力された物体の位置及び姿勢の概略値と、キャリブレーション済みの3次元データ計測装置20の内部パラメータとを用いて、距離画像データの画像平面に投影する。これにより、3次元形状モデル10の3次元点群と距離画像データ中の3次元点群とが対応付けられる。なお、3次元点群の座標の算出方法は、ステップS1040で説明した処理と同様である。3次元形状モデル10中の3次元点群全点について対応付けが終わると、処理はステップS2040に移行する。   In step S2030, the associating unit 250 associates the three-dimensional point group in the three-dimensional shape model 10 with the distance image data. Specifically, the associating unit 250 uses the three-dimensional point group in the three-dimensional shape model, the approximate value of the position and orientation of the object input in step S2010, and the calibrated three-dimensional data measuring apparatus 20 Using the internal parameters, the distance image data is projected onto the image plane. Thereby, the three-dimensional point group of the three-dimensional shape model 10 and the three-dimensional point group in the distance image data are associated with each other. The method for calculating the coordinates of the three-dimensional point group is the same as the process described in step S1040. When the association is completed for all the three-dimensional point group points in the three-dimensional shape model 10, the process proceeds to step S2040.

ステップS2040において、スムージング部260は、ステップS2030にて対応付けられた3次元形状モデル10中の3次元点群と距離画像データ中の3次元点群とに対し、画像平面上の近傍の画素に基づいたスムージング処理を行う。即ち、スムージング部260は、3次元形状モデル10の3次元点それぞれに対し、画像平面上でN×Nピクセル以内の近傍となる他の3次元点の座標を算出し、近傍の3次元点の座標の平均を新たな3次元点の座標の値として採用することでスムージング処理を行う。この処理は、3次元形状モデル10の3次元点群と距離画像データ中の3次元点群とに対して同じように行われる。なお、画像平面上での近傍を定義するNの値の設定に特に制限はない。また、本実施形態では、3次元点の座標のスムージング処理として、近傍の3次元点の座標の平均を採用したが、これに限るものではない。例えば、3次元空間中の距離を係数として、近いものほど重みを大きくさせてもよい。以上の処理を3次元形状モデル10中の3次元点群と距離画像データ中の3次元点群とに対して施すことにより、3次元形状モデル10と距離画像データとのそれぞれについて、滑らかな形状に変換された3次元点群が得られる。   In step S2040, the smoothing unit 260 applies the three-dimensional point group in the three-dimensional shape model 10 and the three-dimensional point group in the distance image data associated in step S2030 to neighboring pixels on the image plane. Based on the smoothing process. That is, the smoothing unit 260 calculates the coordinates of other three-dimensional points that are within N × N pixels on the image plane for each of the three-dimensional points of the three-dimensional shape model 10, and The smoothing process is performed by adopting the average of the coordinates as the coordinate value of the new three-dimensional point. This process is performed in the same manner for the three-dimensional point group of the three-dimensional shape model 10 and the three-dimensional point group in the distance image data. There is no particular restriction on the setting of the value of N that defines the neighborhood on the image plane. In the present embodiment, the average of the coordinates of neighboring three-dimensional points is employed as the smoothing processing of the coordinates of the three-dimensional points, but the present invention is not limited to this. For example, the weight in the three-dimensional space may be increased as the distance is closer to the coefficient. By applying the above processing to the three-dimensional point group in the three-dimensional shape model 10 and the three-dimensional point group in the distance image data, a smooth shape is obtained for each of the three-dimensional shape model 10 and the distance image data. A three-dimensional point group converted into is obtained.

ステップS2050において、位置姿勢算出部270は、ステップS2040でスムージング処理が施された3次元形状モデル中の3次元点群と距離画像データの3次元点群とに基づいて、非線形最適化計算を用いて物体の位置及び姿勢を算出する。最適化計算の処理は、第1の実施形態におけるステップS1060と同様の処理であるため、詳細な説明は省略する。   In step S2050, the position / orientation calculation unit 270 uses nonlinear optimization calculation based on the three-dimensional point group in the three-dimensional shape model subjected to the smoothing process in step S2040 and the three-dimensional point group of the distance image data. To calculate the position and orientation of the object. Since the optimization calculation process is the same process as step S1060 in the first embodiment, a detailed description thereof will be omitted.

ステップS2060において、位置姿勢算出部270は、位置及び姿勢の算出処理を終了する指示が入力されたか否かを判定する。位置及び姿勢の算出処理を終了する指示が入力された場合、処理は終了する。一方、位置及び姿勢の算出処理を終了する指示が入力されていない場合、処理はステップS2010に戻り、情報処理装置2は、新たな距離画像データを取得して、物体の位置及び姿勢を再度計測する。   In step S2060, the position / orientation calculation unit 270 determines whether or not an instruction to end the position and orientation calculation processing has been input. If an instruction to end the position and orientation calculation process is input, the process ends. On the other hand, if the instruction to end the position and orientation calculation processing is not input, the processing returns to step S2010, and the information processing apparatus 2 acquires new distance image data and measures the position and orientation of the object again. To do.

以上のように、本実施形態では、3次元形状モデル中の3次元点群と距離画像データ中の3次元点群とに対し、画像平面上の近傍に基づくスムージング処理を行い、滑らかな形状に変換している。これにより、物体の形状の凹凸が原因で発生する位置及び姿勢の計測処理の不安定性が減少し、物体の形状に凹凸がある物体に対して安定した位置及び姿勢の推定が可能となる。   As described above, in the present embodiment, smoothing processing based on the neighborhood on the image plane is performed on the three-dimensional point group in the three-dimensional shape model and the three-dimensional point group in the distance image data to obtain a smooth shape. It has been converted. As a result, the instability of the position and orientation measurement processing caused by the unevenness of the shape of the object is reduced, and the stable position and orientation can be estimated for an object having unevenness in the shape of the object.

第1及び第2の実施形態では、位置姿勢算出部170及び位置姿勢算出部270は、物体の位置及び姿勢の両方を算出することを前提としていた。しかし、本発明は位置及び姿勢の両パラメータを推定する方式に限るものでない。例えば、位置及び姿勢のいずれか一方だけを算出しても特に問題ない。この場合、ステップS1060及びS2050において、推定しないパラメータ(位置パラメータを推定する場合は姿勢パラメータ、姿勢パラメータを推定する場合は位置パラメータ)に関しては、ステップS1010又はS2010において入力された概略の値を設定し、固定値として扱って繰り返し処理を行えばよい。   In the first and second embodiments, it is assumed that the position / orientation calculation unit 170 and the position / orientation calculation unit 270 calculate both the position and orientation of the object. However, the present invention is not limited to the method of estimating both the position and orientation parameters. For example, there is no particular problem even if only one of the position and orientation is calculated. In this case, in steps S1060 and S2050, the approximate values input in step S1010 or S2010 are set for parameters that are not estimated (position parameters when position parameters are estimated and position parameters when position parameters are estimated). The processing may be repeated as a fixed value.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

1、2:情報処理装置、10:3次元形状モデル、20:3次元データ計測装置、110、210:3次元モデル保存部、120、220:距離画像入力部、130、230:概略位置姿勢入力部、140、240:3次元モデル投影部、150、250:スムージング部、160、260:対応付け部、170、270:位置姿勢算出部   1, 2: Information processing device, 10: Three-dimensional shape model, 20: Three-dimensional data measurement device, 110, 210: Three-dimensional model storage unit, 120, 220: Distance image input unit, 130, 230: Approximate position and orientation input , 140, 240: three-dimensional model projection unit, 150, 250: smoothing unit, 160, 260: association unit, 170, 270: position and orientation calculation unit

Claims (5)

位置及び姿勢のうちの少なくとも何れか一つの計測対象となる物体が撮像された画像データを入力する入力手段と、
前記入力手段により入力された前記画像データに対して、前記物体を表すモデルを投影する投影手段と、
前記画像データ及び前記投影手段により前記画像データに対して投影されたモデルを平滑化する平滑化手段と、
前記平滑化手段により平滑化された前記画像データ上の座標と、前記画像データに対して投影され、前記平滑化された前記モデル上の座標とを対応付ける対応付け手段と、
前記対応付け手段により対応付けられた結果に基づいて、前記物体の位置及び姿勢のうちの少なくとも何れか一方を計測する計測手段と
を有し、
前記平滑化手段は、前記計測手段による前記物体の位置及び姿勢のうちの少なくとも何れか一方の計測処理の経過に応じた度合いで、前記画像データを平滑化することを特徴とする計測装置。
Input means for inputting image data obtained by imaging an object to be measured at least one of position and orientation;
Projecting means for projecting a model representing the object on the image data input by the input means;
Smoothing means for smoothing the model projected on the image data by the image data and the projection means ;
Association means for associating coordinates on the image data smoothed by the smoothing means with coordinates on the model projected onto the image data and smoothed ;
Measuring means for measuring at least one of the position and orientation of the object based on the result of association by the association unit;
The measurement apparatus characterized in that the smoothing means smoothes the image data at a degree corresponding to the progress of at least one of the position and orientation of the object by the measurement means.
前記画像データは、前記画像データを撮像した撮像装置から前記物体までの距離を画素毎に含む画像データであり、前記投影手段は、前記画像データに対して前記モデルを投影することにより、前記撮像装置から前記モデルまでの距離を画素毎に含む画像データを生成することを特徴とする請求項1に記載の計測装置。 The image data is image data including, for each pixel, a distance from an imaging device that captured the image data to the object, and the projecting unit projects the model by projecting the model onto the image data. The measurement apparatus according to claim 1, wherein image data including a distance from the apparatus to the model is generated for each pixel . 前記平滑化手段は、前記画像データと、前記画像データに対して投影されたモデルとに対して、着目画素の近傍の範囲において平滑化を行うことを特徴とする請求項1に記載の計測装置。 The measuring apparatus according to claim 1, wherein the smoothing unit smoothes the image data and a model projected on the image data in a range in the vicinity of a target pixel. . 計測装置によって実行される計測方法であって、A measurement method executed by a measurement device,
位置及び姿勢のうちの少なくとも何れか一つの計測対象となる物体が撮像された画像データを入力する入力ステップと、An input step of inputting image data obtained by imaging an object to be measured at least one of position and orientation;
前記入力ステップにおいて入力された前記画像データに対して、前記物体を表すモデルを投影する投影ステップと、A projecting step of projecting a model representing the object to the image data input in the input step;
前記画像データ及び前記投影ステップにおいて前記画像データに対して投影されたモデルを平滑化する平滑化ステップと、A smoothing step of smoothing a model projected on the image data and the image data in the projecting step;
前記平滑化ステップにおいて平滑化された前記画像データ上の座標と、前記画像データに対して投影され、前記平滑化された前記モデル上の座標とを対応付ける対応付けステップと、An associating step for associating the coordinates on the image data smoothed in the smoothing step with the coordinates on the model that are projected and smoothed on the image data;
前記対応付けステップにおいて対応付けられた結果に基づいて、前記物体の位置及び姿勢のうちの少なくとも何れか一方を計測する計測ステップとA measurement step of measuring at least one of the position and orientation of the object based on the result of association in the association step;
を含み、Including
前記平滑化ステップにおいては、前記計測ステップにおける前記物体の位置及び姿勢のうちの少なくとも何れか一方の計測処理の経過に応じた度合いで、前記画像データを平滑化することを特徴とする計測方法。In the smoothing step, the image data is smoothed at a degree corresponding to the progress of the measurement process of at least one of the position and orientation of the object in the measurement step.
位置及び姿勢のうちの少なくとも何れか一つの計測対象となる物体が撮像された画像データを入力する入力ステップと、An input step of inputting image data obtained by imaging an object to be measured at least one of position and orientation;
前記入力ステップにおいて入力された前記画像データに対して、前記物体を表すモデルを投影する投影ステップと、A projecting step of projecting a model representing the object to the image data input in the input step;
前記画像データ及び前記投影ステップにおいて前記画像データに対して投影されたモデルを平滑化する平滑化ステップと、A smoothing step of smoothing a model projected on the image data and the image data in the projecting step;
前記平滑化ステップにおいて平滑化された前記画像データ上の座標と、前記画像データに対して投影され、前記平滑化された前記モデル上の座標とを対応付ける対応付けステップと、An associating step for associating the coordinates on the image data smoothed in the smoothing step with the coordinates on the model that are projected and smoothed on the image data;
前記対応付けステップにおいて対応付けられた結果に基づいて、前記物体の位置及び姿勢のうちの少なくとも何れか一方を計測する計測ステップとA measurement step of measuring at least one of the position and orientation of the object based on the result of association in the association step;
をコンピュータに実行させ、To the computer,
前記平滑化ステップにおいては、前記計測ステップにおける前記物体の位置及び姿勢のうちの少なくとも何れか一方の計測処理の経過に応じた度合いで、前記画像データを平滑化するプログラム。In the smoothing step, a program for smoothing the image data to a degree corresponding to the progress of at least one of the position and orientation of the object in the measurement step.
JP2012014657A 2012-01-26 2012-01-26 Measuring device, measuring method and program Active JP6066562B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012014657A JP6066562B2 (en) 2012-01-26 2012-01-26 Measuring device, measuring method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012014657A JP6066562B2 (en) 2012-01-26 2012-01-26 Measuring device, measuring method and program

Publications (2)

Publication Number Publication Date
JP2013156038A JP2013156038A (en) 2013-08-15
JP6066562B2 true JP6066562B2 (en) 2017-01-25

Family

ID=49051389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012014657A Active JP6066562B2 (en) 2012-01-26 2012-01-26 Measuring device, measuring method and program

Country Status (1)

Country Link
JP (1) JP6066562B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014005181A1 (en) * 2014-04-03 2015-10-08 Astrium Gmbh Position and orientation of objects
US9098754B1 (en) * 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using laser point clouds
JP6009502B2 (en) * 2014-07-29 2016-10-19 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and information processing method
JP6915326B2 (en) * 2017-03-17 2021-08-04 富士フイルムビジネスイノベーション株式会社 Image processing equipment, image processing systems and programs
JP7278761B2 (en) * 2018-03-30 2023-05-22 キヤノン株式会社 Image processing device, image processing method and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5320216B2 (en) * 2009-08-26 2013-10-23 パナソニック株式会社 Image processing apparatus, image processing system, and image processing method
JP2011175477A (en) * 2010-02-24 2011-09-08 Canon Inc Three-dimensional measurement apparatus, processing method and program
JP2011227696A (en) * 2010-04-20 2011-11-10 Seiko Epson Corp Object detection device, object detection method, object detection program and robot

Also Published As

Publication number Publication date
JP2013156038A (en) 2013-08-15

Similar Documents

Publication Publication Date Title
US20200096317A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
JP5839929B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP5567908B2 (en) Three-dimensional measuring apparatus, measuring method and program
JP6324025B2 (en) Information processing apparatus and information processing method
JP6180087B2 (en) Information processing apparatus and information processing method
JP5839971B2 (en) Information processing apparatus, information processing method, and program
JP5393318B2 (en) Position and orientation measurement method and apparatus
JP5297403B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, program, and storage medium
JP5627325B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
JP5480667B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, program
JP6092530B2 (en) Image processing apparatus and image processing method
JP5615055B2 (en) Information processing apparatus and processing method thereof
JP2011141174A (en) Three-dimensional measurement apparatus and control method thereof
JP6066562B2 (en) Measuring device, measuring method and program
Zhi et al. Simultaneous hand-eye calibration and reconstruction
JP2015212644A (en) Information processor, method thereof, measurement device and work device
JP2016170050A (en) Position attitude measurement device, position attitude measurement method and computer program
JP5698815B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP6626338B2 (en) Information processing apparatus, control method for information processing apparatus, and program
JP6040264B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2012225888A (en) Position posture measurement device and position posture measurement method
JP5991730B2 (en) Measuring device, measuring method and program
US11978228B2 (en) Systems and methods for determining an orientation of an image
JP5938201B2 (en) Position / orientation measuring apparatus, processing method thereof, and program
JP6766229B2 (en) Position and posture measuring device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161220

R151 Written notification of patent or utility model registration

Ref document number: 6066562

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151