JP2016148649A - Information processing apparatus, control method therefor, and program - Google Patents

Information processing apparatus, control method therefor, and program Download PDF

Info

Publication number
JP2016148649A
JP2016148649A JP2015242643A JP2015242643A JP2016148649A JP 2016148649 A JP2016148649 A JP 2016148649A JP 2015242643 A JP2015242643 A JP 2015242643A JP 2015242643 A JP2015242643 A JP 2015242643A JP 2016148649 A JP2016148649 A JP 2016148649A
Authority
JP
Japan
Prior art keywords
image
dimensional
feature
measured
accuracy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015242643A
Other languages
Japanese (ja)
Other versions
JP6626338B2 (en
Inventor
達矢 鈴木
Tatsuya Suzuki
達矢 鈴木
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
小林 一彦
Kazuhiko Kobayashi
一彦 小林
藤木 真和
Masakazu Fujiki
真和 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/010,005 priority Critical patent/US9914222B2/en
Publication of JP2016148649A publication Critical patent/JP2016148649A/en
Application granted granted Critical
Publication of JP6626338B2 publication Critical patent/JP6626338B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus configured to associate a model feature of a shape model with a measurement data feature on a two-dimensional image, with higher accuracy.SOLUTION: An information processing apparatus includes: a model input section 110 for inputting a shape model representing a shape of an object to be measured; a predicted value calculation section 120 which calculates a predicted image deterioration value of a two-dimensional image obtained by imaging the object; a search section 140 for searching for a candidate, for association of a local line feature, of the shape model of the object input from the model input section 110, in the two-dimensional image input from the image input section 130; an evaluation value calculation section 150 which estimates the magnitude of blur and slur of the two-dimensional image obtained in the image input section 130; an accuracy calculation section 160 which calculates accuracy on association of edge features held in the search section 140; and a correlation section 170 which calculates position and attitude of the object, on the basis of the edge feature on the two-dimensional image associated with the local line features in the shape model of the object and the accuracy calculated in the accuracy calculation section 160.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理装置の制御方法、およびプログラムに関する。   The present invention relates to an information processing apparatus, a control method for the information processing apparatus, and a program.

近年のロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、ハンドなどのエンドエフェクタによって部品を把持して組立を行う。ロボットが部品を把持するためには、把持の対象となる部品とロボット(ハンド)との間の相対的な位置及び姿勢を計測する必要がある。このような物体の位置及び姿勢の計測は、ロボットによる部品把持のためだけでなく、ロボットが自律移動するための自己位置推定や、拡張現実感における現実空間(現実物体)と仮想物体の位置合わせなど様々な目的に応用される。   Along with the development of robot technology in recent years, robots are instead performing complicated tasks that have been performed by humans, such as assembly of industrial products. Such a robot performs assembly by gripping a part with an end effector such as a hand. In order for the robot to grip the part, it is necessary to measure the relative position and orientation between the part to be gripped and the robot (hand). The measurement of the position and orientation of such objects is not only for grasping parts by the robot, but also for self-position estimation for the robot to move autonomously, and alignment of the real space (real object) and virtual object in augmented reality It is applied for various purposes.

物体の位置及び姿勢を計測する方法として、3次元形状モデルのモデル特徴とカメラ等の撮像装置から得られる2次元画像における計測データ特徴を用いる方法がある。非特許文献1では、2次元画像上の計測データ特徴であるエッジに対して、線分の集合で表される物体の3次元形状モデルの投影像を当てはめることにより、物体の位置及び姿勢を計測する方法が開示されている。この方法では、既知の情報として与えられる概略の位置及び姿勢に基づいて、3次元形状モデル中の線分を2次元画像上に投影し、投影された線分上に離散的に配置された制御点の夫々に対応するエッジを2次元画像上で検出する。このようにして得られた制御点(モデル特徴)とエッジ(計測データ特徴)との対応に基づいて、制御点が属する線分の投影像と対応するエッジとの画像上での距離の二乗和が最小となるように概略の位置及び姿勢を補正することで最終的な位置及び姿勢が得られる。   As a method for measuring the position and orientation of an object, there is a method using a model feature of a three-dimensional shape model and a measurement data feature in a two-dimensional image obtained from an imaging device such as a camera. In Non-Patent Document 1, the position and orientation of an object are measured by applying a projection image of a three-dimensional shape model of the object represented by a set of line segments to an edge that is a measurement data feature on the two-dimensional image. A method is disclosed. In this method, a line segment in a three-dimensional shape model is projected on a two-dimensional image based on a rough position and orientation given as known information, and control is arranged discretely on the projected line segment. Edges corresponding to each of the points are detected on the two-dimensional image. Based on the correspondence between the control point (model feature) and the edge (measurement data feature) obtained in this way, the sum of squares of the distance on the image between the projected image of the line segment to which the control point belongs and the corresponding edge. The final position and orientation can be obtained by correcting the approximate position and orientation so that is minimized.

T. Drummond and R. Cipolla, “Real-time visual tracking of complex structures,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.24, no.7, pp.932-946, 2002.T. Drummond and R. Cipolla, “Real-time visual tracking of complex structures,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.24, no.7, pp.932-946, 2002. R. Y. Tsai, “A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses,” IEEE Journal of Robotics and Automation, vol.RA-3, no.4, 1987. (実施形態で参照される)RY Tsai, “A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses,” IEEE Journal of Robotics and Automation, vol.RA-3, no.4, 1987. (Referenced in form) 馬場、浅田、天野、“Calibrated Computer Graphicsによる画像合成の試み:カメラキャリブレーションに基づく任意フォーカス画像の生成と検証”、情報処理学会論文誌39(7),2180-2188,1998 (実施形態で参照される)Baba, Asada, Amano, “Trial of Image Synthesis with Calibrated Computer Graphics: Generation and Verification of Arbitrarily Focused Images Based on Camera Calibration”, Transactions of Information Processing Society of Japan 39 (7), 2180-2188,1998 (see the embodiment) ) Y. Hel-Or and M. Werman, “Pose estimation by fusing noisy data of different dimensions,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.17, no.2, pp.195-201, 1995. (実施形態で参照される)Y. Hel-Or and M. Werman, “Pose estimation by fusing noisy data of different dimensions,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.17, no.2, pp.195-201, 1995. Referenced in)

しかし、上述した手法では、モデル特徴(制御点)と計測データ特徴(エッジ)との間に誤対応が発生した場合に、物体の位置及び姿勢の推定処理が破綻したり、位置及び姿勢の推定精度が低下したりするという課題がある。本発明は、以上の課題を鑑み、形状モデルのモデル特徴と2次元画像上の計測データ特徴との、より高精度な対応付けを実現することを目的とする。   However, in the above-described method, when an erroneous correspondence occurs between a model feature (control point) and a measurement data feature (edge), the object position and orientation estimation process fails or the position and orientation estimation is performed. There is a problem that accuracy is lowered. The present invention has been made in view of the above problems, and an object thereof is to realize a more accurate association between a model feature of a shape model and a measurement data feature on a two-dimensional image.

上記の目的を達成するための本発明の一態様による情報処理装置は以下の構成を備える。すなわち、
被測定物体の形状を表す形状モデルに基づいて、前記被測定物体を撮像手段により撮像した画像に生じる該被測定物体の画像劣化を予測する予測手段と、
前記被測定物体を前記撮像手段により撮像することにより得られた2次元画像について、前記形状モデルのモデル特徴に対応する計測データ特徴を探索する探索手段と、
前記探索手段で探索された計測データ特徴について前記2次元画像を用いて画像劣化を評価する評価手段と、
前記予測手段で予測した画像劣化と前記評価手段で評価した画像劣化に基づいて、前記モデル特徴と前記計測データ特徴の対応の正確度を算出する算出手段と、
前記モデル特徴と前記計測データ特徴の対応の正確度に基づいて、前記形状モデルと前記2次元画像中の被測定物体とを照合する照合手段と、を備える。
In order to achieve the above object, an information processing apparatus according to an aspect of the present invention includes the following arrangement. That is,
Based on a shape model representing the shape of the measured object, predicting means for predicting image degradation of the measured object that occurs in an image obtained by imaging the measured object by the imaging means;
Search means for searching for a measurement data feature corresponding to a model feature of the shape model for a two-dimensional image obtained by imaging the object to be measured by the imaging means;
Evaluation means for evaluating image deterioration using the two-dimensional image for the measurement data feature searched by the search means;
A calculation unit that calculates the accuracy of correspondence between the model feature and the measurement data feature based on the image degradation predicted by the prediction unit and the image degradation evaluated by the evaluation unit;
Collation means for collating the shape model with the object to be measured in the two-dimensional image based on the accuracy of correspondence between the model feature and the measurement data feature.

本発明によれば、被測定物体の形状モデルのモデル特徴と2次元画像上の計測データ特徴との、より高精度な対応付けを実現することができる。そのため、たとえば、被測定物体の位置及び姿勢の推定をより高精度に実現できる。   According to the present invention, it is possible to realize a more accurate association between the model feature of the shape model of the object to be measured and the measurement data feature on the two-dimensional image. Therefore, for example, the position and orientation of the measured object can be estimated with higher accuracy.

第1実施形態における情報処理装置の構成を示す図。The figure which shows the structure of the information processing apparatus in 1st Embodiment. 実施形態における計測対象物の3次元形状モデルを例示する図。The figure which illustrates the three-dimensional shape model of the measurement target object in embodiment. 第1実施形態における、位置姿勢を計測する処理手順を表すフローチャート。The flowchart showing the process sequence which measures a position and orientation in 1st Embodiment. 画像からのエッジ検出を説明する図。The figure explaining the edge detection from an image. 第1実施形態における、画像劣化予測値を算出する手順を表すフローチャート。The flowchart showing the procedure which calculates the image degradation predicted value in 1st Embodiment. 第1実施形態における、2次元画像の画像劣化評価値を算出する手順を表すフローチャート。The flowchart showing the procedure which calculates the image degradation evaluation value of a two-dimensional image in 1st Embodiment. 第1実施形態における、対応付け重み算出の処理手順を説明するフローチャート。6 is a flowchart for explaining a processing procedure of association weight calculation in the first embodiment. 第1実施形態における、位置姿勢算出の処理手順を説明するフローチャート。The flowchart explaining the process sequence of a position and orientation calculation in 1st Embodiment. 線分の投影像と検出されたエッジの関係を説明する図。The figure explaining the relationship between the projection image of a line segment, and the detected edge. 第3実施形態における情報処理装置の機能構成例を示す図。The figure which shows the function structural example of the information processing apparatus in 3rd Embodiment. 第4実施形態におけるロボットシステムの構成例を示す図。The figure which shows the structural example of the robot system in 4th Embodiment.

以下、添付の図面を参照して、本発明の好適な実施形態のいくつかを説明する。   Hereinafter, some preferred embodiments of the present invention will be described with reference to the accompanying drawings.

<第1実施形態>
第1実施形態では、2次元画像で得られる画像のボケ、ブレの大きさを利用して、局所線特徴と計測データ特徴との対応付けを行う。すなわち、局所線特徴毎に、2次元画像において得られるボケ、ブレの大きさを予測しておき、2次元画像から実測したボケ、ブレの大きさと比較し、それらが近い値を示した特徴の寄与度を高くして対応付けする。第1実施形態では、被測定物体を模した形状モデルが表す形状と、事前に決められた撮像装置と被測定物体との相対的な移動方向および速度から、シミュレーションによりボケ、ブレの大きさを計算することでボケ、ブレの大きさを予測する。
<First Embodiment>
In the first embodiment, the local line feature and the measurement data feature are associated with each other by using the blur and the blur of the image obtained from the two-dimensional image. That is, for each local line feature, the blur and blur size obtained in the two-dimensional image are predicted, and compared with the blur and blur size actually measured from the two-dimensional image. Correlate with a high contribution. In the first embodiment, the magnitude of blur and blur is determined by simulation from the shape represented by the shape model imitating the object to be measured and the relative moving direction and speed between the imaging device and the object to be measured that are determined in advance. Predict the size of blur and blur by calculating.

図1(a)は、本実施形態における情報処理装置1のハードウエア構成例を示すブロック図である。図1(a)において、CPU101は、ROM102またはRAM103に格納されたプログラムを実行することにより、情報処理装置1における各種制御を実現する。ROM102は、CPU101の起動時に実行されるプログラムを含む各種プログラムや各種データを記憶する。RAM103はCPU101のメインメモリとして機能する。たとえば、RAM103には、外部記憶装置105から読み出されたアプリケーションプログラムがCPU101による実行のために展開される。表示部104は、CPU101の制御下で各種の表示を行う。外部記憶装置105は、たとえばハードディスク等で構成され、アプリケーションプログラムや形状モデルのデータ、処理対象となる2次元画像を蓄積する。インタフェース106は、外部装置と通信を行う。インタフェース106には、たとえば撮像装置20が接続され、撮像装置20から2次元画像を受信する。バス107は上述した各構成の相互の通信を可能にする。   FIG. 1A is a block diagram illustrating a hardware configuration example of the information processing apparatus 1 according to the present embodiment. In FIG. 1A, the CPU 101 implements various controls in the information processing apparatus 1 by executing a program stored in the ROM 102 or the RAM 103. The ROM 102 stores various programs and various data including programs executed when the CPU 101 is activated. The RAM 103 functions as a main memory for the CPU 101. For example, an application program read from the external storage device 105 is expanded in the RAM 103 for execution by the CPU 101. The display unit 104 performs various displays under the control of the CPU 101. The external storage device 105 is composed of, for example, a hard disk or the like, and accumulates application programs, shape model data, and two-dimensional images to be processed. The interface 106 communicates with an external device. For example, the imaging apparatus 20 is connected to the interface 106 and receives a two-dimensional image from the imaging apparatus 20. The bus 107 enables communication between the above-described components.

図1(b)は本実施形態における情報処理装置1の機能構成例を示すブロック図である。図1(b)に示される各機能は、CPU101がROM102に記憶されているプログラム、および/または、外部記憶装置105からRAM103に展開されたプログラムを実行することにより実現される。なお、各機能部の一部またはすべてを専用のハードウエアで実現してもよいことは明らかである。図1(b)において、情報処理装置1は、モデル入力部110、予測値算出部120、画像入力部130、探索部140、評価値算出部150、正確度算出部160、照合部170を備える。また、図1に示す構成は、本発明の情報処理装置の適用例となる構成である。以下、情報処理装置1の各機能部について説明する。   FIG. 1B is a block diagram illustrating a functional configuration example of the information processing apparatus 1 in the present embodiment. Each function shown in FIG. 1B is realized by the CPU 101 executing a program stored in the ROM 102 and / or a program expanded from the external storage device 105 to the RAM 103. Obviously, some or all of the functional units may be realized by dedicated hardware. 1B, the information processing apparatus 1 includes a model input unit 110, a predicted value calculation unit 120, an image input unit 130, a search unit 140, an evaluation value calculation unit 150, an accuracy calculation unit 160, and a collation unit 170. . Moreover, the structure shown in FIG. 1 is a structure used as the application example of the information processing apparatus of this invention. Hereinafter, each functional unit of the information processing apparatus 1 will be described.

モデル入力部110は、被測定物体の形状を表す形状モデル(本実施形態では、外部記憶装置105に格納されている3次元形状モデルとする)を入力する。本実施形態における形状モデルは、図2(a)に示すような、3次元位置と3次元線分方向から構成される物体輪郭上の局所的な3次元線分情報(以後、局所線特徴と称する)によって構成されるものとする。形状モデルは、モデル入力部110を介して、探索部140に提供される。   The model input unit 110 inputs a shape model (a three-dimensional shape model stored in the external storage device 105 in this embodiment) representing the shape of the object to be measured. The shape model in this embodiment is a local 3D line segment information (hereinafter referred to as local line feature information) on an object contour composed of a 3D position and a 3D line segment direction as shown in FIG. It shall be comprised by. The shape model is provided to the search unit 140 via the model input unit 110.

予測値算出部120は、被測定物体が撮影された2次元画像の画像劣化予測値を算出する。本実施形態では、被測定物体の3次元形状モデル、概略の位置/姿勢の値、処理対象の2次元画像を撮影した撮像装置の内部パラメータを用いて、焦点外れによるボケの大きさDと画像平面上での平行移動によって生じるブレの大きさBを画像劣化予測値とする。ボケの大きさD、ブレの大きさB、画像劣化予測値を取得する処理の詳細は後述する。   The predicted value calculation unit 120 calculates an image degradation predicted value of a two-dimensional image obtained by photographing the measurement object. In the present embodiment, the size D and the image of the blur due to defocusing are obtained using the three-dimensional shape model of the object to be measured, the approximate position / posture value, and the internal parameters of the imaging device that captured the two-dimensional image to be processed. A blur size B caused by parallel movement on the plane is set as an image degradation prediction value. Details of the process of acquiring the blur size D, the blur size B, and the predicted image degradation value will be described later.

画像入力部130は、被測定物体が撮影された2次元画像を取得する。取得される2次元画像はグレー画像であってもよいしカラー画像であってもよい。本実施形態では、予め撮影された2次元画像を記憶する外部の記憶装置(不図示)から2次元画像を取得するが、撮像装置20を用いて撮影された結果の2次元画像を、画像入力部130がその撮像装置20から直接に取得するようにしてもよい。いずれにしても、2次元画像にはその画像を撮影した撮像装置20の内部パラメータが対応付けられて保持される。   The image input unit 130 acquires a two-dimensional image obtained by photographing the object to be measured. The acquired two-dimensional image may be a gray image or a color image. In the present embodiment, a two-dimensional image is acquired from an external storage device (not shown) that stores a two-dimensional image captured in advance, but a two-dimensional image obtained by using the imaging device 20 is input as an image. The unit 130 may acquire directly from the imaging device 20. In any case, the two-dimensional image is held in association with the internal parameters of the imaging device 20 that captured the image.

探索部140は、画像入力部130から入力された2次元画像において、モデル入力部110から入力された被測定物体の形状モデルの、局所線特徴の対応の候補を探索する。この探索は、形状モデルを構成するすべての局所線特徴の位置及び姿勢の概略値、2次元画像を撮影した撮像装置の内部パラメータを用いて行われる。本実施形態では、対応の候補(計測データ特徴)として2次元画像中のエッジ特徴を検出する。エッジ特徴は微分フィルタで検出した濃度勾配の極値となる点である。図4は、本実施形態におけるエッジ検出を説明する図である。被測定物体の概略位置及び姿勢と2次元画像を撮影した撮像装置20の校正済みの内部パラメータを用いて、形状モデルを構成する各線分の2次元画像上への投影像を算出する。   The search unit 140 searches the candidate for correspondence of the local line feature of the shape model of the measured object input from the model input unit 110 in the two-dimensional image input from the image input unit 130. This search is performed using the approximate values of the positions and orientations of all the local line features that make up the shape model, and the internal parameters of the imaging device that captured the two-dimensional image. In this embodiment, an edge feature in a two-dimensional image is detected as a corresponding candidate (measurement data feature). The edge feature is a point that becomes an extreme value of the density gradient detected by the differential filter. FIG. 4 is a diagram for explaining edge detection in the present embodiment. A projected image on the two-dimensional image of each line segment constituting the shape model is calculated by using the approximate position and orientation of the object to be measured and the calibrated internal parameters of the imaging device 20 that captured the two-dimensional image.

図4(a)に示されるように、線分の投影像は2次元画像上でも線分となる(投影された線分401)。次に、2次元画像上で等間隔になるように、投影された線分401上に制御点402を設定し、設定した制御点402ごとに、投影された線分401の法線方向に1次元のエッジ検出を行う(図4(a))。すなわち、投影された線分401上に設定された制御点402を通り、投影された線分401の法線方向を有する探索ライン403に沿って、エッジ検出が行われる。2次元画像のエッジ404は画素値の濃度勾配の極値として検出されるため、図4(b)に示すように、近傍に複数のエッジが存在する場合には1つの制御点について複数のエッジが検出されることがある。本実施形態では、検出されるエッジをすべて仮説として保持する。   As shown in FIG. 4A, the projected image of the line segment is also a line segment on the two-dimensional image (projected line segment 401). Next, control points 402 are set on the projected line segments 401 so as to be equally spaced on the two-dimensional image, and 1 is set in the normal direction of the projected line segments 401 for each set control point 402. Dimensional edge detection is performed (FIG. 4A). That is, edge detection is performed along a search line 403 having a normal direction of the projected line segment 401 through the control point 402 set on the projected line segment 401. Since the edge 404 of the two-dimensional image is detected as an extreme value of the density gradient of the pixel value, as shown in FIG. 4B, when there are a plurality of edges in the vicinity, a plurality of edges for one control point are present. May be detected. In this embodiment, all detected edges are held as hypotheses.

評価値算出部150は、画像入力部130で得られた2次元画像のボケの大きさおよびブレの大きさを推定する。本実施形態では、2次元画像中のエッジと直交する方向に沿った画素の輝度変化に対して、ボケ・ブレが生じたときのエッジの輝度変化を表す関数を当てはめることによって、エッジ特徴それぞれについて画像劣化評価値を算出する。2次元画像中のエッジを検出する処理は、探索部140によるエッジ検出と同様の処理である。処理の詳細は後述する。   The evaluation value calculation unit 150 estimates the blur size and blur size of the two-dimensional image obtained by the image input unit 130. In this embodiment, by applying a function representing the luminance change of the edge when blurring / blurring is applied to the luminance change of the pixel along the direction orthogonal to the edge in the two-dimensional image, each edge feature is applied. An image degradation evaluation value is calculated. The process for detecting the edge in the two-dimensional image is the same as the edge detection by the search unit 140. Details of the processing will be described later.

正確度算出部160は、被測定物体の形状モデルの局所線特徴との対応付けの仮説として探索部140が保持したエッジ特徴のそれぞれの対応について正確度を算出する。正確度の算出は、予測値算出部120で得られた画像劣化予測値と、評価値算出部150で得られた画像劣化評価値に基づいて行われるが、その処理の詳細な内容は後述する。照合部170は、被測定物体の形状モデル中の各局所線特徴に対応する2次元画像上のエッジ特徴と正確度算出部160で算出した正確度に基づいて、被測定物体の位置及び姿勢を算出する。照合部170による位置及び姿勢の算出処理の詳細は後述する。   The accuracy calculation unit 160 calculates the accuracy for each correspondence of the edge features held by the search unit 140 as a hypothesis of association with the local line feature of the shape model of the measured object. The accuracy is calculated based on the predicted image deterioration value obtained by the predicted value calculation unit 120 and the image deterioration evaluation value obtained by the evaluation value calculation unit 150. The details of the processing will be described later. . The matching unit 170 determines the position and orientation of the measured object based on the edge feature on the two-dimensional image corresponding to each local line feature in the shape model of the measured object and the accuracy calculated by the accuracy calculating unit 160. calculate. Details of the position and orientation calculation processing by the matching unit 170 will be described later.

図3は第1実施形態におけるエッジ特徴と局所線特徴との対応付け、2次元画像上の被測定物体の位置及び姿勢の算出の処理手順を示すフローチャートである。まず、モデル入力部110は、被測定物体の形状モデルを入力し、情報処理装置1に取り込む(ステップS301)。次に、予測値算出部120は、2次元画像の画像劣化予測値を算出する(ステップS302)。画像劣化予測値の算出には、被測定物体の形状モデルを構成するすべての局所線特徴の位置及び姿勢の概略値、撮像装置と被測定物体との相対的な移動方向・速度、2次元画像の取得時における撮像装置の内部パラメータが用いられる。なお、本実施形態では、物体の置かれているおおよその位置や姿勢の値を局所線特徴の位置及び姿勢の概略値として用いる。2次元画像の画像劣化予測値の算出処理の詳細は図5の参照により後述する。   FIG. 3 is a flowchart showing a processing procedure for associating edge features with local line features in the first embodiment and calculating the position and orientation of the measured object on the two-dimensional image. First, the model input unit 110 inputs a shape model of an object to be measured and imports it into the information processing apparatus 1 (step S301). Next, the predicted value calculation unit 120 calculates an image deterioration predicted value of the two-dimensional image (step S302). For the calculation of the predicted image degradation value, the approximate values of the positions and orientations of all the local line features constituting the shape model of the object to be measured, the relative movement direction / velocity between the imaging device and the object to be measured, and a two-dimensional image The internal parameters of the imaging device at the time of acquisition are used. In the present embodiment, the approximate position or orientation value where the object is placed is used as the approximate value of the position and orientation of the local line feature. Details of the processing for calculating the predicted image degradation value of the two-dimensional image will be described later with reference to FIG.

次に、画像入力部130は、2次元画像を入力し、情報処理装置1に取り込む(ステップS303)。探索部140は、画像入力部130が入力した2次元画像から形状モデルの局所線特徴の対応の候補を探索する(ステップS304)。対応の候補の探索方法は、図4により前述したとおりであり、モデル入力部110が入力した形状モデルのすべての局所線特徴の位置及び姿勢の概略値、および2次元画像の撮影時の撮像装置の内部パラメータに基づいてなされる。   Next, the image input unit 130 inputs a two-dimensional image and takes it into the information processing apparatus 1 (step S303). The search unit 140 searches for a corresponding candidate for the local line feature of the shape model from the two-dimensional image input by the image input unit 130 (step S304). The corresponding candidate search method is as described above with reference to FIG. 4, and the approximate values of the positions and orientations of all the local line features of the shape model input by the model input unit 110 and the imaging device at the time of capturing a two-dimensional image Based on the internal parameters.

評価値算出部150は、画像入力部130により得られた2次元画像のボケの大きさおよびブレの大きさを推定し、画像劣化評価値を算出する(ステップS305)。より詳細には、評価値算出部150は、画像入力部130で得られた2次元画像からエッジ検出を行う。そして、評価値算出部150は、検出したエッジ特徴と直交する方向に沿った画素の輝度変化に対してボケ・ブレが生じたときのエッジの輝度変化を表す関数を当てはめることでエッジ部分でのボケ・ブレ幅を推定し、画像劣化評価値を得る。この処理の詳細は後述する。次に、正確度算出部160は、予測値算出部120で得た画像劣化予測値と、評価値算出部150で得た画像劣化評価値とを用いて、探索部140で得た局所線特徴とエッジ特徴の対応付けの正確度を算出する(ステップS306)。この正確度の算出処理の詳細は図7の参照により後述する。そして、照合部170は、算出された正確度が最大となるエッジ特徴を、形状モデルの局所線特徴に当てはめることにより、計測対象物体の位置及び姿勢を算出する(ステップS307)。   The evaluation value calculation unit 150 estimates the blur size and blur size of the two-dimensional image obtained by the image input unit 130, and calculates an image degradation evaluation value (step S305). More specifically, the evaluation value calculation unit 150 performs edge detection from the two-dimensional image obtained by the image input unit 130. Then, the evaluation value calculation unit 150 applies a function representing the luminance change of the edge when blurring / blurring occurs with respect to the luminance change of the pixel along the direction orthogonal to the detected edge feature. The blur / blur width is estimated to obtain an image degradation evaluation value. Details of this processing will be described later. Next, the accuracy calculation unit 160 uses the image degradation prediction value obtained by the prediction value calculation unit 120 and the image degradation evaluation value obtained by the evaluation value calculation unit 150, and the local line feature obtained by the search unit 140. And the accuracy of the correspondence between the edge features (step S306). Details of the accuracy calculation processing will be described later with reference to FIG. Then, the collation unit 170 calculates the position and orientation of the measurement target object by applying the edge feature having the maximum calculated accuracy to the local line feature of the shape model (step S307).

図5はステップS302における画像劣化予測値を算出する処理を表すフローチャートである。本実施形態では、モデル特徴の2次元画像のボケおよび/またはブレによる像の広がりに起因する画像劣化を予測する。以下、予測値算出部120による画像劣化予測値算出処理を図5のフローチャートを参照して説明する。まず、予測値算出部120は、形状モデルのすべての局所線特徴の位置及び姿勢の概略値、撮像装置と被測定物体との相対的な移動方向・速度、および2次元画像の撮影に用いた内部パラメータを取得する(ステップS501)。本実施形態における撮像装置と被測定物体との相対的な移動方向・速度として、例えば、被測定物体を1軸方向に並進運動を行う機材(たとえばベルトコンベア)に配置したときの設計データに基づいて、その並進運動の移動量と移動方向を取得する。   FIG. 5 is a flowchart showing the process of calculating the predicted image degradation value in step S302. In the present embodiment, image degradation due to the spread of the image due to blurring and / or blurring of the two-dimensional image of the model feature is predicted. Hereinafter, the image degradation predicted value calculation processing by the predicted value calculation unit 120 will be described with reference to the flowchart of FIG. First, the predicted value calculation unit 120 was used for the approximate values of the positions and orientations of all the local line features of the shape model, the relative moving direction / velocity between the imaging device and the object to be measured, and the shooting of a two-dimensional image. Internal parameters are acquired (step S501). As the relative movement direction and speed between the imaging apparatus and the object to be measured in the present embodiment, for example, based on design data when the object to be measured is arranged on a device (for example, a belt conveyor) that translates in one axial direction. Then, the movement amount and movement direction of the translational movement are acquired.

次に、予測値算出部120は、形状モデルの中から、画像劣化予測値σを算出するために、局所線特徴を選択する(ステップS502)。そして、予測値算出部120は、選択された1つの局所線特徴において予測されるボケの大きさDを以下の式[数1]を用いて算出する(ステップS503)。

Figure 2016148649
Next, the predicted value calculation unit 120 selects a local line feature in order to calculate the image degradation predicted value σ 0 from the shape model (step S502). Then, the predicted value calculation unit 120 calculates the blur size D predicted for one selected local line feature using the following equation [Equation 1] (step S503).
Figure 2016148649

上記の式[数1]において、fは撮影レンズの焦点距離、Lは仮想視点のピント位置、Lは仮想視点からモデル点までの距離、Fはレンズの絞り値、Δdは画素の大きさを表す。撮影レンズの焦点距離fや絞り値Fは、使用する撮像装置の仕様を参照することで取得される。LnはステップS501で入力された概略位置姿勢から算出される。撮影に用いたカメラレンズの焦点距離や主点位置、レンズ歪みパラメータなどの内部パラメータは、使用する機器の仕様を参照することにより、または、非特許文献2に記載された方法によって事前にキャリブレーションしておくことにより取得される。 In the above formula [Equation 1], f is the focal length of the taking lens, L o is the focus position of the virtual viewpoint, L n is the distance from the virtual viewpoint to the model point, F is the aperture value of the lens, and Δd is the size of the pixel Represents The focal length f and aperture value F of the photographic lens are acquired by referring to the specifications of the imaging device to be used. Ln is calculated from the approximate position and orientation input in step S501. Internal parameters such as the focal length, principal point position, and lens distortion parameters of the camera lens used for shooting are calibrated in advance by referring to the specifications of the equipment used or by the method described in Non-Patent Document 2. It is acquired by keeping.

次に、予測値算出部120は、ステップS503でボケの大きさを予測したのと同じ局所線特徴において予測されるブレの大きさを算出する(ステップS504)。本実施形態ではブレ量として露光時間中における各局所線特徴の2次元画像上での移動量を用いる。具体的には、形状モデルを2次元画像に投影した画像から検出される、投影局所線特徴の露光時間中における画像面での移動量が用いられる。ステップS504では、モデル投影画像で得られる投影局所線特徴のヤコビアンを算出し、投影局所線特徴のヤコビアンとステップS502で入力した撮像装置と被測定物体との相対的な移動方向・速度に基づいて、投影局所線特徴のブレの大きさを算出する。   Next, the predicted value calculation unit 120 calculates the size of blur predicted for the same local line feature that predicted the size of blur in step S503 (step S504). In the present embodiment, the amount of movement of each local line feature on the two-dimensional image during the exposure time is used as the amount of blur. Specifically, the movement amount on the image plane during the exposure time of the projected local line feature, which is detected from the image obtained by projecting the shape model onto the two-dimensional image, is used. In step S504, the Jacobian of the projected local line feature obtained from the model projection image is calculated, and based on the relative moving direction / velocity between the Jacobian of the projected local line feature and the imaging device and the measured object input in step S502. The amount of blurring of the projected local line feature is calculated.

投影局所線特徴のヤコビアンとは、位置姿勢6自由度のパラメータが微小に変化したときに、画像上の投影局所線特徴が変化する割合を表す値である。被測定物体の概略位置姿勢sに基づいて、投影局所線特徴に対応するエッジ特徴のブレ量を(du、dv)、投影局所線特徴の法線方向を(n、n)(単位ベクトル)と表すと、対応間の符号付距離err2Dは以下の式[数2]より算出できる。なお、du=u’−u、dv=v’−vとする。

Figure 2016148649
The Jacobian of the projected local line feature is a value representing a rate at which the projected local line feature on the image changes when the parameter of the position and orientation 6 degrees of freedom changes minutely. Based on the approximate position and orientation s of the object to be measured, the blur amount of the edge feature corresponding to the projected local line feature is (du, dv), and the normal direction of the projected local line feature is (n u , n v ) (unit vector ), The signed distance err 2D between the correspondences can be calculated by the following equation [Equation 2]. Note that du = u′−u and dv = v′−v.
Figure 2016148649

ここで、被測定物体の位置及び姿勢sは6次元ベクトルであり、対象物体の位置を表す3つの要素(s、s、s)と、姿勢を表す3つの要素(s、s、s)からなる。姿勢を表す3つの要素は、例えばオイラー角による表現や、方向が原点を通る回転軸を表してノルムが回転角を表す3次元ベクトルなどによって表現される。この位置及び姿勢sの各パラメータで、対応間距離err2Dを偏微分することによって、以下の式[数3]のように投影局所線特徴のヤコビアンを算出する。

Figure 2016148649
Here, the position and orientation s of the measured object are 6-dimensional vectors, and three elements (s 1 , s 2 , s 3 ) representing the position of the target object and three elements (s 4 , s) representing the attitude. 5 and s 6 ). The three elements representing the posture are represented by, for example, expression by Euler angles or a three-dimensional vector in which the direction represents the rotation axis passing through the origin and the norm represents the rotation angle. The Jacobian of the projected local line feature is calculated by the partial differentiation of the inter-corresponding distance err 2D with the parameters of the position and orientation s as shown in the following equation [Equation 3].
Figure 2016148649

以上のようにしてステップS502で選択された投影局所線特徴のヤコビアンが計算される。この投影局所線特徴のヤコビアンを用いて、2次元画像の露光時間t中に対象物体が相対位置姿勢速度Vで動くことによって発生する、局所線特徴と2次元画像中のエッジ特徴との間の距離変化Bは、以下の式[数4]により計算できる。

Figure 2016148649
Bはスカラーであり、露光時間中に画像平面上で、投影局所線特徴の2次元位置が移動する量を表す。以上の処理を全ての局所線特徴に対して行い、全ての局所線特徴に対してブレ量を算出する。 As described above, the Jacobian of the projected local line feature selected in step S502 is calculated. Using the Jacobian of the projected local line feature, between the local line feature and the edge feature in the two-dimensional image generated when the target object moves at the relative position / posture speed V during the exposure time t i of the two-dimensional image. Can be calculated by the following equation [Equation 4].
Figure 2016148649
B is a scalar and represents the amount by which the two-dimensional position of the projected local line feature moves on the image plane during the exposure time. The above processing is performed for all local line features, and the blur amount is calculated for all local line features.

次に、予測値算出部120では、ステップS503で算出したボケの大きさDとステップS504で算出したブレの大きさBから、ステップS502で選択した局所線特徴の画像劣化予測値σを、以下の式[数5]を用いて算出する(ステップS505)。

Figure 2016148649
Next, in the predicted value calculation unit 120, the image degradation predicted value σ 0 of the local line feature selected in step S502 is calculated from the blur size D calculated in step S503 and the blur size B calculated in step S504. Calculation is performed using the following equation [Equation 5] (step S505).
Figure 2016148649

すべての局所線特徴について画像劣化予測値σの算出が終わるまで、ステップS502〜S505の処理を繰り返す(ステップS506)。こうして、全ての局所線特徴に対して画像劣化予測値σの算出を終えたら本処理を終了する。 The processes in steps S502 to S505 are repeated until the calculation of the image degradation prediction value σ 0 is completed for all local line features (step S506). In this way, when the calculation of the image degradation prediction value σ 0 is completed for all local line features, this processing is terminated.

次に、ステップS305における、ボケ・ブレの大きさを2次元画像から評価する処理を説明する。本実施形態では、計測データ特徴の2次元画像におけるボケおよび/またはブレによる像の広がりに起因する画像劣化を評価する。図6は、ステップS305において評価値算出部150が実行する画像劣化評価値の算出処理を示すフローチャートである。評価値算出部150は、ステップS304で検出された対応の候補であるエッジ特徴のうちの1つを選択し(ステップS601)、選択したエッジ特徴について画像劣化評価値を算出する(ステップS602)。   Next, a process of evaluating the blur / blur size from the two-dimensional image in step S305 will be described. In the present embodiment, image degradation caused by image spread due to blur and / or blur in a two-dimensional image of measurement data features is evaluated. FIG. 6 is a flowchart illustrating the image degradation evaluation value calculation process executed by the evaluation value calculation unit 150 in step S305. The evaluation value calculation unit 150 selects one of the edge features that are corresponding candidates detected in step S304 (step S601), and calculates an image degradation evaluation value for the selected edge feature (step S602).

評価値算出部150による画像劣化評価値の算出について説明する。評価値算出部150は、ステップS601で選択したエッジ特徴の位置とエッジの法線方向から、そのエッジ特徴のボケ・ブレの大きさを算出する。本実施形態で用いるエッジモデルとしては、以下の式[数6]で表されるような誤差関数erfを用いて当てはめを行い、σをボケ・ブレの大きさとして求める。

Figure 2016148649
数6において、x、yはエッジのある着目画素位置、rは着目画素位置からの距離、θはエッジの法線方向、tは着目画素からの探索範囲、σはボケの大きさとブレの大きさを統合した値(画像劣化評価値)を示す。なお、tは任意の正の値である。 The calculation of the image degradation evaluation value by the evaluation value calculation unit 150 will be described. The evaluation value calculation unit 150 calculates the blur / blur size of the edge feature from the position of the edge feature selected in step S601 and the normal direction of the edge. As an edge model used in the present embodiment, fitting is performed using an error function erf represented by the following formula [Equation 6], and σ is obtained as the magnitude of blurring and blurring.
Figure 2016148649
In Equation 6, x 0 and y 0 are the target pixel position with an edge, r is the distance from the target pixel position, θ is the normal direction of the edge, t is the search range from the target pixel, σ is the size and blur of the blur. A value (image degradation evaluation value) obtained by integrating the sizes of the images is shown. Note that t is an arbitrary positive value.

画像劣化評価値σを、以下の式[数7]で表す評価関数Eを最急降下法や、Levenberg‐Marquardt法による繰り返し演算等で最小化することで推定する。

Figure 2016148649
数7において、I(x,y)は座標(x,y)における撮影画像の輝度値を示す。 The image degradation evaluation value σ is estimated by minimizing the evaluation function E represented by the following formula [Equation 7] by the steepest descent method, the iterative calculation by the Levenberg-Marquardt method, or the like.
Figure 2016148649
In Equation 7, I (x, y) indicates the luminance value of the captured image at the coordinates (x, y).

ステップS304で検出されたすべてのエッジ特徴について、上述したボケ・ブレの大きさの評価を終えるまでステップS601とS602の処理が繰り返される(ステップS603)。ステップS304で検出されたすべてのエッジ特徴についてボケ・ブレの大きさの評価を終えると本処理は終了する。   For all the edge features detected in step S304, the processes in steps S601 and S602 are repeated until the above-described evaluation of the blur / blur size is completed (step S603). When the evaluation of the blur / blur size has been completed for all the edge features detected in step S304, the process ends.

図7はステップS306における正確度の算出処理を示すフローチャートである。本実施形態では、予測値算出部120が算出した画像劣化の度合いである画像劣化予測値と、評価値算出部150が評価した画像劣化の度合いである画像劣化評価値が近いほど高い値となるように正確度が算出される。まず、正確度算出部160は、被測定物体の形状モデル中の局所線特徴を一つ選択する(ステップS701)。次に、正確度算出部160は、ステップS701で選択した局所線特徴との対応付けの候補として、ステップS304において探索部140が探索したエッジ特徴(対応の候補)を一つ選択し(ステップS702)、その正確度を算出する(ステップS703)。以下、正確度の算出について説明する。   FIG. 7 is a flowchart showing the accuracy calculation process in step S306. In the present embodiment, the closer the image degradation prediction value that is the degree of image degradation calculated by the prediction value calculation unit 120 and the image degradation evaluation value that is the degree of image degradation evaluated by the evaluation value calculation unit 150, the higher the value. The accuracy is calculated as follows. First, the accuracy calculation unit 160 selects one local line feature in the shape model of the object to be measured (step S701). Next, the accuracy calculation unit 160 selects one edge feature (correspondence candidate) searched by the search unit 140 in step S304 as a candidate for association with the local line feature selected in step S701 (step S702). ) And the accuracy is calculated (step S703). Hereinafter, calculation of accuracy will be described.

正確度算出部160は、評価値算出部150の算出結果を参照して、ステップS702で選択したエッジ特徴に対応する画像劣化評価値σを取得する。また、正確度算出部160は、ステップS701で選択した局所線特徴の画像劣化予測値σを取得する。正確度算出部160は、画像劣化予測値σと画像劣化評価値σとから正確度Tを以下の式[数8]に従って算出する。

Figure 2016148649
The accuracy calculation unit 160 refers to the calculation result of the evaluation value calculation unit 150 and acquires the image degradation evaluation value σ corresponding to the edge feature selected in step S702. In addition, the accuracy calculation unit 160 acquires the image degradation predicted value σ 0 of the local line feature selected in step S701. The accuracy calculation unit 160 calculates the accuracy T from the image degradation prediction value σ 0 and the image degradation evaluation value σ according to the following equation [Equation 8].
Figure 2016148649

ステップS701で選択された局所線特徴について探索部140が探索したすべての対応の候補(エッジ特徴)について正確度Tを算出し終えるまで、ステップS702〜S703を繰り返す。すべての対応の候補(エッジ特徴)について正確度Tの算出を終えると、処理はステップS705に進む。正確度算出部160は、以上の処理(ステップS701〜S704)を、被測定物体の形状モデル中のすべての局所線特徴について終えるまで繰り返す。すべての局所線特徴について終えると、本処理を終了する。   Steps S702 to S703 are repeated until the accuracy T has been calculated for all corresponding candidates (edge features) searched by the search unit 140 for the local line feature selected in step S701. When the accuracy T has been calculated for all the corresponding candidates (edge features), the process proceeds to step S705. The accuracy calculation unit 160 repeats the above processing (steps S701 to S704) until all local line features in the shape model of the measured object are finished. When all the local line features are finished, this processing is finished.

図8はステップS307における、照合部170による位置姿勢算出の処理手順を説明するフローチャートである。照合部170は、計測データに形状モデルが当てはまるように、非線形最適化手法の一つであるGauss−Newton法を用いて計測対象物体の位置及び姿勢(以下、6次元ベクトルsで表す)の概略値を反復演算によって繰り返し補正する。   FIG. 8 is a flowchart for explaining the processing procedure of position / orientation calculation by the collation unit 170 in step S307. The collation unit 170 uses the Gauss-Newton method, which is one of nonlinear optimization methods, so that the shape model is applied to the measurement data, and outlines the position and orientation of the measurement target object (hereinafter, represented by a 6-dimensional vector s). The value is repeatedly corrected by an iterative operation.

まず、照合部170は、初期化処理を行う(ステップS801)。本実施形態では、被測定物体の置かれているおおよその位置や姿勢の値が概略値として照合部170に入力される。この概略値は、ステップS302で用いたのと同じものである。次に、照合部170は、モデルの局所線特徴と照合するエッジ特徴を選択する(ステップS802)。選択には正確度算出部160が算出した、エッジ特徴と局所線特徴との対応の正確度Tを用いる。たとえば、一つの局所線特徴に関して複数のエッジ特徴が対応付け仮説として検出されている場合は、正確度Tが一番高い対応の候補(エッジ特徴)を当該局所線特徴に対応づけて以後の処理を行う。   First, the collation unit 170 performs an initialization process (step S801). In the present embodiment, the approximate position or orientation value where the object to be measured is placed is input to the matching unit 170 as an approximate value. This approximate value is the same as that used in step S302. Next, the matching unit 170 selects an edge feature to be matched with the local line feature of the model (step S802). For the selection, the accuracy T of correspondence between the edge feature and the local line feature calculated by the accuracy calculation unit 160 is used. For example, when a plurality of edge features are detected as a matching hypothesis for one local line feature, a corresponding candidate (edge feature) having the highest accuracy T is associated with the local line feature and the subsequent processing I do.

続いて、照合部170は、位置及び姿勢を算出するための係数行列と誤差ベクトルの算出を行う(ステップS803)。ここで係数行列の各要素は、画像上での点と直線の距離を位置及び姿勢の関数としたときの、位置及び姿勢の各要素に関する一次の偏微分係数である。誤差ベクトルは、エッジについては投影された線分と検出されたエッジの画像上での符号付き距離、点群データについては点とモデルの面の3次元空間中での符号付き距離である。   Subsequently, the collation unit 170 calculates a coefficient matrix and an error vector for calculating the position and orientation (step S803). Here, each element of the coefficient matrix is a first-order partial differential coefficient with respect to each element of the position and orientation when the distance between the point and the line on the image is a function of the position and orientation. The error vector is a signed distance on the image of the projected line segment and the detected edge for the edge, and a signed distance in the three-dimensional space between the point and the surface of the model for the point cloud data.

次に、係数行列の導出について説明する。図9は、投影像である線分901と検出されたエッジ902の関係を説明する図である。図9では、画像の水平方向、垂直方向をそれぞれu軸、v軸としている。ある制御点903(投影された各線分を画像上で等間隔に分割した点)の画像上での位置を(u,v)、その制御点903が所属する線分901の画像上での傾きをu軸に対する傾きθと表す。傾きθは、線分の両端の3次元座標を被測定物体の位置姿勢sに基づいて画像上に投影し、画像上での両端の座標を結んだ直線の傾きとして算出する。線分901の画像上での法線ベクトルは(sinθ,−cosθ)となる。また、制御点903の対応点904の2次元画像上の座標を(u’,v’)とする。ここで、点(u’,v’)を通り、傾きがθである直線(図9の破線により示されるエッジ902)上の点(u,v)は、以下の式[数9]のように表される(θは定数とする)。ここで、d=u’sinθ−v’cosθ(定数)である。

Figure 2016148649
Next, derivation of the coefficient matrix will be described. FIG. 9 is a diagram for explaining the relationship between a line segment 901 that is a projected image and a detected edge 902. In FIG. 9, the horizontal and vertical directions of the image are the u axis and the v axis, respectively. The position on the image of a certain control point 903 (a point obtained by dividing each projected line segment at equal intervals on the image) is (u 0 , v 0 ), and the image of the line segment 901 to which the control point 903 belongs is displayed. Is expressed as an inclination θ with respect to the u-axis. The inclination θ is calculated as the inclination of a straight line obtained by projecting the three-dimensional coordinates at both ends of the line segment onto the image based on the position and orientation s of the measured object and connecting the coordinates at both ends on the image. The normal vector on the image of the line segment 901 is (sin θ, −cos θ). Further, the coordinates on the two-dimensional image of the corresponding point 904 of the control point 903 are (u ′, v ′). Here, a point (u, v) on a straight line (edge 902 indicated by a broken line in FIG. 9) passing through the point (u ′, v ′) and having an inclination of θ is expressed by the following equation [Equation 9]. (Θ is a constant). Here, d = u′sin θ−v′cos θ (constant).
Figure 2016148649

制御点の画像上での位置は計測対象物体の位置及び姿勢により変化する。また、計測対象物体の位置及び姿勢の自由度は6自由度である。すなわち位置姿勢sは6次元ベクトルであり、計測対象物体の位置を表す3つの要素と、姿勢を表す3つの要素からなる。姿勢を表す3つの要素は、例えばオイラー角による表現や、方向が原点を通る回転軸を表してノルムが回転角を表す3次元ベクトルなどによって表現される。位置及び姿勢により変化する制御点の画像座標(u、v)は(u、v)の近傍で1次のテイラー展開によって以下の式[数10]のように近似できる。但し、数10において、Δs(i=1、2、…、6)はsの各成分の微小変化を表す。

Figure 2016148649
The position of the control point on the image changes depending on the position and orientation of the measurement target object. The degree of freedom of the position and orientation of the measurement target object is 6 degrees of freedom. That is, the position / orientation s is a six-dimensional vector, and includes three elements representing the position of the measurement target object and three elements representing the attitude. The three elements representing the posture are represented by, for example, expression by Euler angles or a three-dimensional vector in which the direction represents the rotation axis passing through the origin and the norm represents the rotation angle. The image coordinates (u, v) of the control points that change depending on the position and orientation can be approximated by the first-order Taylor expansion in the vicinity of (u 0 , v 0 ) as in the following equation [Equation 10]. In Equation 10, Δs i (i = 1, 2,..., 6) represents a minute change of each component of s.
Figure 2016148649

位置及び姿勢の概略値と実際の位置及び姿勢の差がそれほどないと仮定すると、正しいsによって得られる制御点の画像上での位置は式[数9]が表す直線上にあると仮定できる。式[数10]によって近似されるu、vを式[数9]に代入することにより、式[数11]が得られる。

Figure 2016148649
位置及び姿勢の概略値によって算出された各制御点の奥行き(視点から制御点までの距離=z)を、画像上の誤差に乗じることによって3次元空間中の誤差に変換する。 Assuming that there is not much difference between the approximate value of position and orientation and the actual position and orientation, it can be assumed that the position of the control point obtained by the correct s on the image is on the straight line represented by Equation [9]. By substituting u and v approximated by Equation [Equation 10] into Equation [Equation 9], Equation [Equation 11] is obtained.
Figure 2016148649
The depth of each control point (distance from the viewpoint to the control point = z) calculated based on the approximate values of the position and orientation is converted to an error in the three-dimensional space by multiplying the error on the image.

解くべき連立方程式は式[数12]のようになる。

Figure 2016148649
The simultaneous equations to be solved are as shown in Equation [12].
Figure 2016148649

式[数12]において、z1、z2・・・は各エッジの奥行きを表している。ここで式[数12]を式[数13]のように表す。[数13]において、Jは係数行列、Eは誤差ベクトル、Δsは補正値である。

Figure 2016148649
線形連立方程式の係数行列Jを算出するための偏微分係数の算出は、例えば非特許文献2に開示されている方法によって行うことができる。 In Expression [12], z 1 , z 2 ... Represent the depth of each edge. Here, Expression [Equation 12] is expressed as Expression [Equation 13]. In [Equation 13], J is a coefficient matrix, E is an error vector, and Δs is a correction value.
Figure 2016148649
Calculation of the partial differential coefficient for calculating the coefficient matrix J of the linear simultaneous equations can be performed by a method disclosed in Non-Patent Document 2, for example.

次に、照合部170は、式[数13]をもとに、行列Jの一般化逆行列(JT・J)−1・JTを用いて位置及び姿勢の補正値Δsを最小二乗基準で求める(ステップS804)。しかしながら、エッジや点群データには誤検出などによる外れ値が多いため、次に述べるようなロバスト推定手法を用いる。一般に、外れ値であるエッジや点群データでは式[数12]の右辺の誤差ベクトルの値が大きくなる。そこで、誤差の絶対値が大きいデータには小さな重みを与え、誤差が小さいデータには大きな重みを与える。重みは例えば式[数14]に示すようなTukeyの関数により与える。 Next, the collation unit 170 uses the generalized inverse matrix (J T · J) −1 · J T of the matrix J based on the equation [Equation 13] to calculate the position and orientation correction value Δs based on the least-squares criterion. (Step S804). However, since there are many outliers due to erroneous detection or the like in edge and point cloud data, the following robust estimation method is used. Generally, in the case of edge and point cloud data that are outliers, the value of the error vector on the right side of Equation [12] becomes large. Therefore, a small weight is given to data with a large absolute value of error, and a large weight is given to data with a small error. The weight is given by, for example, a Tukey function as shown in Equation [14].

Figure 2016148649
上記式[数14]において、c、cは定数である。なお、重みを与える関数はTukeyの関数である必要はなく、例えばHuberの関数など、誤差が大きいデータには小さな重みを与え、誤差が小さいデータには大きな重みを与える関数であればなんでもよい。
Figure 2016148649
In the above formula [Formula 14], c 1 and c 2 are constants. Note that the function that gives the weight need not be a Tukey function, and any function that gives a small weight to data with a large error and gives a large weight to data with a small error, such as a Huber function, for example.

各計測データ(エッジまたは点群データ)に対応する重みをwとする。ここで式[数15]のように重み行列Wを定義する。

Figure 2016148649
The weight corresponding to each measurement data (edge or point cloud data) is defined as w i . Here, a weight matrix W is defined as shown in Equation [15].
Figure 2016148649

重み行列Wは、対角成分以外はすべて0の正方行列であり、対角成分には、式[数14]に従って算出された重みwが入る。この重み行列W用いて、式[数13]を式[数16]のように変形する。

Figure 2016148649
式[数16]を式[数17]のように解くことにより補正値Δsを求める。
Figure 2016148649
The weight matrix W is a square matrix of all zeros except for the diagonal component, and the weight w i calculated according to the equation [Equation 14] is entered in the diagonal component. Using this weight matrix W, Equation [Equation 13] is transformed into Equation [Equation 16].
Figure 2016148649
The correction value Δs is obtained by solving Equation [16] as Equation [17].
Figure 2016148649

図8に戻り、照合部170は、ステップS804において算出された位置及び姿勢の補正値Δsにより、位置及び姿勢の概略値を補正する(ステップS805)。

Figure 2016148649
Returning to FIG. 8, the collation unit 170 corrects the approximate position and orientation values by using the position and orientation correction values Δs calculated in step S804 (step S805).
Figure 2016148649

続いて、照合部170は、収束判定を行い、収束していれば終了し、収束していなければ処理をステップS802に戻す(ステップS806)。収束判定では、補正値Δsがほぼ0である場合や、誤差ベクトルの二乗和が補正前と補正後でほとんど変わらない場合(補正前後の差分が所定の閾値以下になった場合)に収束したと判定する。なお、上記では非線形最適化手法としてGauss−Newton法を用いた例を説明した。しかしながら、非線形最適化手法はこれに限るものではなく、Newton−Raphson法、Levenberg−Marquardt法、最急降下法、共役勾配法などのその他の非線形最適化手法を用いてもよい。   Subsequently, the collation unit 170 performs convergence determination. If the convergence has been completed, the collation unit 170 ends. If not, the process returns to step S802 (step S806). In the convergence determination, when the correction value Δs is almost 0, or when the sum of squares of the error vector hardly changes after the correction and after the correction (when the difference before and after the correction is equal to or less than a predetermined threshold value) judge. In the above description, an example in which the Gauss-Newton method is used as the nonlinear optimization method has been described. However, the nonlinear optimization method is not limited to this, and other nonlinear optimization methods such as a Newton-Raphson method, a Levenberg-Marquardt method, a steepest descent method, and a conjugate gradient method may be used.

本実施形態における被測定物体のモデルとして保持する形状情報は、対象形状を表す2次元もしくは3次元の幾何情報であれば良く、表現形式に特に制限はない。例えば、2次元の幾何情報を表す場合は単純な2次元点の集合や、2次元ラインの集合などで表現してもよい。また、3次元の幾何情報を表す場合は、単純な3次元点の集合や、稜線を表す3次元ラインの集合、3次元点3点で構成される線の集合で表されるポリゴン形式の形状情報などで表しても良い。   The shape information held as a model of the object to be measured in the present embodiment may be two-dimensional or three-dimensional geometric information representing the target shape, and the expression format is not particularly limited. For example, when representing two-dimensional geometric information, it may be represented by a simple set of two-dimensional points or a set of two-dimensional lines. When representing 3D geometric information, a polygonal shape represented by a set of simple 3D points, a set of 3D lines representing edges, or a set of 3D points It may be expressed by information.

また、ステップS501において入力される撮像装置と被測定物体との相対的な移動方向・速度として、被測定物体がある方向に並進運動を行うことを想定した移動方向および移動量の情報を入力する例を示したが、本実施形態はこれに限られるものではない。例えば、被測定物体に上述のセンサを取り付け、その情報から撮像装置と被測定物体との相対位置姿勢の速度を算出しても良い。また、撮像装置が動くような場面では、撮像装置の動きを取得してもよい。例えば、ロボットに撮像装置を取り付けた場合、ロボットモーション情報を撮像装置と被測定物体との相対的な移動方向・速度の入力としてもよい。あるいは撮像装置に磁気センサや超音波センサなど6自由度の位置及び姿勢を計測する物理センサを取り付け、それらの情報を入力してもよい。本実施形態では、撮像装置と被測定物体との相対的な位置姿勢の速度が算出できる限り、いずれの方法を用いても良く、手段・機器の選択に特に制限はない。   In addition, as the relative movement direction / velocity between the imaging device and the measured object input in step S501, information on the movement direction and the movement amount assuming that the measured object is translated in a certain direction is input. Although an example has been shown, the present embodiment is not limited to this. For example, the sensor described above may be attached to the object to be measured, and the relative position and orientation speed between the imaging device and the object to be measured may be calculated from the information. Further, in a scene where the imaging device moves, the movement of the imaging device may be acquired. For example, when an imaging device is attached to the robot, the robot motion information may be input as the relative movement direction and speed between the imaging device and the object to be measured. Alternatively, a physical sensor that measures a position and orientation with six degrees of freedom such as a magnetic sensor or an ultrasonic sensor may be attached to the imaging apparatus, and the information may be input. In the present embodiment, any method may be used as long as the relative position / orientation speed between the imaging apparatus and the object to be measured can be calculated, and there is no particular limitation on the selection of means and devices.

また、予測値算出部120において画像劣化予測値として推定される量は、上述の情報に限るものではない。たとえば、撮像装置と被測定物体の相対的な移動によって2次元画像が劣化する量を表すことが出来る値であれば良く、その計算方法および表現に特に制限はない。例えば、被測定物体が撮影された2次元画像のエッジ特徴のブレの大きさを、3次元空間に逆投影して算出した3次元空間中における移動量として表しても良い。また、ボケの大きさDやブレの大きさBを基にして作成した点広がり関数(Point Spread Function:PSF)を画像劣化評価値としてもよい。また、上記実施形態では、ボケおよびブレの両方の影響を考慮して予測値を取得したが、どちらか片方のみの影響を考慮した予測値を取得するようにしてもよい。   Further, the amount estimated as the image degradation prediction value in the prediction value calculation unit 120 is not limited to the above-described information. For example, any value that can represent the amount by which the two-dimensional image deteriorates due to relative movement between the imaging device and the object to be measured may be used, and the calculation method and expression are not particularly limited. For example, the magnitude of the blurring of the edge feature of the two-dimensional image in which the object to be measured is photographed may be expressed as a movement amount in the three-dimensional space calculated by back projecting to the three-dimensional space. Further, a point spread function (PSF) created based on the blur size D and the blur size B may be used as the image degradation evaluation value. In the above embodiment, the predicted value is acquired in consideration of the effects of both blur and blur. However, the predicted value may be acquired in consideration of the effect of only one of them.

また、探索部140での対応の候補となる計測データ特徴として、本実施形態ではエッジ特徴を用いたが、これに限られるものではない。たとえば、点特徴など2次元画像上の位置を特定できる特徴であればどのような特徴であってもよい。また、特定の種類の特徴のみを用いるのではなく、複数の種類の特徴(たとえば、点とエッジ)とモデル特徴の対応を検出してもよい。   Further, although the edge feature is used as the measurement data feature that is a candidate for correspondence in the search unit 140 in the present embodiment, the feature is not limited to this. For example, any feature may be used as long as it can identify a position on a two-dimensional image, such as a point feature. Further, instead of using only specific types of features, correspondence between a plurality of types of features (for example, points and edges) and model features may be detected.

また、評価値算出部150において、単一画像からボケ・ブレの大きさを推定する手法は、上述した手法に限るものでない。例えば、ボケ・ブレの広がりをガウス分布状に広がると仮定し、ボケ・ブレが生じているエッジ部分の輝度分布を、最小二乗法を用いてガウス関数にフィッティングしたときに得られる標準偏差からボケ・ブレの大きさを求めてもよい。また本実施形態ではエッジ特徴単位で画像劣化評価値を算出したがこれに限るものではない。例えば、2次元画像を方形の部分領域に分け、部分領域ごとに画像劣化評価値を算出してもよい。   In addition, the method of estimating the blur / blur size from a single image in the evaluation value calculation unit 150 is not limited to the method described above. For example, assuming that the spread of blur and blur spreads in a Gaussian distribution, the brightness distribution at the edge where blur and blur occurs is blurred from the standard deviation obtained when fitting the Gaussian function using the least square method. -You may ask for the size of a blur. In the present embodiment, the image degradation evaluation value is calculated for each edge feature, but the present invention is not limited to this. For example, a two-dimensional image may be divided into rectangular partial areas, and an image deterioration evaluation value may be calculated for each partial area.

また、正確度算出部160において、式[数8]を用いて正確度を算出したが、正確度の算出方法はこれに限られるものではない。正確度を算出する関数は、画像劣化評価値と画像劣化予測値との差が大きいときには正確度を小さく、画像劣化評価値と画像劣化予測値との差が小さいときには正確度を大きく算出するような関数であればよい。たとえば、例えばガウス関数、Tukeyの関数、Huberの関数などを利用することもできる。   Further, although the accuracy calculation unit 160 calculates the accuracy using the formula [Equation 8], the accuracy calculation method is not limited to this. The function for calculating the accuracy is such that the accuracy is small when the difference between the image degradation evaluation value and the image degradation prediction value is large, and the accuracy is large when the difference between the image degradation evaluation value and the image degradation prediction value is small. Any function can be used. For example, for example, a Gaussian function, a Tukey function, a Huber function, or the like can be used.

また、照合部170において、正確度の一番高い局所線特徴とエッジ特徴のペアを照合したが、これに限られるものではない。算出された正確度の大きいペアが優先して選択されればよく、たとえば、正確度が一番高かったペアを選択したとしても、正確度がある閾値以下であれば照合に利用しないようにしてもよい。同様に、局所線特徴とエッジ特徴のペアが1つしか検出されなかった場合でも、その正確度が閾値以下であれば、当該ペアを照合に利用しないようにしてもよい。さらに、本実施形態において照合部170は、被測定物体の位置及び姿勢を取得したがこれに限るものではない。例えば、事前に複数の位置・向きで2次元画像上における局所線特徴の位置を保持しておき、パターンマッチングによって局所線特徴とエッジ特徴を照合し、概略の位置・向きを同定する、あるいは物体の種類を特定してもよい。   Further, the collation unit 170 collates the pair of the local line feature and the edge feature having the highest accuracy, but is not limited thereto. It is only necessary to preferentially select the calculated pair with the highest accuracy. For example, even if the pair with the highest accuracy is selected, it should not be used for matching if the accuracy is below a certain threshold. Also good. Similarly, even when only one pair of local line feature and edge feature is detected, the pair may not be used for matching if the accuracy is equal to or less than a threshold value. Furthermore, although the collation part 170 acquired the position and attitude | position of the to-be-measured object in this embodiment, it is not restricted to this. For example, local line feature positions on a two-dimensional image are held in advance at a plurality of positions and orientations, and local line features and edge features are collated by pattern matching to identify approximate positions and orientations, or objects You may specify the kind of.

また、ステップS302、ステップS501、ステップS801では、被測定物体のモデルの位置および姿勢の概略値として、物体の置かれているおおよその位置や姿勢の値が与えられた。しかしながら概略の位置および姿勢の入力方法はこれに限るものではない。たとえば、前回(前時刻)の計測で得られた計測値を概略の位置及び姿勢として用いてもよい。また、過去の位置及び姿勢の計測をもとに物体の速度や角速度を時系列フィルタにより推定し、過去の位置及び姿勢と推定された速度・加速度から現在の位置及び姿勢を予測して、概略の位置及び姿勢として用いてもよい。また、他のセンサを用いた物体の位置及び姿勢の計測が可能である場合には、該センサによる出力値を位置及び姿勢の概略値として用いてもよい。たとえば、トランスミッタが発する磁界を物体に装着するレシーバで検出することにより位置及び姿勢を計測する磁気式センサ、物体上に配置されたマーカをシーンに固定されたカメラによって撮影することにより位置及び姿勢を計測する光学式センサがあげられる。その他、6自由度の位置及び姿勢を計測するセンサであればいかなるセンサであってもよい。また、物体の置かれているおおよその位置や姿勢があらかじめわかっている場合に、その値を概略値として用いるようにしてもよい。   In step S302, step S501, and step S801, approximate values of the position and orientation of the object are given as approximate values of the position and orientation of the model of the object to be measured. However, the approximate position and orientation input method is not limited to this. For example, the measurement values obtained by the previous (previous time) measurement may be used as the approximate position and orientation. In addition, the speed and angular velocity of the object are estimated using a time series filter based on the measurement of the past position and orientation, and the current position and orientation are predicted based on the estimated speed and acceleration of the past position and orientation. You may use as a position and attitude | position. In addition, when the position and orientation of an object can be measured using another sensor, the output value from the sensor may be used as the approximate value of the position and orientation. For example, a magnetic sensor that measures the position and orientation by detecting the magnetic field generated by the transmitter with a receiver mounted on the object, and the position and orientation by shooting a marker placed on the object with a camera fixed to the scene. One example is an optical sensor for measurement. In addition, any sensor may be used as long as it measures a position and orientation with six degrees of freedom. Further, when an approximate position or posture where an object is placed is known in advance, the value may be used as an approximate value.

以上述べたように第1実施形態では、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を算出し、モデル特徴と計測データ特徴の照合を行う方法について説明した。これにより、モデル特徴と計測データ特徴を正しく照合することが可能になる。   As described above, in the first embodiment, the accuracy of association is calculated from the blurring and blurring of the image obtained from the two-dimensional image obtained by photographing the object to be measured, and the model feature and the measurement data feature are collated. Explained how to do. This makes it possible to correctly collate model features with measurement data features.

<変形例1>
第1実施形態では、照合部170において、正確度の高い局所線特徴とエッジ特徴のペアを選択し、照合していたが、これに限られるものではない。算出された正確度の高いペアが優先して照合処理に用いられれば良く、例えば、各局所線特徴とエッジ特徴の対応の正確度の大きさを、位置姿勢推定を行うときの各エッジ特徴毎の重みとして設定し、この重みづけに基づいて照合を行ってもよい。この重みづけの方法について説明する。まず式[数15]で算出される重み行列Wの対角成分にそれぞれの局所線特徴とエッジ特徴対応の正確度Tを与える。この重み行列Wを用いて式[数17]のように解くことにより、位置及び姿勢の補正値Δsを求め、位置及び姿勢の概略値を補正する。以上の方法により、算出された正確度の高いペアを優先して照合することができる。
<Modification 1>
In the first embodiment, the collation unit 170 selects and collates a pair of local line features and edge features with high accuracy. However, the present invention is not limited to this. It is sufficient that the calculated pair with high accuracy is preferentially used for the matching process. For example, the accuracy of the correspondence between each local line feature and the edge feature is determined for each edge feature when performing position and orientation estimation. It is also possible to set the weight as a weight and to perform collation based on this weighting. This weighting method will be described. First, the accuracy T corresponding to each local line feature and edge feature is given to the diagonal component of the weight matrix W calculated by the formula [Equation 15]. By solving the equation [Equation 17] using the weight matrix W, the position and orientation correction value Δs is obtained, and the approximate position and orientation values are corrected. By the above method, it is possible to preferentially collate the calculated pair with high accuracy.

なお、重み行列Wの対角成分に与える値として正確度Tそのものを与えていたが、これに限るものではない。正確度が高いペアは大きな重みを与え、正確度が低いペアには小さな重みを与える値であればなんでもよく、全ての正確度を正確度の最大値で割ったときの比を重みとして与えてもよい。   Although the accuracy T itself is given as a value given to the diagonal component of the weight matrix W, it is not limited to this. A pair with high accuracy gives a large weight, and a pair with low accuracy gives a small weight. Any ratio of all accuracy divided by the maximum value of accuracy is given as a weight. Also good.

以上述べたように変形例1では、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を各データ特徴の重みとして設定し、局所線特徴とエッジ特徴の照合を行う方法について説明した。これにより、高精度に照合することが可能になる。   As described above, in the first modification, the accuracy of association is set as the weight of each data feature from the blurring and blurring of the image obtained from the two-dimensional image obtained by photographing the measured object, and the local line feature is set. And how to perform edge feature matching. Thereby, collation can be performed with high accuracy.

<第2実施形態>
第1実施形態では、モデルから2次元画像上で起きるボケ、ブレの大きさを予測し、2次元画像で得られる画像のボケ、ブレの大きさと比較して正確度を算出し、その正確度を局所線特徴との対応付けに利用する方法について説明した。第2実施形態では、予めボケ、ブレの大きさを算出した2次元画像から、各局所線特徴の画像劣化予測値を算出し、実測した画像のボケ、ブレの大きさと比較して対応の正確度を算出し、正確度が一番高い値を示した特徴同士を対応付けする。以下、第2実施形態について説明する。第2実施形態における情報処理装置の構成や位置及び姿勢の計測の処理手順は第1実施形態(図1、図3)と同様である。
Second Embodiment
In the first embodiment, the size of blur and blur occurring on a two-dimensional image is predicted from the model, and the accuracy is calculated by comparing with the blur and blur size of the image obtained from the two-dimensional image. A method of using the for matching with local line features has been described. In the second embodiment, an image deterioration prediction value of each local line feature is calculated from a two-dimensional image in which the blur and blur magnitudes are calculated in advance, and compared with the measured blur and blur magnitudes of the measured image, The degree is calculated, and the features having the highest accuracy are associated with each other. Hereinafter, a second embodiment will be described. The configuration of the information processing device and the processing procedure for measuring the position and orientation in the second embodiment are the same as those in the first embodiment (FIGS. 1 and 3).

第2実施形態では、ステップS302において、予測値算出部120は、以前(前時刻)に得られた2次元画像からボケの大きさおよびブレの大きさを推定する。2次元画像からのボケ・ブレの大きさの推定方法は、第1実施形態の評価値算出部150によるエッジ特徴部分のボケ・ブレの大きさの推定方法と同様である。但し、エッジ特徴部分の代わりにモデル特徴の投影位置においてボケ・ブレの大きさが計測される。たとえば、予測値算出部120は、前回に得られた2次元画像に、被測定物体の概略の位置姿勢を用いてその形状モデル(たとえば局所線特徴)を投影する。そして、その投影位置についてステップS601、S602で説明した方法で画像劣化評価値を算出し、これを画像劣化予測値とする。したがって予測値算出部120により得られた局所線特徴の画像劣化予測値σは、2次元画像上に形状モデルを投影したときの、モデル特徴(たとえば局所線特徴)の座標位置におけるボケ、ブレの大きさである。 In the second embodiment, in step S302, the predicted value calculation unit 120 estimates the size of blur and the size of blur from a two-dimensional image obtained before (previous time). The method for estimating the blur / blur size from the two-dimensional image is the same as the method for estimating the blur / blur size of the edge feature portion by the evaluation value calculation unit 150 of the first embodiment. However, the blur / blur size is measured at the projection position of the model feature instead of the edge feature portion. For example, the predicted value calculation unit 120 projects a shape model (for example, a local line feature) on the previously obtained two-dimensional image using the approximate position and orientation of the measured object. Then, an image degradation evaluation value is calculated for the projection position by the method described in steps S601 and S602, and this is used as an image degradation prediction value. Therefore, the image degradation predicted value σ 1 of the local line feature obtained by the predicted value calculation unit 120 is blurred or blurred at the coordinate position of the model feature (for example, the local line feature) when the shape model is projected onto the two-dimensional image. Is the size of

正確度算出部160は、ステップS302で予測値算出部120により得られた画像劣化予測値と、ステップS305で評価値算出部150により得られた画像劣化評価値とから、探索部140が検索したエッジ特徴のそれぞれについて正確度を算出する。なお、探索部140が探索したエッジ特徴とは、被測定物体のモデルの局所線特徴の対応の候補であり、仮説としてメモリに記憶されている(ステップS304)。正確度Tは、モデル中の局所線特徴と対応する仮説として保持した2次元画像上のエッジ特徴の画像劣化評価値σとモデル中の局所線特徴の画像劣化予測値σを用いて、以下の式[数19]にしたがって算出される。なお、2次元画像中のエッジ特徴とモデル中の局所線特徴との対応付けの仮説が複数検出された場合には、候補に挙がったすべてのエッジに対して、以下の式[数19]を用いて正確度Tが算出される。

Figure 2016148649
The accuracy calculation unit 160 is searched by the search unit 140 from the predicted image degradation value obtained by the prediction value calculation unit 120 in step S302 and the image degradation evaluation value obtained by the evaluation value calculation unit 150 in step S305. Accuracy is calculated for each edge feature. The edge feature searched by the search unit 140 is a candidate for correspondence with the local line feature of the model of the object to be measured, and is stored in the memory as a hypothesis (step S304). The accuracy T is expressed as follows using the image degradation evaluation value σ of the edge feature on the two-dimensional image held as a hypothesis corresponding to the local line feature in the model and the image degradation prediction value σ 1 of the local line feature in the model. This is calculated according to the equation [Equation 19]. When a plurality of hypotheses of correspondence between the edge feature in the two-dimensional image and the local line feature in the model are detected, the following formula [Equation 19] is applied to all the edges listed as candidates. Using this, the accuracy T is calculated.
Figure 2016148649

以上述べたように、第2実施形態では、事前に計測した2次元画像を用いてボケやブレの大きさを算出し、ボケやブレの大きさが近い特徴同士の対応の正確度を高くすることによって対応付けを行う。これにより、特徴同士の照合を正しく行うことが可能になる。   As described above, in the second embodiment, the size of blur and blur is calculated using a two-dimensional image measured in advance, and the accuracy of correspondence between features having similar blur and blur sizes is increased. Corresponding is performed. As a result, it is possible to correctly perform matching between features.

なお、第2実施形態における予測値算出部120では、前回(前時刻)に得られた2次元画像から、ボケの大きさおよびブレの大きさを推定したがそれに限るものではない。被測定物体の代わりに、それを模擬できる物体(以下、模擬物体)を撮影した2次元画像を「前回に得られた2次元画像」として用いてもよい。また、事前に複数の位置・姿勢で被測定物体もしくは模擬物体を撮影した2次元画像上で検出したボケの大きさおよびブレの大きさをテーブル化しておき、このテーブルを参照するようにしてもよい。すなわち、予測値算出部120は、このテーブルを参照することにより、被測定物体の概略の位置及び姿勢に対応するボケ・ブレの大きさを画像劣化予測値として取得してもよい。このほか、実写の2次元画像の代わりに、形状モデルを2次元に投影して作成したCG画像を用いて画像劣化予測値を得るようにしてもよい。このようなCG画像上でボケ・ブレの現象をシミュレートするに当たっては、公知の手法、例えば非特許文献3に開示されている方法を用いることができる。   Note that the predicted value calculation unit 120 in the second embodiment estimates the size of blur and the size of blur from the two-dimensional image obtained at the previous time (previous time), but is not limited thereto. Instead of the object to be measured, a two-dimensional image obtained by photographing an object that can simulate the object (hereinafter, a simulated object) may be used as the “two-dimensional image obtained last time”. In addition, the size of blur and the size of blur detected on a two-dimensional image obtained by photographing an object to be measured or a simulated object at a plurality of positions and postures in advance may be tabulated, and this table may be referred to. Good. That is, the predicted value calculation unit 120 may obtain the blur / blur size corresponding to the approximate position and orientation of the measured object as the image degradation predicted value by referring to this table. In addition, instead of the actual two-dimensional image, a predicted image degradation value may be obtained using a CG image created by projecting a shape model two-dimensionally. In simulating the blurring / blurring phenomenon on such a CG image, a known method, for example, a method disclosed in Non-Patent Document 3, can be used.

以上のように、第2実施形態の方法を用いることで、事前に計測した2次元画像や作成したCG画像を用いてボケやブレの大きさから対応付けの正確度を算出することによって、モデル特徴と計測データ特徴の正しく照合することが可能になる。   As described above, by using the method of the second embodiment, the accuracy of association is calculated from the size of blur or blur using a two-dimensional image measured in advance or a created CG image, thereby creating a model. Features and measurement data features can be correctly verified.

<第3実施形態>
第1および第2実施形態においては、2次元画像で生じるであろう画像のボケ、ブレの大きさを画像劣化予測値(σ、σ)として推定し、2次元画像で得られたエッジ特徴とモデルの局所線特徴との対応付けの選択に利用した。第3実施形態では、実測した3次元計測点(以下、3次元点と記載する)とモデルの面特徴との対応付けに画像劣化予測値を利用する。第3実施形態では、局所面特徴の2次元画像上でのボケやブレの大きさと、実測した3次元点の3次元位置を2次元画像上に投影したときの2次元画像上のボケやブレの大きさとが近い特徴の対応について高い正確度を付与し、対応付けの選択を行う。
<Third Embodiment>
In the first and second embodiments, the blur and blurring of an image that would occur in a two-dimensional image are estimated as image degradation prediction values (σ 0 , σ 1 ), and edges obtained from the two-dimensional image It was used to select the correspondence between features and local line features of the model. In the third embodiment, a predicted image deterioration value is used for associating a measured three-dimensional measurement point (hereinafter referred to as a three-dimensional point) with a surface feature of a model. In the third embodiment, the size of the blur and blur on the two-dimensional image of the local surface feature and the blur and blur on the two-dimensional image when the measured three-dimensional position of the three-dimensional point is projected on the two-dimensional image. A high degree of accuracy is assigned to the correspondence of features that are close to the size of and the correspondence is selected.

図10は第3実施形態における情報処理装置3の機能構成例を表した図である。なお、情報処理装置3のハードウエア構成は、図1(a)と同様である。情報処理装置3は、情報処理装置1の構成に加えて、3次元点入力部210と位置算出部220を有する。また、図10に示す構成は、本発明の情報処理装置の適用例となる構成である。図10に示される各機能は、CPU101がROM102に記憶されているプログラム、および/または、外部記憶装置105からRAM103に展開されたプログラムを実行することにより実現される。なお、各機能部の一部またはすべてを専用のハードウエアで実現してもよいことは明らかである。   FIG. 10 is a diagram illustrating a functional configuration example of the information processing apparatus 3 according to the third embodiment. Note that the hardware configuration of the information processing apparatus 3 is the same as that shown in FIG. The information processing apparatus 3 includes a three-dimensional point input unit 210 and a position calculation unit 220 in addition to the configuration of the information processing apparatus 1. Moreover, the structure shown in FIG. 10 is a structure used as the example of application of the information processing apparatus of this invention. Each function shown in FIG. 10 is realized by the CPU 101 executing a program stored in the ROM 102 and / or a program expanded from the external storage device 105 to the RAM 103. Obviously, some or all of the functional units may be realized by dedicated hardware.

3次元点入力部210は、被測定物体表面の点群の3次元座標を取得する。第3実施形態では、予め距離センサを用いて取得された3次元点群の3次元座標を外部に記憶された記憶装置から取得するものとするが、これに限られるものではない。たとえば、距離センサ(たとえば3次元計測装置)を用いて取得した3次元点群が入力されてもよい。   The three-dimensional point input unit 210 acquires the three-dimensional coordinates of the point group on the surface of the measured object. In the third embodiment, the three-dimensional coordinates of a three-dimensional point group acquired in advance using a distance sensor are acquired from a storage device stored outside, but the present invention is not limited to this. For example, a three-dimensional point group acquired using a distance sensor (for example, a three-dimensional measurement device) may be input.

位置算出部220は、3次元点入力部210で入力された点群の3次元座標を2次元画像上に投影したときの2次元画像位置を算出する。3次元座標の2次元画像位置は、2次元画像を撮影した撮像装置の内部パラメータ、および該撮像装置と3次元点を測定するのに用いた距離センサとの相対的な位置及び姿勢とから算出される。なお、距離センサと撮像装置は相互に固定されており、両者の相対的な位置及び姿勢は変化しないと仮定し、事前にキャリブレーションしておく。例えば3次元形状が既知であるキャリブレーション物体を様々な方向から観察し、2次元画像に基づいたキャリブレーション物体の位置及び姿勢と、距離画像に基づいたキャリブレーション物体の位置及び姿勢の差をもとに、距離センサと撮像装置の相対的な位置及び姿勢を求めておく。   The position calculation unit 220 calculates a two-dimensional image position when the three-dimensional coordinates of the point group input by the three-dimensional point input unit 210 are projected on the two-dimensional image. The two-dimensional image position of the three-dimensional coordinates is calculated from the internal parameters of the imaging device that captured the two-dimensional image, and the relative position and orientation of the imaging device and the distance sensor used to measure the three-dimensional point. Is done. Note that the distance sensor and the imaging device are fixed to each other, and the relative position and orientation of both are assumed to be unchanged, and calibration is performed in advance. For example, a calibration object having a known three-dimensional shape is observed from various directions, and the difference between the position and orientation of the calibration object based on the two-dimensional image and the position and orientation of the calibration object based on the distance image is also obtained. In addition, the relative position and orientation of the distance sensor and the imaging device are obtained.

なお、第3実施形態におけるモデル入力部110で入力されるモデルは、図2(b)に示すような、3次元位置と3次元法線方向から構成される物体表面上の局所的な3次元平面情報(以後、局所面特徴と称する)によって構成されるものとする。予測値算出部120は、第1実施形態と同様の方法で局所面特徴の劣化予測値σを算出する。 Note that the model input by the model input unit 110 in the third embodiment is a local three-dimensional object on the surface of the object composed of a three-dimensional position and a three-dimensional normal direction as shown in FIG. It is assumed to be constituted by plane information (hereinafter referred to as local surface features). The predicted value calculation unit 120 calculates the degradation predicted value σ 0 of the local surface feature by the same method as in the first embodiment.

探索部140は、画像入力部130が入力した2次元画像と3次元点入力部210が入力した3次元点とモデル入力部110が入力した形状モデルの局所面特徴との対応を検出する。局所面特徴と3次元点との対応付けにおいては、モデル入力部110で入力された被測定物体のモデルを構成するすべての局所面特徴の位置及び姿勢の概略値に基づいて局所面特徴の近傍の3次元点を検出する。近傍に3次元点が複数存在する場合には検出される3次元点のすべてを仮説として保持する。   The search unit 140 detects correspondence between the two-dimensional image input by the image input unit 130, the three-dimensional point input by the three-dimensional point input unit 210, and the local surface feature of the shape model input by the model input unit 110. In the association between the local surface feature and the three-dimensional point, the vicinity of the local surface feature is based on the approximate values of the positions and orientations of all the local surface features constituting the model of the measured object input by the model input unit 110. Are detected. When there are a plurality of three-dimensional points in the vicinity, all the detected three-dimensional points are held as hypotheses.

評価値算出部150は、位置算出部220が算出した3次元点のそれぞれの2次元画像上の位置におけるボケ・ブレの大きさを画像劣化評価値σとして算出する。画像劣化評価値σの算出方法は第1実施形態と同様である。正確度算出部160は、予測値算出部120で得られた画像劣化予測値σと、評価値算出部150で得られた画像劣化評価値σから、モデルの局所面特徴と対応付けの仮説として保持したそれぞれの3次元点特徴について対応の正確度Tを算出する。正確度Tの算出方法は第1実施形態と同様である。 The evaluation value calculation unit 150 calculates, as the image deterioration evaluation value σ, the magnitude of blur / blur at each position on the two-dimensional image of the three-dimensional point calculated by the position calculation unit 220. The method for calculating the image degradation evaluation value σ is the same as that in the first embodiment. The accuracy calculation unit 160 is a hypothesis that is associated with the local surface feature of the model from the image deterioration prediction value σ 0 obtained by the prediction value calculation unit 120 and the image deterioration evaluation value σ obtained by the evaluation value calculation unit 150. Corresponding accuracy T is calculated for each three-dimensional point feature held as. The calculation method of the accuracy T is the same as in the first embodiment.

第3実施形態における照合部170は、正確度算出部160で算出した正確度Tに基づいて、被測定物体のモデル中の各局所面特徴に対応する3次元点のうち照合に使用する3次元点を選択する。ここでは、正確度Tの一番高い局所面特徴と3次元点のペアが選択されるものとするがこれに限られるものではない。たとえば、正確度Tが一番高かったペアを選択したとしても、その正確度Tがある閾値以下であれば照合に利用しないようにしてもよい。同様に、局所面特徴と3次元点のペアが1つしか検出されなかった場合でも、その正確度が閾値以下であれば、当該ペアを照合に利用しないようにしてもよい。そして、照合部170は、選択された3次元点とを用いて、被測定物体の位置及び姿勢を算出する。照合部170による位置姿勢の算出方法は第1実施形態と同様の方法を用いることができる。   Based on the accuracy T calculated by the accuracy calculation unit 160, the verification unit 170 in the third embodiment uses a three-dimensional point to be used for verification among the three-dimensional points corresponding to each local surface feature in the model of the measured object. Select a point. Here, a pair of a local surface feature and a three-dimensional point having the highest accuracy T is selected, but the present invention is not limited to this. For example, even if the pair with the highest accuracy T is selected, it may not be used for matching if the accuracy T is below a certain threshold. Similarly, even when only one local surface feature / three-dimensional point pair is detected, the pair may not be used for matching if the accuracy is equal to or less than a threshold value. Then, the matching unit 170 calculates the position and orientation of the measured object using the selected three-dimensional point. A method similar to that of the first embodiment can be used as the position / orientation calculation method by the collation unit 170.

なお、本実施形態における3次元点の計測に用いる距離センサとしては、対象に照射したレーザ光の反射光をカメラで撮影し、三角測量により距離を計測するアクティブ式のものを利用する。しかしながら、距離センサはこれに限るものではなく、光の飛行時間を利用するTime-of-flight方式であってもよい。これらのアクティブ式の距離センサは、表面のテクスチャが少ない物体が対象であるとき好適である。また、ステレオカメラが撮影する画像から三角測量によって各画素の奥行きを計算するパッシブ式であってもよい。パッシブ式の距離センサは、表面のテクスチャが十分ある物体を対象とする場合に好適である。その他、3次元点を計測するものであればいかなるものであっても本発明の本質を損なうものではない。   In addition, as a distance sensor used for the measurement of the three-dimensional point in this embodiment, an active type sensor that captures the reflected light of the laser beam irradiated on the object with a camera and measures the distance by triangulation is used. However, the distance sensor is not limited to this, and may be a time-of-flight method that uses the flight time of light. These active distance sensors are suitable when an object having a small surface texture is a target. Moreover, the passive type which calculates the depth of each pixel by the triangulation from the image which a stereo camera image | photographs may be used. The passive distance sensor is suitable when an object having a sufficient surface texture is targeted. In addition, anything that can measure a three-dimensional point does not impair the essence of the present invention.

以上述べたように第3実施形態では、局所面特徴の2次元画像上でのボケやブレの大きさと、実測した3次元点の3次元位置を2次元画像上に投影したときの2次元画像上のボケやブレの大きさとが近い特徴の対応について高い正確度を付与し、モデル特徴と3次元計測点の照合を行う方法について説明した。これにより、モデル特徴と3次元計測点を正しく照合することが可能になる。   As described above, in the third embodiment, the size of the blur and blur on the two-dimensional image of the local surface feature and the three-dimensional position of the actually measured three-dimensional point are projected onto the two-dimensional image. In the above description, a method for giving a high degree of accuracy to the correspondence between the features that are close to the size of blurring and blurring on the upper side, and collating the model features with the three-dimensional measurement points has been described. Thereby, it becomes possible to correctly collate the model feature with the three-dimensional measurement point.

<変形例2>
第3実施形態では、照合部170において、正確度の高い局所面特徴と3次元点のペアを選択し、照合していたが、これに限られるものではない。各局所面特徴と3元点の対応の正確度を、位置姿勢推定を行う時の3次元点毎の重みとして設定するようにしてもよい。たとえば、変形例1と同様に、正確度の高さを各3次元点毎の重みとして設定し、この重みづけに基づいて照合を行ってもよい。この重みづけの方法については変形例1と同様に式[数15]で算出される重み行列Wの対角成分にそれぞれの局所面特徴と3次元点の対応の正確度Tを与える。この重み行列Wを用いて式[数17]のように解くことにより、位置及び姿勢の補正値Δsを求め、位置及び姿勢の概略値を補正する。以上の方法により、算出された正確度の高いペアを優先して照合することができる。
<Modification 2>
In the third embodiment, the collation unit 170 selects and collates a pair of local surface features and three-dimensional points with high accuracy. However, the present invention is not limited to this. You may make it set the precision of a response | compatibility of each local surface feature and a ternary point as a weight for every three-dimensional point when performing position and orientation estimation. For example, as in the first modification, the accuracy level may be set as a weight for each three-dimensional point, and matching may be performed based on this weighting. As for this weighting method, as in the first modification, the accuracy T corresponding to each local surface feature and the three-dimensional point is given to the diagonal component of the weight matrix W calculated by the formula [Equation 15]. By solving the equation [Equation 17] using the weight matrix W, the position and orientation correction value Δs is obtained, and the approximate position and orientation values are corrected. By the above method, it is possible to preferentially collate the calculated pair with high accuracy.

なお、重み行列Wの対角成分に与える値として正確度Tそのものを与えていたが、変形例1と同様にこれに限るものではない。正確度が高いペアは大きな重みを与え、正確度が低いペアには小さな重みを与える値であればなんでもよい。   Although the accuracy T itself is given as the value given to the diagonal component of the weight matrix W, it is not limited to this as in the first modification. Any value can be used as long as a pair with high accuracy gives a large weight and a pair with low accuracy gives a small weight.

以上述べたように変形例2では、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を各データ特徴の重みとして設定し、局所面特徴と3次元点の照合を行う方法について説明した。これにより、高精度に照合することが可能になる。   As described above, in the second modification, the accuracy of association is set as the weight of each data feature from the blurring and blurring of the image obtained from the two-dimensional image obtained by photographing the object to be measured. The method of performing the three-dimensional point matching has been described. Thereby, collation can be performed with high accuracy.

<変形例3>
第3実施形態における、ステップS504で行うブレの大きさの算出方法は以下のような方法でもよい。ブレの大きさとして露光時間中における各局所面特徴の3次元空間中の移動量を用いる。具体的には、形状モデルの概略位置姿勢sに基づき各局所面特徴のヤコビアンを算出し、各局所面特徴のヤコビアンとステップS502で入力した撮像装置と被測定物体との相対的な移動方向・速度から各局所面特徴のブレの大きさを算出する。
<Modification 3>
In the third embodiment, the blur magnitude calculation method performed in step S504 may be the following method. The amount of movement of each local surface feature in the three-dimensional space during the exposure time is used as the magnitude of blurring. Specifically, the Jacobian of each local surface feature is calculated based on the approximate position and orientation s of the shape model, and the relative moving direction of the Jacobian of each local surface feature and the imaging device input in step S502 and the measured object The amount of blur of each local surface feature is calculated from the speed.

局所面特徴のヤコビアンとは、位置姿勢6自由度のパラメータが微小に変化したときに、3次元空間中の局所面特徴が変化する割合を表す値である。被測定物体の概略位置姿勢sに基づいて、局所面特徴に対応する3次元点のブレ量を(dx、dy、dz)、局所面特徴の法線方向を(n、n、n)(単位ベクトル)と表すと、対応間の符号付距離err3Dは以下の式[数20]より算出できる。

Figure 2016148649
The local surface feature Jacobian is a value representing the rate at which the local surface feature in the three-dimensional space changes when the parameter of the position and orientation 6 degrees of freedom changes minutely. Based on the approximate position and orientation s of the object to be measured, a blur amount of the three-dimensional point corresponding to the local surface characteristics (dx, dy, dz), the normal direction of the local surface characteristics (n x, n y, n z ) (Unit vector), the signed distance err 3D between the correspondences can be calculated by the following equation [Equation 20].
Figure 2016148649

そして、局所線特徴のヤコビアンと同様に位置及び姿勢sの各パラメータで、対応間距離err3Dを偏微分することによって、以下の式[数21]のように局所面特徴のヤコビアン行列を算出する。

Figure 2016148649
Then, similarly to the Jacobian of the local line feature, by performing partial differentiation on the inter-corresponding distance err 3D with each parameter of position and orientation s, the Jacobian matrix of the local surface feature is calculated as in the following equation [Equation 21]. .
Figure 2016148649

以上のようにしてステップS502で選択された投影局所線特徴のヤコビアンが計算される。この投影局所線特徴のヤコビアンを用いて、2次元画像の露光時間t中に対象物体が相対位置姿勢速度Vで動くことによって発生する、局所面特徴3次元点との間の距離変化Bは、以下の式[数22]により計算できる。

Figure 2016148649
Bはスカラーであり、露光時間中に三次元空間中の局所面特徴の3次元位置が移動する量を表す。以上の処理を全ての局所面特徴に対して行い、全ての局所面特徴に対してブレ量を算出する。 As described above, the Jacobian of the projected local line feature selected in step S502 is calculated. Using Jacobian of the projection local line feature, the object during the exposure time t i of the 2-dimensional image is generated by moving a relative position and orientation velocity V, the distance change B between the three-dimensional point local areal feature And can be calculated by the following equation [Equation 22].
Figure 2016148649
B is a scalar and represents the amount by which the three-dimensional position of the local surface feature in the three-dimensional space moves during the exposure time. The above processing is performed for all local surface features, and the shake amount is calculated for all local surface features.

以上述べたように変形例3では、局所面特徴の3次元空間中での移動量からブレの大きさを算出する方法について述べた。この方法を用いることにより、正確にモデル特徴のブレ量の予測値を得ることが可能になる。   As described above, in the third modification, the method for calculating the magnitude of the blur from the amount of movement of the local surface feature in the three-dimensional space has been described. By using this method, it is possible to accurately obtain the predicted value of the blur amount of the model feature.

<変形例4>
第3の実施形態におけるステップS803で行う、位置及び姿勢を算出するための係数行列と誤差ベクトルの算出方法は以下のような方法でもよい。
<Modification 4>
The coefficient matrix and error vector calculation method for calculating the position and orientation performed in step S803 in the third embodiment may be the following method.

カメラ座標で表される点群の3次元座標は、計測対象物体の位置及び姿勢sを用いて計測対象物体の座標系における3次元座標(x,y,z)に変換される。概略の位置及び姿勢によって、点群データ中のある点が計測対象物体座標(x0,y0,z0)に変換されるとする。(x,y,z)は計測対象物体の位置及び姿勢により変化するものであり、(x0,y0,z0)の近傍で1次のテイラー展開によって式[数23]のように近似できる。

Figure 2016148649
The three-dimensional coordinates of the point group represented by the camera coordinates are converted into three-dimensional coordinates (x, y, z) in the coordinate system of the measurement target object using the position and orientation s of the measurement target object. It is assumed that a certain point in the point cloud data is converted into measurement target object coordinates (x 0 , y 0 , z 0 ) by the approximate position and orientation. (X, y, z) changes depending on the position and orientation of the object to be measured, and is approximated by the first-order Taylor expansion in the vicinity of (x 0 , y 0 , z 0 ) as shown in Equation 23. it can.
Figure 2016148649

点群データ中のある点に対応付けられた局所面特徴の、計測対象物体座標系における方程式をax+by+cz=e(a2+b2+c2=1、a,b,c,eは定数)とする。正しいsによって変換される(x,y,z)は、平面の方程式ax+by+cz=eを満たすと仮定する。式[数23]を平面の方程式に代入すると、式[数24]が得られる。 The equation of the local surface feature associated with a point in the point cloud data in the object coordinate system to be measured is expressed as ax + by + cz = e (a 2 + b 2 + c 2 = 1, a, b, c, e is a constant). Assume that (x, y, z) transformed by the correct s satisfies the plane equation ax + by + cz = e. By substituting equation [Equation 23] into the equation of the plane, equation [Equation 24] is obtained.

Figure 2016148649
式[数24]はsの各成分の微小変化Δsi(i=1,2,・・・,6)についての方程式であるため、式[数25]のようなΔsiに関する線形連立方程式を立てることができる。
Figure 2016148649
Figure 2016148649
Since the equation [Equation 24] is an equation for a minute change Δsi (i = 1, 2,..., 6) of each component of s, a linear simultaneous equation regarding Δsi like the equation [Equation 25] is established. Can do.
Figure 2016148649

ここで式[数25]を式[数13]のように表す。この係数行列Jと誤差ベクトルEを用いて第1、2の実施形態と同様の方法で位置及び姿勢を算出する。以上の変形例3の方法を用いることにより、より正確に計測物体の位置及び姿勢を算出することができる。   Here, Expression [Equation 25] is expressed as Expression [Equation 13]. Using this coefficient matrix J and error vector E, the position and orientation are calculated by the same method as in the first and second embodiments. By using the method of Modification 3 above, the position and orientation of the measurement object can be calculated more accurately.

<第4実施形態>
第1および第2実施形態では局所線特徴とエッジ特徴の対応のみから、第3実施形態では局所面特徴と3次元点の対応のみから、モデル特徴と計測データ特徴の照合を行ったがこれに限られるものではない。局所線特徴とエッジ特徴の対応および局所面特徴と3次元点の対応の、両方の対応を用いて照合してもよい。本実施形態の方法によって、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を算出することによって、実測したエッジ特徴と局所線特徴、および3次元点と局所面特徴との両方を正しく照合することが可能になる。
<Fourth embodiment>
In the first and second embodiments, the model feature and the measurement data feature are collated only from the correspondence between the local line feature and the edge feature, and in the third embodiment, from the correspondence between the local surface feature and the three-dimensional point only. It is not limited. Matching may be performed using both the correspondence between the local line feature and the edge feature and the correspondence between the local surface feature and the three-dimensional point. According to the method of the present embodiment, by calculating the accuracy of correspondence from the blur and the size of the blur obtained from the two-dimensional image obtained by photographing the measured object, the measured edge feature and local line feature, and Both 3D points and local surface features can be correctly matched.

第4の実施形態における情報処理装置の構成は、第1、2および3の実施形態における構成と同様である。第4の実施形態における照合部170は、正確度算出部160で算出した、エッジ特徴と局所線特徴との対応の正確度および、3次元点と局所面特徴と対応の正確度に基づいて、
・被測定物体のモデル中の各局所線特徴および局所面特徴に対応するエッジ特徴、
・3次元点のうち照合に使用するエッジ特徴、および3次元点、を選択する。続いて選択した対応に基づいて、位置及び姿勢を算出するための係数行列と誤差ベクトルの算出を行う。本実施形態においては、エッジ特徴と3次元点を併用して位置及び姿勢を求めるために、式[数12]と式[数25]を合わせて、式[数26]のようなΔsに関する線形連立方程式を立てることができる。

Figure 2016148649
The configuration of the information processing apparatus in the fourth embodiment is the same as that in the first, second, and third embodiments. The matching unit 170 in the fourth embodiment is based on the accuracy of the correspondence between the edge feature and the local line feature and the accuracy of the correspondence between the three-dimensional point and the local surface feature calculated by the accuracy calculation unit 160.
-Edge features corresponding to each local line feature and local surface feature in the model of the object to be measured,
Select an edge feature and a 3D point to be used for matching from the 3D points. Subsequently, a coefficient matrix and an error vector for calculating the position and orientation are calculated based on the selected correspondence. In the present embodiment, in order to obtain the position and orientation by using the edge feature and the three-dimensional point together, the equation [Equation 12] and the equation [Equation 25] are combined and Δs i like the equation [Equation 26] is obtained. Linear simultaneous equations can be established.
Figure 2016148649

ここで式[数26]を式[数13]のように表す。この係数行列Jと誤差ベクトルEを用いて第1、2、3実施形態と同様の方法で位置及び姿勢を算出する。   Here, Expression [Equation 26] is expressed as Expression [Equation 13]. Using this coefficient matrix J and error vector E, the position and orientation are calculated by the same method as in the first, second, and third embodiments.

またこれに限らず変形例1および2で述べたように、正確度の高さを各3次元点毎の重みとして設定し、この重みづけに基づいて照合を行ってもよい。正確度Tそのものを与えるだけでなく、変形例1、2と同様に正確度が高いペアには大きな重みを与え、正確度が低いペアには小さな重みを与える値であればなんでもよい。   Not limited to this, as described in the first and second modified examples, the height of accuracy may be set as a weight for each three-dimensional point, and collation may be performed based on this weighting. As long as the accuracy T itself is not given, any value may be used as long as a large weight is given to a pair with high accuracy and a small weight is given to a pair with low accuracy, as in the first and second modifications.

以上述べた第4実施形態の方法を用いることで、局所線特徴とエッジ特徴の対応、および局所面特徴と3次元点の対応、両方を用いて照合することができる。本実施形態の方法によって、それぞれの対応で照合を行うよりもより正確にモデル特徴と計測データの照合を行うことが可能になる。   By using the method of the fourth embodiment described above, it is possible to collate using both the correspondence between the local line feature and the edge feature and the correspondence between the local surface feature and the three-dimensional point. With the method of this embodiment, it is possible to more accurately collate model features with measurement data than to perform collation by each correspondence.

<第5実施形態>
情報処理装置1、3の好適な適用例の一つについて、以下に説明する。すなわち、撮像装置より得られる2次元画像を基に被測定物体の位置姿勢を推定し、産業用ロボットアームによりその把持などを行う利用例があげられる。以下、図11を用いて、情報処理装置1,3のロボットシステムへの適用例を説明する。図11は、情報処理装置1、3による位置姿勢の推定結果に基づいてロボット60を用いて被測定物体40を把持するロボットシステムの構成例を示す図である。
<Fifth Embodiment>
One suitable application example of the information processing apparatuses 1 and 3 will be described below. That is, there is an application example in which the position and orientation of an object to be measured is estimated based on a two-dimensional image obtained from an imaging apparatus, and the object is gripped by an industrial robot arm. Hereinafter, an application example of the information processing apparatuses 1 and 3 to the robot system will be described with reference to FIG. FIG. 11 is a diagram illustrating a configuration example of a robot system that holds the measured object 40 using the robot 60 based on the position and orientation estimation results by the information processing apparatuses 1 and 3.

ロボット60は、たとえば回転および/または並進移動軸からなる可動軸を有し、各可動軸はロボットコントローラ61により駆動制御される。たとえば、ロボット60は、ロボットコントローラ61により指令された位置に手先を移動させ、物体の把持などを行う。被測定物体40は、作業台に置かれる位置が変わるため、現在の被測定物体40の位置姿勢を推定し、ロボットの把持制御を行う必要がある。撮像装置20は、通常の2次元画像を撮影するカメラであり、産業用ロボットアームの手先等の被測定物体40を撮像できる位置に設置する。情報処理装置1、3は、撮像装置20から得られる2次元画像を基に被測定物体40の位置姿勢を推定する。情報処理装置1、3で推定された被測定物体40の位置姿勢は、ロボットコントローラ61に入力され、ロボットコントローラ61は入力された位置姿勢の推定結果に基づいて被測定物体40の把持などを行うようにロボットアームを制御する。   The robot 60 has a movable axis composed of, for example, rotation and / or translational movement axes, and each movable axis is driven and controlled by a robot controller 61. For example, the robot 60 moves the hand to a position instructed by the robot controller 61 and grips an object. Since the position of the measured object 40 on the workbench changes, it is necessary to estimate the current position and orientation of the measured object 40 and to perform grip control of the robot. The imaging device 20 is a camera that captures a normal two-dimensional image, and is installed at a position where an object to be measured 40 such as a hand of an industrial robot arm can be imaged. The information processing apparatuses 1 and 3 estimate the position and orientation of the measured object 40 based on the two-dimensional image obtained from the imaging apparatus 20. The position and orientation of the measured object 40 estimated by the information processing apparatuses 1 and 3 are input to the robot controller 61, and the robot controller 61 grips the measured object 40 based on the input position and orientation estimation result. To control the robot arm.

以上のように、第5実施形態のロボットシステムによれば、より正確に位置姿勢推定を行う情報処理装置1,3から被測定物体40の位置姿勢の推定結果を得ることができる。そのため、ロボット60は被測定物体40をより確実に把持することが可能である。   As described above, according to the robot system of the fifth embodiment, the estimation result of the position and orientation of the measured object 40 can be obtained from the information processing apparatuses 1 and 3 that perform the position and orientation estimation more accurately. Therefore, the robot 60 can grip the object to be measured 40 more reliably.

<効果>
以上説明したように、第1実施形態によれば、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を算出することによって、モデル特徴と計測データ特徴を正しく照合することができる。また、第3実施形態によれば、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を算出することによって、実測した3次元点と3次元形状モデルの面特徴とを正しく照合することが可能になる。第4実施形態によれば、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を算出することによって、2次元画像中のエッジ特徴と3次元形状モデルの線特徴、および実測した3次元点と3次元形状モデルの面特徴とを同時に正しく照合することが可能になる。また、第2実施形態によれば、過去に計測対象となった2次元画像や作成したCG画像を用いて事前に取得されたボケやブレの大きさから対応付けの正確度を算出することによって、モデル特徴と計測データ特徴の照合を正しく行うことが可能になる。さらに、第5実施形態によれば、被測定物体の位置姿勢を推定し、推定結果に基づいてロボットシステムが被測定物体の把持および移動が可能となる。
<Effect>
As described above, according to the first embodiment, by calculating the accuracy of the association from the blur and the magnitude of the blur obtained from the two-dimensional image obtained by photographing the object to be measured, Measurement data features can be correctly verified. Further, according to the third embodiment, the measured three-dimensional point and the three-dimensional point are calculated by calculating the accuracy of association from the blur and the blur of the image obtained from the two-dimensional image obtained by photographing the measured object. It becomes possible to correctly collate with the surface features of the three-dimensional shape model. According to the fourth embodiment, the edge feature in the two-dimensional image is calculated by calculating the correspondence accuracy from the blur and the blur of the image obtained from the two-dimensional image obtained by photographing the measured object. It becomes possible to correctly collate the line feature of the three-dimensional shape model and the actually measured three-dimensional point and the surface feature of the three-dimensional shape model at the same time. Further, according to the second embodiment, by calculating the accuracy of association from the size of blur or blur acquired in advance using a two-dimensional image that has been a measurement target in the past or a created CG image, Therefore, it is possible to correctly match the model feature and the measurement data feature. Furthermore, according to the fifth embodiment, the position and orientation of the object to be measured are estimated, and the robot system can grip and move the object to be measured based on the estimation result.

<定義>
なお、被測定物体の形状モデルとして入力する形状情報は、単純な2次元点の集合や、2次元ラインの集合など、また、単純な3次元点の集合や、稜線を表す3次元ラインの集合、3次元点3点で構成されるポリゴンの形状情報などで表しても良い。
<Definition>
Note that the shape information input as the shape model of the object to be measured includes a simple set of two-dimensional points, a set of two-dimensional lines, a simple set of three-dimensional points, and a set of three-dimensional lines representing ridge lines. It may be represented by shape information of a polygon composed of three three-dimensional points.

また、予測値算出部では、画像劣化予測値として、焦点外れによるボケの大きさと、画像平面上での平行移動によって生じるブレの大きさを、画像劣化予測値としたが、これに限るものではない。撮像装置と被測定物体の相対的な移動によって2次元画像が劣化する量を表すことが出来る値であれば良く、計算方法および表現に特に制限はない。例えば、被測定物体が撮影された2次元画像のエッジ特徴のブレの大きさを、3次元空間に逆投影して算出した3次元空間中における移動量として表しても良い。また、ボケの大きさやブレの大きさを基にして作成した点広がり関数(Point Spread Function:PSF)を画像劣化評価値としてもよい。また、ボケおよびブレの両方の影響を考慮した予測値以外に、どちらか片方のみの影響を考慮した予測値でもよい。   Further, in the predicted value calculation unit, as the image degradation predicted value, the size of blur due to defocusing and the size of blur caused by parallel movement on the image plane are set as the image degradation predicted value. Absent. Any value that can represent the amount by which the two-dimensional image deteriorates due to the relative movement between the imaging device and the object to be measured may be used, and the calculation method and expression are not particularly limited. For example, the magnitude of the blurring of the edge feature of the two-dimensional image in which the object to be measured is photographed may be expressed as a movement amount in the three-dimensional space calculated by back projecting to the three-dimensional space. Also, a point spread function (PSF) created based on the size of blur or the size of blur may be used as the image degradation evaluation value. In addition to a predicted value that takes into account the effects of both blur and blur, a predicted value that takes into account the effect of only one of the two may be used.

画像入力部で入力される被測定物体が撮影された2次元画像は、対象像が得られる限りどの方式でもよい。例えば、グレー画像であってもよいしカラー画像であってもよい。また本発明では予め撮影された2次元画像を入力したが、これに限るものではない。撮像装置を用いて撮影された結果を入力してもよい。探索部140で検出する対応の候補となる計測データ特徴としては、エッジ特徴でもよいし、点特徴など2次元画像上の位置を特定できる特徴であればどのような特徴であってもよい。また、特定種類の特徴のみ用いるのではなく、複数種類の特徴(たとえば点とエッジ)とモデル特徴の対応を検出してもよい。   The two-dimensional image obtained by photographing the object to be measured input by the image input unit may be any method as long as a target image is obtained. For example, it may be a gray image or a color image. In the present invention, a two-dimensional image captured in advance is input, but the present invention is not limited to this. You may input the result image | photographed using the imaging device. The measurement data feature that is a candidate for correspondence detected by the search unit 140 may be an edge feature or any feature that can identify a position on a two-dimensional image, such as a point feature. Further, instead of using only specific types of features, correspondence between a plurality of types of features (for example, points and edges) and model features may be detected.

評価値算出部は、例えば、2次元画像中のエッジと直交する方向に沿った画素の輝度変化に対して、ボケ・ブレが生じたときのエッジの輝度変化を表す関数の当てはめによって、エッジ特徴それぞれについて画像劣化評価値を算出する。ここで、輝度変化を表す関数として、式[数6]のような誤差関数に代えてガウス関数などを用いてもよい。また、上記実施形態では、制御点に対応する対応点や3次元点の投影位置といったように特徴単位で劣化評価値を算出したが、これに限られるものではない。たとえば、2次元画像を方形の部分領域に分け、部分領域ごとに劣化評価値を算出してもよい。   The evaluation value calculation unit, for example, applies an edge feature by fitting a function representing the luminance change of the edge when blurring / blurring occurs with respect to the luminance change of the pixel along the direction orthogonal to the edge in the two-dimensional image. An image degradation evaluation value is calculated for each. Here, a Gaussian function or the like may be used as a function representing the luminance change in place of the error function as shown in Equation [6]. In the above-described embodiment, the deterioration evaluation value is calculated for each feature such as the corresponding point corresponding to the control point and the projection position of the three-dimensional point. However, the present invention is not limited to this. For example, a two-dimensional image may be divided into rectangular partial areas, and a deterioration evaluation value may be calculated for each partial area.

正確度算出部における算出方法は、画像劣化評価値(σ)と画像劣化予測値(σ、σ)との差が大きいときには正確度を小さく、画像劣化評価値と画像劣化予測値との差が小さいときには正確度を大きく算出する方法であればよい。例えば、式[数8]に示したような算出方法の代わりにガウス関数、Tukeyの関数、Huberの関数などを用いて算出してもよい。 When the difference between the image degradation evaluation value (σ) and the image degradation predicted value (σ 0 , σ 1 ) is large, the accuracy is reduced, and the accuracy calculation unit calculates the accuracy between the image degradation evaluation value and the image degradation predicted value. If the difference is small, any method can be used as long as the accuracy is large. For example, the calculation may be performed using a Gaussian function, a Tukey function, a Huber function, or the like instead of the calculation method shown in Equation [8].

照合部は、正確度がある閾値以上のモデル特徴と画像特徴のペアを選択し、照合する。このときペアが1つしか検出されなかった場合も,閾値以下であれば照合に利用しなくてもよい。ただし、これに限るものではなく、正確度が高いペアを優先して照合処理に用いられるように重みづけを行ってもよい。このとき重みづけで与える値は、正確度が高いペアは大きな重みを与え、正確度が低いペアには小さな重みを与える値であればなんでもよい。また照合部は、被測定物体の位置及び姿勢を算出してもよいし、事前に複数の位置・向きでモデル特徴の位置を保持しておき、パターンマッチングによってモデル特徴と計測データ特徴を照合し、概略の位置・向きを同定、あるいは物体の種類を特定してもよい。   The matching unit selects a model feature and image feature pair whose accuracy is equal to or higher than a certain threshold value and performs matching. Even if only one pair is detected at this time, it may not be used for collation as long as it is below the threshold. However, the present invention is not limited to this, and weighting may be performed so that a pair with high accuracy is preferentially used for the matching process. At this time, the value given by weighting may be any value as long as a pair with high accuracy gives a large weight and a pair with low accuracy gives a small weight. The collation unit may calculate the position and orientation of the object to be measured, hold the model feature positions in multiple positions and orientations in advance, and collate the model features with the measurement data features by pattern matching. The approximate position / orientation may be identified, or the type of object may be specified.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1,3:情報処理装置、110:モデル入力部、120:予測値算出部、130:画像入力部、140:探索部、150:評価値算出部、160:正確度算出部、170:照合部、210:3次元点入力部、220:位置算出部 DESCRIPTION OF SYMBOLS 1,3: Information processing apparatus, 110: Model input part, 120: Predicted value calculation part, 130: Image input part, 140: Search part, 150: Evaluation value calculation part, 160: Accuracy calculation part, 170: Collation part 210: three-dimensional point input unit, 220: position calculation unit

前述の目的を達成するために、本発明の一態様に係る画像処理装置は、画像から被写体領域を特定する特定手段と、画像を用いて被写体領域を含むトリミング画像を出力する出力手段と、を有し、出力手段は、特定手段により複数の被写体領域が特定された場合に、複数の被写体領域が所定の条件を満たすのであれば、複数の被写体領域のいずれかを含まないトリミング画像を出力し、複数の被写体領域が所定の条件を満たさないのであれば、複数の被写体領域を含むトリミング画像を出力し、所定の条件は、少なくとも、複数の被写体領域が所定割合以上の重複を有さずに配置されていること、および、複数の被写体領域が予め定められた値よりも長い距離を領域間で有して配置されていること、のいずれか一つを含むことを特徴とする。 In order to achieve the above-described object, an image processing apparatus according to an aspect of the present invention includes a specifying unit that specifies a subject area from an image, and an output unit that outputs a trimmed image including the subject area using the image. a, output means, when a plurality of the subject region is specified by the specifying means, when a plurality of subjects area is than a predetermined condition is satisfied, outputs the trimming image which does not include any of the plurality of subject area and, if the plurality of objects area does not satisfy a predetermined condition, and outputs the trimmed image including a plurality of object area, the predetermined condition, at least, a plurality of object regions have a duplication of a predetermined ratio or more Including a plurality of subject areas, and a plurality of subject areas that are arranged with a distance longer than a predetermined value between the areas. .

前述の目的を達成するために、本発明の別の態様に係る画像処理方法は、画像から被写体領域を特定する特定工程と、画像を用いて被写体領域を含むトリミング画像を出力する出力工程と、を有し、出力工程では、特定工程において複数の被写体領域が特定された場合に、複数の被写体領域が所定の条件を満たすのであれば、複数の被写体領域のいずれかを含まないトリミング画像が出力され、複数の被写体領域が所定の条件を満たさないのであれば、複数の被写体領域を含むトリミング画像が出力され、所定の条件は、少なくとも、複数の被写体領域が所定割合以上の重複を有さずに配置されていること、および、複数の被写体領域が予め定められた値よりも長い距離を領域間で有して配置されていること、のいずれか一つを含むことを特徴とする。 In order to achieve the above object, an image processing method according to another aspect of the present invention includes a specifying step of specifying a subject region from an image, an output step of outputting a trimmed image including the subject region using the image, has, in the output step, when a plurality of the subject region is specified in a particular process, if a plurality of subjects area is than a predetermined condition is satisfied, the trimming image which does not include any of the plurality of subject area is output, as long as a plurality of object area does not satisfy a predetermined condition, the trimming image including a plurality of objects area is output, the predetermined condition is, at least, a plurality of object regions overlap over a predetermined ratio JP be disposed without having, and, a plurality of the subject region are arranged with a distance greater than a predetermined value between the regions, to include any one of To.

以下、添付の図面を参照して、本発明の好適な実施形態のいくつかを説明する。   Hereinafter, some preferred embodiments of the present invention will be described with reference to the accompanying drawings.

<第1実施形態>
第1実施形態では、2次元画像で得られる画像のボケ、ブレの大きさを利用して、局所線特徴と計測データ特徴との対応付けを行う。すなわち、局所線特徴毎に、2次元画像において得られるボケ、ブレの大きさを予測しておき、2次元画像から実測したボケ、ブレの大きさと比較し、それらが近い値を示した特徴の寄与度を高くして対応付けする。第1実施形態では、被測定物体を模した形状モデルが表す形状と、事前に決められた撮像装置と被測定物体との相対的な移動方向および速度から、シミュレーションによりボケ、ブレの大きさを計算することでボケ、ブレの大きさを予測する。
<First Embodiment>
In the first embodiment, the local line feature and the measurement data feature are associated with each other by using the blur and the blur of the image obtained from the two-dimensional image. That is, for each local line feature, the blur and blur size obtained in the two-dimensional image are predicted, and compared with the blur and blur size actually measured from the two-dimensional image. Correlate with a high contribution. In the first embodiment, the magnitude of blur and blur is determined by simulation from the shape represented by the shape model imitating the object to be measured and the relative moving direction and speed between the imaging device and the object to be measured that are determined in advance. Predict the size of blur and blur by calculating.

Claims (18)

被測定物体の形状を表す形状モデルに基づいて、前記被測定物体を撮像手段により撮像した画像に生じる該被測定物体の画像劣化を予測する予測手段と、
前記被測定物体を前記撮像手段により撮像することにより得られた2次元画像について、前記形状モデルのモデル特徴に対応する計測データ特徴を探索する探索手段と、
前記探索手段で探索された計測データ特徴について前記2次元画像を用いて画像劣化を評価する評価手段と、
前記予測手段で予測した画像劣化と前記評価手段で評価した画像劣化に基づいて、前記モデル特徴と前記計測データ特徴の対応の正確度を算出する算出手段と、
前記モデル特徴と前記計測データ特徴の対応の正確度に基づいて、前記形状モデルと前記2次元画像中の被測定物体とを照合する照合手段と、を備えることを特徴とする情報処理装置。
Based on a shape model representing the shape of the measured object, predicting means for predicting image degradation of the measured object that occurs in an image obtained by imaging the measured object by the imaging means;
Search means for searching for a measurement data feature corresponding to a model feature of the shape model for a two-dimensional image obtained by imaging the object to be measured by the imaging means;
Evaluation means for evaluating image deterioration using the two-dimensional image for the measurement data feature searched by the search means;
A calculation unit that calculates the accuracy of correspondence between the model feature and the measurement data feature based on the image degradation predicted by the prediction unit and the image degradation evaluated by the evaluation unit;
An information processing apparatus comprising: collation means for collating the shape model with a measured object in the two-dimensional image based on the accuracy of correspondence between the model feature and the measurement data feature.
前記画像劣化は、2次元画像のボケおよび/またはブレによる像の広がりに起因する画像劣化であることを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the image degradation is image degradation caused by image spreading due to blurring and / or blurring of a two-dimensional image. 前記評価手段は、前記2次元画像の前記計測データ特徴へ誤差関数をあてはめることにより前記画像劣化を評価することを特徴とする請求項1または2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the evaluation unit evaluates the image degradation by applying an error function to the measurement data feature of the two-dimensional image. 前記予測手段は、前記形状モデル、与えられた前記被測定物体の位置および姿勢、前記被測定物体と前記撮像手段との相対位置姿勢の変化、および前記撮像手段の内部パラメータに基づいて、前記画像劣化を予測することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。   The prediction unit is configured to generate the image based on the shape model, a given position and orientation of the measured object, a change in relative position and orientation between the measured object and the imaging unit, and an internal parameter of the imaging unit. The information processing apparatus according to claim 1, wherein deterioration is predicted. 前記予測手段は、前記被測定物体または前記被測定物体を模擬した物体を撮影することにより予め得られた画像に前記形状モデルを投影したときの、前記予め得られた画像のモデル特徴の座標位置における画像劣化を取得することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。   The prediction means is a coordinate position of a model feature of the pre-obtained image when the shape model is projected onto an image pre-obtained by photographing the object to be measured or an object simulating the object to be measured. 5. The information processing apparatus according to claim 1, wherein the image deterioration is acquired. 前記予測手段は、前記被測定物体の形状モデルを2次元に投影して作成したCG画像に基づいて画像劣化を取得することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。   The information according to claim 1, wherein the predicting unit acquires image degradation based on a CG image created by projecting a shape model of the object to be measured two-dimensionally. Processing equipment. 前記算出手段は、前記予測手段で予測した画像劣化の度合いと前記評価手段が評価した画像劣化の度合いが近いほど高い値となるように前記正確度を算出することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。   2. The calculation unit according to claim 1, wherein the calculation unit calculates the accuracy so that the degree of image degradation predicted by the prediction unit and the degree of image degradation evaluated by the evaluation unit are closer to each other. The information processing apparatus according to any one of 6. 前記照合手段は、前記正確度に基づいて、前記モデル特徴と前記計測データ特徴の対応を選択すること、
を特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
The matching unit selects a correspondence between the model feature and the measurement data feature based on the accuracy;
The information processing apparatus according to claim 1, wherein:
前記照合手段は、前記算出手段により算出された正確度の大きい対応を優先して選択することを特徴とする請求項8に記載の情報処理装置。 The information processing apparatus according to claim 8, wherein the collating unit preferentially selects a correspondence with a high accuracy calculated by the calculating unit. 前記照合手段は、前記正確度に基づいて、前記計測データ特徴に関する重みを設定すること、を特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the collating unit sets a weight related to the measurement data feature based on the accuracy. 前記照合手段は、前記被測定物体の3次元空間の位置および/または姿勢を算出する手段であることを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the collating unit is a unit that calculates a position and / or orientation of the measured object in a three-dimensional space. 前記撮像手段と、
前記撮像手段により前記被測定物体を撮像して前記2次元画像を取得する取得手段と、をさらに備えることを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。
The imaging means;
The information processing apparatus according to claim 1, further comprising: an acquisition unit configured to acquire the two-dimensional image by imaging the object to be measured by the imaging unit.
被測定物体の形状を表す形状モデルに基づいて、前記被測定物体を撮像手段により撮像した画像に生じる該被測定物体の画像劣化を予測する予測手段と、
前記被測定物体の表面上の3次元計測点の3次元座標を取得する取得手段と、
前記撮像手段により撮像された2次元画像において、前記取得手段で取得された3次元座標に基づいて前記2次元画像に投影された点群の位置における画像劣化を評価する評価手段と、
前記3次元計測点と前記形状モデルのモデル特徴との対応を探索する探索手段と、
前記予測手段で予測した画像劣化と前記評価手段で評価した画像劣化に基づいて、前記モデル特徴と前記3次元計測点の対応の正確度を算出する算出手段と、
前記モデル特徴と前記3次元計測点の対応の正確度に基づいて、前記形状モデルと前記被測定物体の形状を示す3次元計測点とを照合する照合手段と、を備えることを特徴とする情報処理装置。
Based on a shape model representing the shape of the measured object, predicting means for predicting image degradation of the measured object that occurs in an image obtained by imaging the measured object by the imaging means;
Obtaining means for obtaining three-dimensional coordinates of a three-dimensional measurement point on the surface of the object to be measured;
An evaluation unit that evaluates image degradation at a position of a point group projected on the two-dimensional image based on the three-dimensional coordinates acquired by the acquisition unit in the two-dimensional image captured by the imaging unit;
Search means for searching for correspondence between the three-dimensional measurement points and model features of the shape model;
Calculation means for calculating the accuracy of correspondence between the model feature and the three-dimensional measurement point based on the image deterioration predicted by the prediction means and the image deterioration evaluated by the evaluation means;
Information comprising: a collating means for collating the shape model with a three-dimensional measurement point indicating the shape of the object to be measured based on the accuracy of correspondence between the model feature and the three-dimensional measurement point; Processing equipment.
3次元計測点の3次元座標を計測する計測装置をさらに備え、
前記取得手段は、前記計測装置から次元座標を取得することを特徴とする請求項13に記載の情報処理装置。
A measuring device that measures the three-dimensional coordinates of the three-dimensional measuring point;
The information processing apparatus according to claim 13, wherein the acquisition unit acquires dimensional coordinates from the measurement apparatus.
前記照合手段により推定された前記被測定物体の位置姿勢の推定結果に基づいて、ロボットアームを制御する制御手段と、をさらに備えることを特徴とする請求項1乃至14のいずれか1項に記載の情報処理装置。   15. The apparatus according to claim 1, further comprising a control unit that controls a robot arm based on an estimation result of the position and orientation of the measured object estimated by the collating unit. Information processing device. 被測定物体の形状を表す形状モデルに基づいて、前記被測定物体を撮像手段により撮像した画像に生じる該被測定物体の画像劣化を予測する予測工程と、
前記被測定物体を前記撮像手段により撮像することにより得られた2次元画像について、前記形状モデルのモデル特徴に対応する計測データ特徴を探索する探索工程と、
前記探索工程で探索された計測データ特徴について前記2次元画像を用いて画像劣化を評価する評価工程と、
前記予測工程で予測した画像劣化と前記評価工程で評価した画像劣化に基づいて、前記モデル特徴と前記計測データ特徴の対応の正確度を算出する算出工程と、
前記モデル特徴と前記計測データ特徴の対応の正確度に基づいて、前記形状モデルと前記2次元画像中の被測定物体とを照合する照合工程と、を有することを特徴とする情報処理装置の制御方法。
Based on a shape model representing the shape of the measured object, a predicting step of predicting image degradation of the measured object that occurs in an image obtained by imaging the measured object by an imaging unit;
A search step for searching for a measurement data feature corresponding to a model feature of the shape model for a two-dimensional image obtained by imaging the object to be measured by the imaging means;
An evaluation step of evaluating image degradation using the two-dimensional image for the measurement data feature searched in the search step;
Based on the image degradation predicted in the prediction step and the image degradation evaluated in the evaluation step, a calculation step for calculating the accuracy of correspondence between the model feature and the measurement data feature;
Control of an information processing apparatus, comprising: a collation step of collating the shape model with an object to be measured in the two-dimensional image based on the accuracy of correspondence between the model feature and the measurement data feature Method.
被測定物体の形状を表す形状モデルに基づいて、前記被測定物体を撮像手段により撮像した画像に生じる該被測定物体の画像劣化を予測する予測工程と、
前記被測定物体の表面上の3次元計測点の3次元座標を取得する取得工程と、
前記撮像手段により撮像された2次元画像を用いて、前記取得工程で取得された3次元座標に基づいて前記2次元画像に投影された点群の位置における画像劣化を評価する評価工程と、
前記3次元計測点と前記形状モデルのモデル特徴との対応を探索する探索工程と、
前記予測工程で予測した画像劣化と前記評価工程で評価した画像劣化に基づいて、前記モデル特徴と前記3次元計測点の対応の正確度を算出する算出工程と、
前記モデル特徴と前記3次元計測点の対応の正確度に基づいて、前記形状モデルと前記被測定物体の形状を示す3次元計測点とを照合する照合工程と、を有することを特徴とする情報処理装置の制御方法。
Based on a shape model representing the shape of the measured object, a predicting step of predicting image degradation of the measured object that occurs in an image obtained by imaging the measured object by an imaging unit;
An acquisition step of acquiring three-dimensional coordinates of a three-dimensional measurement point on the surface of the object to be measured;
An evaluation step of evaluating image degradation at the position of the point cloud projected on the two-dimensional image based on the three-dimensional coordinates acquired in the acquisition step using the two-dimensional image captured by the imaging means;
A search step for searching for correspondence between the three-dimensional measurement points and model features of the shape model;
A calculation step of calculating an accuracy of correspondence between the model feature and the three-dimensional measurement point based on the image deterioration predicted in the prediction step and the image deterioration evaluated in the evaluation step;
A collation step of collating the shape model with a three-dimensional measurement point indicating the shape of the object to be measured based on the accuracy of correspondence between the model feature and the three-dimensional measurement point. A method for controlling a processing apparatus.
請求項16または17に記載の情報処理装置の制御方法の各工程をコンピュータに実行させるためのプログラム。   The program for making a computer perform each process of the control method of the information processing apparatus of Claim 16 or 17.
JP2015242643A 2015-02-05 2015-12-11 Information processing apparatus, control method for information processing apparatus, and program Active JP6626338B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/010,005 US9914222B2 (en) 2015-02-05 2016-01-29 Information processing apparatus, control method thereof, and computer readable storage medium that calculate an accuracy of correspondence between a model feature and a measurement data feature and collate, based on the accuracy, a geometric model and an object in an image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015021488 2015-02-05
JP2015021488 2015-02-05

Publications (2)

Publication Number Publication Date
JP2016148649A true JP2016148649A (en) 2016-08-18
JP6626338B2 JP6626338B2 (en) 2019-12-25

Family

ID=56691191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015242643A Active JP6626338B2 (en) 2015-02-05 2015-12-11 Information processing apparatus, control method for information processing apparatus, and program

Country Status (1)

Country Link
JP (1) JP6626338B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018185658A (en) * 2017-04-26 2018-11-22 キヤノン株式会社 Information processing apparatus, information processing method, and program
WO2019202809A1 (en) * 2018-04-17 2019-10-24 ソニー株式会社 Signal processing device, signal processing method, and image capturing device
JP2020148625A (en) * 2019-03-13 2020-09-17 富士通株式会社 Image processing device, image processing method, and image processing program
JP2021171865A (en) * 2020-04-23 2021-11-01 株式会社デンソー Robot control device and robot control method
JP7394347B2 (en) 2020-02-14 2023-12-08 株式会社Mujin Method and computational system for processing candidate edges

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6614928B1 (en) * 1999-12-21 2003-09-02 Electronics And Telecommunications Research Institute Automatic parcel volume capture system and volume capture method using parcel image recognition
JP2007201533A (en) * 2006-01-23 2007-08-09 Toshiba Corp Blur conversion apparatus and method
JP2010133718A (en) * 2008-12-02 2010-06-17 Seiko Epson Corp Position detection method and position detection apparatus of work object
JP2011027623A (en) * 2009-07-28 2011-02-10 Canon Inc Method and device of measuring position and posture
JP2011118724A (en) * 2009-12-04 2011-06-16 Nippon Hoso Kyokai <Nhk> Apparatus and program for estimating posture of camera
JP2012123781A (en) * 2010-11-19 2012-06-28 Canon Inc Information processing device, information processing system and information processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6614928B1 (en) * 1999-12-21 2003-09-02 Electronics And Telecommunications Research Institute Automatic parcel volume capture system and volume capture method using parcel image recognition
JP2007201533A (en) * 2006-01-23 2007-08-09 Toshiba Corp Blur conversion apparatus and method
JP2010133718A (en) * 2008-12-02 2010-06-17 Seiko Epson Corp Position detection method and position detection apparatus of work object
JP2011027623A (en) * 2009-07-28 2011-02-10 Canon Inc Method and device of measuring position and posture
JP2011118724A (en) * 2009-12-04 2011-06-16 Nippon Hoso Kyokai <Nhk> Apparatus and program for estimating posture of camera
JP2012123781A (en) * 2010-11-19 2012-06-28 Canon Inc Information processing device, information processing system and information processing method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018185658A (en) * 2017-04-26 2018-11-22 キヤノン株式会社 Information processing apparatus, information processing method, and program
WO2019202809A1 (en) * 2018-04-17 2019-10-24 ソニー株式会社 Signal processing device, signal processing method, and image capturing device
JPWO2019202809A1 (en) * 2018-04-17 2021-05-13 ソニーグループ株式会社 Signal processing device, signal processing method, and imaging device
US11282223B2 (en) 2018-04-17 2022-03-22 Sony Corporation Signal processing apparatus, signal processing method, and imaging apparatus
JP7211417B2 (en) 2018-04-17 2023-01-24 ソニーグループ株式会社 Signal processing device, signal processing method, and imaging device
JP2020148625A (en) * 2019-03-13 2020-09-17 富士通株式会社 Image processing device, image processing method, and image processing program
JP7188201B2 (en) 2019-03-13 2022-12-13 富士通株式会社 Image processing device, image processing method, and image processing program
JP7394347B2 (en) 2020-02-14 2023-12-08 株式会社Mujin Method and computational system for processing candidate edges
JP2021171865A (en) * 2020-04-23 2021-11-01 株式会社デンソー Robot control device and robot control method
JP7310693B2 (en) 2020-04-23 2023-07-19 株式会社デンソー ROBOT CONTROL DEVICE AND ROBOT CONTROL METHOD

Also Published As

Publication number Publication date
JP6626338B2 (en) 2019-12-25

Similar Documents

Publication Publication Date Title
US20200096317A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
JP6573354B2 (en) Image processing apparatus, image processing method, and program
US9025857B2 (en) Three-dimensional measurement apparatus, measurement method therefor, and computer-readable storage medium
JP5839929B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP6465789B2 (en) Program, apparatus and method for calculating internal parameters of depth camera
US9355453B2 (en) Three-dimensional measurement apparatus, model generation apparatus, processing method thereof, and non-transitory computer-readable storage medium
JP5839971B2 (en) Information processing apparatus, information processing method, and program
JP5393318B2 (en) Position and orientation measurement method and apparatus
JP6324025B2 (en) Information processing apparatus and information processing method
US9914222B2 (en) Information processing apparatus, control method thereof, and computer readable storage medium that calculate an accuracy of correspondence between a model feature and a measurement data feature and collate, based on the accuracy, a geometric model and an object in an image
JP6317618B2 (en) Information processing apparatus and method, measuring apparatus, and working apparatus
JP6626338B2 (en) Information processing apparatus, control method for information processing apparatus, and program
JP6677522B2 (en) Information processing apparatus, control method for information processing apparatus, and program
JP2014169990A (en) Position/posture measuring apparatus and method
JP2016170050A (en) Position attitude measurement device, position attitude measurement method and computer program
JP5976089B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
JP6040264B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2014053018A (en) Information processing device, control method for information processing device, and program
JP6890422B2 (en) Information processing equipment, control methods and programs for information processing equipment
JP2015132523A (en) Position/attitude measurement apparatus, position/attitude measurement method, and program
JP2017156968A (en) Information processing device, information processing method, program
JP2021043075A (en) Information processing device, control method therefor, and program
JP6285765B2 (en) Information processing apparatus and information processing method
JP2019168473A (en) Position and orientation measurement device and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191129

R151 Written notification of patent or utility model registration

Ref document number: 6626338

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151