JP2021043075A - Information processing device, control method therefor, and program - Google Patents

Information processing device, control method therefor, and program Download PDF

Info

Publication number
JP2021043075A
JP2021043075A JP2019165528A JP2019165528A JP2021043075A JP 2021043075 A JP2021043075 A JP 2021043075A JP 2019165528 A JP2019165528 A JP 2019165528A JP 2019165528 A JP2019165528 A JP 2019165528A JP 2021043075 A JP2021043075 A JP 2021043075A
Authority
JP
Japan
Prior art keywords
measurement
feature
viewpoint
feature group
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019165528A
Other languages
Japanese (ja)
Inventor
達矢 鈴木
Tatsuya Suzuki
達矢 鈴木
片山 昭宏
Akihiro Katayama
昭宏 片山
藤木 真和
Masakazu Fujiki
真和 藤木
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
小林 俊広
Toshihiro Kobayashi
俊広 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019165528A priority Critical patent/JP2021043075A/en
Publication of JP2021043075A publication Critical patent/JP2021043075A/en
Pending legal-status Critical Current

Links

Images

Abstract

To enable the position-attitude of a measurement object to be estimated with high accuracy while reducing as much as possible the number of measurement and movement times when measuring from a plurality of viewpoints.SOLUTION: An information processing device of the present invention comprises: a model information holding unit for holding a model feature group that represents the shape of a measurement object; a measurement feature acquisition unit for acquiring a measurement feature measured from a first measurement viewpoint; a position-attitude estimation unit for estimating the position-attitude of the measurement object from the model feature group and the measurement feature group of the measurement object acquired by the measurement feature acquisition unit; a measurement feature evaluation unit for evaluating the measurement feature group of the measurement object acquired by the measurement feature acquisition unit, on the basis of the position-attitude value estimated by the position-attitude estimation unit, the model feature group, and the measurement feature group; and a measurement viewpoint determination unit for determining a second measurement viewpoint different from the first measurement viewpoint, on the basis of the result of evaluation made by the measurement feature evaluation unit.SELECTED DRAWING: Figure 4

Description

本発明は、物体の位置姿勢の推定技術に関するものである。 The present invention relates to a technique for estimating the position and orientation of an object.

近年、ロボット技術の発展に伴い、工業製品の組み立てのようなこれまで人間が行っていた複雑なタスクを、ロボットが代わりに行うようになりつつある。このようなロボットでは、ハンドなどのエンドエフェクタによって部品をピックして組み付けを行う。ロボットによって部品を組み付けるためには、当然のことながら、把持している組み付け元部品と組み付け先部品との間の相対的な位置及び姿勢を計測する必要がある。 In recent years, with the development of robot technology, robots are taking over the complicated tasks that humans have traditionally performed, such as assembling industrial products. In such a robot, parts are picked and assembled by an end effector such as a hand. In order to assemble a part by a robot, it is naturally necessary to measure the relative position and posture between the gripping source part and the assembly destination part.

特許文献1のように、撮像で得たフレーム間で隣接した視点で計測したデータ特徴を結合する方法が開示されている。この方法を用いて、ロボットを移動させながら複数の視点からデータ特徴を取得することにより、1つの視点から得た計測特徴だけでは特定できなかった部品の位置姿勢を特定することができる。 As in Patent Document 1, a method of combining data features measured from adjacent viewpoints between frames obtained by imaging is disclosed. By using this method to acquire data features from a plurality of viewpoints while moving the robot, it is possible to specify the position and orientation of the parts that could not be specified only by the measurement features obtained from one viewpoint.

特許第5285487号Patent No. 5285487

しかし、ロボットを用いて多数回視点を変えて対象物体を計測するには計測装置または対象物体の移動と計測を多数回繰り返さなければならない。そのため計測に多くの時間と労力を必要とする。 However, in order to measure the target object by changing the viewpoint many times using a robot, it is necessary to repeat the movement and measurement of the measuring device or the target object many times. Therefore, a lot of time and labor are required for measurement.

本発明は上記問題を鑑みてなされたものであり、物体を位置及び姿勢を計測するための、視点の移動と視点位置での計測回数を少なくする技術を提供するものである。 The present invention has been made in view of the above problems, and provides a technique for measuring the position and posture of an object by moving the viewpoint and reducing the number of measurements at the viewpoint position.

この課題を解決するため、例えば本発明の情報処理装置は以下の構成を備える。すなわち、
計測対象物の形状を表す、モデル特徴群を保持するモデル情報保持手段と
第1の計測視点から計測した計測特徴を取得する計測特徴取得手段と、
前記モデル特徴群と前記計測特徴取得手段が取得した計測対象物の計測特徴群から計測対象物の位置姿勢を推定する位置姿勢推定手段と、
前記位置姿勢推定手段で推定した位置姿勢値、前記モデル特徴群、および前記計測特徴群に基づいて、前記計測特徴取得手段が取得した計測対象物の計測特徴群を評価する計測特徴評価手段と、
前記計測特徴評価手段で評価した結果に基づいて、前記第1の計測視点とは異なる第2の計測視点を決定する計測視点決定手段とを備える。
In order to solve this problem, for example, the information processing apparatus of the present invention has the following configuration. That is,
A model information holding means for holding a model feature group representing the shape of a measurement object, a measuring feature acquiring means for acquiring measurement features measured from the first measurement viewpoint, and a measurement feature acquiring means.
A position / orientation estimating means for estimating the position / orientation of the measurement object from the model feature group and the measurement feature group of the measurement object acquired by the measurement feature acquisition means.
A measurement feature evaluation means that evaluates a measurement feature group of a measurement object acquired by the measurement feature acquisition means based on the position / attitude value estimated by the position / orientation estimation means, the model feature group, and the measurement feature group.
A measurement viewpoint determining means for determining a second measurement viewpoint different from the first measurement viewpoint is provided based on the result of evaluation by the measurement feature evaluation means.

本発明によれば、複数視点で計測するときの計測・移動回数をできるだけ減らしつつ、高精度に測定対象物の位置姿勢推定ができるようになる。 According to the present invention, it is possible to estimate the position and orientation of a measurement object with high accuracy while reducing the number of measurements and movements when measuring from a plurality of viewpoints as much as possible.

第1の実施形態におけるシステムの構成を示す図。The figure which shows the structure of the system in 1st Embodiment. 第1の実施形態における計測装置の構成を示す図。The figure which shows the structure of the measuring apparatus in 1st Embodiment. 第1の実施形態で投影パターンと撮像処理を説明するための図。The figure for demonstrating the projection pattern and the imaging process in 1st Embodiment. 第1の実施形態における情報処理装置の構成を示す図。The figure which shows the structure of the information processing apparatus in 1st Embodiment. 実施形態における計測対象物の3次元形状モデルを例示する図。The figure which illustrates the 3D shape model of the measurement object in embodiment. 第1の実施形態における全体処理を表すフローチャート。The flowchart which shows the whole processing in 1st Embodiment. 第1の実施形態における計測視点の決定を説明するための図。The figure for demonstrating the determination of the measurement viewpoint in 1st Embodiment. 第2の実施形態における移動視点決定を説明するための図。The figure for demonstrating the moving viewpoint determination in 2nd Embodiment. 第2の実施形態における全体処理を表すフローチャート。The flowchart which shows the whole processing in 2nd Embodiment. 第3の実施形態における情報処理装置の構成を示す図。The figure which shows the structure of the information processing apparatus in 3rd Embodiment. 第3の実施形態における全体処理を表すフローチャート。The flowchart which shows the whole processing in 3rd Embodiment. 第3の実施形態における計測特徴の統合処理を説明するための図。The figure for demonstrating the integrated processing of the measurement feature in 3rd Embodiment. 第3の実施形態における計測特徴の評価値の算出処理を示すフローチャート。The flowchart which shows the calculation process of the evaluation value of the measurement feature in 3rd Embodiment. 第3の実施形態における移動視点決定処理を示すフローチャート。The flowchart which shows the moving viewpoint determination processing in 3rd Embodiment. 第3の実施形態における移動視点の決定を説明するための図。The figure for demonstrating the determination of the moving viewpoint in 3rd Embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.

[第1の実施形態]
本第1の実施形態では、計測特徴群をより多く取得する視点に決定する方法について説明する。このようにすることで、計測特徴群を多く取得すると安定して位置姿勢推定できるようになるため、計測・移動回数をできるだけ減らしつつ、高精度な位置姿勢推定ができるようになる。
[First Embodiment]
In the first embodiment, a method of determining a viewpoint for acquiring more measurement feature groups will be described. By doing so, if a large number of measurement feature groups are acquired, the position and orientation can be estimated stably, so that the position and orientation can be estimated with high accuracy while reducing the number of measurements and movements as much as possible.

図1は、本実施形態におけるシステムの構成例を示す。情報処理装置1は、計測装置110及び移動装置120と通信可能に接続されている。 FIG. 1 shows a configuration example of the system according to the present embodiment. The information processing device 1 is communicably connected to the measuring device 110 and the mobile device 120.

計測装置110は、図2に示す通り、撮影装置111と投影装置112から構成される。図示の破線は、撮像範囲、投影範囲を示している。 As shown in FIG. 2, the measuring device 110 includes a photographing device 111 and a projection device 112. The broken line in the figure indicates the imaging range and the projection range.

投影装置112は照明パターンを計測対象物130に投影し、撮影装置111は、照明パターンが投影された計測対象物130を撮影する。この撮像で得た画像から、計測対象物130の表面上の3次元点群を取得することができる。撮影される画像の形式は、グレイスケールやカラーなど、対象の距離が取得できるものであれば特に制限はない。また撮影装置111および投影装置112の焦点距離や主点位置、レンズ歪みパラメータなどの内部パラメータおよびカメラ間の相対位置姿勢、およびカメラ-プロジェクタ間の相対位置姿勢は、例えば[R. Y. Tsai, "A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses," IEEE Journal of Robotics and Automation, vol.RA-3, no.4, 1987.]に示す方法によって事前にキャリブレーションしておく。ここでいう撮影装置110および投影装置120の間の相対位置姿勢はオイラー角で示された回転成分(α、β、γ)と並進成分(x、y、z)で表せられる6自由度のパラメータである。投影装置120が投光するパターンは、本実施形態では図3(a)に表されるマルチラインパターンであり、計測対象物130から反射した像(図3(b))を撮影装置110により撮影する。3次元点群の取得には、例えば[井口、佐藤、3次元画像計測、昭晃堂、1990]に記載の方法により、撮像装置111で撮影した画像からパターンを復号することによりラインパターンの投影位置を特定し、先にキャリブレーションした撮影装置111および投影装置112の間の相対位置姿勢から三角測量による方法で取得することができる。 The projection device 112 projects the illumination pattern onto the measurement object 130, and the photographing device 111 photographs the measurement object 130 on which the illumination pattern is projected. From the image obtained by this imaging, a three-dimensional point cloud on the surface of the measurement object 130 can be acquired. The format of the captured image is not particularly limited as long as the target distance can be acquired, such as gray scale and color. The focal length, principal point position, lens distortion parameter, and other internal parameters of the photographing device 111 and the projecting device 112, the relative position and orientation between the cameras, and the relative position and orientation between the cameras and the projector are, for example, [RY Tsai, "A versatile". camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses, pre-calibrated by the method shown in "IEEE Journal of Robotics and Automation, vol.RA-3, no.4, 1987." I'll leave it to you. The relative position and orientation between the imaging device 110 and the projection device 120 referred to here is a parameter with 6 degrees of freedom represented by the rotational components (α, β, γ) and translational components (x, y, z) indicated by Euler angles. Is. The pattern projected by the projection device 120 is the multi-line pattern shown in FIG. 3A in the present embodiment, and the image reflected from the measurement object 130 (FIG. 3B) is photographed by the photographing device 110. To do. To acquire the 3D point cloud, for example, the line pattern is projected by decoding the pattern from the image taken by the image pickup apparatus 111 by the method described in [Iguchi, Sato, 3D image measurement, Shokodo, 1990]. The position can be specified and obtained from the relative position / orientation between the image pickup device 111 and the projection device 112 calibrated earlier by a method by triangulation.

移動装置120は例えばロボットアームのような6軸に移動可能な装置であり、図1に示す通り、計測装置110を搭載する。つまり、計測装置110は、移動装置120側の視点で測定対象物130の計測を行うことになる。移動装置120は情報処理装置1から計測すべき視点を受け取り、次に計測すべき視点から計測装置110が計測できるようにロボットアームを制御し移動する。また、計測装置110の座標系から移動装置120の座標系への変換行列は、例えば[F. Dornaika and R. Horaud. "Simultaneous robot-world and hand-eye calibration. Robotics and Automation" IEEE Transactions on, 14(4):617-622, 1998.]に示す方法によって事前にキャリブレーションしておき、算出しておけばよい。 The moving device 120 is a device that can move in six axes, such as a robot arm, and is equipped with a measuring device 110 as shown in FIG. That is, the measuring device 110 measures the measurement object 130 from the viewpoint on the moving device 120 side. The moving device 120 receives the viewpoint to be measured from the information processing device 1, and controls and moves the robot arm so that the measuring device 110 can measure from the viewpoint to be measured next. The transformation matrix from the coordinate system of the measuring device 110 to the coordinate system of the moving device 120 is, for example, [F. Dornaika and R. Horaud. "Simultaneous robot-world and hand-eye calibration. Robotics and Automation" IEEE Transactions on, 14 (4): 617-622, 1998.] may be calibrated in advance and calculated.

次に情報処理装置1の構成について図4を用いて説明する。情報処理装置1は、モデル情報保持部100、計測特徴入力部101、位置姿勢推定部102、計測特徴評価部103、計測視点決定部104、及び、制御部105から構成されている。制御部105は、装置全体の制御を司るものであり、CPU、及び、当該CPUが実行するプログラムを格納するメモリで構成される。 Next, the configuration of the information processing device 1 will be described with reference to FIG. The information processing device 1 is composed of a model information holding unit 100, a measurement feature input unit 101, a position / orientation estimation unit 102, a measurement feature evaluation unit 103, a measurement viewpoint determination unit 104, and a control unit 105. The control unit 105 controls the entire device, and includes a CPU and a memory for storing a program executed by the CPU.

モデル情報保持部100は、計測対象物130の形状を表すモデル情報を保持している。本実施形態では、形状モデルのモデル特徴は、図5(b)に示すような、3次元位置と3次元法線方向から構成される物体表面上の局所的な3次元平面情報(以後、局所面特徴と称する)によって構成されるものとする。なお、モデルとして入力する形状情報は、単純な3次元点の集合や、3次元点3点で構成されるポリゴンの形状情報などで表しても良い。 The model information holding unit 100 holds model information representing the shape of the measurement object 130. In the present embodiment, the model feature of the shape model is local three-dimensional plane information (hereinafter, local) on the surface of the object composed of the three-dimensional position and the three-dimensional normal direction as shown in FIG. 5 (b). It shall be composed of (referred to as surface features). The shape information to be input as a model may be represented by a simple set of three-dimensional points, shape information of a polygon composed of three three-dimensional points, or the like.

計測特徴取得部101は、計測装置110で取得した計測情報から計測対象物130の計測特徴群の情報を取得する。本実施形態における計測特徴群は3次元点群である。 The measurement feature acquisition unit 101 acquires information on the measurement feature group of the measurement object 130 from the measurement information acquired by the measurement device 110. The measurement feature group in this embodiment is a three-dimensional point cloud.

位置姿勢推定部102は、モデル情報保持部100で保持している計測対象物130の形状モデルと、計測特徴取得部101が入力した計測特徴群を用いて、計測対象物130の位置姿勢を推定する。本実施形態では、形状モデルのモデル特徴として局所面特徴、および計測特徴として3次元点群を用いて、[S.Rusinkiewicz, M.Levoy, "Efficient Variants of the ICP Algorithm", In 3-D Digital Imaging and Modeling,2001,Proceedings.Third International Conference on(pp.145-152).IEEE]に記載の技術であるICP(Iterative Closest Point)により計測対象物130の位置姿勢を推定する。位置姿勢を推定するためには局所面特徴の各点に対して、幾何学的に類似する3次元点を探索する必要があり、これらを対応点と呼ぶ。3次元点とモデル特徴の対応点を用いて位置合わせを行う。3次元点とモデル特徴間の対応点を求めるためには、3次元座標系において局所面特徴と3次元点の最近傍のペアの中から距離差がある閾値以下のペアを探索する。 The position / orientation estimation unit 102 estimates the position / orientation of the measurement object 130 using the shape model of the measurement object 130 held by the model information holding unit 100 and the measurement feature group input by the measurement feature acquisition unit 101. To do. In this embodiment, local surface features are used as model features of the shape model, and 3D point clouds are used as measurement features [S.Rusinkiewicz, M.Levoy, "Efficient Variants of the ICP Algorithm", In 3-D Digital. Imaging and Modeling, 2001, Proceedings.Third International Conference on (pp.145-152). IEEE] estimates the position and orientation of the object to be measured 130 by ICP (Iterative Closest Point). In order to estimate the position and orientation, it is necessary to search for geometrically similar three-dimensional points for each point of the local surface feature, and these are called corresponding points. Alignment is performed using the corresponding points of the three-dimensional points and the model features. In order to find the corresponding point between the 3D point and the model feature, a pair with a distance difference below the threshold is searched from the pair closest to the local surface feature and the 3D point in the 3D coordinate system.

計測特徴評価部103は、モデル情報保持部100で保持している計測対象物130の形状モデルと、計測特徴取得部101が取得した計測特徴、および位置姿勢推定部102で推定した計測対象物130の位置姿勢に基づいて、計測特徴群の評価値を算出する。評価値の算出方法については後述する。 The measurement feature evaluation unit 103 includes a shape model of the measurement object 130 held by the model information holding unit 100, a measurement feature acquired by the measurement feature acquisition unit 101, and a measurement object 130 estimated by the position / orientation estimation unit 102. The evaluation value of the measurement feature group is calculated based on the position and orientation of. The method of calculating the evaluation value will be described later.

計測視点決定部104は、計測特徴評価部103の評価結果に基づいて、次に計測対象物130を計測する視点を決定する。移動装置120は、決定した視点に計測装置110を移動させる。視点決定方法については後述する。 The measurement viewpoint determination unit 104 determines the viewpoint for measuring the measurement object 130 next, based on the evaluation result of the measurement feature evaluation unit 103. The moving device 120 moves the measuring device 110 to the determined viewpoint. The viewpoint determination method will be described later.

図6のフローチャートを用いて、情報処理装置1が実行する、測定対象物130に対する計測装置110の計測と視点決定処理を説明する。 The measurement and viewpoint determination processing of the measuring device 110 with respect to the measurement object 130, which is executed by the information processing device 1, will be described with reference to the flowchart of FIG.

S1000にて、制御部105は、初期化処理を行う。初期化には計測装置110の露光時間、ゲインなどの撮影パラメータの読み込み、キャリブレーションパラメータの読み込み、計測装置110の座標系から移動装置120の座標系への変換行列の読み込み、モデル情報保持部100に保持しておく計測対象物130のモデル形状情報の読み込み等が含まれる。制御部105は、移動装置120の初期位置へ復帰、更には、移動装置120の初期位置への移動に伴い、計測装置110の位置姿勢値も初期状態に設定する。 In S1000, the control unit 105 performs an initialization process. For initialization, the imaging parameters such as the exposure time and gain of the measuring device 110 are read, the calibration parameters are read, the conversion matrix from the coordinate system of the measuring device 110 to the coordinate system of the moving device 120 is read, and the model information holding unit 100 It includes reading the model shape information of the measurement object 130 held in. The control unit 105 returns to the initial position of the moving device 120, and further, as the moving device 120 moves to the initial position, the position / posture value of the measuring device 110 is also set to the initial state.

S1100にて、計測特徴取得部101は、現在の移動装置120の位置姿勢での計測装置110で撮像して得た画像から、計測対象物130の3次元点群を取得する。 In S1100, the measurement feature acquisition unit 101 acquires a three-dimensional point cloud of the measurement object 130 from the image obtained by the measurement device 110 in the current position and orientation of the moving device 120.

S1200にて、位置姿勢推定部102は、モデル情報保持部100が保持している局所面特徴と計測特徴取得部101が取得した3次元点群との位置合わせを、ICP法を用いて行う。 In S1200, the position / orientation estimation unit 102 aligns the local surface feature held by the model information holding unit 100 with the three-dimensional point cloud acquired by the measurement feature acquisition unit 101 by using the ICP method.

S1300にて、計測特徴評価部103は、モデル情報保持部100で保持している計測対象物130の形状モデルと、計測特徴取得部101が取得した3次元点群、および位置姿勢推定部102が推定した計測対象物130の位置姿勢に基づいて、局所面特徴と3次元点の最近傍のペアを決定し、そのペアの距離差が閾値以下である3次元点群の数を評価値Vとして算出する。 In S1300, the measurement feature evaluation unit 103 includes a shape model of the measurement object 130 held by the model information holding unit 100, a three-dimensional point cloud acquired by the measurement feature acquisition unit 101, and a position / orientation estimation unit 102. Based on the estimated position and orientation of the measurement object 130, the pair of the local surface feature and the nearest vicinity of the three-dimensional point is determined, and the number of the three-dimensional point cloud in which the distance difference between the pairs is equal to or less than the threshold value is used as the evaluation value V. calculate.

S1400にて、制御部105は、現在の視点とは異なる視点で観察可能な局所面特徴の数が、S1300で算出した評価値Vよりも大きい視点があれば処理をS1500に、そうでなければ処理を終了する。 In S1400, the control unit 105 processes the process to S1500 if there is a viewpoint in which the number of local surface features that can be observed from a viewpoint different from the current viewpoint is larger than the evaluation value V calculated in S1300, otherwise. End the process.

S1500にて、計測視点決定部104は、S1400で他の視点で観察したときのモデル表面の局所特徴群の数が最も多い視点の位置を決定する。 In S1500, the measurement viewpoint determination unit 104 determines the position of the viewpoint having the largest number of local feature groups on the model surface when observed from another viewpoint in S1400.

S1600にて、制御部105は、S1500で決定した視点になるように移動装置120に対し制御値を送り、視点を移動させる。そして、この移動が終了した場合、制御部105は処理をS1100に戻す。 In S1600, the control unit 105 sends a control value to the moving device 120 so as to have the viewpoint determined in S1500, and moves the viewpoint. Then, when this movement is completed, the control unit 105 returns the process to S1100.

本実施形態における投影装置112が投影する照明パターンは実線のマルチラインパターンであったが、それに限るものではない。例えば、ライン上でパターンの輝度や色を変化させたようなパターンや破線状のパターン、ラインの幅が変わるようなパターンでもよい。またラインパターンの間隔は等間隔でも不等間隔でもよい。またラインパターン以外にもランダムドットパターンやグリッドパターンなどでもよい。いずれにしても、撮影画像上における計測対象物上に投影された照明パターンとパターンの背景部分が判別できるパターンであれば何でもよい。 The illumination pattern projected by the projection device 112 in the present embodiment is a solid multi-line pattern, but is not limited thereto. For example, a pattern in which the brightness or color of the pattern is changed on the line, a broken line pattern, or a pattern in which the width of the line is changed may be used. The line pattern may be evenly spaced or unequally spaced. In addition to the line pattern, a random dot pattern or a grid pattern may be used. In any case, any pattern can be used as long as the illumination pattern projected on the object to be measured on the captured image and the background portion of the pattern can be discriminated.

本実施形態における位置姿勢推定部102でのモデル特徴と計測特徴間の対応点探索の方法は3次元座標系において最近傍のペアを選択するものであったが、それに限らない。例えば、モデル特徴および3次元点を計測装置110で入力したマルチラインパターンの像が写っている画像に投影し、2次元座標系で最近傍のペアを探索して求めてもよい。

計測視点決定部104は、視点を選ぶときに、図7のように計測対象物130と計測装置110との間の距離Dを変えない半球状の中から視点を選ぶよう制限をかけてもよい。
In the present embodiment, the method of searching for the corresponding point between the model feature and the measurement feature in the position / orientation estimation unit 102 is to select the nearest pair in the three-dimensional coordinate system, but the method is not limited to this. For example, the model features and the three-dimensional points may be projected onto an image showing the image of the multi-line pattern input by the measuring device 110, and the nearest pair may be searched and obtained in the two-dimensional coordinate system.

When selecting a viewpoint, the measurement viewpoint determination unit 104 may limit the selection of the viewpoint from a hemisphere that does not change the distance D between the measurement object 130 and the measurement device 110 as shown in FIG. ..

本実施形態では、S1600で決定した視点になるように移動装置120に対し制御値を送り、視点を移動させた後、再度S1100で計測を行うが、それに限るものではなく、移動途中で計測を行ってもよい。 In the present embodiment, the control value is sent to the moving device 120 so that the viewpoint is determined in S1600, the viewpoint is moved, and then the measurement is performed again in S1100. However, the measurement is not limited to this, and the measurement is performed during the movement. You may go.

以上が本実施形態において、計測特徴群をより多く取得する視点に決定する方法である。このようにすることで、計測特徴群を多く取得すると安定して位置姿勢推定できるようになるため、計測・移動回数をできるだけ減らしつつ、高精度な位置姿勢推定ができるようになる。 The above is the method of determining from the viewpoint of acquiring more measurement feature groups in the present embodiment. By doing so, if a large number of measurement feature groups are acquired, the position and orientation can be estimated stably, so that the position and orientation can be estimated with high accuracy while reducing the number of measurements and movements as much as possible.

[変形例1]
上記実施形態では、計測特徴群として3次元点群を用いて、計測特徴群をより多く取得する視点に決定する方法について述べた。しかし、位置姿勢推定に用いる計測特徴群は3次元点群に限らず、濃淡画像上の画像特徴群を用いてもよい。この変形例1では、計測特徴群として画像特徴群を用いて、画像特徴群をより多く取得できる視点に決定する方法について説明する。
[Modification 1]
In the above embodiment, a method of using a three-dimensional point cloud as the measurement feature group and determining the viewpoint for acquiring more measurement feature groups has been described. However, the measurement feature group used for position / orientation estimation is not limited to the three-dimensional point cloud, and the image feature group on the grayscale image may be used. In this modification 1, a method of using an image feature group as a measurement feature group and determining a viewpoint at which a larger number of image feature groups can be acquired will be described.

本変形例1における情報処理装置の構成は上記第1の実施形態と同一であるため、その説明を省略する。変形例1における計測装置110は、計測対象物130の濃淡画像を撮影する。この際に投影装置112は照明パターンの投影を行わず、撮影装置111は計測対象物130を撮像する。 Since the configuration of the information processing device in the first modification is the same as that of the first embodiment, the description thereof will be omitted. The measuring device 110 in the first modification captures a shade image of the measurement object 130. At this time, the projection device 112 does not project the illumination pattern, and the photographing device 111 images the measurement object 130.

変形例1におけるモデル情報保持部100は、形状モデルのモデル特徴は、図5(a)に示すような、3次元位置と3次元線分方向から構成される物体輪郭上の局所的な3次元線分情報(以後局所線特徴と称する)から構成されている。なおモデルとして入力する形状情報は稜線を表す3次元ラインの集合などで表してもよい。 In the model information holding unit 100 in the first modification, the model feature of the shape model is a local three-dimensional on the object contour composed of the three-dimensional position and the three-dimensional line segment direction as shown in FIG. 5 (a). It is composed of line segment information (hereinafter referred to as local line feature). The shape information input as a model may be represented by a set of three-dimensional lines representing ridgelines.

本変形例1における計測特徴取得部101は、計測装置110から取得した濃淡画像から画像特徴群を取得する。ここで取得する画像特徴としては、[Canny. J, A Computational Approach To Edge Detection, IEEE Trans.Pattern Analysis and Machine Intelligence, 8:679-714, 1986]に記載のエッジ特徴などを用いるものとする。なお、画像中における計測対象物130の輪郭を検出する方法であれば良いので、これに限るものではない。 The measurement feature acquisition unit 101 in the first modification acquires an image feature group from a shade image acquired from the measurement device 110. As the image features acquired here, the edge features described in [Canny. J, A Computational Approach To Edge Detection, IEEE Trans. Pattern Analysis and Machine Intelligence, 8: 679-714, 1986] shall be used. It should be noted that the method is not limited to this, as any method may be used to detect the contour of the measurement object 130 in the image.

変形例1における位置姿勢推定部102は、[T. Drummond and R. Cipolla, "Real-time visual tracking of complex structures", IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.24, no.7, pp.932-946, 2002.]で開示されている方法を用いることにより、局所線特徴と画像特徴の最近傍のペアを選択し、距離差が閾値以下のペアのみ用いて、計測対象物130の位置姿勢を推定する。 The position / orientation estimation unit 102 in the first modification is described in [T. Drummond and R. Cipolla, "Real-time visual tracking of complex structures", IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.24, no.7, pp. 932-946, 2002.], the position of the measurement object 130 is selected by selecting the pair closest to the local line feature and the image feature, and using only the pair whose distance difference is less than or equal to the threshold value. Estimate the posture.

変形例1における計測特徴評価部103は、モデル情報保持部100で保持している計測対象物130の形状モデルと、計測特徴取得部101が取得した画像特徴群、および位置姿勢推定部102が推定した計測対象物130の位置姿勢に基づいて、現在の視点で局所線特徴と画像特徴の最近傍のペアを選択したときに、距離差が閾値以下である画像特徴群の数を評価値Vとして算出する。この処理をS1300にて行う。 The measurement feature evaluation unit 103 in the first modification is estimated by the shape model of the measurement object 130 held by the model information holding unit 100, the image feature group acquired by the measurement feature acquisition unit 101, and the position / orientation estimation unit 102. Based on the position and orientation of the measurement object 130, the number of image feature groups whose distance difference is less than or equal to the threshold value when the nearest pair of local line feature and image feature is selected from the current viewpoint is used as the evaluation value V. calculate. This process is performed in S1300.

変形例1における計測視点決定部104で決定する視点は、現在の視点とは異なる視点で観察可能な局所線特徴の数が計測特徴評価部103で算出した評価値Vよりも大きい視点に決定する。 The viewpoint determined by the measurement viewpoint determination unit 104 in the first modification is determined to be a viewpoint in which the number of local line features that can be observed from a viewpoint different from the current viewpoint is larger than the evaluation value V calculated by the measurement feature evaluation unit 103. ..

変形例1は投影装置112から照明パターンを投影せずに撮影装置111により撮影を行っていたが、これに限るものではない。例えば、計測装置110にもう1台撮影装置を設置し、照明パターンを透過しない光学フィルタをセンサ面の前に設置して濃淡画像を取得する。計測装置110にパターンを透過しない光学フィルタを設置したセンサを追加して用いて、もしくはプリズムなどで分光して濃淡画像を取得するなど、照明パターンが投影されていない計測対象物130の画像を取得できる方法であれば何でもよい。またこれらを用いて照明パターンが投影された画像と、濃淡画像を同時に取得してもよい。 In the first modification, the image is taken by the photographing device 111 without projecting the illumination pattern from the projection device 112, but the present invention is not limited to this. For example, another photographing device is installed in the measuring device 110, and an optical filter that does not transmit the illumination pattern is installed in front of the sensor surface to acquire a grayscale image. Acquire an image of the measurement object 130 on which the illumination pattern is not projected, such as by adding a sensor with an optical filter that does not transmit the pattern to the measuring device 110 or by splitting it with a prism or the like to acquire a shading image. Any method that can be used will do. Further, the image on which the illumination pattern is projected and the shade image may be acquired at the same time using these.

変形例1における位置姿勢推定部102は、モデル情報保持部100が保持している局所線特徴と、画像特徴群の位置合わせを行い、計測対象物130の位置姿勢を求めていたがこれに限るものではない。例えば、[立野,小竹,内山,“実部品のビンピッキングのための距離・濃淡画像を最尤に統合する高精度高安定なモデルフィッティング手法”,画像の認識・理解シンポジウム−MIRU2010,OS5−1(2010).7]に記載の方法により、計測装置110により濃淡画像の画像特徴群と3次元点群を取得し、計測対象物130の形状を表す3次元モデルの局所線特徴および局所面特徴を用いて、計測対象物130の位置姿勢を求めてもよい。いずれにしても計測対象物130の位置姿勢を推定できる方法であれば何でもよい。 The position / orientation estimation unit 102 in the first modification aligns the local line feature held by the model information holding unit 100 with the image feature group, and obtains the position / orientation of the measurement object 130, but this is limited to this. It's not a thing. For example, [Tateno, Kotake, Uchiyama, "High-precision and highly stable model fitting method that most likely integrates distance and shading images for bin picking of actual parts", Image Recognition and Understanding Symposium-MIRU2010, OS5-1 (2010). 7], the image feature group and the three-dimensional point cloud of the grayscale image are acquired by the measuring device 110, and the local line feature and the local surface feature of the three-dimensional model representing the shape of the measurement object 130 are used. The position and orientation of the measurement object 130 may be obtained. In any case, any method can be used as long as the position and orientation of the measurement object 130 can be estimated.

この場合の評価値Vは現在の視点で位置姿勢推定したときの局所線特徴との距離差が閾値以下の画像特徴群の数と、局所面特徴との距離差が閾値以下の3次元点群の数の総和とする。視点決定方法は、現在とは異なる視点で観察可能な局所線特徴および局所面特徴の数の総和を用いて、評価値Vよりも大きい視点に決定する。また単純な総和を評価値Vおよび視点決定に用いるのではなく、重みをつけて、画像特徴群の数または3次元点群の数をどちらかを優先して決定してもよい。 In this case, the evaluation value V is the number of image feature groups whose distance difference from the local line feature when the position and orientation are estimated from the current viewpoint is less than the threshold value, and the three-dimensional point cloud whose distance difference from the local surface feature is less than the threshold value. Let it be the sum of the numbers. In the viewpoint determination method, a viewpoint larger than the evaluation value V is determined by using the sum of the number of local line features and local surface features that can be observed from a viewpoint different from the present one. Further, instead of using a simple sum for determining the evaluation value V and the viewpoint, weighting may be applied to determine the number of image feature groups or the number of three-dimensional point clouds with priority.

以上が変形例1における、計測特徴群として画像特徴群を用いて、よりモデル特徴を多く取得できる視点に決定する方法である。このようにすることで、より画像特徴群を多く取得できる視点で計測できるようになるため、複数視点で計測するときの計測・移動回数をできるだけ減らしつつ、高精度な位置姿勢推定ができるようになる。 The above is the method of determining the viewpoint in which more model features can be acquired by using the image feature group as the measurement feature group in the modification example 1. By doing so, it becomes possible to measure from a viewpoint that can acquire more image feature groups, so that it is possible to estimate the position and orientation with high accuracy while reducing the number of measurements and movements when measuring from multiple viewpoints as much as possible. Become.

[第2の実施形態]
上記第1の実施形態及びその変形例1では、現在計測した視点からよりも計測特徴群が多く取得できる視点に変更する方法について説明した。しかし、撮影装置と投影装置の画角および計測対象物との相対位置関係によって、計測対象物上に写る照明パターンの間隔が粗く投影されてしまい、微細な形状部分まで距離が計算できない場合がある。例えば図8(a)のように、計測対象物130の微細な形状部分である領域Cには照明パターンとしてラインパターンが投影されているが、照明パターンが短く識別できず3次元点を取得できない。そのため位置姿勢推定部102において3次元点が存在しないため、この部分のモデル特徴は位置姿勢に用いられない。そこで、画像上における未計測領域Cの形状をモデル特徴から算出しておき、その形状に合わせて図8(b)のように視点を変化させて、照明パターンが十分長く観測される向きに変更して再度計測する方法について説明する。このようにすることで、より多くの計測特徴が得られる位置が分かるようになるため、複数視点で計測するときの計測・移動回数をできるだけ減らしつつ、高精度な位置姿勢推定ができるようになる。
[Second Embodiment]
In the first embodiment and the first modification thereof, a method of changing from the currently measured viewpoint to a viewpoint in which more measurement feature groups can be acquired than the currently measured viewpoint has been described. However, depending on the angle of view of the imaging device and the projection device and the relative positional relationship between the measurement target, the distance between the illumination patterns reflected on the measurement target may be projected coarsely, and the distance may not be calculated even for minute shaped parts. .. For example, as shown in FIG. 8A, a line pattern is projected as an illumination pattern in the region C which is a fine shape portion of the measurement object 130, but the illumination pattern is too short to be identified and a three-dimensional point cannot be acquired. .. Therefore, since there is no three-dimensional point in the position / orientation estimation unit 102, the model feature of this portion is not used for the position / orientation. Therefore, the shape of the unmeasured region C on the image is calculated from the model features, and the viewpoint is changed according to the shape as shown in FIG. 8B to change the direction in which the illumination pattern is observed for a sufficiently long time. Then, the method of measuring again will be described. By doing so, it becomes possible to know the position where more measurement features can be obtained, and it becomes possible to estimate the position and orientation with high accuracy while reducing the number of measurements and movements when measuring from multiple viewpoints as much as possible. ..

本第2の実施形態における情報処理装置の構成は、第1の実施形態及びその変形例1と同じである。よって以下では、第1の実施形態及びその変形例1との違いについて説明する。 The configuration of the information processing apparatus in the second embodiment is the same as that in the first embodiment and the first modification thereof. Therefore, the difference between the first embodiment and the modified example 1 will be described below.

本第2の実施形態における計測装置110の構成は、第1の実施形態と同様である。計測特徴評価部103は、モデル情報保持部100で保持している計測対象物130の形状モデルと、計測特徴取得部101が取得した3次元点群、および位置姿勢推定部102で推定した計測対象物130の位置姿勢に基づいて、計測されていない領域Cの評価を行う(詳細は後述)。 The configuration of the measuring device 110 in the second embodiment is the same as that in the first embodiment. The measurement feature evaluation unit 103 includes a shape model of the measurement object 130 held by the model information holding unit 100, a three-dimensional point cloud acquired by the measurement feature acquisition unit 101, and a measurement target estimated by the position / orientation estimation unit 102. Based on the position and orientation of the object 130, the unmeasured region C is evaluated (details will be described later).

本実施形態における計測視点決定部104は、計測特徴評価部103が評価結果に基づいて視点を決定する(詳細は後述)。 In the measurement viewpoint determination unit 104 in the present embodiment, the measurement feature evaluation unit 103 determines the viewpoint based on the evaluation result (details will be described later).

図9のフローチャートを用いて、本実施形態における計測と視点決定の処理について説明する。 The processing of measurement and viewpoint determination in the present embodiment will be described with reference to the flowchart of FIG.

S2000にて、制御部105は初期化処理を行う。この初期化処理には、計測装置110の露光時間、ゲインなどの撮影パラメータの読み込み、キャリブレーションパラメータの読み込み、計測装置110の座標系から移動装置120の座標系への変換行列の読み込み、モデル情報保持部100に保持しておく計測対象物130のモデル形状情報の読み込みが含まれる。また制御部105は、移動装置120を初期位置へ復帰させ、視点は計測装置110が初期位置で計測したときの移動装置の座標系における計測装置の位置姿勢値に設定する。 In S2000, the control unit 105 performs the initialization process. In this initialization process, the imaging parameters such as the exposure time and gain of the measuring device 110 are read, the calibration parameters are read, the conversion matrix from the coordinate system of the measuring device 110 to the coordinate system of the moving device 120 is read, and the model information. The reading of the model shape information of the measurement object 130 held in the holding unit 100 is included. Further, the control unit 105 returns the moving device 120 to the initial position, and sets the viewpoint to the position / posture value of the measuring device in the coordinate system of the moving device when the measuring device 110 measures at the initial position.

S2100にて、計測特徴取得部101は、現在の移動装置120の位置姿勢での計測装置110からの計測対象物130の3次元点群を取得する。 In S2100, the measurement feature acquisition unit 101 acquires a three-dimensional point cloud of the measurement object 130 from the measurement device 110 in the current position and orientation of the moving device 120.

S2200にて、位置姿勢推定部102は、モデル情報保持部100が保持している局所面特徴と、計測特徴取得部101が取得した3次元点群との位置合わせを行う。位置合わせの方法は第1の実施形態と同様の方法を用いるものとする。 In S2200, the position / orientation estimation unit 102 aligns the local surface feature held by the model information holding unit 100 with the three-dimensional point cloud acquired by the measurement feature acquisition unit 101. As the alignment method, the same method as in the first embodiment shall be used.

S2300にて、計測特徴評価部103は、モデル情報保持部100で保持している計測対象物130の形状モデルと、計測特徴入力部101が入力した3次元点群、および位置姿勢推定部102で計算した計測対象物130の位置姿勢に基づいて、未計測領域Cの分布の方向性を検出する。まず未計測領域Cとして位置姿勢推定時、3次元空間上のある閾値範囲内に計測した3次元点群が存在しない局所面特徴群を検出する。次に領域Cの局所面特徴群を撮影画像上に投影したときの2次元の分布から、主成分分析で計算される第1主成分の固有値σ1と第2主成分の固有値σ2の差の絶対値を未計測領域評価値として算出する。 In S2300, the measurement feature evaluation unit 103 includes the shape model of the measurement object 130 held by the model information holding unit 100, the three-dimensional point cloud input by the measurement feature input unit 101, and the position / orientation estimation unit 102. Based on the calculated position and orientation of the measurement object 130, the directionality of the distribution of the unmeasured region C is detected. First, as the unmeasured region C, when the position and orientation are estimated, the local surface feature group in which the measured three-dimensional point cloud does not exist within a certain threshold range in the three-dimensional space is detected. Next, from the two-dimensional distribution when the local surface feature group of region C is projected onto the captured image, the absolute difference between the eigenvalue σ1 of the first principal component and the eigenvalue σ2 of the second principal component calculated by principal component analysis is absolute. The value is calculated as the evaluation value of the unmeasured area.

S2400にて、制御部105は、S2300で算出した未計測領域評価値が閾値よりも小さければ、処理を終了する。そうでなければステップS2500へ進む。 In S2400, the control unit 105 ends the process if the unmeasured area evaluation value calculated in S2300 is smaller than the threshold value. If not, the process proceeds to step S2500.

S2500にて、計測視点決定部104は、S2300で算出した主成分分析で計算される第1主成分の固有ベクトルと撮影画像上に投影したときの近傍のラインパターンの方向とが合う視点に決定する。このとき計測装置110の位置は固定し、計測装置110のカメラ原点から画像中心への視線ベクトル回りでの回転のみを行い、ラインパターンの方向と分布の第1主成分の固有ベクトルとが平行方向になるような視点を選ぶ。例えば計測視点決定部104は、図8(b)のように、領域Cの分布の方向性とラインパターンの方向が平行になるように、図8(a)の状態から計測装置を90°回転させるように視点を決定する。そして、計測視点決定部104は、S2500で決定した視点になるように移動装置120に対し制御値を送り、視点を移動させる。この移動が終了したら、制御部105は処理をS1100に戻す。 In S2500, the measurement viewpoint determination unit 104 determines the viewpoint in which the eigenvector of the first principal component calculated by the principal component analysis calculated in S2300 and the direction of the line pattern in the vicinity when projected on the captured image match. .. At this time, the position of the measuring device 110 is fixed, only rotation is performed around the line-of-sight vector from the camera origin of the measuring device 110 to the center of the image, and the direction of the line pattern and the eigenvector of the first principal component of the distribution are parallel to each other. Choose a perspective that will be. For example, the measurement viewpoint determination unit 104 rotates the measuring device by 90 ° from the state of FIG. 8A so that the direction of the distribution of the region C and the direction of the line pattern are parallel to each other as shown in FIG. 8B. Determine the viewpoint so that it will be done. Then, the measurement viewpoint determination unit 104 sends a control value to the moving device 120 so that the viewpoint is determined in S2500, and moves the viewpoint. When this movement is completed, the control unit 105 returns the process to S1100.

計測特徴評価部103は、未計測領域Cとして位置姿勢推定時、3次元空間上のある閾値範囲内に計測した3次元点群が存在しない局所面特徴群を自動的に検出して評価をしていたが、それに限らない。例えば、自動的に領域Cを検出する代わりに、ユーザーが計測したい領域を選択することによって未計測領域評価値を算出してもよい。距離計測されていない領域を検出できさえすればよいからである。 The measurement feature evaluation unit 103 automatically detects and evaluates a local surface feature group in which the three-dimensional point cloud measured within a certain threshold range in the three-dimensional space does not exist when the position and orientation are estimated as the unmeasured region C. It was, but it is not limited to that. For example, instead of automatically detecting the area C, the unmeasured area evaluation value may be calculated by selecting the area that the user wants to measure. This is because it is only necessary to be able to detect an area where the distance has not been measured.

以上本実施形態において、計測装置110が形状に合わせて視点を変更して計測することにより多くの計測特徴が得られる位置が分かるようになるため、複数視点で計測するときの計測・移動回数をできるだけ減らしつつ、高精度な位置姿勢推定ができるようになる。 As described above, in the present embodiment, since the position where many measurement features can be obtained can be known by changing the viewpoint of the measuring device 110 according to the shape and measuring, the number of measurements and movements when measuring from a plurality of viewpoints can be determined. It will be possible to estimate the position and orientation with high accuracy while reducing it as much as possible.

[変形例2]
上記第2の実施形態で用いた計測装置110が投影する照明パターンは、マルチラインパターンであり、その照明パターンの方向性に合わせて視点を変更するものであったが、これに限らない。そこで変形例2では、照明パターンとしてランダムドットパターンを投影し、パターンをマッチングすることにより形状を計測する方法にした場合に、形状に合わせて視点を変更して計測する方法について説明する。
[Modification 2]
The illumination pattern projected by the measuring device 110 used in the second embodiment is a multi-line pattern, and the viewpoint is changed according to the directionality of the illumination pattern, but the present invention is not limited to this. Therefore, in the second modification, a method of projecting a random dot pattern as an illumination pattern and measuring the shape by matching the patterns will be described, and a method of measuring by changing the viewpoint according to the shape will be described.

本変形例2における情報処理装置の構成は、第1、第2の実施形態及び変形例1と同じである。以後第1、第2の実施形態および変形例1との違いについて説明する。 The configuration of the information processing device in the second modification is the same as that of the first and second embodiments and the first modification. Hereinafter, differences from the first and second embodiments and the first modification will be described.

本変形例2における計測装置110は、ランダムドットパターンを投影して計測対象物130の3次元点群を取得する。計測方法としては、[M. Sjodahl and P.Synnergren,“Measurement of shape by using projected random patterns and temporal digital speckle photography",Applied Optics,vol.38,No.23,1999]に記載の方法を用いる。 The measuring device 110 in the second modification projects a random dot pattern to acquire a three-dimensional point cloud of the measurement target 130. As the measurement method, the method described in [M. Sjodahl and P. Synnergren, “Measurement of shape by using projected random patterns and temporal digital speckle photography”, Applied Optics, vol.38, No.23, 1999] is used.

変形例2における計測特徴評価部103は、現在観察している視点から見た時の計測対象物130の局所面特徴の内、3次元空間上のある閾値範囲内に計測した3次元点群が存在しない局所面特徴群分布の分散値n1を算出する。次に計測特徴評価部103は、ランダムドットパターンのマッチングを行うためのウィンドウサイズn2との比率M=n1/n2を算出してこれを未計測領域評価値とする。また、自動的に領域Cを検出する代わりに、ユーザーが計測したい領域を選択することによって未計測領域評価値を算出してもよく、計測されていない領域さえ検出できれば他の手法を採用してもよい。 The measurement feature evaluation unit 103 in the second modification is a group of three-dimensional points measured within a certain threshold range in the three-dimensional space among the local surface features of the measurement object 130 when viewed from the viewpoint currently being observed. The dispersion value n1 of the non-existent local surface feature group distribution is calculated. Next, the measurement feature evaluation unit 103 calculates the ratio M = n1 / n2 with the window size n2 for matching the random dot pattern, and sets this as the unmeasured area evaluation value. Further, instead of automatically detecting the area C, the evaluation value of the unmeasured area may be calculated by selecting the area to be measured by the user, and another method is adopted as long as the unmeasured area can be detected. May be good.

本変形例2における計測視点決定部104では、計測視点を計測対象物130に近づける視点を決定する。具体的には、まず計測特徴評価部103で検出した未計測領域Cの局所面特徴の現在の視点から見た時のデプス値の平均値Zを算出する。次に計測特徴評価部103で算出した未計測領域評価値Mを用いて、視点変更後のデプス値Z’がZ/Mになるような視点を選ぶ。このとき計測装置110に対する視点変更方向は計測装置110の視線方向のみ限定する。 The measurement viewpoint determination unit 104 in the second modification determines a viewpoint that brings the measurement viewpoint closer to the measurement object 130. Specifically, first, the average value Z of the depth values when viewed from the current viewpoint of the local surface feature of the unmeasured region C detected by the measurement feature evaluation unit 103 is calculated. Next, using the unmeasured area evaluation value M calculated by the measurement feature evaluation unit 103, a viewpoint is selected so that the depth value Z'after the viewpoint change becomes Z / M. At this time, the viewpoint changing direction with respect to the measuring device 110 is limited only to the line-of-sight direction of the measuring device 110.

以上、本変形例2によれば、計測装置110が形状に合わせて視点を変更して計測できる方法であるより多くの計測特徴が得られる位置が分かるようになるため、複数視点で計測するときの計測・移動回数をできるだけ減らしつつ、高精度な位置姿勢推定ができるようになる。 As described above, according to the present modification 2, it becomes possible to know the position where more measurement features can be obtained, which is a method in which the measuring device 110 can change the viewpoint according to the shape and measure. Therefore, when measuring from a plurality of viewpoints. It will be possible to estimate the position and orientation with high accuracy while reducing the number of measurements and movements as much as possible.

[第3の実施形態]
第1、第2の実施形態および変形例1、2では、現在計測した視点からよりも計測特徴群が多く得られる視点に変更する方法について説明した。しかしながら、計測特徴群の分布に偏りがあると、位置姿勢推定においてロバスト性が低下し高精度に計測できなくなることがある。そこで本第3の実施形態では、3次元点群の空間分布を計測し、分布に偏りがあった場合、均一になるような方向に計測装置の視点を変更して3次元点群を統合して位置姿勢推定を行う方法について説明する。このようにすることで、複数視点で計測するときの計測・移動回数をできるだけ減らしつつ、高精度な位置姿勢推定ができるようになる。
[Third Embodiment]
In the first and second embodiments and the first and second modifications, a method of changing from the currently measured viewpoint to a viewpoint in which more measurement feature groups can be obtained than the currently measured viewpoint has been described. However, if the distribution of the measurement feature group is biased, the robustness in the position / orientation estimation may decrease and it may not be possible to measure with high accuracy. Therefore, in the third embodiment, the spatial distribution of the three-dimensional point cloud is measured, and if the distribution is biased, the viewpoint of the measuring device is changed in a direction that makes the distribution uniform, and the three-dimensional point cloud is integrated. The method of estimating the position and orientation will be described. By doing so, it becomes possible to estimate the position and orientation with high accuracy while reducing the number of measurements and movements when measuring from a plurality of viewpoints as much as possible.

本第3の実施形態における計測装置110は、第1の実施形態と同様であり3次元点群を取得する。 The measuring device 110 in the third embodiment is the same as the first embodiment and acquires a three-dimensional point cloud.

図10は、第3の実施形態における情報処理装置2のブロック構成図である。この情報処理装置2は、図1における情報処理装置1に替わるものと理解されたい。本第3の実施形態における情報処理装置2は、モデル情報保持部100、計測特徴取得部101、位置姿勢推定部102、計測特徴評価部103、計測視点決定部104、計測特徴統合部205、計測特徴保持部206、及び、制御部105から構成されている。 FIG. 10 is a block configuration diagram of the information processing apparatus 2 according to the third embodiment. It should be understood that the information processing device 2 replaces the information processing device 1 in FIG. The information processing device 2 in the third embodiment includes a model information holding unit 100, a measurement feature acquisition unit 101, a position / orientation estimation unit 102, a measurement feature evaluation unit 103, a measurement viewpoint determination unit 104, a measurement feature integration unit 205, and measurement. It is composed of a feature holding unit 206 and a control unit 105.

本第3の実施形態における計測特徴取得部101は、計測装置110で取得した計測特徴を入力する。本第3の実施形態では計測特徴群は、計測対象物130の3次元点群である。 The measurement feature acquisition unit 101 in the third embodiment inputs the measurement feature acquired by the measurement device 110. In the third embodiment, the measurement feature group is a three-dimensional point cloud of the measurement object 130.

本第3の実施形態における位置姿勢推定部102は、モデル情報保持部100で保持している計測対象物130の形状モデルと、計測特徴入力部101が取得した計測特徴群と、計測特徴保持部205が保持している計測特徴群を用いて、計測対象物130の位置姿勢を推定する。位置姿勢の計測方法については第1の実施形態と同様である。 The position / orientation estimation unit 102 in the third embodiment includes a shape model of the measurement object 130 held by the model information holding unit 100, a measurement feature group acquired by the measurement feature input unit 101, and a measurement feature holding unit. The position and orientation of the measurement object 130 are estimated using the measurement feature group held by 205. The method of measuring the position and posture is the same as that of the first embodiment.

計測特徴評価部103は、モデル情報保持部100で保持している計測対象物130の形状モデルと、計測特徴入力部101が取得した計測特徴群、計測特徴保持部205が保持している計測特徴群、および位置姿勢推定部102で計算した計測対象物130の位置姿勢に基づいて、計測特徴の評価値を算出する。この計測特徴評価部103による評価値の算出方法については後述する。 The measurement feature evaluation unit 103 includes a shape model of the measurement object 130 held by the model information holding unit 100, a measurement feature group acquired by the measurement feature input unit 101, and a measurement feature held by the measurement feature holding unit 205. The evaluation value of the measurement feature is calculated based on the position and orientation of the group and the measurement object 130 calculated by the position and orientation estimation unit 102. The method of calculating the evaluation value by the measurement feature evaluation unit 103 will be described later.

計測視点決定部104は、計測特徴評価部103の評価結果に基づいて、次に計測対象物130を計測する視点を決定し、移動装置120を、決定した視点となるように制御する。移動装置120は、この制御により、決定した視点に移動する。なお、視点決定方法についても後述する。 The measurement viewpoint determination unit 104 determines the viewpoint for measuring the measurement object 130 next based on the evaluation result of the measurement feature evaluation unit 103, and controls the moving device 120 so as to be the determined viewpoint. The moving device 120 moves to the determined viewpoint by this control. The viewpoint determination method will also be described later.

計測特徴統合部205は、計測した計測特徴群の座標値を計測特徴保持部206に追加する。追加する際、予め計測視点決定部104で決定した視点の座標系への変換をする。そのため、決定した視点の座標系に対する現在の視点の相対位置姿勢を求めておく。方法は、磁気式センサの出力値を取得する、ロボットの関節位置情報を取得する、位置姿勢推定部102で推定した位置姿勢値を用いるなど、相対位置姿勢を取得できる方法であれば特に制限はない。 The measurement feature integration unit 205 adds the measured coordinate values of the measurement feature group to the measurement feature holding unit 206. When adding, the viewpoint is converted to the coordinate system of the viewpoint determined in advance by the measurement viewpoint determination unit 104. Therefore, the relative position and orientation of the current viewpoint with respect to the coordinate system of the determined viewpoint is obtained. The method is particularly limited as long as it is a method that can acquire the relative position and orientation, such as acquiring the output value of the magnetic sensor, acquiring the joint position information of the robot, and using the position and orientation value estimated by the position and orientation estimation unit 102. Absent.

計測特徴保持部206は、計測特徴統合部205から追加された計測特徴群を保持する。 The measurement feature holding unit 206 holds the measurement feature group added from the measurement feature integration unit 205.

次に、図11のフローチャートを参照して、本第3の実施形態態における計測と視点決定・統合処理について説明する。 Next, the measurement and the viewpoint determination / integration process in the third embodiment will be described with reference to the flowchart of FIG.

S3000にて、制御部105は、情報処理装置2の初期化を行う。この初期化処理には、計測装置110の露光時間、ゲインなどの撮影パラメータの読み込み、キャリブレーションパラメータの読み込み、計測装置110の座標系から移動装置120の座標系への変換行列の読み込み、モデル情報保持部100に保持しておく計測対象物130のモデル形状情報の読み込みが含まれる。また制御部105は、移動装置120を初期位置へ復帰させ、視点は計測装置110が初期位置で計測したときの移動装置の座標系における計測装置の位置姿勢値に設定する。 In S3000, the control unit 105 initializes the information processing device 2. In this initialization process, the imaging parameters such as the exposure time and gain of the measuring device 110 are read, the calibration parameters are read, the conversion matrix from the coordinate system of the measuring device 110 to the coordinate system of the moving device 120 is read, and the model information. The reading of the model shape information of the measurement object 130 held in the holding unit 100 is included. Further, the control unit 105 returns the moving device 120 to the initial position, and sets the viewpoint to the position / posture value of the measuring device in the coordinate system of the moving device when the measuring device 110 measures at the initial position.

S3100にて、計測特徴取得部101は、現在の移動装置120の位置姿勢での計測装置110による撮像画像から計測対象物130の3次元点群を取得する。 In S3100, the measurement feature acquisition unit 101 acquires a three-dimensional point cloud of the measurement object 130 from the image captured by the measurement device 110 in the current position and orientation of the moving device 120.

S3200にて、位置姿勢推定部102は、ICP法により、モデル情報保持部100が保持している局所面特徴と、計測特徴入力部101が取得した3次元点群と、計測特徴保持部206が保持している3次元点群の位置合わせを行う。 In S3200, the position / orientation estimation unit 102 includes the local surface features held by the model information holding unit 100, the three-dimensional point cloud acquired by the measurement feature input unit 101, and the measurement feature holding unit 206 by the ICP method. Align the held 3D point cloud.

S3300にて、計測特徴評価部103は、モデル情報保持部100で保持している計測対象物130の形状モデルと、計測特徴入力部101が取得した3次元点群と、計測特徴保持部102が保持している3次元点群、および位置姿勢推定部102で計算した計測対象物130の位置姿勢に基づいて、分布の偏りの大きさを示す計測特徴群の評価値Vを算出する(詳細は後述)。 In S3300, the measurement feature evaluation unit 103 includes the shape model of the measurement object 130 held by the model information holding unit 100, the three-dimensional point cloud acquired by the measurement feature input unit 101, and the measurement feature holding unit 102. Based on the three-dimensional point cloud held and the position / orientation of the measurement object 130 calculated by the position / orientation estimation unit 102, the evaluation value V of the measurement feature group indicating the magnitude of the distribution bias is calculated (for details, see See below).

S3400にて、制御部105は、S3300で算出した分布の偏りの大きさを示す評価値Vが一定の閾値以下であるか否かを判定し、閾値以下であると判定した場合は処理を終了し、そうでなければ処理をS3500へ進める。 In S3400, the control unit 105 determines whether or not the evaluation value V indicating the magnitude of the bias of the distribution calculated in S3300 is equal to or less than a certain threshold value, and if it is determined to be equal to or less than the threshold value, the process ends. If not, the process proceeds to S3500.

S3500にて処理進むのは、評価値Vが一定の閾値を上回った場合である。そこで、計測視点決定部104は、現在とは異なる視点に移動して計測するために、視点を決定する(詳細は後述)。 The processing proceeds in S3500 when the evaluation value V exceeds a certain threshold value. Therefore, the measurement viewpoint determination unit 104 determines the viewpoint in order to move to a viewpoint different from the current one for measurement (details will be described later).

S3600にて、計測特徴統合部205は、現在の視点での3次元点群を、計測特徴保持部206に追加する。追加した3次元点群および計測特徴保持部206に保持している3次元点群は、S3500で決定した視点基準となる座標系に座標変換される。 In S3600, the measurement feature integration unit 205 adds the three-dimensional point cloud from the current viewpoint to the measurement feature holding unit 206. The added three-dimensional point cloud and the three-dimensional point cloud held in the measurement feature holding unit 206 are coordinate-converted to the coordinate system serving as the viewpoint reference determined in S3500.

S3700にて、計測視点決定部104は、S3500で決定した視点になるように移動装置120に対し制御値を送り、視点を移動させる。制御部105は、この移動が終了したことに応じて処理をS1100に戻す。 In S3700, the measurement viewpoint determination unit 104 sends a control value to the moving device 120 so that the viewpoint is determined in S3500, and moves the viewpoint. The control unit 105 returns the process to S1100 in response to the completion of this movement.

計測特徴保持部206で保持している視点移動前の計測対象物130の3次元点群は、図12(a)のようなラインパターン上の3次元点が計測され、視点移動後の計測対象物130の3次元点群は図12(b)のようなラインパターン上の3次元点が計測される。視点移動後のS3600において、計測特徴統合部205は、図12(a)と同図(b)の間の部品の相対位置姿勢を用いて逆変換をすることにより、図12(a)と同じ座標系になるように変換し、図12(c)のように統合する。 As for the three-dimensional point group of the measurement object 130 before the viewpoint movement held by the measurement feature holding unit 206, the three-dimensional points on the line pattern as shown in FIG. 12A are measured, and the measurement target after the viewpoint movement. As for the three-dimensional point cloud of the object 130, the three-dimensional points on the line pattern as shown in FIG. 12B are measured. In S3600 after the viewpoint is moved, the measurement feature integration unit 205 is the same as FIG. 12 (a) by performing the inverse conversion using the relative position / orientation of the parts between FIGS. 12 (a) and 12 (b). It is converted so that it becomes a coordinate system, and integrated as shown in FIG. 12 (c).

次にS3300における計測特徴評価部103の処理の詳細を図13のフローチャートを用いて説明する。 Next, the details of the processing of the measurement feature evaluation unit 103 in S3300 will be described with reference to the flowchart of FIG.

S3301にて、計測特徴評価部103は、S3200で形状モデルの位置合わせに用いられた、3次元点群を取得する。 In S3301, the measurement feature evaluation unit 103 acquires the three-dimensional point cloud used for the alignment of the shape model in S3200.

S3302にて、計測特徴評価部103は、S3301で得られた点群データの3次元の座標値(Xn,Yn,Zn)を濃淡画像上に投影したときの2次元の座標値(xn,yn)を計算する。本第3の実施形態では、[井口、佐藤、3次元画像計測、昭晃堂、1990]に記載している、撮影装置111の内部パラメータから透視投影変換により点群データの投影先の2次元の座標値(xn,yn)を算出する。 In S3302, the measurement feature evaluation unit 103 projects the three-dimensional coordinate values (Xn, Yn, Zn) of the point cloud data obtained in S3301 onto the grayscale image, and the two-dimensional coordinate values (xn, yn, yn). ) Is calculated. In the third embodiment, the two-dimensional projection destination of the point cloud data is performed by perspective projection conversion from the internal parameters of the photographing apparatus 111 described in [Iguchi, Sato, three-dimensional image measurement, Shokodo, 1990]. The coordinate values (xn, yn) of are calculated.

S3303にて、計測特徴評価部103は、S3302で得られた点群データの2次元の座標値から点群分布の偏りを計算する。本実施形態では公知の技術である主成分分析により、点群データの2次元座標の第1主成分σ1と第2主成分σ2の固有値(分散値)を算出し、分布の偏りの大きさを表す、差の絶対値|σ2−σ1|として算出する。評価値Vとして出力する。 In S3303, the measurement feature evaluation unit 103 calculates the bias of the point cloud distribution from the two-dimensional coordinate values of the point cloud data obtained in S3302. In this embodiment, the eigenvalues (variance values) of the first principal component σ1 and the second principal component σ2 of the two-dimensional coordinates of the point cloud data are calculated by the principal component analysis, which is a known technique, and the magnitude of the distribution bias is determined. It is calculated as the absolute value of the difference | σ2-σ1 |. Output as evaluation value V.

以上がS3300における計測特徴評価部103の処理の詳細である。 The above is the details of the processing of the measurement feature evaluation unit 103 in S3300.

次にS3500における計測視点決定部104の詳細な処理を図14のフローチャートを参照して説明する。 Next, the detailed processing of the measurement viewpoint determination unit 104 in S3500 will be described with reference to the flowchart of FIG.

S3501にて、計測視点決定部104は、S3303で計算した点群データの分布の偏りから次の視点への移動方向を決定する。本第3の実施形態では、移動方向は図15のように、S3303で計算した濃淡画像へ投影したときの点群データ分布の第2主成分の固有ベクトル(u,v)とする。また(u,v)は単位ベクトルであるとする。 In S3501, the measurement viewpoint determination unit 104 determines the moving direction to the next viewpoint from the bias of the distribution of the point cloud data calculated in S3303. In the third embodiment, the moving direction is the eigenvector (u, v) of the second principal component of the point cloud data distribution when projected onto the grayscale image calculated in S3303 as shown in FIG. It is assumed that (u, v) is a unit vector.

S3502にて、計測視点決定部104は、移動方向の始点を決定する。本第3の実施形態において、始点は図15の“×”の位置である、濃淡画像へ投影したときの点群データ分布の重心位置(xs,ys)とする。 In S3502, the measurement viewpoint determination unit 104 determines the start point in the moving direction. In the third embodiment, the starting point is the position of the center of gravity (xs, ys) of the point cloud data distribution when projected onto the grayscale image, which is the position of “x” in FIG.

S3503にて、計測視点決定部104は、移動方向の終点を決定する。本実施形態において、終点は図9の“○”の位置である、濃淡画像上の計測対象物130の領域境界位置である(xe,ye)とする。算出方法としては、次式(1)を用いる。 In S3503, the measurement viewpoint determination unit 104 determines the end point in the moving direction. In the present embodiment, the end point is the region boundary position (xe, ye) of the measurement object 130 on the grayscale image, which is the position of “◯” in FIG. The following equation (1) is used as the calculation method.

Figure 2021043075
ここでtは実数である。ここでtを変更して、物体領域内の座標値(xe,ye)を算出する。ここで物体領域であるかどうかは、濃淡画像を大津法やpタイル法などを用いて二値化して計測対象物の領域を検出する。
Figure 2021043075
Here, t is a real number. Here, t is changed to calculate the coordinate values (xe, ye) in the object area. Here, whether or not it is an object region is determined by binarizing the grayscale image using the Otsu method, the p-tile method, or the like to detect the region of the object to be measured.

S3504にて、計測視点決定部104は、S3503で算出した終点を移動装置120の座標系における座標系に変換して、次の視点位置を決定する。まず計測視点決定部104は、S3503で算出した終点(xe,ye)の3次元空間上での座標位置を算出する。具体的には撮影装置111の原点から終点への視線ベクトルを算出し、視線ベクトルと位置合わせに用いているモデルとの交点の3次元座標(Xe,Ye,Ze)を算出する。複数交点がある場合は、撮影装置111の原点に一番近い点を採用する。次に、計測視点決定部104は、予め読み込み済みの計測装置110の座標系から移動装置120の座標系への変換行列を用いて、次式(2)のように3次元座標(Xe,Ye,Ze)を移動装置の座標系(Xe’,Ye’,Ze’)に変換する。 In S3504, the measurement viewpoint determination unit 104 converts the end point calculated in S3503 into the coordinate system in the coordinate system of the moving device 120, and determines the next viewpoint position. First, the measurement viewpoint determination unit 104 calculates the coordinate position of the end point (xe, ye) calculated in S3503 in the three-dimensional space. Specifically, the line-of-sight vector from the origin to the end point of the photographing apparatus 111 is calculated, and the three-dimensional coordinates (Xe, Ye, Ze) of the intersection of the line-of-sight vector and the model used for alignment are calculated. When there are a plurality of intersections, the point closest to the origin of the photographing apparatus 111 is adopted. Next, the measurement viewpoint determination unit 104 uses the transformation matrix from the coordinate system of the measurement device 110 that has been read in advance to the coordinate system of the moving device 120, and uses the three-dimensional coordinates (Xe, Ye) as in the following equation (2). , Ze) is converted to the coordinate system of the moving device (Xe', Ye', Ze').

Figure 2021043075
ここでr11〜r33は、移動装置110に対する計測装置120の姿勢を表し、tx,ty,tzは移動装置110に対する計測装置120の位置を表している。
Figure 2021043075
Here, r 11 to r 33 represent the posture of the measuring device 120 with respect to the mobile device 110, and t x , ty , and t z represent the position of the measuring device 120 with respect to the mobile device 110.

以上がS3500における計測視点決定部104の処理の詳細である。 The above is the details of the processing of the measurement viewpoint determination unit 104 in S3500.

本第3の実施形態における計測特徴評価部103での評価値は位置姿勢推定に用いた3次元点群を濃淡画像上に投影したときの分布の偏りを、主成分分析を用いて評価したが、それに限るものではない。例えば、濃淡画像上の計測対象物130の面全体に対して、濃淡画像に投影した3次元点群の占める割合などでもよい。計測対象物130の位置姿勢を特定するために、くまなく計測対象物表面の3次元点数が計測されたか評価できさえすればよい。 The evaluation value in the measurement feature evaluation unit 103 in the third embodiment evaluates the bias of the distribution when the three-dimensional point cloud used for the position / orientation estimation is projected on the grayscale image by using the principal component analysis. , Not limited to that. For example, the ratio of the three-dimensional point cloud projected on the grayscale image to the entire surface of the measurement object 130 on the grayscale image may be used. In order to specify the position and orientation of the object to be measured 130, it is only necessary to evaluate whether the three-dimensional points on the surface of the object to be measured have been measured.

また計測特徴評価部103での評価値算出時に、位置姿勢推定に用いた3次元点群を濃淡画像上に投影したときの分布をみていたが、投影する対象は濃淡画像に限るものではない。例えば、ステップS1300でモデルと計測特徴の位置合わせを行った視点でモデルをレンダリングした画像を用いてもよい。画像上での対象物の占める領域を推定できる方法であれば他の手法でも構わない。 Further, when the evaluation value was calculated by the measurement feature evaluation unit 103, the distribution when the three-dimensional point cloud used for the position / orientation estimation was projected on the grayscale image was observed, but the projection target is not limited to the grayscale image. For example, an image obtained by rendering the model from the viewpoint in which the model and the measurement feature are aligned in step S1300 may be used. Other methods may be used as long as the area occupied by the object on the image can be estimated.

本第3の実施形態では、計測視点決定部104で決定する視点は、3次元点群の分布の偏りが大きい方向に対して移動するように決定していたが、それに限るものではない。濃淡画像上の計測対象物130の面全体に対して、3次元点群が投影されていない箇所があれば、その箇所の重心位置に移動するように決定してもよい。またこのとき計測対象物130に対する計測装置110の姿勢や距離を変更しないように視点を決定してもよい。いずれにしても画像上での対象物の占める領域に対して3次元点が計測できていない領域に移動できさえすればよい。 In the third embodiment, the viewpoint determined by the measurement viewpoint determination unit 104 is determined to move in the direction in which the distribution of the three-dimensional point cloud is largely biased, but the present invention is not limited to this. If there is a portion where the three-dimensional point cloud is not projected on the entire surface of the measurement object 130 on the grayscale image, it may be determined to move to the position of the center of gravity of that portion. At this time, the viewpoint may be determined so as not to change the posture or distance of the measuring device 110 with respect to the measuring object 130. In any case, it is only necessary to be able to move to an area where the three-dimensional point cannot be measured with respect to the area occupied by the object on the image.

以上、本第3の実施形態は、位置姿勢推定時に用いられた3次元点群の空間分布を計測し、分布に偏りがあった場合、均一になるような方向に複数回計測装置の視点を変更して3次元点群を統合する方法である。このようにすることで、複数視点で計測するときの計測・移動回数をできるだけ減らしつつ、高精度な位置姿勢推定ができるようになる。 As described above, in the third embodiment, the spatial distribution of the three-dimensional point cloud used at the time of position / orientation estimation is measured, and if the distribution is biased, the viewpoint of the measuring device is set a plurality of times in a direction that makes it uniform. It is a method of changing and integrating a three-dimensional point cloud. By doing so, it becomes possible to estimate the position and orientation with high accuracy while reducing the number of measurements and movements when measuring from a plurality of viewpoints as much as possible.

[変形例3]
上記第3の実施形態では、計測特徴として3次元点群を用いて、空間分布が均一になるように視点に移動して計測することをしていた。しかし、用いることができる計測特徴群はこれに限らず、濃淡画像上の画像特徴群を用いてもよい。変形例3では、位置姿勢推定時に計用いられた画像特徴群の空間分布を計測し、分布に偏りがあった場合、均一になるような方向に計測装置の視点を変更して計測特徴を統合する。
[Modification 3]
In the third embodiment, the three-dimensional point cloud is used as a measurement feature, and the measurement is performed by moving to the viewpoint so that the spatial distribution becomes uniform. However, the measurement feature group that can be used is not limited to this, and the image feature group on the grayscale image may be used. In variant 3, the spatial distribution of the image feature group used in the position and orientation estimation is measured, and if the distribution is biased, the viewpoint of the measuring device is changed in a direction that makes the distribution uniform, and the measurement features are integrated. To do.

変形例3における情報処理装置の構成は、第3の実施形態と同じあるため、その説明を省略する。また、本変形例3で用いる画像特徴は、変形例1で用いた画像特徴と同様である。変形例3における計測装置110は計測対象物130が撮影された濃淡画像を撮影する。 Since the configuration of the information processing device in the third modification is the same as that of the third embodiment, the description thereof will be omitted. The image features used in the third modification are the same as the image features used in the first modification. The measuring device 110 in the third modification captures a shade image in which the measurement object 130 is captured.

変形例3における位置姿勢推定部102は、[T. Drummond and R. Cipolla, “Real-time visual tracking of complex structures," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.24, no.7, pp.932-946, 2002.]で開示されている方法を用いることにより、画像特徴と局所線特徴とを対応点として求め、計測対象物130の位置姿勢を推定する。これに限らず、第1の実施形態で実施したような3次元点群を取得し、局所面特徴を用いて位置合わせを行う方法と併用してもよい。 The position / orientation estimation unit 102 in the third modification is described in [T. Drummond and R. Cipolla, “Real-time visual tracking of complex structures,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.24, no.7, pp. 932-946, 2002.], the image feature and the local line feature are obtained as corresponding points, and the position and orientation of the measurement object 130 are estimated. Not limited to this, it may be used in combination with the method of acquiring a three-dimensional point cloud as in the first embodiment and performing alignment using local surface features.

変形例3における計測特徴評価部103で評価する評価値Vは、位置姿勢推定部103で用いられた画像特徴の偏りを主成分分析の第1主成分と第2主成分の差の絶対値を計算することにより求める。 The evaluation value V evaluated by the measurement feature evaluation unit 103 in the modification 3 is the absolute value of the difference between the first principal component and the second principal component of the principal component analysis for the bias of the image feature used in the position / orientation estimation unit 103. Obtained by calculation.

変形例3における計測視点決定部104で決定する視点は、2次元空間上のある閾値範囲内に画像特徴群が存在しない、局所線特徴群の座標値の平均値が画像中心になるように移動する。このとき計測対象物130に対する計測装置110の姿勢や距離を変えないように視点を制限してもよい。 The viewpoint determined by the measurement viewpoint determination unit 104 in the modification 3 is moved so that the average value of the coordinate values of the local line feature group does not exist within a certain threshold range in the two-dimensional space and is centered on the image. To do. At this time, the viewpoint may be restricted so as not to change the posture or distance of the measuring device 110 with respect to the measuring object 130.

変形例3における計測特徴統合部205は、計測視点決定部104で決定する視点で得られた画像特徴群を計測特徴保持部206に追加する。まず撮影装置111の原点から画像特徴への視線ベクトル(単位ベクトル)を算出し、視線ベクトルを、位置姿勢推定時に画像特徴と幾何学的に類似する局所線特徴のZ座標値倍することにより、仮想的に3次元空間上で座標に変換する。次に第3の実施形態と同様に、計測特徴統合部205は、視点変更前後の計測対象物130の相対位置姿勢から、逆変換することにより視点変更前の座標に変換する。最後に計測特徴統合部205は、座標変換後の画像座標を濃淡画像上に投影し、計測特徴保持部206に追加する。 The measurement feature integration unit 205 in the third modification adds the image feature group obtained from the viewpoint determined by the measurement viewpoint determination unit 104 to the measurement feature holding unit 206. First, the line-of-sight vector (unit vector) from the origin of the photographing device 111 to the image feature is calculated, and the line-of-sight vector is multiplied by the Z coordinate value of the local line feature geometrically similar to the image feature at the time of position / orientation estimation. Virtually convert to coordinates in 3D space. Next, as in the third embodiment, the measurement feature integration unit 205 converts the relative position / orientation of the measurement object 130 before and after the viewpoint change into the coordinates before the viewpoint change by reverse conversion. Finally, the measurement feature integration unit 205 projects the image coordinates after the coordinate conversion onto the grayscale image and adds them to the measurement feature holding unit 206.

以上が変形例3における、画像特徴群の空間分布を計測し、分布に偏りがあった場合、均一になるような方向に計測装置の視点を変更して画像特徴を統合する方法である。このようにすることで、複数視点で計測するときの計測・移動回数をできるだけ減らしつつ、高精度な位置姿勢推定ができるようになる。 The above is the method of measuring the spatial distribution of the image feature group in the modified example 3 and integrating the image features by changing the viewpoint of the measuring device in a direction that makes the distribution uniform when the distribution is biased. By doing so, it becomes possible to estimate the position and orientation with high accuracy while reducing the number of measurements and movements when measuring from a plurality of viewpoints as much as possible.

[第4の実施形態]
実施形態における情報処理装置1、2好適な適用事例としては、回転および/または並進移動軸からなる可動軸を有する産業用ロボットアームを移動装置120として利用し、計測装置を移動させ、その視点で得た計測特徴を統合する適用例が挙げられる。
[Fourth Embodiment]
As a suitable application example of the information processing devices 1 and 2 in the embodiment, an industrial robot arm having a movable axis including a rotating and / or translational moving axis is used as the moving device 120, the measuring device is moved, and the measuring device is moved from the viewpoint. An application example of integrating the obtained measurement features can be mentioned.

図1では、情報処理装置1、計測装置110、移動装置120であるロボットを用いて部品組み付け処理を行うロボットシステムの構成例を示動させ物体の把持・組み付け処理などを行うロボットである。ロボットに計測装置110を搭載し、計測対象物130の形状を取得する。計測装置110が、情報処理装置1で指示した視点で観察できるように、ロボットにより移動する。移動した視点で再度計測装置110によって計測特徴を取得し、統合する。また情報処理装置1はS1000の初期化時にロボットの関節位置の可動範囲を取得しておき、計測視点決定部104で決定したロボットの関節位置の可動範囲外である場合は、ロボットの可動範囲内でかつその視点に移動できる範囲内で移動するようにロボットに指示する。また、情報処理装置1は計測視点決定部104で決定した位置に移動したときに、計測装置110、あるいはロボット自身が計測対象物130と物理干渉する場合に、計測対象物130と物理干渉しない範囲でかつその視点に移動できる範囲内で移動するようにロボットに指示する。 FIG. 1 is a robot that performs grasping / assembling processing of an object by demonstrating a configuration example of a robot system that performs component assembling processing using a robot that is an information processing device 1, a measuring device 110, and a moving device 120. The measuring device 110 is mounted on the robot to acquire the shape of the measurement object 130. The measuring device 110 is moved by the robot so that it can be observed from the viewpoint designated by the information processing device 1. The measurement features are acquired again by the measuring device 110 from the moved viewpoint and integrated. Further, the information processing device 1 acquires the movable range of the joint position of the robot at the time of initializing the S1000, and if it is outside the movable range of the joint position of the robot determined by the measurement viewpoint determination unit 104, it is within the movable range of the robot. Instruct the robot to move within the range that can be moved to that viewpoint. Further, when the information processing device 1 moves to the position determined by the measurement viewpoint determination unit 104 and the measurement device 110 or the robot itself physically interferes with the measurement object 130, the range in which the information processing device 1 does not physically interfere with the measurement object 130. Instruct the robot to move within the range that can be moved to that viewpoint.

以上に示すように、本発明の情報処理装置により、ロボットシステムによる組み付け作業中において、ロボットによって視点を変更して計測特徴を取得し統合する方法について説明した。ロボットを用いることにより、効率よく計測特徴が得られる位置に移動することができるため、高精度な位置姿勢推定を行えるようになる。 As described above, the method of acquiring and integrating measurement features by changing the viewpoint by the robot during the assembly work by the robot system by the information processing apparatus of the present invention has been described. By using a robot, it is possible to efficiently move to a position where measurement features can be obtained, so that highly accurate position and orientation estimation can be performed.

本実施形態における計測特徴保持部102が保持している3次元点群の座標系は初期化後、最初に3次元点群を取得したときの移動装置120の位置姿勢を基準座標系としていたが、それに限るものではない。例えば、最初に位置姿勢推定部130で推定したときの計測対象物130の位置姿勢値や、ユーザーが定義した位置姿勢値を基準にするなど、位置姿勢6自由度で表せられるパラメータであれば特に制限はない。 The coordinate system of the three-dimensional point cloud held by the measurement feature holding unit 102 in the present embodiment is based on the position and orientation of the moving device 120 when the three-dimensional point cloud is first acquired after initialization. , Not limited to that. For example, if it is a parameter that can be expressed by 6 degrees of freedom of position / orientation, such as the position / attitude value of the measurement object 130 when first estimated by the position / attitude estimation unit 130 or the position / attitude value defined by the user. There is no limit.

[実施形態の効果]
第1の実施形態により、十分な数の3次元点群が得られる位置が分かるようになるため、計測・移動回数をできるだけ減らしつつ、精度の高い位置姿勢推定を行えるようになる。
[Effect of Embodiment]
According to the first embodiment, the position where a sufficient number of three-dimensional point clouds can be obtained can be known, so that the position and orientation can be estimated with high accuracy while reducing the number of measurements and movements as much as possible.

変形例1により、十分な数の画像特徴群が得られる位置が分かるようになるため、計測・移動回数をできるだけ減らしつつ、精度の高い位置姿勢推定を行えるようになる。 According to the first modification, the position where a sufficient number of image feature groups can be obtained can be known, so that the position and orientation can be estimated with high accuracy while reducing the number of measurements and movements as much as possible.

第2の実施形態により、形状に合わせて計測装置を回転させることによってより多くの計測特徴群が得られるようになるため、計測・移動回数をできるだけ減らしつつ、精度の高い位置姿勢推定を行えるようになる。 According to the second embodiment, a larger number of measurement feature groups can be obtained by rotating the measuring device according to the shape, so that the position and orientation can be estimated with high accuracy while reducing the number of measurements and movements as much as possible. become.

変形例2により、形状に合わせて計測装置を近づけることによってより多くの計測特徴が得られるようになるため、計測・移動回数をできるだけ減らしつつ、精度の高い位置姿勢推定を行えるようになる。 According to the second modification, more measurement features can be obtained by bringing the measuring device closer to the shape, so that the position and orientation can be estimated with high accuracy while reducing the number of measurements and movements as much as possible.

第3の実施形態により、計測対象物の形状を示す3次元の3次元点群が偏りなく計測できるようになるため、計測・移動回数をできるだけ減らしつつ、精度の高い位置姿勢推定を行えるようになる。 According to the third embodiment, the three-dimensional three-dimensional point cloud indicating the shape of the object to be measured can be measured without bias, so that the position and orientation can be estimated with high accuracy while reducing the number of measurements and movements as much as possible. Become.

変形例3により、計測対象物の濃淡画像上の画像特徴群の不足している部分へ視点を動かすことにより画像特徴群が増加するため、計測・移動回数をできるだけ減らしつつ、精度の高い位置姿勢推定を行えるようになる。 According to the third modification, the image feature group is increased by moving the viewpoint to the part where the image feature group on the shading image of the measurement object is insufficient. Therefore, the position and orientation with high accuracy while reducing the number of measurements and movements as much as possible. You will be able to make estimates.

第4の実施形態により、ロボットシステムによって、ロボットによって視点を変更して計測特徴群を取得できるようになるため、精度よく位置姿勢推定を行えるようになる。 According to the fourth embodiment, the robot system enables the robot to change the viewpoint and acquire the measurement feature group, so that the position and orientation can be estimated with high accuracy.

<定義>
本実施形態におけるモデル情報保持部が保持する計測対象物のモデル特徴は、物体表面上の局所的な3次元平面情報、3次元位置と3次元線分方向から構成される物体輪郭上の局所的な3次元線分情報で構成されていれば特に制限はない。また、単純な3次元点の集合や、稜線を表す3次元ラインの集合、3次元点3点で構成されるポリゴンの形状情報などで表しても良い。
<Definition>
The model feature of the measurement object held by the model information holding unit in the present embodiment is local three-dimensional plane information on the object surface, local on the object contour composed of the three-dimensional position and the three-dimensional line segment direction. There is no particular limitation as long as it is composed of three-dimensional line segment information. Further, it may be represented by a set of simple three-dimensional points, a set of three-dimensional lines representing ridges, shape information of a polygon composed of three three-dimensional points, and the like.

また、本実施形態における計測特徴取得部が取得する計測特徴群は、計測対象物の幾何情報を示す3次元点群および/または画像特徴群であれば良い。また、計測対象物の幾何情報を示す3次元点群は現実空間を基準とした3次元座標であってもよいし、撮像時の現実空間における位置及び姿勢が既知な撮像装置を基準とした座標における3次元座標であってもよい。また濃淡画像上の画像特徴群は濃淡画像上で検出される計測対象物のエッジ特徴など、計測対象物の輪郭を検出する方法であっても良い。 Further, the measurement feature group acquired by the measurement feature acquisition unit in the present embodiment may be a three-dimensional point cloud and / or an image feature group showing geometric information of the measurement object. Further, the three-dimensional point group showing the geometric information of the object to be measured may have three-dimensional coordinates based on the real space, or coordinates based on an imaging device whose position and orientation in the real space at the time of imaging are known. It may be the three-dimensional coordinates in. Further, the image feature group on the grayscale image may be a method of detecting the contour of the measurement object such as the edge feature of the measurement object detected on the grayscale image.

本実施形態における位置姿勢推定部は、モデル情報保持部が保持しているモデル情報と計測特徴入力部が入力する計測特徴群により計測対象物の位置姿勢を求める方法であれば特に制限はない。情報保持部が保持している局所面特徴と、計測特徴入力部が入力した3次元点群の位置合わせを行ってもよいし、計測特徴入力部が入力した濃淡画像上の画像特徴群と局所線特徴を用いて位置合わせを行ってもよいし、あるいは3次元点群と画像特徴群両方を入力し、モデルの局所線特徴および局所面特徴を用いて、計測対象物の位置姿勢を求めてもよい。 The position / orientation estimation unit in the present embodiment is not particularly limited as long as it is a method of obtaining the position / orientation of the measurement object from the model information held by the model information holding unit and the measurement feature group input by the measurement feature input unit. The local surface feature held by the information holding unit may be aligned with the three-dimensional point cloud input by the measurement feature input unit, or the image feature group and the local area on the grayscale image input by the measurement feature input unit may be performed. Alignment may be performed using line features, or both a 3D point cloud and an image feature group may be input, and the position and orientation of the object to be measured can be obtained using the local line features and local surface features of the model. May be good.

本実施形態における計測特徴評価部は、モデル情報保持部で保持している計測対象物モデル情報と、計測特徴入力部が入力した計測特徴群、および位置姿勢推定部で計算した計測対象物の位置姿勢に基づいて、計測対象物の表面上で計測特徴が取得できていない領域が存在することを評価できさえすればよい。例えば、位置姿勢推定部で位置合わせを行った後の、3次元空間上にモデル特徴の最近傍にある計測特徴群の数を評価する。もしくは3次元空間上のある閾値範囲内に計測した計測特徴点群が存在しないモデル特徴群の空間分布を計測し、計測した視点での2次元画像上の偏りや広がりを評価する。あるいは、計測した視点での計測対象物上に投影される計測特徴群分布の偏りや広がりを評価する。 The measurement feature evaluation unit in the present embodiment includes the measurement object model information held by the model information holding unit, the measurement feature group input by the measurement feature input unit, and the position of the measurement object calculated by the position / orientation estimation unit. Based on the posture, it is only necessary to evaluate that there is a region on the surface of the object to be measured for which measurement features have not been acquired. For example, the number of measurement feature groups closest to the model feature in the three-dimensional space after the positioning is performed by the position / orientation estimation unit is evaluated. Alternatively, the spatial distribution of the model feature group in which the measured feature point group does not exist within a certain threshold range in the three-dimensional space is measured, and the bias or spread on the two-dimensional image from the measured viewpoint is evaluated. Alternatively, the bias or spread of the measurement feature group distribution projected on the measurement object from the measured viewpoint is evaluated.

本実施形態における計測視点決定部は、計測特徴評価部で評価した結果に基づいて計測対象物の表面上で計測特徴が取得できていない領域の計測特徴が得られる視点に決定する。例えば計測した視点とは異なる視点で観察可能なモデル特徴群の数が、現在取得した計測特徴群よりも多く得られる視点に対して移動するように決定してもよい。また、計測できていない領域に対して、計測装置が計測できるように、計測できていない領域の分布の偏りと照明パターンの向きとが平行になる視点に決定してもよい。あるいは照明パターンを判定するために画像上で必要な最小面積よりも大きく映るになるように視点を決定してもよい。また、計測対象物が観測される面に対して3次元点がくまなく計測されるように、計測点分布の偏りが小さい方向に視点に決定してもよい。 Based on the result of evaluation by the measurement feature evaluation unit, the measurement viewpoint determination unit in the present embodiment determines the viewpoint at which the measurement feature in the region where the measurement feature cannot be acquired can be obtained on the surface of the measurement object. For example, it may be determined that the number of model feature groups that can be observed from a viewpoint different from the measured viewpoint moves with respect to the viewpoint that can be obtained more than the currently acquired measurement feature group. Further, the viewpoint may be determined so that the bias of the distribution of the unmeasurable region and the direction of the illumination pattern are parallel to the unmeasurable region so that the measuring device can measure the region. Alternatively, the viewpoint may be determined so that the image is projected larger than the minimum area required on the image for determining the illumination pattern. Further, the viewpoint may be determined in the direction in which the deviation of the measurement point distribution is small so that the three-dimensional points are measured all over the surface on which the measurement object is observed.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1…情報処理装置、110…計測装置、120…移動装置、130…計測対象物、100…モデル情報保持部、101…計測特徴取得部、102…位置姿勢推定部、103…計測特徴評価部、104…計測視点決定部、205…計測特徴統合部、206…計測特徴保持部 1 ... Information processing device, 110 ... Measuring device, 120 ... Moving device, 130 ... Measurement object, 100 ... Model information holding unit, 101 ... Measurement feature acquisition unit, 102 ... Position / orientation estimation unit, 103 ... Measurement feature evaluation unit, 104 ... Measurement viewpoint determination unit, 205 ... Measurement feature integration unit, 206 ... Measurement feature holding unit

Claims (12)

計測対象物の形状を表す、モデル特徴群を保持するモデル情報保持手段と
第1の計測視点から計測した計測特徴を取得する計測特徴取得手段と、
前記モデル特徴群と前記計測特徴取得手段が取得した計測対象物の計測特徴群から計測対象物の位置姿勢を推定する位置姿勢推定手段と、
前記位置姿勢推定手段で推定した位置姿勢値、前記モデル特徴群、および前記計測特徴群に基づいて、前記計測特徴取得手段が取得した計測対象物の計測特徴群を評価する計測特徴評価手段と、
前記計測特徴評価手段で評価した結果に基づいて、前記第1の計測視点とは異なる第2の計測視点を決定する計測視点決定手段と、
を備えることを特徴とする情報処理装置。
A model information holding means for holding a model feature group representing the shape of a measurement object, a measuring feature acquiring means for acquiring measurement features measured from the first measurement viewpoint, and a measurement feature acquiring means.
A position / orientation estimating means for estimating the position / orientation of the measurement object from the model feature group and the measurement feature group of the measurement object acquired by the measurement feature acquisition means.
A measurement feature evaluation means that evaluates a measurement feature group of a measurement object acquired by the measurement feature acquisition means based on the position / attitude value estimated by the position / orientation estimation means, the model feature group, and the measurement feature group.
Based on the result of evaluation by the measurement feature evaluation means, a measurement viewpoint determining means for determining a second measurement viewpoint different from the first measurement viewpoint, and a measurement viewpoint determining means.
An information processing device characterized by being equipped with.
前記計測特徴評価手段は、前記位置姿勢推定手段により求めた幾何学的に類似するモデル特徴群がない計測特徴群の数を評価値として算出し、
前記計測視点決定手段は、前記第1の計測視点とは異なる視点で観測できるモデル特徴群の数が前記評価値よりも大きくなるように前記第2の計測視点を決定する
ことを特徴とする請求項1に記載の情報処理装置。
The measurement feature evaluation means calculates the number of measurement feature groups without geometrically similar model feature groups obtained by the position / orientation estimation means as an evaluation value.
The claim for determining the measurement viewpoint is characterized in that the second measurement viewpoint is determined so that the number of model feature groups that can be observed from a viewpoint different from the first measurement viewpoint is larger than the evaluation value. Item 1. The information processing apparatus according to item 1.
前記計測特徴評価手段は、前記位置姿勢推定手段により求めた幾何学的に類似する計測特徴がないモデル特徴群の分布の偏りを評価し、
前記計測視点決定手段は、前記モデル特徴群の分布の偏りが大きい方向と前記計測特徴取得手段で取得した計測特徴群分布とが平行方向になるように、前記第2の計測視点を決定する
ことを特徴とする請求項1に記載の情報処理装置。
The measurement feature evaluation means evaluates the bias of the distribution of the model feature group having no geometrically similar measurement features obtained by the position / orientation estimation means.
The measurement viewpoint determining means determines the second measurement viewpoint so that the direction in which the distribution of the model feature group is largely biased and the measurement feature group distribution acquired by the measurement feature acquisition means are parallel to each other. The information processing apparatus according to claim 1.
前記計測特徴評価手段は、前記位置姿勢推定手段により求めた幾何学的に類似する計測特徴がないモデル特徴群の分布の広がりを評価し、
前記計測視点決定手段は、前記計測特徴評価手段の評価の結果に基づいて、前記計測特徴取得手段で取得した計測特徴の最小面積が、前記計測特徴群と前記モデル特徴群の分布の広がりがより小さくなるように、前記第2の計測視点を決定する
ことを特徴とする請求項1に記載の情報処理装置。
The measurement feature evaluation means evaluates the spread of the distribution of the model feature group having no geometrically similar measurement features obtained by the position / orientation estimation means.
In the measurement viewpoint determining means, based on the evaluation result of the measurement feature evaluation means, the minimum area of the measurement feature acquired by the measurement feature acquisition means has a wider distribution of the measurement feature group and the model feature group. The information processing apparatus according to claim 1, wherein the second measurement viewpoint is determined so as to be smaller.
前記第2の計測視点で取得した計測対象物の計測特徴群を追加する計測特徴統合手段と
前記計測特徴統合手段が追加した計測特徴群を保持する計測特徴保持手段を更に有し、
前記位置姿勢推定手段は、前記モデル特徴群と前記計測特徴取得手段が取得した計測対象物の計測特徴群と、前記計測特徴保持手段が保持している計測対象物の計測特徴群に基づいて計測対象物の位置姿勢を推定し、
前記計測特徴評価手段は、前記位置姿勢推定手段で推定した位置姿勢値、前記モデル特徴群、および前記計測特徴群に基づいて、前記計測特徴取得手段が取得した計測対象物の計測特徴群および前記計測特徴保持手段が保持している計測対象物の計測特徴群を評価し、
前記計測視点決定手段は、前記計測特徴評価手段で算出した評価値に基づいて、前記第1の計測視点とは異なる第2の計測視点を決定する
ことを特徴とする請求項1に記載の情報処理装置。
It further has a measurement feature integration means for adding the measurement feature group of the measurement object acquired from the second measurement viewpoint and a measurement feature holding means for holding the measurement feature group added by the measurement feature integration means.
The position / orientation estimation means measures based on the measurement feature group of the model feature group, the measurement feature group of the measurement target acquired by the measurement feature acquisition means, and the measurement feature group of the measurement target held by the measurement feature holding means. Estimate the position and orientation of the object and
The measurement feature evaluation means is a measurement feature group of a measurement object acquired by the measurement feature acquisition means and the measurement feature group, based on the position / posture value estimated by the position / posture estimation means, the model feature group, and the measurement feature group. Evaluate the measurement feature group of the measurement object held by the measurement feature holding means,
The information according to claim 1, wherein the measurement viewpoint determining means determines a second measurement viewpoint different from the first measurement viewpoint based on an evaluation value calculated by the measurement feature evaluation means. Processing equipment.
前記計測特徴評価手段は、前記位置姿勢推定手段により求めた幾何学的にモデル特徴群と類似する計測特徴群の偏りを前記第1の計測視点での計測対象物上に投影して評価し、
前記計測視点決定手段は、前記計測特徴群の偏りが小さい方向で、かつ前記計測対象物が観測される位置に前記第2の計測視点を決定し、
前記計測特徴統合手段は、前記第2の計測視点で計測した前記計測対象物の計測特徴群を統合する
ことを特徴とする請求項5に記載の情報処理装置。
The measurement feature evaluation means projects and evaluates the bias of the measurement feature group geometrically similar to the model feature group obtained by the position / orientation estimation means onto the measurement object at the first measurement viewpoint.
The measurement viewpoint determining means determines the second measurement viewpoint in a direction in which the bias of the measurement feature group is small and at a position where the measurement object is observed.
The information processing apparatus according to claim 5, wherein the measurement feature integration means integrates a group of measurement features of the measurement object measured from the second measurement viewpoint.
前記計測特徴評価手段は、前記第1の計測視点で観測が可能なモデル特徴群の分布の広がりと、前記位置姿勢推定手段により求めた幾何学的にモデル特徴群と類似する計測特徴群の分布の広がりを評価し、
前記計測視点決定手段は、前記観測が可能なモデル特徴群の分布と、前記幾何学的にモデル特徴群と類似する計測特徴群の分布が重ならない領域が観測できるように前記第2の計測視点を決定する
ことを特徴とする請求項5に記載の情報処理装置。
The measurement feature evaluation means has a spread of the distribution of the model feature group that can be observed from the first measurement viewpoint and a distribution of the measurement feature group that is geometrically similar to the model feature group obtained by the position / orientation estimation means. Evaluate the spread of
The measurement viewpoint determining means is the second measurement viewpoint so that a region where the distribution of the observable model feature group and the distribution of the measurement feature group geometrically similar to the model feature group do not overlap can be observed. The information processing apparatus according to claim 5, wherein the information processing apparatus is determined.
前記計測特徴取得手段は、前記計測対象物を撮影した2次元画像の画像特徴群を取得することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 7, wherein the measurement feature acquisition means acquires an image feature group of a two-dimensional image obtained by photographing the measurement object. 前記計測特徴取得手段は、前記計測対象物の表面上の3次元点群を取得することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 8, wherein the measurement feature acquisition means acquires a three-dimensional point cloud on the surface of the measurement object. 回転および/または並進移動軸からなる可動軸を有するロボットによって、前記計測視点決定手段で決定された計測視点に、前記計測特徴群を取得する計測装置および/または計測対象物を移動させる計測視点の変更手段と、
前記第2の計測視点で取得した計測特徴を前記計測特徴保持手段に統合する計測特徴統合手段と
を更に有することを特徴とする請求項5乃至7のいずれか1項に記載の情報処理装置。
A measurement device for acquiring the measurement feature group and / or a measurement viewpoint for moving a measurement object to a measurement viewpoint determined by the measurement viewpoint determination means by a robot having a movable axis including a rotation and / or translational movement axis. Means of change and
The information processing apparatus according to any one of claims 5 to 7, further comprising a measurement feature integration means for integrating the measurement features acquired from the second measurement viewpoint into the measurement feature holding means.
情報処理装置の制御方法であって、
第1の計測視点から計測した計測特徴を取得する計測特徴取得工程と、
計測対象物の形状を表すモデル特徴群と前記計測特徴取得工程で取得した計測対象物の計測特徴群から計測対象物の位置姿勢を推定する位置姿勢推定工程と、
前記位置姿勢推定工程で推定した位置姿勢値、前記モデル特徴群、および前記計測特徴群に基づいて、前記計測特徴取得工程で取得した計測対象物の計測特徴群を評価する計測特徴評価工程と、
前記計測特徴評価工程で評価した結果に基づいて、前記第1の計測視点とは異なる第2の計測視点を決定する計測視点決定工程と、
を有することを特徴とする情報処理装置の制御方法。
It is a control method for information processing equipment.
A measurement feature acquisition process that acquires measurement features measured from the first measurement viewpoint, and
A model feature group representing the shape of the measurement target, a position / orientation estimation process for estimating the position / orientation of the measurement target from the measurement feature group of the measurement target acquired in the measurement feature acquisition process, and a position / orientation estimation process.
Based on the position / orientation value estimated in the position / orientation estimation process, the model feature group, and the measurement feature group, a measurement feature evaluation step for evaluating the measurement feature group of the measurement object acquired in the measurement feature acquisition step, and a measurement feature evaluation step.
Based on the result of evaluation in the measurement feature evaluation step, a measurement viewpoint determination step of determining a second measurement viewpoint different from the first measurement viewpoint, and a measurement viewpoint determination step.
A method for controlling an information processing device, which comprises.
請求項11に記載の情報処理装置の制御方法の各工程をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the control method of the information processing apparatus according to claim 11.
JP2019165528A 2019-09-11 2019-09-11 Information processing device, control method therefor, and program Pending JP2021043075A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019165528A JP2021043075A (en) 2019-09-11 2019-09-11 Information processing device, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019165528A JP2021043075A (en) 2019-09-11 2019-09-11 Information processing device, control method therefor, and program

Publications (1)

Publication Number Publication Date
JP2021043075A true JP2021043075A (en) 2021-03-18

Family

ID=74864559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019165528A Pending JP2021043075A (en) 2019-09-11 2019-09-11 Information processing device, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP2021043075A (en)

Similar Documents

Publication Publication Date Title
US20200096317A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
US9025857B2 (en) Three-dimensional measurement apparatus, measurement method therefor, and computer-readable storage medium
US9672630B2 (en) Contour line measurement apparatus and robot system
JP3859574B2 (en) 3D visual sensor
JP5612916B2 (en) Position / orientation measuring apparatus, processing method thereof, program, robot system
JP5671281B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
US9275461B2 (en) Information processing apparatus, information processing method and storage medium
CN112161619B (en) Pose detection method, three-dimensional scanning path planning method and detection system
JP6271953B2 (en) Image processing apparatus and image processing method
JP6324025B2 (en) Information processing apparatus and information processing method
JP6594129B2 (en) Information processing apparatus, information processing method, and program
US20130230235A1 (en) Information processing apparatus and information processing method
JP2017118396A (en) Program, device and method for calculating internal parameter of depth camera
JP2015184767A (en) Information processor, information processing method, position attitude estimation device and robot system
US9914222B2 (en) Information processing apparatus, control method thereof, and computer readable storage medium that calculate an accuracy of correspondence between a model feature and a measurement data feature and collate, based on the accuracy, a geometric model and an object in an image
CN116958146B (en) Acquisition method and device of 3D point cloud and electronic device
JP6626338B2 (en) Information processing apparatus, control method for information processing apparatus, and program
JP2016170050A (en) Position attitude measurement device, position attitude measurement method and computer program
Kahn et al. Hand-eye calibration with a depth camera: 2D or 3D?
JP2019049467A (en) Distance measurement system and distance measurement method
JP5976089B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
JP2014053018A (en) Information processing device, control method for information processing device, and program
Yamauchi et al. Calibration of a structured light system by observing planar object from unknown viewpoints
Chen et al. Heterogeneous multi-sensor calibration based on graph optimization
JP2005241323A (en) Imaging system and calibration method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113