JP2016218920A - Information processor, information processing method, and program - Google Patents

Information processor, information processing method, and program Download PDF

Info

Publication number
JP2016218920A
JP2016218920A JP2015105774A JP2015105774A JP2016218920A JP 2016218920 A JP2016218920 A JP 2016218920A JP 2015105774 A JP2015105774 A JP 2015105774A JP 2015105774 A JP2015105774 A JP 2015105774A JP 2016218920 A JP2016218920 A JP 2016218920A
Authority
JP
Japan
Prior art keywords
target object
geometric feature
information
dimensional
geometric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015105774A
Other languages
Japanese (ja)
Other versions
JP6584139B2 (en
Inventor
小林 一彦
Kazuhiko Kobayashi
一彦 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015105774A priority Critical patent/JP6584139B2/en
Publication of JP2016218920A publication Critical patent/JP2016218920A/en
Application granted granted Critical
Publication of JP6584139B2 publication Critical patent/JP6584139B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technology for achieving position attitude estimation of a target object having no CAD model with little labor.SOLUTION: An information processor includes acquisition means for acquiring distance information up to the surface of a target object, generation means for generating an outline shape of the target object on the basis of the distance information acquired by the acquisition means, extraction means for extracting a geometric feature of the target object on the basis of the distance information acquired by the acquisition means, and arrangement means for arranging the geometric feature of the target object extracted by the extraction means to the outline shape generated by the generation means.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

対象物体の3次元の形状情報を利用して、対象を観察した距離情報や2次元画像から対象物体の位置姿勢を推定する技術がある。非特許文献1では、部品のCADモデルを基本形状に分解して、その基本形状を距離情報から探索する技術が開示されている。この技術によれば、3次元の形状を利用した位置姿勢推定では、3次元形状のことをモデルと呼び、対象を撮像した画像からモデルと幾何特徴との対応付けを行う。また、この技術では、対応付けられた幾何特徴の3次元空間での距離や、画面へ投影した差異を評価値として位置姿勢のパラメータを推定する。この位置姿勢推定の技術により、例えばロボットによる部品のピッキングのためのハンド位置を計算することができる。
モデルとして利用される3次元の形状情報は、製品の設計時に使われるCADモデルを利用することが一般的である。
There is a technique for estimating the position and orientation of a target object from distance information obtained by observing the target or a two-dimensional image using three-dimensional shape information of the target object. Non-Patent Document 1 discloses a technique for decomposing a CAD model of a component into basic shapes and searching for the basic shapes from distance information. According to this technique, in position and orientation estimation using a three-dimensional shape, the three-dimensional shape is referred to as a model, and the model is associated with a geometric feature from an image obtained by capturing an object. Further, in this technique, the position and orientation parameters are estimated using the distance in the three-dimensional space of the associated geometric features and the difference projected on the screen as evaluation values. With this position and orientation estimation technique, for example, the hand position for picking a part by a robot can be calculated.
As the three-dimensional shape information used as a model, a CAD model used at the time of product design is generally used.

KATSUSHI IKEUCHI,"Generating an Interpretation Tree from a CAD Model for 3D−Object Recognition in Bin−Picking Tasks,"International Journal of Computer Vision,Vol.1,No.2,pp.145−165,1987.KATSUSHI IKEUCHI, "Generating an Interpretation Tree of CAD Model for 3D-Object Recognition in Bin-Picking Tasks," International Journal of V. 1, No. 1 2, pp. 145-165, 1987.

位置姿勢推定の際に、対象物体のCADモデルが必ず用意できるとは限らない。非特許文献1のような位置姿勢推定では、位置姿勢のパラメータにより剛体変換したCADモデルと観測対象との差を小さくするように位置姿勢のパラメータを推定するために、CADモデルそのものが無い場合には推定そのものができない。
本発明は、CADモデルが無い対象物体の位置姿勢推定を、少ない手間で実現するための技術を提供することを目的とする。
When estimating the position and orientation, a CAD model of the target object is not always prepared. In the position and orientation estimation as in Non-Patent Document 1, in order to estimate the position and orientation parameters so as to reduce the difference between the CAD model rigidly transformed by the position and orientation parameters and the observation target, there is no CAD model itself. Cannot estimate itself.
An object of this invention is to provide the technique for implement | achieving the position and orientation estimation of the target object without a CAD model with little effort.

そこで、本発明の情報処理装置は、対象物体の表面までの距離情報を取得する取得手段と、前記取得手段により取得された前記距離情報に基づいて前記対象物体の概略形状を生成する生成手段と、前記取得手段により取得された前記距離情報に基づいて前記対象物体の幾何特徴を抽出する抽出手段と、前記抽出手段により抽出された前記対象物体の幾何特徴を前記生成手段により生成された前記概略形状に配置する配置手段と、を有する。   Therefore, the information processing apparatus of the present invention includes an acquisition unit that acquires distance information to the surface of the target object, and a generation unit that generates a schematic shape of the target object based on the distance information acquired by the acquisition unit. Extraction means for extracting the geometric feature of the target object based on the distance information acquired by the acquisition means; and the outline generated by the generation means for the geometric feature of the target object extracted by the extraction means. Arrangement means for arranging in a shape.

本発明によれば、CADモデルが無い対象物体の位置姿勢推定を、少ない手間で実現するための技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique for implement | achieving the position and orientation estimation of the target object without a CAD model with little effort can be provided.

情報処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of information processing apparatus. 実施形態1の情報処理装置のソフトウェア構成等の一例を示す図である。2 is a diagram illustrating an example of a software configuration of the information processing apparatus according to the first embodiment. FIG. 実施形態1の情報処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of information processing according to the first exemplary embodiment. 実施形態2の情報処理装置のソフトウェア構成等の一例を示す図である。6 is a diagram illustrating an example of a software configuration of an information processing apparatus according to a second embodiment. FIG. 実施形態2の情報処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of information processing according to the second exemplary embodiment. 実施形態3の情報処理装置のソフトウェア構成等の一例を示す図である。FIG. 11 illustrates an example of a software configuration of an information processing apparatus according to a third embodiment. システム構成の一例を示す図である。It is a figure which shows an example of a system configuration.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<実施形態1>
図1は、情報処理装置100のハードウェア構成の一例を示す図である。
図1において、CPU101は、システムバス104に接続された各種デバイスの制御を行う。
ROM102は、BIOSのプログラムやブートプログラムを記憶する。
RAM103は、CPU101の主記憶装置として使用される。
キーボードコントローラ(KBC)105は、マウス等のポインティングデバイス(PD)109や、キーボード(KB)110からの情報等の入力に係る処理を行う。
表示制御部(CRTC)106は、内部にビデオメモリを有し、CPU101からの指示に従ってそのビデオメモリに描画すると共に、ビデオメモリに描画されたイメージデータをビデオ信号としてCRT111に出力する。なお、図1において表示装置としてCRT111を例示しているが、液晶表示装置等、その表示装置の種類は問わない。
ディスクコントローラ(DKC)107は、ハードディスク(HDD)112へのアクセスを行う。
ネットワークインタフェースカード(NIC)108は、ネットワークに接続し、ネットワークを介しての情報通信を行うものである。
なお、HDD112には、OSのプログラムやOS上で動作する各種アプリケーションのプログラム等が格納される。HDD112は、記憶領域の一例である。
上記構成において、情報処理装置100の電源がONになると、CPU101は、ROM102に格納されたブートプログラムに従って、HDD112からOSのプログラムをRAM103に読み込み、処理を実行することによって、各装置の機能を実現する。
つまり、情報処理装置100のCPU101がプログラムに基づき処理を実行することによって、情報処理装置100のソフトウェア構成及び後述するフローチャートの処理が実現される。
<Embodiment 1>
FIG. 1 is a diagram illustrating an example of a hardware configuration of the information processing apparatus 100.
In FIG. 1, the CPU 101 controls various devices connected to the system bus 104.
The ROM 102 stores a BIOS program and a boot program.
The RAM 103 is used as a main storage device of the CPU 101.
A keyboard controller (KBC) 105 performs processing related to input of information and the like from a pointing device (PD) 109 such as a mouse and a keyboard (KB) 110.
A display control unit (CRTC) 106 has a video memory therein and draws the video memory in accordance with an instruction from the CPU 101, and outputs image data drawn in the video memory to the CRT 111 as a video signal. Although the CRT 111 is illustrated as the display device in FIG. 1, the type of the display device such as a liquid crystal display device is not limited.
A disk controller (DKC) 107 accesses a hard disk (HDD) 112.
A network interface card (NIC) 108 is connected to a network and performs information communication via the network.
The HDD 112 stores an OS program, programs of various applications operating on the OS, and the like. The HDD 112 is an example of a storage area.
In the above configuration, when the information processing apparatus 100 is powered on, the CPU 101 reads the OS program from the HDD 112 into the RAM 103 according to the boot program stored in the ROM 102, and executes the processing, thereby realizing the function of each apparatus. To do.
That is, the CPU 101 of the information processing apparatus 100 executes processing based on the program, thereby realizing the software configuration of the information processing apparatus 100 and the processing of the flowchart described below.

図2は、実施形態1の情報処理装置100のソフトウェア構成等の一例を示す図である。
情報処理装置100は、少なくとも、ソフトウェア構成として、距離情報取得部10と、2次元画像取得部20と、概略形状生成部30と、幾何特徴抽出部40と、幾何特徴選択部50と、幾何特徴配置部60と、視点別特徴保持部70と、を含む。
距離情報取得部10は、プロジェクタ等により取得された対象物体を含む距離画像から対象物体の表面までの距離情報を取得する。例えば、プロジェクタは、構造的なパターンを対象物体に投影して、対象面に反射した画像を取得する。距離情報取得部10は、この画像からパターンを復号することによりプロジェクタの投影位置を特定する。そして、距離情報取得部10は、撮像位置と投影位置との関係から三角測量により対象物体の距離を計算し、距離情報を取得する。但し、このことは本実施の形態を制限するものではなく、距離情報取得部10は、他の方法を用いて距離情報を取得するようにしても良い。例えば、距離情報取得部10は、ラインレーザーを利用して、対象を直線運動させたときのレーザーの反射位置を計測し、三次元の位置情報に変換した距離情報を取得するようにしても良い。
2次元画像取得部20は、撮像デバイスで撮像された対象物体を含む2次元画像の画像データを取得する。撮像デバイスは、例えば、レンズ歪み等のカメラパラメータを事前校正したCCDやCMOS等の撮像素子によるカメラ等である。2次元画像は、例えば、3色のカラーフィルターを利用したカラー画像である。また、情報処理装置100が2台以上のカメラと通信可能であれば、カメラ間の相対的な位置姿勢を事前に校正しておくことでステレオカメラを構成することができる。複数の視点の画像を利用することで、部品同士の遮蔽による影響を低減することができる。
FIG. 2 is a diagram illustrating an example of a software configuration and the like of the information processing apparatus 100 according to the first embodiment.
The information processing apparatus 100 includes, as at least a software configuration, a distance information acquisition unit 10, a two-dimensional image acquisition unit 20, a schematic shape generation unit 30, a geometric feature extraction unit 40, a geometric feature selection unit 50, and a geometric feature. An arrangement unit 60 and a viewpoint-specific feature holding unit 70 are included.
The distance information acquisition unit 10 acquires distance information from a distance image including the target object acquired by a projector or the like to the surface of the target object. For example, a projector projects a structural pattern onto a target object and acquires an image reflected on the target surface. The distance information acquisition unit 10 identifies the projection position of the projector by decoding the pattern from this image. And the distance information acquisition part 10 calculates the distance of a target object by triangulation from the relationship between an imaging position and a projection position, and acquires distance information. However, this does not limit the present embodiment, and the distance information acquisition unit 10 may acquire the distance information using another method. For example, the distance information acquisition unit 10 may measure the laser reflection position when the object is linearly moved using a line laser, and acquire the distance information converted into three-dimensional position information. .
The two-dimensional image acquisition unit 20 acquires image data of a two-dimensional image including the target object imaged by the imaging device. The imaging device is, for example, a camera using an imaging element such as a CCD or CMOS in which camera parameters such as lens distortion are calibrated in advance. The two-dimensional image is a color image using, for example, three color filters. If the information processing apparatus 100 can communicate with two or more cameras, a stereo camera can be configured by calibrating the relative position and orientation between the cameras in advance. By using images from a plurality of viewpoints, it is possible to reduce the influence due to shielding between components.

概略形状生成部30は、距離情報取得部10で得られた距離情報から対象物体の3次元形状を再構成する。距離情報を格子状に配置された対象までの距離値とすれば、概略形状生成部30は、隣接する格子点を頂点とするメッシュを生成することができる。また、概略形状生成部30は、複数視点から撮像された結果の距離情報を統合しても良い。この場合、概略形状生成部30は、距離情報の距離点群同士の相対的な位置姿勢を、ICP(Iterative Closest Points)等のアルゴリズムを用いることで算出することができる。また、概略形状生成部30は、ボクセルの格子点を利用してメッシュを生成する方法や、点群に対してドロネー三角形によりメッシュを生成する方法等を用いることができる。予め対象物体の形状メッシュデータが入手可能な場合には、概略形状生成部30は、形状メッシュデータを利用して概略形状を生成しても良い。例えば、概略形状生成部30は、対象物体の形状メッシュデータを、ネットワーク等を介してダウロードし、取得して、HDD112等に記憶し、利用する。   The schematic shape generation unit 30 reconstructs the three-dimensional shape of the target object from the distance information obtained by the distance information acquisition unit 10. If the distance information is a distance value to a target arranged in a grid pattern, the approximate shape generation unit 30 can generate a mesh having apex at adjacent grid points. Further, the schematic shape generation unit 30 may integrate distance information obtained as a result of imaging from a plurality of viewpoints. In this case, the schematic shape generation unit 30 can calculate the relative position and orientation of the distance point groups of the distance information by using an algorithm such as ICP (Iterative Closest Points). The schematic shape generation unit 30 can use a method of generating a mesh by using voxel lattice points, a method of generating a mesh by Delaunay triangle for a point group, or the like. When the shape mesh data of the target object is available in advance, the approximate shape generation unit 30 may generate the approximate shape using the shape mesh data. For example, the schematic shape generation unit 30 downloads and acquires the shape mesh data of the target object via a network or the like, stores it in the HDD 112 or the like, and uses it.

幾何特徴選択部50は、2次元画像や距離情報に含まれる対象物体が撮像されている範囲にある幾何特徴の抽出方法を選択する。例えば、幾何特徴選択部50は、予め設定された抽出方法やCRT111、KB110等を介して利用者により設定された抽出方法を幾何特徴抽出部40で利用する抽出方法として選択する。2次元画像から幾何特徴を抽出する方法としては、以下のようなものがある。コーナー点を抽出するHarris オペレータ、エッジを抽出するSobelやCannyオペレータ、テクスチャの密度や方向を抽出する方法、色のヒストグラムや局所的な領域の勾配ヒストグラムを用いる方法等である。また、距離情報から幾何特徴を抽出する方法としては、注目領域の周辺の法線ベクトルを円柱に投影したときのヒストグラムによる識別や、2点間の奥行きの差を用いる方法や、局所領域の曲率を計算する方法等ある。幾何特徴選択部50は、複数の抽出方法を選択しても良い。   The geometric feature selection unit 50 selects a geometric feature extraction method in a range where a target object included in a two-dimensional image or distance information is captured. For example, the geometric feature selection unit 50 selects a preset extraction method or an extraction method set by the user via the CRT 111, the KB 110, or the like as the extraction method used by the geometric feature extraction unit 40. There are the following methods for extracting geometric features from a two-dimensional image. These include a Harris operator that extracts corner points, a Sobel or Canny operator that extracts edges, a method that extracts texture density and direction, a method that uses a color histogram or a local area gradient histogram, and the like. In addition, methods for extracting geometric features from distance information include identification using a histogram when normal vectors around a region of interest are projected onto a cylinder, a method using the difference in depth between two points, and the curvature of a local region. There is a method to calculate. The geometric feature selection unit 50 may select a plurality of extraction methods.

幾何特徴抽出部40は、幾何特徴選択部50により選択されている幾何特徴抽出方法に基づいて対象物体が撮像されている2次元画像、距離情報に対して画像処理を行う。そして、幾何特徴抽出部40は、その結果を2次元画像であれば幾何特徴の2次元位置情報、距離情報であれば幾何特徴の3次元位置情報として複数の幾何特徴の抽出を行う。なお、複数の幾何特徴抽出方法を用いることで、2次元画像、距離情報、共に扱うことができたり、幾何特徴の対応付けの精度を向上させることができたりする。   The geometric feature extraction unit 40 performs image processing on the two-dimensional image and distance information in which the target object is imaged based on the geometric feature extraction method selected by the geometric feature selection unit 50. Then, the geometric feature extraction unit 40 extracts a plurality of geometric features as two-dimensional position information of the geometric feature if the result is a two-dimensional image, and as three-dimensional position information of the geometric feature if the result is distance information. By using a plurality of geometric feature extraction methods, two-dimensional images and distance information can be handled together, and the accuracy of geometric feature association can be improved.

幾何特徴配置部60は、幾何特徴抽出部40で抽出された幾何特徴の位置情報と概略形状生成部30で生成された概略形状との関連付けを行う。例えば撮像デバイスが対象物を撮像した場合、平面に模様が描かれている台座部や、指標となる構造物が一緒に撮像する。このようにすることで、撮像画像より撮像時の撮像デバイスの位置姿勢を求めることができる。幾何特徴配置部60は、撮像時の撮像デバイスの位置姿勢と概略形状生成部30で生成した概略形状との剛体変換を、指標が配置されている環境に変更が無く対象物体が動かなければ、行うことができる。ここで、剛体変換は、オブジェクト(対象物)の位置と方向とは変更しても形状は変更しない座標変換のことである。距離情報から抽出された幾何特徴の3次元位置情報は、撮像デバイス中心の座標系となっている。したがって、幾何特徴配置部60は、3次元位置情報に先ほどの撮像時の撮像デバイスの位置姿勢の逆変換を乗算することで、対象部品の基準座標系に変換することができる。これにより、様々な視点から撮像された距離情報から抽出された幾何特徴の3次元位置情報を、対象物体のモデル座標系基準の3次元位置情報として統合することができる。2次元画像から抽出された幾何特徴は画面上の位置と撮像デバイス原点とを結ぶ直線上に特徴点が存在する。そこで、幾何特徴配置部60は、撮像デバイス原点と幾何特徴の画面上の位置とを結ぶ直線と、概略形状生成部30で生成された概略形状のメッシュモデルの各ポリゴン面との交点があるかどうかの判定を行い、交点の中で最も撮像デバイス原点に近い位置を求める。なお、メッシュモデルは、撮像デバイスの位置姿勢とモデル座標系とに応じて配置しておく。ポリゴン面との交点は撮像デバイス座標系(カメラ座標系)なので、撮像デバイスの撮像時の位置姿勢の逆変換を乗じることで、モデル座標系での位置に変換できる。以下、概略形状に幾何特徴が配置されたものを幾何モデルともいう。   The geometric feature placement unit 60 associates the position information of the geometric features extracted by the geometric feature extraction unit 40 with the schematic shape generated by the schematic shape generation unit 30. For example, when an imaging device captures an object, a pedestal portion with a pattern drawn on a plane or a structure serving as an index captures images together. In this way, the position and orientation of the imaging device at the time of imaging can be obtained from the captured image. The geometric feature placement unit 60 performs rigid body conversion between the position and orientation of the imaging device at the time of imaging and the schematic shape generated by the schematic shape generation unit 30 without changing the environment in which the index is arranged and the target object does not move. It can be carried out. Here, the rigid transformation is coordinate transformation that does not change the shape even if the position and direction of the object (object) are changed. The three-dimensional position information of the geometric feature extracted from the distance information is a coordinate system at the center of the imaging device. Therefore, the geometric feature arrangement unit 60 can convert the reference coordinate system of the target part by multiplying the three-dimensional position information by the inverse transformation of the position and orientation of the imaging device at the time of imaging. Thereby, the three-dimensional position information of the geometric features extracted from the distance information captured from various viewpoints can be integrated as the three-dimensional position information based on the model coordinate system of the target object. The geometric feature extracted from the two-dimensional image has a feature point on a straight line connecting the position on the screen and the origin of the imaging device. Therefore, the geometric feature placement unit 60 has an intersection between the straight line connecting the origin of the imaging device and the position of the geometric feature on the screen and each polygon surface of the mesh model having the approximate shape generated by the approximate shape generation unit 30. A determination is made as to whether or not a position closest to the origin of the imaging device among the intersections is obtained. The mesh model is arranged according to the position and orientation of the imaging device and the model coordinate system. Since the intersection with the polygon plane is an imaging device coordinate system (camera coordinate system), it can be converted into a position in the model coordinate system by multiplying the inverse transformation of the position and orientation at the time of imaging of the imaging device. Hereinafter, a geometrical shape having a geometric shape arranged therein is also referred to as a geometric model.

視点別特徴保持部70は、抽出された幾何特徴を保持するデータベースをHDD112等に登録、管理する。視点別特徴保持部70は、幾何特徴配置部60で用いられた撮像デバイスの位置姿勢をテーブルのキーとして、モデル座標系に変換された各幾何特徴の3次元位置情報をリストとするデータベースを構築し、管理する。撮像デバイスと対象物体との相対的な位置姿勢の情報を保持しておくことで、実際に観察される幾何特徴のみを効率的に登録することができる。視点別特徴保持部70は、登録する際の撮像デバイスの位置姿勢を、できるだけ重複がないようにする。   The viewpoint-specific feature holding unit 70 registers and manages a database holding the extracted geometric features in the HDD 112 or the like. The viewpoint-specific feature holding unit 70 constructs a database that uses the position and orientation of the imaging device used in the geometric feature placement unit 60 as a table key and lists the three-dimensional position information of each geometric feature converted into the model coordinate system. And manage. By holding information on the relative position and orientation between the imaging device and the target object, it is possible to efficiently register only the geometric features that are actually observed. The viewpoint-specific feature holding unit 70 makes the position and orientation of the imaging device at the time of registration as small as possible.

以下、情報処理装置100が実行する実施形態1の情報処理の一例を図3に示す。
ステップS10において、距離情報取得部10は、対象物体を含む距離画像を取得し、前記距離画像から対象物体の表面までの距離情報を取得する。例えば、距離情報取得部10は、対象物体に投影されたパターン光に基づき、パターンのそれぞれの位置を特定し、撮像デバイスで撮像した位置との対応から三角測量により対象物体の距離を計算し、距離情報を取得する。
ステップS20において、2次元画像取得部20は、撮像デバイスで撮像された対象物体を含む2次元画像の画像データを取得する。
ステップS30において、概略形状生成部30は、距離情報取得部10で得られた距離情報から対象物体の3次元形状を再構成する。一方向からの距離情報では対象物体の見えていない面等も存在するため、概略形状生成部30は、異なる視点から撮像された距離画像から取得された距離情報を張り合わせて概略形状を生成する。
ステップS40において、幾何特徴選択部50は、距離情報や2次元画像からの幾何特徴の抽出方法を選択する。例えば、幾何特徴選択部50は、予め設定された抽出方法やCRT111、KB110等を介して利用者により設定された抽出方法を幾何特徴抽出部40で利用する抽出方法として選択する。ここで、情報処理装置100は、位置姿勢推定に用いられる幾何特徴だけを抽出すれば良い。したがって、幾何特徴選択部50は、位置姿勢推定に必要な幾何特徴だけを抽出する幾何特徴の抽出方法を選択する。
Hereinafter, an example of information processing according to the first embodiment executed by the information processing apparatus 100 is illustrated in FIG. 3.
In step S10, the distance information acquisition unit 10 acquires a distance image including the target object, and acquires distance information from the distance image to the surface of the target object. For example, the distance information acquisition unit 10 identifies each position of the pattern based on the pattern light projected on the target object, calculates the distance of the target object by triangulation from the correspondence with the position captured by the imaging device, Get distance information.
In step S20, the two-dimensional image acquisition unit 20 acquires image data of a two-dimensional image including the target object imaged by the imaging device.
In step S <b> 30, the schematic shape generation unit 30 reconstructs the three-dimensional shape of the target object from the distance information obtained by the distance information acquisition unit 10. Since the distance information from one direction includes a surface where the target object is not visible, the schematic shape generation unit 30 generates a schematic shape by combining the distance information acquired from the distance images captured from different viewpoints.
In step S40, the geometric feature selection unit 50 selects distance information and a method for extracting a geometric feature from a two-dimensional image. For example, the geometric feature selection unit 50 selects a preset extraction method or an extraction method set by the user via the CRT 111, the KB 110, or the like as the extraction method used by the geometric feature extraction unit 40. Here, the information processing apparatus 100 may extract only the geometric features used for position and orientation estimation. Therefore, the geometric feature selection unit 50 selects a geometric feature extraction method that extracts only the geometric features necessary for position and orientation estimation.

ステップS50において、幾何特徴抽出部40は、幾何特徴選択部50により選択されている幾何特徴抽出方法に基づいて対象物体が撮像されている2次元画像から2次元の幾何特徴を抽出する。以下、説明の簡略化のため、2次元の幾何特徴として、エッジ上の点とその方向とを例に説明を行う。
ステップS60において、幾何特徴抽出部40は、幾何特徴選択部50により選択されている幾何特徴抽出方法に基づいて対象物体を含む距離画像から3次元の幾何特徴を抽出する。以下、説明の簡略化のため、3次元の幾何特徴として、面上の点とその法線とを例に説明を行う。
In step S50, the geometric feature extraction unit 40 extracts a two-dimensional geometric feature from the two-dimensional image in which the target object is captured based on the geometric feature extraction method selected by the geometric feature selection unit 50. Hereinafter, for simplification of description, a point on an edge and its direction will be described as an example as a two-dimensional geometric feature.
In step S60, the geometric feature extraction unit 40 extracts a three-dimensional geometric feature from the distance image including the target object based on the geometric feature extraction method selected by the geometric feature selection unit 50. Hereinafter, as a three-dimensional geometric feature, a point on the surface and its normal will be described as an example for the sake of simplicity.

ここで、位置合わせをする際には、推定する位置姿勢に応じて、位置の変換を行うため、エッジは2次元ではなく3次元の点でなくてはならない。
したがって、ステップS70において、幾何特徴配置部60は、ステップS50で抽出されたエッジの画像上の位置をステップS30で生成された概略形状に投影した際の3次元の位置を計算する。より具体的に説明すると、幾何特徴配置部60は、対象物体を撮像する撮像デバイスを基準に対象物体の画像上のエッジの位置を3次元の概略形状に投射した際のエッジの3次元の概略形状における3次元位置情報を求める。
ステップS80において、視点別特徴保持部70は、撮像デバイスの位置姿勢の情報(位置姿勢情報)をテーブルのキーとして、ステップS60で抽出された3次元の幾何特徴とステップS70で3次元位置情報を求めた2次元の幾何特徴とを登録する。
Here, when performing alignment, since the position is converted in accordance with the estimated position and orientation, the edge must be a three-dimensional point instead of a two-dimensional one.
Therefore, in step S70, the geometric feature arrangement unit 60 calculates a three-dimensional position when the position on the image of the edge extracted in step S50 is projected onto the schematic shape generated in step S30. More specifically, the geometric feature arrangement unit 60 is a three-dimensional outline of the edge when the position of the edge on the image of the target object is projected into a three-dimensional outline shape with reference to an imaging device that images the target object. 3D position information on the shape is obtained.
In step S80, the viewpoint-specific feature holding unit 70 uses the position / orientation information (position / orientation information) of the imaging device as a table key and the 3D geometric feature extracted in step S60 and the 3D position information in step S70. The obtained two-dimensional geometric feature is registered.

本実施形態の処理によれば、対象物体の2次元画像や距離情報から幾何特徴を抽出し、位置姿勢推定のための幾何モデルを生成することができる。即ち、対象物体を復元可能なモデルを生成するわけではないため、少ない手間でCADモデルが無い対象物体の位置姿勢推定を実現するための技術を提供することができる。   According to the processing of the present embodiment, a geometric feature can be generated for extracting a position and orientation by extracting a geometric feature from a two-dimensional image of a target object and distance information. That is, since a model capable of restoring the target object is not generated, a technique for realizing the position and orientation estimation of the target object without a CAD model can be provided with less effort.

<実施形態2>
図4は、実施形態2の情報処理装置100のソフトウェア構成等の一例を示す図である。
情報処理装置100は、ソフトウェア構成として、実施形態1の構成に加え、視点別特徴選択部80と、位置姿勢推定部90と、を含む。
後述する位置姿勢推定部90における位置姿勢推定では、生成された幾何モデルを用いて画像中の対象物体の位置姿勢が求められる。対象物体が3次元形状である場合、物体自身による遮蔽や反対側の面を観測することができないので、予め観察視点からの観測される特徴量のみを列挙しておくことで位置姿勢推定の効率を良くすることができる。
視点別特徴選択部80は、位置姿勢推定が実行される際に、撮像デバイスと対象物体との位置姿勢情報が得られたときに、視点別特徴保持部70に保持されているテーブルから登録時の位置姿勢情報であるキーとの類似度を計算する。そして、視点別特徴選択部80は、類似度の高い位置姿勢情報を候補として選択する。視点別特徴選択部80は、類似度の計算として、以下の処理を行う。即ち、視点別特徴選択部80は、問い合わせている位置姿勢情報と、テーブルに登録されているキーである位置姿勢情報とのうち、モデル原点から撮像デバイス原点へ向かうベクトルを求め、単位ベクトル同士の内積を計算する。そして、視点別特徴選択部80は、より大きい値を有するものを少なくとも1つ以上求める。類似度の高い位置姿勢情報を複数、利用する場合には、視点別特徴選択部80は、内積に応じて幾何特徴の重みを付与することで、幾何特徴の線形補間を行うことができる。
<Embodiment 2>
FIG. 4 is a diagram illustrating an example of a software configuration and the like of the information processing apparatus 100 according to the second embodiment.
The information processing apparatus 100 includes a viewpoint-specific feature selection unit 80 and a position / orientation estimation unit 90 in addition to the configuration of the first embodiment as a software configuration.
In the position / orientation estimation in the position / orientation estimation unit 90 described later, the position / orientation of the target object in the image is obtained using the generated geometric model. When the target object has a three-dimensional shape, it is impossible to observe the object itself or to observe the opposite surface. Therefore, by enumerating only the feature quantities observed from the observation viewpoint in advance, the efficiency of position and orientation estimation Can be improved.
When the position / orientation estimation is executed, when the position / orientation information of the imaging device and the target object is obtained, the viewpoint-specific feature selection unit 80 performs registration from the table held in the viewpoint-specific feature holding unit 70. The degree of similarity with the key, which is the position and orientation information of is calculated. Then, the viewpoint-specific feature selection unit 80 selects position and orientation information having a high degree of similarity as a candidate. The viewpoint-specific feature selection unit 80 performs the following processing as the similarity calculation. That is, the viewpoint-specific feature selection unit 80 obtains a vector from the model origin to the imaging device origin among the inquired position / orientation information and the position / orientation information that is a key registered in the table. Calculate the dot product. Then, the viewpoint-specific feature selection unit 80 obtains at least one having a larger value. When using a plurality of pieces of position / orientation information with high similarity, the viewpoint-specific feature selection unit 80 can perform linear interpolation of the geometric features by assigning the weight of the geometric features according to the inner product.

又は、視点別特徴選択部80は、コンピュータグラフィックスの描画用機能を用いて登録されている幾何特徴を選択しても良い。テーブルとして保持している他の視点のデータを利用する場合、視点別特徴選択部80は、概略形状生成部30により生成された概略形状を推定する位置姿勢情報に合わせて撮像デバイス視点でメッシュとして描画を行い、幾何特徴の位置に指標となる図形を描画する。各幾何特徴の指標となる図形が、メッシュの裏側や他の部位に遮蔽されている場合、視点別特徴選択部80は、グラフィックスの奥行き判定により観察できないことを利用することで、観察される可能性の高い幾何特徴のみをテーブルから抽出できる。
これにより、位置姿勢推定部90における位置姿勢推定で利用される幾何特徴を見えている状態に応じて利用できるようにすることができる。更に、幾何特徴は局所的な平面を既定している場合が多く、観察方向の変化によっては検出の位置がずれる場合がある。それらの位置を補正する方法として、例えば、視点別特徴選択部80は、バンドル調整法を利用することができる。バンドル調整法は、複数視点で観察される注目点の画面への投影誤差を最小化するように、撮像デバイスの位置姿勢情報と注目点の3次元位置とを補正するものである。本実施形態の処理においても複数の視点で観測された情報があるので、バンドル調整法を適用することができる。これにより、幾何特徴の3次元位置の曖昧性を低減することができ、位置姿勢推定の幾何モデルとして精度を向上することができる。
Alternatively, the viewpoint-specific feature selection unit 80 may select a registered geometric feature using a computer graphics drawing function. When using data of other viewpoints held as a table, the viewpoint-specific feature selection unit 80 uses a mesh at the imaging device viewpoint in accordance with the position and orientation information for estimating the approximate shape generated by the approximate shape generation unit 30. Drawing is performed, and a figure as an index is drawn at the position of the geometric feature. When a figure serving as an index of each geometric feature is shielded by the back side of the mesh or other part, the viewpoint-specific feature selection unit 80 is observed by using the fact that it cannot be observed by graphics depth determination. Only the most likely geometric features can be extracted from the table.
As a result, the geometric feature used in the position / orientation estimation in the position / orientation estimation unit 90 can be used in accordance with the visible state. Furthermore, the geometric feature often defines a local plane, and the detection position may shift depending on the change in the observation direction. As a method for correcting these positions, for example, the viewpoint-specific feature selection unit 80 can use a bundle adjustment method. The bundle adjustment method corrects the position / orientation information of the imaging device and the three-dimensional position of the attention point so as to minimize the projection error of the attention point observed from a plurality of viewpoints onto the screen. Since there is information observed from a plurality of viewpoints also in the processing of this embodiment, the bundle adjustment method can be applied. Thereby, the ambiguity of the three-dimensional position of the geometric feature can be reduced, and the accuracy as a geometric model for position and orientation estimation can be improved.

位置姿勢推定部90は、視点別特徴選択部80により選択された複数の幾何特徴と、前記幾何特徴のそれぞれに対応する対象物体の幾何特徴と、の差が少なくなるように前記対象物体の位置姿勢を推定する。即ち、位置姿勢推定部90は、幾何特徴抽出部40で抽出された幾何特徴と対象の概略位置姿勢に基づいて視点別特徴選択部80で選択されたモデル座標系の幾何特徴との位置に基づいて、幾何モデルの撮像デバイス座標系の位置姿勢情報をパラメータとして最適化計算を行う。位置姿勢推定部90は、3次元の幾何特徴の位置に関して、推定している位置姿勢情報の6パラメータを行列表現したものを乗じることで、撮像デバイス座標系に変換することができる。位置姿勢推定部90は、幾何特徴抽出部40で抽出された幾何特徴との差を評価値として、前記差を小さくするように位置姿勢情報のパラメータを推定する。推定する方法としては、非線形最適化法であるガウス・ニュートン法等を適用すれば良い。また、3次元の位置同士の対応が既知であれば、DLT(Direct Linear Transform)等の固有値分解を用いた方法でも位置姿勢情報を求めることができる。また、ノイズが含まれている場合には、最小二乗推定の推定精度が低下するため、M推定等のロバスト推定法による計測情報の分散による重み付けを行うことも有効である。更に、複数の幾何特徴を利用できる場合、位置姿勢情報のパラメータを推定する3点以上の点の組み合わせをランダムに選択し、そこから複数のセットによるパラメータのうち、最も残差が少ないパラメータを利用するRANSAC法を用いることも効果的である。   The position / orientation estimation unit 90 determines the position of the target object so that the difference between the plurality of geometric features selected by the viewpoint-specific feature selection unit 80 and the geometric feature of the target object corresponding to each of the geometric features is reduced. Estimate posture. That is, the position / orientation estimation unit 90 is based on the position of the geometric feature extracted by the geometric feature extraction unit 40 and the geometric feature of the model coordinate system selected by the viewpoint-specific feature selection unit 80 based on the approximate position and orientation of the target. Then, optimization calculation is performed using the position and orientation information of the imaging device coordinate system of the geometric model as a parameter. The position / orientation estimation unit 90 can convert the position of the three-dimensional geometric feature into the imaging device coordinate system by multiplying the six parameters of the estimated position / orientation information by matrix expression. The position / orientation estimation unit 90 uses the difference from the geometric feature extracted by the geometric feature extraction unit 40 as an evaluation value, and estimates the parameters of the position / orientation information so as to reduce the difference. As an estimation method, a Gauss-Newton method or the like that is a nonlinear optimization method may be applied. If the correspondence between the three-dimensional positions is known, the position and orientation information can be obtained by a method using eigenvalue decomposition such as DLT (Direct Linear Transform). In addition, when noise is included, the estimation accuracy of the least-square estimation is lowered, so it is also effective to perform weighting by dispersion of measurement information by a robust estimation method such as M estimation. Furthermore, when multiple geometric features can be used, a combination of three or more points for estimating the position and orientation information parameters is selected at random, and the parameter with the fewest residuals is used from among the multiple sets of parameters. It is also effective to use the RANSAC method.

以下、情報処理装置100が実行する実施形態2の情報処理の一例を図5に示す。
図5のステップS10〜ステップS80の処理は、実施形態1の図3のステップS10〜ステップS80の処理と同様である。
ステップS90において、視点別特徴選択部80は、幾何特徴の分布の方向や幾何特徴周辺の輝度分布等を用いて対象物体の観察位置姿勢情報の概略値を算出し、ステップS80で登録されたテーブルのキーである位置姿勢情報に類似するレコードを検索する。前記レコードには、幾何特徴を登録した際の2次元の幾何特徴と距離情報に係る幾何特徴の複数の情報が格納されているものとする。
ステップS100において、位置姿勢推定部90は、ステップS90で参照した幾何特徴のリストのそれぞれの三次元位置を、推定中の位置姿勢情報の値を用いて座標変換する。2次元画像から得られた幾何特徴に対応付けするには、位置姿勢推定部90は、三次元空間をカメラの座標系に合わせるように射影変換を行えば良い。位置姿勢推定部90は、射影変換された幾何特徴とステップS50で抽出された幾何特徴の画面上で近いもの同士を対応づけする。距離情報に対しても同様で、位置姿勢推定部90は、距離の近いものを対応付けする。対応づけられた登録された幾何特徴と観察された幾何特徴とは、対応する点の距離を小さくする指標を用いて位置姿勢情報のパラメータを推定することができる。これらのアルゴリズムは、一般的にICPと呼ばれる開示された技術を利用すれば良い。一般には、座標変換は非線形であるため、線形近似をして反復解法するガウス・ニュートン法等で解を求めることができる。
Hereinafter, an example of information processing according to the second embodiment executed by the information processing apparatus 100 is illustrated in FIG.
The processing in steps S10 to S80 in FIG. 5 is the same as the processing in steps S10 to S80 in FIG.
In step S90, the viewpoint-specific feature selection unit 80 calculates the approximate value of the observation position / orientation information of the target object using the distribution direction of the geometric feature, the luminance distribution around the geometric feature, and the like, and the table registered in step S80. The record similar to the position and orientation information which is the key of is searched. It is assumed that the record stores a plurality of pieces of information on the two-dimensional geometric feature when the geometric feature is registered and the geometric feature related to the distance information.
In step S100, the position / orientation estimation unit 90 converts the coordinates of each three-dimensional position of the geometric feature list referred to in step S90 using the value of the position / orientation information being estimated. In order to associate with the geometric feature obtained from the two-dimensional image, the position / orientation estimation unit 90 may perform projective transformation so as to match the three-dimensional space with the coordinate system of the camera. The position / orientation estimation unit 90 associates the geometric features that have undergone the projective transformation with the geometric features extracted in step S50 on the screen. The same applies to the distance information, and the position / orientation estimation unit 90 associates the distance information. The registered geometric feature and the observed geometric feature associated with each other can estimate the parameters of the position and orientation information using an index that reduces the distance between the corresponding points. These algorithms may use a disclosed technique generally called ICP. In general, since coordinate transformation is nonlinear, a solution can be obtained by a Gauss-Newton method or the like in which linear approximation is performed and an iterative solution is performed.

本実施形態の処理によれば、CADモデルが無くとも、生成した幾何モデルを用いて対象物体の位置姿勢推定を行うことができる。   According to the processing of this embodiment, the position and orientation of the target object can be estimated using the generated geometric model even without a CAD model.

<実施形態3>
ロボット等の生産自動化を行う場合に、新しい部品が追加されたり、ロットごとに形状が多少異なる場合に変更を加えたり、位置姿勢推定の形状モデルが自動的に追加・更新されると利便性が向上する。
図6は、実施形態3の情報処理装置100のソフトウェア構成等の一例を示す図である。
情報処理装置100は、ソフトウェア構成として、実施形態2の構成に加え、幾何特徴対応探索部95を含む。
幾何特徴対応探索部95は、部品のカテゴリとして未知のものや、これまでに登録されていない視点からの幾何特徴であるかどうかを判断する。幾何特徴対応探索部95は、新たな部品であれば、位置姿勢推定の幾何モデルを新規に作成し、これまでの修正で済む範囲であれば、既存の位置姿勢計測の幾何モデルを更新するよう制御する。そのために幾何特徴対応探索部95は、登録されている全ての幾何特徴との相関計算を行い、数量等により正規化した値を尤度として計算し、ユーザー又はシステムにより設定されている閾値を越えるかどうかで処理を行う。幾何特徴対応探索部95は、視点別特徴選択部80から視点別特徴保持部70に登録されている幾何特徴と3次元位置の配置の差異を計算する。幾何特徴対応探索部95は、最も差の少ない幾何特徴を用いたときの差が設定された閾値より大きい場合には、位置姿勢用の特徴点のデータを、新規又は更新されたものとして、視点別特徴保持部70に、検出された幾何特徴を追加登録する。幾何特徴対応探索部95は、これまでに対象となっている以外の未登録のカテゴリの部品の場合、全体の尤度が低いことから、位置姿勢推定のモデル構造を新規に生成して、カテゴリと共に登録すれば良い。事前に位置姿勢情報が登録されて無い場合、幾何特徴対応探索部95は、新たに位置姿勢情報をキーとして登録して、検出した幾何特徴の3次元位置をデータとして追加する。また、観察方向として既に登録されている視線方向に対して、視線のなす角度が大きい場合、幾何特徴対応探索部95は、部品の形状が変更されたものとして、差が大きい幾何特徴のデータを削除し、検出した新しい幾何特徴の3次元位置を追加する。このことで、データを更新することができる。
<Embodiment 3>
When automating production of robots, etc., it is convenient if new parts are added, changes are made if the shape is slightly different from lot to lot, or shape models for position and orientation estimation are automatically added / updated. improves.
FIG. 6 is a diagram illustrating an example of a software configuration of the information processing apparatus 100 according to the third embodiment.
The information processing apparatus 100 includes a geometric feature correspondence search unit 95 as a software configuration in addition to the configuration of the second embodiment.
The geometric feature correspondence search unit 95 determines whether the part category is an unknown one or a geometric feature from a viewpoint that has not been registered so far. The geometric feature correspondence search unit 95 creates a new position / orientation estimation geometric model if it is a new part, and updates the existing position / orientation measurement geometric model if it can be corrected in the past. Control. Therefore, the geometric feature correspondence search unit 95 performs correlation calculation with all the registered geometric features, calculates a value normalized by the quantity or the like as a likelihood, and exceeds a threshold set by the user or the system. Process by whether or not. The geometric feature correspondence search unit 95 calculates a difference between the geometric features registered in the viewpoint-specific feature holding unit 70 from the viewpoint-specific feature selection unit 80 and the arrangement of the three-dimensional positions. If the difference when using the geometric feature with the smallest difference is larger than the set threshold value, the geometric feature correspondence search unit 95 assumes that the position / orientation feature point data is new or updated and the viewpoint The detected geometric feature is additionally registered in the separate feature holding unit 70. The geometric feature correspondence search unit 95 generates a new model structure for position and orientation estimation in the case of a component in an unregistered category other than the target so far. Register with it. When the position / orientation information is not registered in advance, the geometric feature correspondence search unit 95 newly registers the position / orientation information as a key, and adds the detected three-dimensional position of the geometric feature as data. Further, when the angle formed by the line of sight is large with respect to the line-of-sight direction already registered as the observation direction, the geometric feature correspondence search unit 95 assumes that the shape of the part has been changed, and obtains geometric feature data having a large difference. Delete and add the 3D position of the detected new geometric feature. As a result, the data can be updated.

本実施形態の処理によれば、位置姿勢推定を実行中の距離情報・2次元画像を用いてデータを更新することができるため、利用者がモデルを生成するための指示を与えなくても自動的に位置姿勢推定モデルが更新され手間を減らすことができる。また、形状差異による位置姿勢推定モデルの精度を低減することができるため、形状差異による位置姿勢推定の失敗が減少し、システムの停止時間を短縮することができる。   According to the processing of the present embodiment, the data can be updated using the distance information and the two-dimensional image for which the position / orientation estimation is being performed, so that even if the user does not give an instruction to generate a model, the processing is automatically performed. Thus, the position and orientation estimation model can be updated and labor can be reduced. Further, since the accuracy of the position / orientation estimation model due to the shape difference can be reduced, the failure of position / orientation estimation due to the shape difference can be reduced, and the system stop time can be shortened.

<実施形態4>
上述した実施形態の処理をロボットによるバラ積みピッキングや組立作業のシステムとして利用することで、従来のCADによる設計情報を使わなくても対象部品のピッキングが可能となり、教示の手間の低減や、把持動作に対して安定性を向上することができる。
本実施形態の位置決め機構としてのロボットアームによるシステムの構成図を図7に示す。
情報処理装置100は、ロボットアーム600のエンドエフェクタ部に装着された撮像デバイス510とプロジェクタ520とに接続されている。プロジェクタ520から空間コード化パターンや、ランダムドットパターン等の投影位置が識別するコードを含むパターン図形を対象物体700に投影する。投影された反射像を撮像デバイス510で撮像する。また、撮像デバイス510は、パターンを投影しない、又は全点灯したときの反射像を2次元画像として撮像する。情報処理装置100は、撮像デバイス510及びプロジェクタ520を制御する。視点別特徴保持部70のテーブルを、外部記憶装置に登録しておくことで、永続的にデータを利用することが可能となる。ロボットアームの手先位置は、ロボットアームのエンコーダ情報を用いれば計算することができるので、その計算結果を撮像デバイスの位置姿勢情報として利用することができる。
位置姿勢推定部90により推定された対象物体の位置姿勢情報のパラメータは、エンドエフェクタのハンド部と撮像デバイスとの相対位置姿勢を事前に校正して求めておくことで、ロボットアームの手先位置に変換できる。情報処理装置100は、その変換後のロボットアームの手先位置をロボットアーム600の手先位置指令値として伝えることで、現在の位置からロボットアームを動かして対象部品を把持することができる。計測対象の形状が未知の場合、情報処理装置100は、対象物体を複数の視点で観察できるようにロボットアーム位置を動かして、距離情報と2次元画像を取得して、位置姿勢推定用の幾何特徴のテーブルを生成することができる。これにより、CADモデルが無い場合でも、一連の手続きにより位置姿勢推定が可能となる。
<Embodiment 4>
By using the processing of the above-described embodiment as a system for bulk picking and assembly work by a robot, it becomes possible to pick a target part without using design information by conventional CAD, reducing teaching effort, and gripping Stability with respect to operation can be improved.
FIG. 7 shows a configuration diagram of a system using a robot arm as a positioning mechanism of the present embodiment.
The information processing apparatus 100 is connected to an imaging device 510 and a projector 520 that are mounted on the end effector unit of the robot arm 600. The projector 520 projects a pattern figure including a spatially coded pattern and a code identified by a projection position such as a random dot pattern onto the target object 700. The projected reflected image is captured by the imaging device 510. In addition, the imaging device 510 captures a reflection image when a pattern is not projected or is fully lit as a two-dimensional image. The information processing apparatus 100 controls the imaging device 510 and the projector 520. By registering the table of the viewpoint-specific feature holding unit 70 in the external storage device, data can be used permanently. Since the hand position of the robot arm can be calculated by using the robot arm encoder information, the calculation result can be used as the position and orientation information of the imaging device.
The parameters of the position / orientation information of the target object estimated by the position / orientation estimation unit 90 are obtained by calibrating the relative position / orientation between the hand unit of the end effector and the imaging device in advance, thereby obtaining the hand position of the robot arm. Can be converted. The information processing apparatus 100 can grasp the target component by moving the robot arm from the current position by transmitting the converted hand position of the robot arm as the hand position command value of the robot arm 600. When the shape of the measurement target is unknown, the information processing apparatus 100 moves the robot arm position so that the target object can be observed from a plurality of viewpoints, acquires distance information and a two-dimensional image, and performs geometry for position and orientation estimation. A table of features can be generated. Thereby, even when there is no CAD model, position and orientation estimation can be performed by a series of procedures.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium. It can also be realized by a process in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

上述した各実施形態の処理によれば、対象物体の位置合わせの技術を製造ラインの現場で利用する際に、対象物体の3次元情報としてCADモデルが利用できない場合であっても、位置姿勢推定が可能となる。例えば、既製の汎用部品で2次元の図面しか存在しない場合や、設計部門の設計情報が製造部門で機密のため利用できない場合等、対象部品のCADモデルがそもそも利用できない場合でも、位置姿勢計測用のモデルを作ることができる。また、既にCADデータがある場合であっても、概略形状生成部においてメッシュのデータとして本装置の構成を変更せずに利用することができる。また、対象部品に対して複数の部品が組み付けられた複数の部品が結合した状態等、設計時のCADモデルの3次元形状とは異なる場合には結合した状態のモデルを改めてCADのデザインツールで再配置を行う手間がかかる。そのため、上述した実施形態の手法により結合した状態の一つの位置姿勢推定のモデルとして登録することで手間を解消することができる。
更に、リバースエンジニアリングによる形状再構成には、高価な撮像機材を現場に搬入し、撮像のための手続きやアプリケーションの習熟が必要で、製造ラインで汎用的に用いることがコスト面で困難であったことが解消される。
よって、CADモデルが無い対象物体の位置姿勢推定を、少ない手間で実現するための技術を提供することができる。
According to the processing of each embodiment described above, position and orientation estimation is possible even when the CAD model cannot be used as the three-dimensional information of the target object when the target object alignment technique is used on the production line site. Is possible. For example, even if the CAD model of the target part cannot be used in the first place, such as when there is only a two-dimensional drawing of an off-the-shelf general-purpose part or when the design information of the design department cannot be used confidentially in the manufacturing department, Can make models. Further, even when CAD data is already present, it can be used as mesh data in the schematic shape generation unit without changing the configuration of the apparatus. In addition, if the 3D shape of the CAD model at the time of design is different, such as when multiple parts are assembled to the target part, the model in the combined state can be redesigned using the CAD design tool. It takes time and effort to relocate. Therefore, it is possible to eliminate the trouble by registering as a single position / orientation estimation model combined by the method of the above-described embodiment.
In addition, shape reconstruction by reverse engineering requires expensive imaging equipment to be brought into the field, procedures for imaging and application proficiency are required, and it is difficult to use it universally on the production line. That is solved.
Therefore, it is possible to provide a technique for realizing the position and orientation estimation of a target object without a CAD model with less effort.

100 情報処理装置
101 CPU
112 HDD
100 Information processing apparatus 101 CPU
112 HDD

Claims (9)

対象物体の表面までの距離情報を取得する取得手段と、
前記距離情報に基づいて前記対象物体の概略形状を生成する生成手段と、
前記対象物体の画像を取得する画像取得手段と、
前記距離情報に基づいて前記対象物体の幾何特徴を抽出すると共に、前記画像に基づいて前記対象物体の幾何特徴を抽出する抽出手段と、
前記抽出手段により抽出された前記対象物体の幾何特徴を前記生成手段により生成された前記概略形状に配置する配置手段と、
を有する情報処理装置。
An acquisition means for acquiring distance information to the surface of the target object;
Generating means for generating a schematic shape of the target object based on the distance information;
Image acquisition means for acquiring an image of the target object;
Extracting means for extracting a geometric feature of the target object based on the distance information, and extracting a geometric feature of the target object based on the image;
Arrangement means for arranging geometric features of the target object extracted by the extraction means in the approximate shape generated by the generation means;
An information processing apparatus.
前記生成手段は、前記距離情報に基づいて前記対象物体の3次元の概略形状を生成し、
前記抽出手段は、前記距離情報に基づいて前記対象物体の3次元の幾何特徴を抽出し、
前記配置手段は、前記対象物体の3次元の幾何特徴を前記3次元の概略形状に配置する請求項1記載の情報処理装置。
The generation unit generates a three-dimensional schematic shape of the target object based on the distance information,
The extraction means extracts a three-dimensional geometric feature of the target object based on the distance information;
The information processing apparatus according to claim 1, wherein the arranging unit arranges a three-dimensional geometric feature of the target object in the three-dimensional schematic shape.
前記画像取得手段は、前記対象物体の2次元画像を取得し、
前記抽出手段は、前記2次元画像に基づいて前記対象物体の2次元の幾何特徴を抽出し、
前記配置手段は、前記対象物体を撮像する撮像デバイスを基準に前記対象物体の2次元の幾何特徴を前記3次元の概略形状に投射した際の前記2次元の幾何特徴の前記3次元の概略形状における3次元位置情報を求め、前記3次元位置情報に応じて前記2次元の幾何特徴を更に前記3次元の概略形状に配置する請求項2記載の情報処理装置。
The image acquisition means acquires a two-dimensional image of the target object,
The extraction means extracts a two-dimensional geometric feature of the target object based on the two-dimensional image;
The arranging means is configured to project the two-dimensional geometric feature of the target object onto the three-dimensional schematic shape based on an imaging device that images the target object. The information processing apparatus according to claim 2, wherein three-dimensional position information is obtained, and the two-dimensional geometric feature is further arranged in the three-dimensional schematic shape according to the three-dimensional position information.
前記抽出手段による幾何特徴の抽出方法を選択する選択手段を更に有し、
前記抽出手段は、前記選択手段により選択された抽出方法に応じて前記対象物体の幾何特徴を抽出する請求項1乃至3何れか1項記載の情報処理装置。
A selection means for selecting a geometric feature extraction method by the extraction means;
The information processing apparatus according to claim 1, wherein the extraction unit extracts a geometric feature of the target object according to an extraction method selected by the selection unit.
前記対象物体を撮像するデバイスの位置姿勢情報に関連付けて前記配置手段により前記概略形状に配置された複数の幾何特徴を記憶領域に記憶する記憶手段を更に有する請求項1乃至4何れか1項記載の情報処理装置。   5. The storage device according to claim 1, further comprising a storage unit configured to store, in a storage area, a plurality of geometric features arranged in the schematic shape by the arrangement unit in association with position and orientation information of a device that captures the target object. Information processing device. 対象物体を撮像するデバイスの位置姿勢情報に基づいて前記位置姿勢情報に類似する位置姿勢情報と関連付けて前記記憶領域に記憶されている複数の幾何特徴を選択する幾何特徴選択手段と、
前記幾何特徴選択手段により選択された複数の幾何特徴と、前記幾何特徴のそれぞれに対応する対象物体の幾何特徴と、の差が少なくなるように前記対象物体の位置姿勢を推定する推定手段と、
を更に有する請求項5記載の情報処理装置。
Geometric feature selection means for selecting a plurality of geometric features stored in the storage area in association with position and orientation information similar to the position and orientation information based on position and orientation information of a device that captures a target object;
Estimating means for estimating the position and orientation of the target object so as to reduce the difference between the plurality of geometric features selected by the geometric feature selecting means and the geometric features of the target object corresponding to each of the geometric features;
The information processing apparatus according to claim 5, further comprising:
前記幾何特徴選択手段により選択された複数の幾何特徴と、前記幾何特徴のそれぞれに対応する前記対象物体の幾何特徴と、の差が閾値より大きい場合、前記対象物体の複数の幾何特徴を、前記対象物体を撮像するデバイスの位置姿勢情報に関連付けて前記記憶領域に登録する登録手段を更に有する請求項6記載の情報処理装置。   When the difference between the plurality of geometric features selected by the geometric feature selection means and the geometric feature of the target object corresponding to each of the geometric features is larger than a threshold, the plurality of geometric features of the target object are The information processing apparatus according to claim 6, further comprising registration means for registering in the storage area in association with position / orientation information of a device that images the target object. 情報処理装置が実行する情報処理方法であって、
対象物体の表面までの距離情報を取得する取得ステップと、
前記距離情報に基づいて前記対象物体の概略形状を生成する生成ステップと、
前記対象物体の画像を取得する画像取得ステップと、
前記距離情報に基づいて前記対象物体の幾何特徴を抽出すると共に、前記画像に基づいて前記対象物体の幾何特徴を抽出する抽出ステップと、
前記抽出ステップにより抽出された前記対象物体の幾何特徴を前記生成ステップにより生成された前記概略形状に配置する配置ステップと、
を含む情報処理方法。
An information processing method executed by an information processing apparatus,
An acquisition step of acquiring distance information to the surface of the target object;
Generating a schematic shape of the target object based on the distance information;
An image acquisition step of acquiring an image of the target object;
Extracting the geometric feature of the target object based on the distance information and extracting the geometric feature of the target object based on the image;
An arrangement step of arranging the geometric feature of the target object extracted by the extraction step in the schematic shape generated by the generation step;
An information processing method including:
コンピュータを、請求項1乃至7何れか1項記載の情報処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the information processing apparatus of any one of Claims 1 thru | or 7.
JP2015105774A 2015-05-25 2015-05-25 Information processing apparatus, information processing method, and program Active JP6584139B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015105774A JP6584139B2 (en) 2015-05-25 2015-05-25 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015105774A JP6584139B2 (en) 2015-05-25 2015-05-25 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2016218920A true JP2016218920A (en) 2016-12-22
JP6584139B2 JP6584139B2 (en) 2019-10-02

Family

ID=57581332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015105774A Active JP6584139B2 (en) 2015-05-25 2015-05-25 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6584139B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018185658A (en) * 2017-04-26 2018-11-22 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2019168251A (en) * 2018-03-22 2019-10-03 株式会社Jvcケンウッド Shape measuring apparatus, shape measuring method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079452A (en) * 2008-09-24 2010-04-08 Canon Inc Position and orientation measurement apparatus and method thereof
JP2011179908A (en) * 2010-02-26 2011-09-15 Canon Inc Three-dimensional measurement apparatus, method for processing the same, and program
JP2012128661A (en) * 2010-12-15 2012-07-05 Canon Inc Information processor, information processing method and program
JP2013217893A (en) * 2012-03-13 2013-10-24 Canon Inc Model generation device, position posture estimation device, information processor, model generation method, position posture estimation method, information processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079452A (en) * 2008-09-24 2010-04-08 Canon Inc Position and orientation measurement apparatus and method thereof
JP2011179908A (en) * 2010-02-26 2011-09-15 Canon Inc Three-dimensional measurement apparatus, method for processing the same, and program
JP2012128661A (en) * 2010-12-15 2012-07-05 Canon Inc Information processor, information processing method and program
JP2013217893A (en) * 2012-03-13 2013-10-24 Canon Inc Model generation device, position posture estimation device, information processor, model generation method, position posture estimation method, information processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018185658A (en) * 2017-04-26 2018-11-22 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2019168251A (en) * 2018-03-22 2019-10-03 株式会社Jvcケンウッド Shape measuring apparatus, shape measuring method, and program
JP7000940B2 (en) 2018-03-22 2022-01-19 株式会社Jvcケンウッド Shape measuring device, shape measuring method and program

Also Published As

Publication number Publication date
JP6584139B2 (en) 2019-10-02

Similar Documents

Publication Publication Date Title
JP5297403B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, program, and storage medium
US20200096317A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
JP5624394B2 (en) Position / orientation measurement apparatus, measurement processing method thereof, and program
JP6426968B2 (en) INFORMATION PROCESSING APPARATUS AND METHOD THEREOF
JP6271953B2 (en) Image processing apparatus and image processing method
JP6465789B2 (en) Program, apparatus and method for calculating internal parameters of depth camera
KR101643079B1 (en) Method for registering data
JP5671281B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
JP6370038B2 (en) Position and orientation measurement apparatus and method
CN107155341B (en) Three-dimensional scanning system and frame
JP6324025B2 (en) Information processing apparatus and information processing method
JP6092530B2 (en) Image processing apparatus and image processing method
JP5627325B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
CN109785373B (en) Speckle-based six-degree-of-freedom pose estimation system and method
JP2011085971A (en) Apparatus, method, and program for processing image, recording medium, and image processing system
JP2016170050A (en) Position attitude measurement device, position attitude measurement method and computer program
JP4938748B2 (en) Image recognition apparatus and program
JP2019020778A (en) Information processing device and information processing method
JP5698815B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP6040264B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP6584139B2 (en) Information processing apparatus, information processing method, and program
JP5976089B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
JP6228239B2 (en) A method for registering data using a set of primitives
JP6890422B2 (en) Information processing equipment, control methods and programs for information processing equipment
JP2011022084A (en) Device and method for measuring three-dimensional pose

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190903

R151 Written notification of patent or utility model registration

Ref document number: 6584139

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151