JP6071522B2 - Information processing apparatus and information processing method - Google Patents

Information processing apparatus and information processing method Download PDF

Info

Publication number
JP6071522B2
JP6071522B2 JP2012276120A JP2012276120A JP6071522B2 JP 6071522 B2 JP6071522 B2 JP 6071522B2 JP 2012276120 A JP2012276120 A JP 2012276120A JP 2012276120 A JP2012276120 A JP 2012276120A JP 6071522 B2 JP6071522 B2 JP 6071522B2
Authority
JP
Japan
Prior art keywords
coordinate
point
model
value
observation point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012276120A
Other languages
Japanese (ja)
Other versions
JP2014120068A (en
JP2014120068A5 (en
Inventor
小林 一彦
一彦 小林
小竹 大輔
大輔 小竹
圭祐 立野
圭祐 立野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012276120A priority Critical patent/JP6071522B2/en
Publication of JP2014120068A publication Critical patent/JP2014120068A/en
Publication of JP2014120068A5 publication Critical patent/JP2014120068A5/ja
Application granted granted Critical
Publication of JP6071522B2 publication Critical patent/JP6071522B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、対象物体の形状モデルと観測点とを対応付けてモデルフィッティング処理を行う情報処理装置およびその制御方法に関する。   The present invention relates to an information processing apparatus that performs a model fitting process by associating a shape model of a target object with an observation point, and a control method thereof.

対象物体の形状モデルと、対象物体を観測した画像(距離画像等)における観測値との差を小さくするように、形状モデルの位置姿勢を推定する方法は、モデルフィッティングと呼ばれ、対象物体の位置姿勢を非接触で推定する技術の一つとして知られている。この技術は、ロボットによる部品のビンピッキング等、不特定の位置姿勢に置かれた部品(対象物体)をビジョンセンサにより位置姿勢を計測する場合等において利用される。   The method of estimating the position and orientation of a shape model so as to reduce the difference between the shape model of the target object and the observed value in the image (distance image, etc.) of the target object is called model fitting. It is known as one of the techniques for estimating the position and orientation without contact. This technique is used when the position and orientation of a component (target object) placed at an unspecified position and orientation is measured by a vision sensor, such as bin picking of a component by a robot.

ここで形状モデルとは、対象物体の観測される面の形状を表現したもので、例えばポリゴンモデル等の局所平面の組み合わせで表現される。形状モデルと対象物体の観測値との差を計算する際に、形状を構成する各幾何形状に対して、観測された画像中に含まれる幾何特徴のエッジや、距離画像の距離点との対応付けを行う必要がある。   Here, the shape model is a representation of the shape of the observed surface of the target object, for example, a combination of local planes such as a polygon model. When calculating the difference between the shape model and the observed value of the target object, each geometric shape that forms the shape corresponds to the edge of the geometric feature included in the observed image and the distance point of the distance image It is necessary to apply

形状モデルと観測点を対応付ける方法として、各幾何形状に対して最近傍の観測された幾何特徴を対応付ける方法が開示されている(例えば、非特許文献1参照)。この方法は、対象物体の表面にテクスチャなどの特徴が無い部品において有効である。   As a method of associating a shape model with an observation point, a method of associating the nearest observed geometric feature with each geometric shape is disclosed (for example, see Non-Patent Document 1). This method is effective for a part having no feature such as texture on the surface of the target object.

幾何特徴同士を対応付ける処理は、位置姿勢推定の並進・回転成分の非線形パラメータを推定するステップ毎に行われる。一般に距離画像や画像特徴のデータ量は膨大であるため、この対応付け処理を効率化する技術が要求されている。   The process of associating the geometric features is performed for each step of estimating the nonlinear parameter of the translation / rotation component of the position / orientation estimation. In general, since the amount of data of distance images and image features is enormous, a technique for improving the efficiency of this association processing is required.

距離画像の距離点と形状モデルの面との効率的な対応付けに関しては、空間的に区分分割された範囲に距離点を格納して探索時間を効率化する方法が開示されている(例えば、非特許文献2参照)。また、画像中のエッジ点と形状モデルとの対応付けに関しては、撮影画像から幾何形状の方向を考慮して、画像の探索範囲を1次元に限定して探索する方法が知られている(例えば、特許文献1参照)。   Regarding efficient association between the distance point of the distance image and the surface of the shape model, a method for storing the distance point in a spatially divided range and improving the search time is disclosed (for example, Non-patent document 2). As for the association between the edge point in the image and the shape model, a method of searching by limiting the search range of the image to one dimension in consideration of the direction of the geometric shape from the captured image is known (for example, And Patent Document 1).

特許第4649559号公報Japanese Patent No. 4649559

Paul J.Besl,Neil D.McKay,“A Method for Registration of 3-D Shapes”。IEEE Transactions of pattern analysis and machine intelligence,vol.14,no.2,(1992).Paul J. Besl, Neil D. McKay, “A Method for Registration of 3-D Shapes”. IEEE Transactions of pattern analysis and machine intelligence, vol.14, no.2, (1992). ZHENYOU ZHANG,“Iterative Point Matching for Registration of Free-Form Curves and Surfaces”。International Journal of Computer Vision,13-2,pp.119-152,(1994).ZHENYOU ZHANG, “Iterative Point Matching for Registration of Free-Form Curves and Surfaces”. International Journal of Computer Vision, 13-2, pp.119-152, (1994).

上記従来のモデルフィッティング処理においては、形状モデルと観測点との対応付け処理が位置姿勢推定パラメータの更新ステップ毎に行われるため、その処理量は膨大となる。上述した特許文献1に記載の技術では、各注目画素から距離が最短となる特徴部(エッジ部)までの距離を算出するため、その演算負荷が大きいという問題がある。   In the conventional model fitting process, the process of associating the shape model with the observation point is performed for each position and orientation estimation parameter update step, and the amount of processing is enormous. The technique described in Patent Document 1 described above has a problem in that the calculation load is large because the distance from each pixel of interest to the feature portion (edge portion) having the shortest distance is calculated.

本発明は上記課題に鑑み、モデルフィッティング処理において、対象物体の形状モデルと観測点との対応付けを高速に行うことを可能とする情報処理装置および情報処理方法を提供することを目的とする。   In view of the above-described problems, an object of the present invention is to provide an information processing apparatus and an information processing method capable of performing association between a shape model of a target object and an observation point at high speed in model fitting processing.

上記目的を達成するための一手段として、本発明の情報処理装置は以下の構成を備える。   As a means for achieving the above object, an information processing apparatus of the present invention comprises the following arrangement.

すなわち、対象物体の形状を示すモデルにおける幾何特徴を示すモデル点と、該対象物体を計測して得られた画像中に含まれる該対象物体の幾何特徴を示す観測点との対応付けを行う情報処理装置であって、
前記観測点の座標値にインデックス値を付し、該インデックス値と座標値の関係を保持する第1の保持手段と、
前記座標値を変換し、該変換された座標値に対応する画素に前記インデックス値を格納したインデックスマップを保持する第2の保持手段と、
前記モデル点の座標値を前記インデックスマップの座標系における座標値に変換するモデル点座標変換手段と、
前記モデル点座標変換手段によって変換された座標値に対応する前記インデックスマップの画素に格納されたインデックス値を取得する取得手段と、を有し、
前記取得手段で取得されたインデックス値に基づいて前記モデル点に対応する観測点が特定されることを特徴とする。
That is, information for associating a model point indicating a geometric feature in a model indicating the shape of the target object with an observation point indicating the geometric feature of the target object included in an image obtained by measuring the target object A processing device comprising:
Attaching an index value to the coordinate value of the observation point, a first holding means for holding a relationship between the index value and the coordinate value,
Second holding means for converting the coordinate value and holding an index map in which the index value is stored in a pixel corresponding to the converted coordinate value;
A model point coordinate conversion means for converting the coordinate values of the model point coordinate values definitive the coordinate system of the index map,
Obtaining means for obtaining an index value stored in a pixel of the index map corresponding to the coordinate value transformed by the model point coordinate transformation means;
The observation point corresponding to the model point is specified based on the index value acquired by the acquisition means.

本発明によれば、モデルフィッティング処理において、対象物体の形状モデルと観測点との対応付けを高速に行うことが可能となる。   According to the present invention, in the model fitting process, the shape model of the target object and the observation point can be associated at high speed.

第1実施形態における情報処理装置の構成を示すブロック図、A block diagram showing a configuration of an information processing device in the first embodiment, 第1実施形態におけるインデックスマップ生成処理を示すフローチャート、A flowchart showing an index map generation process in the first embodiment, 第1実施形態におけるインデックスマップ生成の概念図、Conceptual diagram of index map generation in the first embodiment, 第1実施形態におけるモデル点と観測点の残差計算処理を示すフローチャート、A flowchart showing residual calculation processing of model points and observation points in the first embodiment, 第2実施形態における位置姿勢計測装置の構成を示すブロック図、である。FIG. 6 is a block diagram showing a configuration of a position / orientation measurement apparatus according to a second embodiment.

以下、本発明実施形態について、図面を参照して説明する。なお、以下の実施の形態は特許請求の範囲に関わる本発明を限定するものではなく、また、本実施の形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following embodiments do not limit the present invention related to the scope of claims, and all combinations of features described in the present embodiments are essential for the solution means of the present invention. Is not limited.

<第1実施形態>
本発明は、観測点とモデル点との対応付けを行うために、検出された幾何特徴である観測点の位置情報を格納したテーブルのインデックスを画素として保持し、該画素値を周辺画素に拡張するようにインデックスマップを作成する。このインデックスマップを用いることにより、モデル点と観測点との対応関係をより高速に得ることができ、すなわちより高速なモデルフィッティングが可能となる。
<First Embodiment>
In the present invention, in order to associate an observation point with a model point, an index of a table storing observation point position information, which is a detected geometric feature, is held as a pixel, and the pixel value is extended to surrounding pixels. Create an index map to By using this index map, the correspondence between model points and observation points can be obtained at higher speed, that is, higher-speed model fitting is possible.

本発明は詳細には、対象物体の形状を示すモデルにおけるモデル点と、該対象物体を計測して得られた画像中に含まれる観測点との対応付けを行う情報処理装置において、以下の機能を実現する。まず、対象物体の幾何特徴を示す観測点の座標値にインデックス値を付し、該インデックス値と座標値の関係を第1の保持手段に保持する。そして、第1の保持手段によって保持された座標値を変換し、該変換された座標値の示す画素にインデックス値を格納したインデックスマップを第2の保持手段に保持する。そして、モデルにおける幾何特徴を示すモデル点の座標値をインデックスマップの座標系に変換し、該変換された座標値に対応するインデックスマップの画素に格納されたインデックス値を取得する。このように取得されたインデックス値に基づいて、モデル点に対応する観測点が特定される。   More specifically, the present invention relates to an information processing apparatus that associates a model point in a model indicating the shape of a target object with observation points included in an image obtained by measuring the target object. To realize. First, an index value is assigned to the coordinate value of the observation point indicating the geometric feature of the target object, and the relationship between the index value and the coordinate value is held in the first holding means. Then, the coordinate value held by the first holding unit is converted, and the index map in which the index value is stored in the pixel indicated by the converted coordinate value is held in the second holding unit. Then, the coordinate value of the model point indicating the geometric feature in the model is converted into the coordinate system of the index map, and the index value stored in the pixel of the index map corresponding to the converted coordinate value is acquired. Based on the index value acquired in this way, an observation point corresponding to the model point is specified.

●装置構成
図1に、本実施形態における情報処理装置のブロック構成例を示す。本実施形態は、
対象物体の形状モデル(以下、モデル)と、対象物体の観測情報との差(残差)が小さくなるように、モデルの位置姿勢を推定するモデルフィッティング方法において、観測情報とモデルとの差を対応付ける処理に関するものである。具体的には、観測点の情報、モデル点、そしてモデル点を観測座標系に合わせるように変換する変換パラメータを入力とし、対応付けした観測点とモデル点、および、その観測座標系での残差を出力とする。
Apparatus Configuration FIG. 1 shows a block configuration example of the information processing apparatus in the present embodiment. This embodiment
In the model fitting method that estimates the position and orientation of the model so that the difference (residual) between the shape model of the target object (hereinafter referred to as the model) and the observation information of the target object is reduced, the difference between the observation information and the model is calculated. This is related to the process of associating. Specifically, information on observation points, model points, and conversion parameters that convert the model points to match the observation coordinate system are input, and the associated observation points and model points are stored in the observation coordinate system. The difference is output.

なお、本実施形態における観測点とは、距離画像や濃淡画像中に含まれる幾何特徴点であり、幾何特徴としては、距離画像であれば距離点、濃淡画像であればエッジ等である。本実施形態では濃淡画像を用いた例を説明するが、本発明はこれに限らず、例えばカラー画像等、2次元画像であれば適用可能である。また観測点は、テクスチャの局所的な濃度分布を表す特徴点でもあっても構わない。つまり、計測対象物体のモデルと、実際に計測対象物を観測することで検出される点との対応がとれる幾何特徴であれば、どのような幾何特徴を利用しても構わない。   Note that the observation points in the present embodiment are geometric feature points included in a distance image or a grayscale image, and the geometric features are distance points for a distance image and edges or the like for a grayscale image. In the present embodiment, an example using a grayscale image will be described, but the present invention is not limited to this, and can be applied to any two-dimensional image such as a color image. Further, the observation point may be a feature point representing a local density distribution of the texture. That is, any geometric feature may be used as long as the geometric feature can correspond to a point detected by actually observing the measurement target object.

また、モデル点とは、計測対象物体の形状から実際に観測される幾何特徴との対応がとれる点である。距離画像を対象としたモデル点は、形状表面の点である。また、濃淡画像のエッジを幾何特徴とする場合には、モデル形状から観測される濃度勾配が変化するエッジの位置を、モデル点として利用することができる。観測点の幾何特徴とモデル点の幾何特徴を対応付けることができれば、どのような幾何特徴の組み合わせであっても構わない。   The model point is a point that can correspond to a geometric feature actually observed from the shape of the measurement target object. The model point for the distance image is a point on the shape surface. When the edge of the grayscale image is a geometric feature, the position of the edge where the density gradient observed from the model shape changes can be used as the model point. Any combination of geometric features may be used as long as the geometric features of the observation points can be associated with the geometric features of the model points.

以下、本実施形態における情報処理部100における各構成について説明する。観測点入力部110は、モデルとの残差計算の対象となる距離画像や濃淡画像に含まれる幾何特徴の座標値を観測点として入力する。具体的には、距離画像であれば距離点を、濃淡画像であればエッジ点の位置を示す座標値を入力する。   Hereinafter, each configuration of the information processing unit 100 in the present embodiment will be described. The observation point input unit 110 inputs a coordinate value of a geometric feature included in a distance image or a grayscale image that is a target for calculating a residual with the model as an observation point. Specifically, a distance point is input for a distance image, and a coordinate value indicating the position of an edge point is input for a grayscale image.

観測点テーブル保持部140は、観測点入力部110で観測点として入力された座標値を、重複がないようにインデックスを付与してテーブルとして格納する。   The observation point table holding unit 140 stores the coordinate values input as observation points by the observation point input unit 110 by assigning indexes so as not to overlap, as a table.

観測点座標変換部150は、観測点の座標をインデックスマップ座標系に変換する。観測点が3次元の座標値である場合には、これを2次元(観測画面)の座標値に投影する計算(射影計算)を行う。この射影計算においては、投影される2次元の観測画面が後述するインデックスマップの画像のサイズに合うように、すなわちインデックスマップ座標系への変換が行われるように、パラメータが用意されているものとする。なお、観測点が2次元の座標値である場合には、インデックスマップ座標系への並進・拡大等を行う。   The observation point coordinate conversion unit 150 converts the coordinates of the observation point into an index map coordinate system. When the observation point has a three-dimensional coordinate value, a calculation (projection calculation) is performed to project the observation point onto a two-dimensional (observation screen) coordinate value. In this projection calculation, parameters are prepared so that the projected two-dimensional observation screen matches the size of the index map image described later, that is, conversion into the index map coordinate system is performed. To do. When the observation point is a two-dimensional coordinate value, translation / expansion to the index map coordinate system is performed.

インデックスマップ参照領域処理部160は、観測点座標変換部150で変換された座標値に基づき、観測点テーブル保持部140に保持されたインデックスの値をインデックスマップに書き込み、そのインデックス値を周辺の領域に伝播させる。インデックスマップ保持部170は、インデックスマップ参照領域処理部160による処理後のインデックスマップを、画像として参照できるように保持する。例えば、観測点テーブルのインデックスを示す値を保持する画像形式の配列からなるインデックスマップ画像として保持する。このインデックスの値は直接配列の番号でも良いが、ハッシュ値を計算するなどの所定の参照値の変換値を利用しても良い。   Based on the coordinate values converted by the observation point coordinate conversion unit 150, the index map reference area processing unit 160 writes the index values held in the observation point table holding unit 140 into the index map, and writes the index values to the surrounding areas. Propagate to. The index map holding unit 170 holds the index map processed by the index map reference region processing unit 160 so that it can be referred to as an image. For example, it is stored as an index map image composed of an image format array that stores values indicating indexes in the observation point table. The index value may be a direct array number, but a conversion value of a predetermined reference value such as a hash value may be used.

次に、計測対象となる対象物体のモデル表面上の幾何特徴の座標値との比較を行う構成について説明する。   Next, a configuration for comparing with the coordinate value of the geometric feature on the model surface of the target object to be measured will be described.

モデル点座標パラメータ入力部120は、モデル座標系で表現されているモデル点を観測点と同じ観測座標系(ビュー座標系)へ幾何変換するための並進・回転のパラメータを、モデル点座標パラメータとして入力する。一般にモデル点座標パラメータは、モデル座標系からビュー座標系への変換を行うモデルビュー変換行列の値であり、カメラの位置姿勢や焦点距離、主点位置などの観測点と対応が取られている値であることが望ましい。なお、モデル点座標パラメータの値としては位置姿勢パラメータの推定値であることが想定されるが、残差量だけを計算したい場合には、比較対象となる位置姿勢のパラメータ値であっても構わない。   The model point coordinate parameter input unit 120 uses, as model point coordinate parameters, translation / rotation parameters for geometric transformation of model points expressed in the model coordinate system to the same observation coordinate system (view coordinate system) as the observation points. input. In general, the model point coordinate parameter is the value of the model view transformation matrix that performs transformation from the model coordinate system to the view coordinate system, and corresponds to the observation points such as the camera position and orientation, focal length, and principal point position. It is desirable to be a value. The model point coordinate parameter value is assumed to be an estimated value of the position / orientation parameter, but if only the residual amount is to be calculated, it may be the parameter value of the position / orientation to be compared. Absent.

モデル点入力部130は、計測対象物体における幾何特徴に対応する、モデル表面上の位置をモデル座標系で表記した座標を、モデル点として入力する。ここでモデル点としては、距離画像を観測対象とする場合には、計測対象物体の形状モデルにおける面ポリゴン上の可視の点を利用する。なお、形状情報として利用できれば、モデル点をポリゴン以外の表現、例えば解析曲面と境界による表現やボクセルでの体積表現としても構わない。すなわち、観測される物体表面の情報が得られる形状表現であれば、モデル点の表現形式は問わない。   The model point input unit 130 inputs coordinates representing the position on the model surface in the model coordinate system corresponding to the geometric feature in the measurement target object as model points. Here, as a model point, when a distance image is an observation target, a visible point on a surface polygon in a shape model of a measurement target object is used. As long as it can be used as shape information, the model point may be expressed as an expression other than a polygon, for example, an expression by an analytical curved surface and a boundary, or a volume expression by voxel. In other words, the model point may be expressed in any form as long as it is a shape expression that provides information on the observed object surface.

また、画像中のエッジを観測対象とする場合には、計測対象物体の構造的に可視のルーフエッジやジャンプエッジのポリゴンの辺上の点を、モデル点として利用する。ここでは、計測対象物体の観測情報から検出できる幾何特徴と対応付けられるものをモデル点情報とし、少なくともモデル座標系での位置座標が含まれていれば、いかなる幾何特徴であっても構わない。例えば、物体表面に貼付されているシールに印字されている文字などの幾何特徴をモデル点情報としてもよい。   Further, when an edge in the image is an observation target, a point on the polygon side of the structurally visible roof edge or jump edge of the measurement target object is used as a model point. Here, what is associated with the geometric feature that can be detected from the observation information of the measurement target object is the model point information, and any geometric feature may be used as long as at least position coordinates in the model coordinate system are included. For example, a geometric feature such as a character printed on a sticker attached to the object surface may be used as the model point information.

モデル点座標変換部180は、まず、モデル点座標パラメータ入力部120で入力されたモデルビュー変換行列に対し、モデル点入力部130で入力されたモデル点の座標値を乗じることで、モデル座標系のモデル点を観測座標系へ変換する。ここで変換された観測座標系のモデル点の座標値(以下、モデルビュー座標値)は、観測点・モデル点残差計算部200へ出力され、残差計算に用いられる。モデル点座標変換部180ではさらに、モデルビュー座標値からインデックスマップ座標値への射影変換が行われる。この座標変換には、射影変換行列を必要とする。この射影変換行列の値としては、インデックスマップ保持部170が保持する画像のパラメータを利用しても良いし、モデル点座標パラメータ入力部120から入力しても良い。   The model point coordinate conversion unit 180 first multiplies the model view conversion matrix input by the model point coordinate parameter input unit 120 by the coordinate value of the model point input by the model point input unit 130, thereby obtaining a model coordinate system. Convert the model point to the observation coordinate system. The coordinate values of the model points in the observation coordinate system (hereinafter referred to as model view coordinate values) converted here are output to the observation point / model point residual calculation unit 200 and used for residual calculation. The model point coordinate conversion unit 180 further performs projective conversion from the model view coordinate value to the index map coordinate value. This coordinate transformation requires a projective transformation matrix. As the value of the projective transformation matrix, an image parameter held by the index map holding unit 170 may be used, or may be input from the model point coordinate parameter input unit 120.

インデックスマップ参照部190は、モデル点座標変換部180で変換されたインデックスマップ座標系の座標値に登録された、インデックスマップの値を参照し、該値を観測点に対応するインデックス値として取得する。これにより、モデル点に対し、観測点テーブルに登録された観測点が実質的に対応付けられる。なお、インデックスマップは画像として参照できるようになっているため、インデックスマップがメモリとして保持されている場合には、座標系のオフセットを計算してアドレスを参照すれば良い。   The index map reference unit 190 refers to the value of the index map registered in the coordinate value of the index map coordinate system converted by the model point coordinate conversion unit 180, and acquires the value as an index value corresponding to the observation point. . Thereby, the observation point registered in the observation point table is substantially associated with the model point. Since the index map can be referred to as an image, if the index map is held as a memory, an offset of the coordinate system may be calculated to refer to the address.

観測点・モデル点残差計算部200は、対応付けられた観測点とモデル点の差分計算を行うことで、残差を出力する。まずインデックスマップ参照部190から得られたインデックス値に基づき、観測点テーブル保持部140においてインデックス値が同じであるデータを参照することで、現在処理中であるモデル点に対応する観測点の座標値を得る。そして、該取得した観測点の座標値と、モデル点座標変換部180で観測座標系に変換されたモデル点の座標値(モデルビュー座標値)から、この2点間の距離を残差として計算する。残差の計算方法としては例えば、観測対象が距離画像である場合には、3次元の点のユークリッド距離を計算すれば良い。距離画像における観測点の周辺を局所平面として近似することで、その面の法線を算出することができる。もしくは、モデル面の法線も得られる。対応付けられた幾何特徴の2点間のベクトルに対して、どちらかの法線を正規化したものとの内積を計算すると、面の法線方向による残差が算出できる。また、エッジを観測点とする場合には、観測座標系における2次元の距離を計算すれば良い。さらにエッジの場合はSobelフィルタ等の方向検出フィルタを用いることで、画像から勾配を検出することができる。モデルの位置とエッジの位置のベクトルに対して、正規化した勾配方向のベクトルとの内積を計算することで、勾配方向を考慮した残差を算出することができる。なお、残差計算式はユーザが設定できるものとする。   The observation point / model point residual calculation unit 200 outputs a residual by calculating a difference between the associated observation point and the model point. First, based on the index value obtained from the index map reference unit 190, the coordinate value of the observation point corresponding to the model point currently being processed is referred to by referring to the data having the same index value in the observation point table holding unit 140 Get. Then, from the obtained coordinate value of the observation point and the coordinate value (model view coordinate value) of the model point converted into the observation coordinate system by the model point coordinate conversion unit 180, the distance between the two points is calculated as a residual. To do. As a residual calculation method, for example, when the observation target is a distance image, the Euclidean distance of a three-dimensional point may be calculated. By approximating the periphery of the observation point in the distance image as a local plane, the normal of that plane can be calculated. Alternatively, the normal of the model surface can also be obtained. If the inner product of the vector between two points of the associated geometric feature and the normalized one of the normals is calculated, the residual according to the normal direction of the surface can be calculated. In addition, when using an edge as an observation point, a two-dimensional distance in the observation coordinate system may be calculated. Further, in the case of an edge, a gradient can be detected from an image by using a direction detection filter such as a Sobel filter. By calculating the inner product of the vector of the model position and the edge position with the normalized vector of the gradient direction, a residual considering the gradient direction can be calculated. The residual calculation formula can be set by the user.

観測点・モデル点残差出力部210は、観測点・モデル点残差計算部200による処理結果として、残差計算値、そこで利用されたモデル点、変換されたモデル点の座標、観測点テーブルの座標値、等を出力する。これらは、モデルフィッティングにおいて位置姿勢推定のパラメータを計算する際のヤコビ行列の値として利用され、残差が小さくなるように位置姿勢のパラメータが推定される。   The observation point / model point residual output unit 210 obtains the residual calculation value, the model point used there, the coordinates of the converted model point, the observation point table, as a processing result by the observation point / model point residual calculation unit 200. The coordinate value of, etc. is output. These are used as Jacobian matrix values when calculating the position and orientation estimation parameters in model fitting, and the position and orientation parameters are estimated so that the residual becomes small.

以上説明した図1に示す情報処理装置の構成は、CPU、メモリ、それらをつなぐバス、入出力装置、等の一般的なプログラム動作のプラットフォーム上に、プログラムとして実行することが可能である。そのため本実施形態を、位置姿勢推定の処理プログラムの一部として動作させることができる。また、装置として入出力のインターフェースを介して観測点、モデル点の情報を入力して、それらの対応付けと残差を出力するようなハードウェア構成として機能させても良い。また、インターフェースにネットワークを介してデータを送信して、別の場所にある装置で実行し、その結果を受信して利用するようにしても構わない。プログラムとしてメディアからのコピーや、ネットワークからダウンロードできるようにして、アプリケーションの一部として利用できるようになっていると、様々な機器で動作させることができるため、有用である。   The configuration of the information processing apparatus shown in FIG. 1 described above can be executed as a program on a general program operation platform such as a CPU, a memory, a bus connecting them, and an input / output device. Therefore, the present embodiment can be operated as a part of the position / orientation estimation processing program. Further, the apparatus may function as a hardware configuration in which information of observation points and model points is input via an input / output interface, and their correspondence and residual are output. Alternatively, data may be transmitted to the interface via a network, executed by a device at another location, and the result received and used. It is useful that the program can be copied from a medium, downloaded from a network, and used as a part of an application because it can be operated on various devices.

●インデックスマップ生成処理
以下、観測点入力部110からインデックスマップ保持部170までの構成において行われる、インデックスマップ生成処理の流れについて、図2のフローチャートおよび図3の概念図を用いて説明する。
Index Map Generation Processing Hereinafter, the flow of index map generation processing performed in the configuration from the observation point input unit 110 to the index map holding unit 170 will be described using the flowchart of FIG. 2 and the conceptual diagram of FIG.

まずS100で、処理開始時にインデックスマップ保持部170に確保されたインデックスマップを初期化し、次にS110で、観測点テーブル保持部140に確保された観測点テーブルを初期化する。   First, in S100, the index map secured in the index map holding unit 170 at the start of processing is initialized, and then in S110, the observation point table secured in the observation point table holding unit 140 is initialized.

次にS120で、観測点入力部110から観測点に関する情報を入力する。観測対象が距離画像である場合には、観測点情報はX,Y,Zの3次元の値となる。また、観測点が画像に含まれるエッジである場合には、観測点情報はX,Yの2次元の値となる。   Next, in S120, information regarding the observation point is input from the observation point input unit 110. When the observation target is a distance image, the observation point information is a three-dimensional value of X, Y, and Z. If the observation point is an edge included in the image, the observation point information is a two-dimensional value of X and Y.

次にS130で、S120で入力された観測点の座標値に対し、観測点テーブルを参照するためのインデックスを付与した後に、該座標値を観測点テーブル保持部140に追加格納する。ここで図3に、S120で得られた距離画像の座標(X,Y,Z)が、観測点テーブルのインデックス値"25"番に格納された例を示す。なお、観測点がメモリ配列を利用して表現されている場合には、観測座標を示すメモリ構造体と、そのインデックスを保持するレジスタを用いて、一連のメモリ空間に該メモリ構造体のサイズ分だけスライドさせて値を書き込めば良い。   Next, in S130, an index for referring to the observation point table is assigned to the coordinate value of the observation point input in S120, and then the coordinate value is additionally stored in the observation point table holding unit 140. FIG. 3 shows an example in which the coordinates (X, Y, Z) of the distance image obtained in S120 are stored in the index value “25” in the observation point table. When the observation points are expressed using a memory array, a memory structure indicating the observation coordinates and a register holding the index are used to store the size of the memory structure in a series of memory spaces. Just slide and write the value.

そしてS140では、S130で得られた観測点の座標値を、インデックスマップの座標系へ変換する。観測点として画像のエッジを利用する場合には、観測点は撮像画像であり、インデックスマップも同じサイズの画像としておくことで、観測点の座標をそのまま利用することができる。一方、観測点として距離画像を利用する場合には、観測点の3次元情報から2次元情報への射影変換を行う必要がある。したがって、インデックスマップ座標系への変換係数とオフセット値を予め設定しておき、該値に基づいて変換を行うことができる。例えば、インデックスマップの画像の中心を(cx,cy)、変換係数をfとすると、距離画像における任意の点(X,Y,Z)は、以下の(1),(2)式によってインデックスマップ座標系(u,v)へ変換される。なお、座標値は整数値として参照されるため、(1),(2)式では少数点以下を切り捨てるfloor()演算を行うとする。   In S140, the coordinate value of the observation point obtained in S130 is converted into the coordinate system of the index map. When the edge of the image is used as the observation point, the observation point is a captured image, and the coordinates of the observation point can be used as they are by setting the index map to an image of the same size. On the other hand, when using a distance image as an observation point, it is necessary to perform projective conversion from the three-dimensional information of the observation point to the two-dimensional information. Therefore, conversion coefficients and offset values for the index map coordinate system can be set in advance, and conversion can be performed based on the values. For example, if the center of the index map image is (cx, cy) and the conversion coefficient is f, an arbitrary point (X, Y, Z) in the distance image can be represented by the following formula (1), (2). Converted to coordinate system (u, v). Since the coordinate value is referred to as an integer value, it is assumed that the expressions (1) and (2) perform a floor () operation that rounds off the decimal point.

u=floor(f(X/Z)+cx) ・・・(1)
v=floor(f(Y/Z)+cy) ・・・(2)
次にS150では、インデックスマップにおいて、S140で変換された座標値が示す画素の値として、S130で観測点座標に付与したインデックス値を書き込む。したがって、インデックスマップの各画素の情報量としては、観測点テーブルの配列の上限を格納可能なビット数が必要となる。一般に利用される画像サイズであれば、各画素は符号無し16ビットのサイズがあれば良い。このビット数は、処理対象となる画像サイズや解像度に応じて切り替えるものとする。
u = floor (f (X / Z) + cx) (1)
v = floor (f (Y / Z) + cy) (2)
Next, in S150, in the index map, the index value assigned to the observation point coordinates in S130 is written as the pixel value indicated by the coordinate values converted in S140. Therefore, the information amount of each pixel of the index map requires a number of bits that can store the upper limit of the observation point table array. As long as the image size is generally used, each pixel only needs to have an unsigned 16-bit size. The number of bits is switched according to the image size and resolution to be processed.

ここで図3においては、S140で観測点の座標(X,Y,Z)が、上記式(1),(2)によりインデックスマップの座標(u,v)に変換されている。そしてS150で、該観測点座標(X,Y,Z)が対応する観測点テーブルのインデックス値"25"番が、インデックスマップの座標(u,v)に書き込まれる様子を示す。   Here, in FIG. 3, the coordinates (X, Y, Z) of the observation point are converted into the coordinates (u, v) of the index map by the above formulas (1) and (2) in S140. In S150, the index value “25” in the observation point table corresponding to the observation point coordinates (X, Y, Z) is written in the coordinates (u, v) of the index map.

そしてS160で観測点の座標入力が終了したか否かを確認し、未だ終了していない場合にはS120に戻って上記処理を繰り返すが、終了していればS170へ進む。   In S160, it is checked whether or not the coordinate input of the observation point has been completed. If it has not been completed yet, the process returns to S120 and the above processing is repeated. If it has been completed, the process proceeds to S170.

S170では、インデックスマップに対する参照領域処理を行う。すなわちインデックスマップにおいて、S150で書き込まれたインデックス値を周辺画素に拡張するように、参照領域を設定する。具体的には、注目画素にインデックスマップの値が書き込まれている場合には、その周辺画素にもそのインデックス値を書き込む処理を反復すれば良い。この画像処理としては、一般的な膨張処理(Dilate)を適用することができる。また、ボロノイ図の生成処理を適用することで周辺画素にインデックスの領域を設定することも可能である。ここでボロノイ図は、注目画素位置で最近傍の画素の値を保持するように作られるものであるため、本実施形態のインデックスマップとして用いることができる。なお、この参照画像処理としては、S150で書き込まれたインデックス値を、隣接する、値が未設定である画素に伝播させるように領域を拡張することができれば、どのような方法を用いても構わない。ここでは、インデックスの数値を周囲画素に伝播させることのみを行えばよく、上記特許文献1に記載されたディスタンスマップのように元の参照点からの距離や勾配を計算する必要がないため、インデックスマップを高速に作成することができる。   In S170, reference area processing for the index map is performed. That is, in the index map, the reference area is set so that the index value written in S150 is extended to surrounding pixels. Specifically, when the index map value is written in the target pixel, the process of writing the index value in the surrounding pixels may be repeated. As this image processing, general dilation processing (Dilate) can be applied. Further, by applying Voronoi diagram generation processing, it is also possible to set an index area for peripheral pixels. Here, since the Voronoi diagram is created so as to hold the value of the nearest pixel at the target pixel position, it can be used as an index map of this embodiment. As the reference image processing, any method may be used as long as the region can be expanded so that the index value written in S150 can be propagated to adjacent pixels whose values are not set. Absent. Here, it is only necessary to propagate the numerical value of the index to surrounding pixels, and it is not necessary to calculate the distance or gradient from the original reference point unlike the distance map described in Patent Document 1 above. A map can be created at high speed.

そしてS180ではインデックスマップ保持部170において、S170での処理結果であるインデックスマップの画像を、参照可能なように設定して保持する。   In S180, the index map holding unit 170 sets and holds the index map image, which is the processing result in S170, so that it can be referred to.

ここで図3によれば、S160までの処理によって、例えばインデックス値"24"番と"25"番が書き込まれたインデックスマップに対し、S170で参照領域処理を施すことで各インデックス値の領域が拡張される。そして、最終的に生成されたインデックスマップがS180で保持される。   Here, according to FIG. 3, by performing the reference area processing in S170 on the index map in which the index values “24” and “25” are written, for example, by the process up to S160, the area of each index value is changed. Expanded. Then, the finally generated index map is held in S180.

ここで従来のモデルフィッティング処理においては、参照する注目画素の周辺を部分的に探索する処理が行われていたため、メモリへの複数回のランダムアクセスによる処理時間が必要となり、処理時間が長くなるという課題があった。対して本実施形態では図3に示すように、インデックスマップにおける注目画素に対し、その周辺画素についても注目画素と同じインデックス値が保持される。したがって、注目画素を参照するのみによって最近傍対応付けの演算を行うことが可能となり、すなわちメモリへのアクセス回数が低減され、処理時間を短縮することが可能となる。   Here, in the conventional model fitting process, a process for partially searching the periphery of the pixel of interest to be referred to is performed, so a processing time by a plurality of random accesses to the memory is required, and the processing time is increased. There was a problem. On the other hand, in the present embodiment, as shown in FIG. 3, for the target pixel in the index map, the same index value as that of the target pixel is held for the surrounding pixels. Accordingly, it is possible to perform the nearest neighbor association calculation only by referring to the target pixel, that is, the number of accesses to the memory is reduced, and the processing time can be shortened.

なおここでは説明の簡便のため、図2のフローチャートに示す各ステップを逐次処理として説明したが、S120〜S160の入力値を登録する処理や、S170の参照領域処理をデータごとに並列に行うことで、処理時間をさらに短縮することができる。   For convenience of explanation, the steps shown in the flowchart of FIG. 2 are described as sequential processing. However, the processing for registering input values in S120 to S160 and the reference region processing in S170 are performed in parallel for each data. Thus, the processing time can be further shortened.

なお、ここではインデックスマップが画像形式の配列によって構成される例を示したが、注目領域にのみインデックスマップを保持するようにして、各画素要素の情報量が少なくなるようにしても良い。   Although an example in which the index map is configured by an image format array is shown here, the information amount of each pixel element may be reduced by holding the index map only in the region of interest.

●残差計算処理
以下、モデル点座標パラメータ入力部120から観測点・モデル点残差計算部200までの構成において行われる、モデル点と観測点を対応付けてその残差を算出する処理について、図4のフローチャートを用いて詳細に説明する。
Residual calculation processing The following is the processing performed in the configuration from the model point coordinate parameter input unit 120 to the observation point / model point residual calculation unit 200 to calculate the residual by associating the model point with the observation point. This will be described in detail with reference to the flowchart of FIG.

まずS200でモデル点座標パラメータ入力部120が、インデックスマップ座標系への変換パラメータとして、モデル点をモデルビュー座標系へ変換するモデルビュー変換行列が入力される。そしてS210でモデル点入力部130が、対応付けの対象となるモデル表面の点(モデル点)として、モデル座標系の座標値(X,Y,Z)を入力する。   First, in S200, the model point coordinate parameter input unit 120 receives a model view conversion matrix for converting a model point to the model view coordinate system as a conversion parameter to the index map coordinate system. In S210, the model point input unit 130 inputs the coordinate value (X, Y, Z) of the model coordinate system as a model surface point (model point) to be matched.

そしてS220でモデル点座標変換部180が、モデル点の座標値(X,Y,Z)を、インデックスマップ座標系に変換する。観測点が距離画像の点である場合には、まず以下の(3)式に示すように、モデル点の座標値(X,Y,Z)を、モデルビュー変換行列を用いてモデルビュー座標値(X',Y',Z')に変換する。(3)式において、Rが回転成分を変換する3x3行列、tが並進成分を変換する3x1行列であり、S200で入力された変換パラメータである。   In S220, the model point coordinate conversion unit 180 converts the coordinate value (X, Y, Z) of the model point into the index map coordinate system. If the observation point is a point of the distance image, first, as shown in the following equation (3), the coordinate value (X, Y, Z) of the model point is converted into the model view coordinate value using the model view transformation matrix. Convert to (X ', Y', Z '). In Equation (3), R is a 3 × 3 matrix for converting the rotation component, t is a 3 × 1 matrix for converting the translation component, and is the conversion parameter input in S200.

Figure 0006071522
Figure 0006071522

そして、(3)式により観測座標系に変換されたモデルビュー座標値(X',Y',Z')を、上記(1),(2)式のパラメータを用いることで、以下の(4),(5)式のように、インデックスマップ座標系の座標(u',v')へ変換する。   Then, by using the model view coordinate values (X ′, Y ′, Z ′) converted into the observation coordinate system by the expression (3) using the parameters of the above expressions (1) and (2), the following (4 ) And (5) are converted into coordinates (u ′, v ′) in the index map coordinate system.

u'=floor(f(X'/Z')+cx) ・・・(4)
v'=floor(f(Y'/Z')+cy) ・・・(5)
なお、観測点がエッジを示す場合にも、モデル点は対象物体表面の3次元の点として保持されているものとし、したがって上記(3)〜(5)式を適用することができる。
u '= floor (f (X' / Z ') + cx) (4)
v '= floor (f (Y' / Z ') + cy) (5)
Even when the observation point indicates an edge, the model point is assumed to be held as a three-dimensional point on the surface of the target object, and therefore, the above equations (3) to (5) can be applied.

そしてS230でインデックスマップ参照部190が、インデックスマップ保持部170に保持されたインデックスマップにおける、座標(u',v')の画素値を参照する。ここで、インデックスマップの各画素には、観測点テーブル保持部140に保持された各観測点テーブルにおけるインデックス値が書き込まれているため、すなわちS230では観測点テーブルのインデックス値が取得される。これにより、S210で入力されたモデル点に対し、観測点テーブルに登録された観測点の実質的な対応付けがなされる。   In step S230, the index map reference unit 190 refers to the pixel value at the coordinates (u ′, v ′) in the index map held in the index map holding unit 170. Here, since the index value in each observation point table held in the observation point table holding unit 140 is written in each pixel of the index map, that is, in S230, the index value of the observation point table is acquired. As a result, the model points input in S210 are substantially associated with the observation points registered in the observation point table.

そしてS240で観測点・モデル点残差計算部200が、S230で取得した観測点テーブルのインデックス値から、対応する観測点を特定する。なお、インデックスマップの画素に空のインデックス値が設定されていた場合には、対応する観測点が無かったものとして処理を行う。   In step S240, the observation point / model point residual calculation unit 200 identifies a corresponding observation point from the index value in the observation point table acquired in step S230. If an empty index value is set for a pixel in the index map, the processing is performed assuming that there is no corresponding observation point.

そしてS250で観測点・モデル点残差計算部200が、対応付けられた観測点とモデル点の残差を計算する。観測点が3次元の座標である場合には、上記(3)式で算出された観測座標系のモデルビュー座標値(X',Y',Z')と観測点テーブルに設定された観測点座標値(X,Y,Z)とにおけるユークリッド距離を計算しても良いし、各成分の差を計算しても良い。また観測点が2次元の座標である場合には、上記(4),(5)式で算出される(u',v')の値と、観測点テーブルの(X,Y)のユークリッド距離を計算しても良いし、各成分の差を計算しても良い。ここで、残差の計算方法は設定によって切り替え可能であるとする。そのため、残差計算については別の処理部で行うものとして、対応付けられた座標値やインデックス値を該別の処理部へ出力するようにしても良い。その場合、本実施形態では残差計算を行わない設定であっても構わない。   In S250, the observation point / model point residual calculation unit 200 calculates a residual between the associated observation point and model point. When the observation point is a three-dimensional coordinate, the model view coordinate value (X ', Y', Z ') of the observation coordinate system calculated by the above equation (3) and the observation point set in the observation point table The Euclidean distance with respect to the coordinate value (X, Y, Z) may be calculated, or the difference between each component may be calculated. If the observation point is a two-dimensional coordinate, the value of (u ', v') calculated by the above equations (4) and (5) and the Euclidean distance of (X, Y) in the observation point table May be calculated, or the difference between each component may be calculated. Here, it is assumed that the residual calculation method can be switched by setting. Therefore, the residual calculation may be performed by another processing unit, and the associated coordinate value or index value may be output to the other processing unit. In that case, in this embodiment, the setting for not performing the residual calculation may be used.

本実施形態のインデックスマップには、各画素と観測点テーブルとの対応関係のみが保持されている。したがって、対応付けられたモデル点と観測点との距離を示す残差計算はその都度行われるため、画素参照による離散化誤差の計算精度劣化が発生しない。そのため、上記特許文献1に記載されたディスタンスマップのように事前に計算された距離情報を参照する手法に対し、より高精度な残差計算が可能となる。また、インデックスマップの生成処理も単純であるため、kd木(kd tree)のようなデータ構造を生成する処理と比較して、データ保持にかかる容量も処理時間も小さくて済むという点で優れている。   In the index map of this embodiment, only the correspondence between each pixel and the observation point table is held. Therefore, since the residual calculation indicating the distance between the associated model point and the observation point is performed each time, the calculation accuracy of the discretization error due to pixel reference does not deteriorate. Therefore, it is possible to calculate the residual with higher accuracy than the method of referring to the distance information calculated in advance like the distance map described in Patent Document 1. Also, since the index map generation process is simple, it is superior in that it requires less data storage capacity and processing time than the process of generating a data structure such as a kd tree. Yes.

以上説明したように本実施形態によれば、インデックスマップを用いて観測点とモデル点の対応付けを行うことで、高速なモデルフィッティング処理が可能となる。また、幾何特徴を示す観測点として、距離画像に含まれる距離点や、画像に含まれるエッジ等を利用することができるため、適用範囲が広い。   As described above, according to the present embodiment, high-speed model fitting processing can be performed by associating observation points with model points using an index map. In addition, since the distance point included in the distance image, the edge included in the image, or the like can be used as the observation point indicating the geometric feature, the application range is wide.

<第2実施形態>
以下、本発明に係る第2実施形態について説明する。第2実施形態においては、上述した第1実施形態に示したモデルフィッティング機能を含む位置姿勢推定装置を示す。
<Second Embodiment>
Hereinafter, a second embodiment according to the present invention will be described. In the second embodiment, a position / orientation estimation apparatus including the model fitting function shown in the first embodiment described above is shown.

図5に、第2実施形態における位置姿勢推定装置のブロック構成例を示す。同図に示すように位置姿勢推定装置は、計測対象物体10に対して、パターンを投影するプロジェクタ300と、その反射像を撮影するカメラ310により、計測対象物体10の位置姿勢のパラメータを計測することを特徴とする。   FIG. 5 shows a block configuration example of the position / orientation estimation apparatus according to the second embodiment. As shown in the figure, the position / orientation estimation apparatus measures the position / orientation parameters of the measurement target object 10 using the projector 300 that projects a pattern and the camera 310 that captures a reflection image of the measurement target object 10. It is characterized by that.

プロジェクタ300はパターンを投影する機能を有し、一般には光源とパターンを構成するスクリーンで構成され、コンピュータからの映像パターンを照明することができる。カメラ310は投影されたパターンを撮影するように配置され、プロジェクタ300の投影タイミングに合わせた撮影(同期撮影)が行われるように、対象撮影部330で撮影タイミングが制御される。ここでプロジェクタ300における投影パターンとしては、グレイコードを用いた空間コード化法や、位相シフト法などの撮像画像とプロジェクターの投影画像の位置が対応できるようなパターンが想定される。このパターンにより対応付けられた配置関係から、三角測量法により距離の算出が可能とする。   The projector 300 has a function of projecting a pattern, and generally includes a light source and a screen that forms the pattern, and can illuminate a video pattern from a computer. The camera 310 is arranged to photograph the projected pattern, and the photographing timing is controlled by the target photographing unit 330 so that photographing (synchronous photographing) is performed in accordance with the projection timing of the projector 300. Here, as the projection pattern in the projector 300, a pattern that can correspond to the position of the captured image and the projected image of the projector, such as a spatial encoding method using a Gray code or a phase shift method, is assumed. The distance can be calculated by the triangulation method from the arrangement relationship associated with this pattern.

距離画像生成部340は、プロジェクタ300からパターンが投影された画像を利用して、プロジェクタ300の投影座標と、その撮影画像の座標との対応関係から、各画素の距離値を算出して距離画像を生成する。この距離画像における距離点が第1の実施形態における観測点(第1の観測点)として、後述する情報処理装置101に入力される(第1の観測点入力)。なお、距離値の計算にはプロジェクタ300とカメラ310の両方におけるカメラパラメータが必要であるが、これらのパラメータは事前に校正が施された後、設定済みであるとする。   The distance image generation unit 340 calculates the distance value of each pixel from the correspondence between the projection coordinates of the projector 300 and the coordinates of the captured image, using the image on which the pattern is projected from the projector 300. Is generated. A distance point in this distance image is input to the information processing apparatus 101 described later (first observation point input) as an observation point (first observation point) in the first embodiment. Note that the calculation of the distance value requires camera parameters in both the projector 300 and the camera 310, but these parameters are assumed to have been set after being calibrated in advance.

画像エッジ検出部350は、プロジェクタ300がパターンを投影しない状態での計測対象物体10の撮影画像から、ルーフエッジ、ジャンプエッジなどの幾何特徴を検出するための画像処理を行う。エッジの検出には、SobelフィルタやCannyフィルタ等の画像検出フィルタを利用すれば良い。すなわち、該フィルタとして設定した閾値以上の強度を持つエッジを検出し、該エッジの座標値が第1実施形態における観測点(第2の観測点)として、後述する情報処理装置102へ入力する(第2の観測点入力)。   The image edge detection unit 350 performs image processing for detecting geometric features such as a roof edge and a jump edge from a captured image of the measurement target object 10 in a state where the projector 300 does not project a pattern. For edge detection, an image detection filter such as a Sobel filter or a Canny filter may be used. That is, an edge having an intensity equal to or higher than the threshold set as the filter is detected, and the coordinate value of the edge is input to the information processing apparatus 102 described later as an observation point (second observation point) in the first embodiment ( Second observation point input).

パラメータ初期値360は、計測対象物体10の形状モデルから設定されたサンプル点の座標値の配列をパラメータ初期値として設定したものであり、位置姿勢のパラメータ計算における初期位置姿勢の値として利用される。サンプル点としては、コンピュータグラフィックのレンダリング機能を利用して、事前に設定されている位置姿勢での可視の面やエッジの判定を行い、その値を格納しておいたものを利用すれば良い。   The parameter initial value 360 is obtained by setting an array of coordinate values of sample points set from the shape model of the measurement target object 10 as a parameter initial value, and is used as an initial position and orientation value in the position and orientation parameter calculation. . As sample points, a computer graphic rendering function is used to determine a visible surface or edge at a preset position and orientation, and a value stored therein may be used.

情報処理装置101は、上述した第1実施形態における情報処理部100と同様の構成からなり、距離画像生成部340で生成された距離画像を入力し、その距離点を観測点(第1の観測点)として対応付け残差計算を行う。モデル点(距離)370は、距離画像に対応する、モデル形状の表面において観測されるモデル点の3次元座標配列(第1のモデル点)である。   The information processing apparatus 101 has the same configuration as the information processing unit 100 in the first embodiment described above, inputs the distance image generated by the distance image generation unit 340, and sets the distance point as an observation point (first observation point). The matching residual calculation is performed as a point). The model point (distance) 370 is a three-dimensional coordinate array (first model point) of model points observed on the surface of the model shape corresponding to the distance image.

情報処理装置102も第1実施形態における情報処理部100と同様の構成からなり、画像エッジ検出部350で検出されたエッジ点を観測点(第2の観測点)として対応付け残差計算を行う。モデル点(エッジ)380は、モデル形状におけるルーフエッジ、ジャンプエッジ等の輝度勾配の変化点として観測されるエッジ点を、モデル座標系の3次元座標系で表現した座標値の配列(第2のモデル点)である。   The information processing apparatus 102 also has the same configuration as the information processing unit 100 in the first embodiment, and performs an association residual calculation using the edge point detected by the image edge detection unit 350 as an observation point (second observation point). . The model point (edge) 380 is an array of coordinate values (second array) representing edge points observed as brightness gradient change points such as roof edges and jump edges in the model shape in a three-dimensional coordinate system of the model coordinate system. Model point).

パラメータ更新部390は、各情報処理装置101,102による観測点とモデル点の対応付けと残差計算の結果を用いて、位置姿勢のパラメータを推定するためのヤコビ行列を求め、これを残差行列として最小二乗法を計算する連立方程式に代入する。これによって算出された値を位置姿勢パラメータの更新値とする。すなわち、観測点とモデル点との残差が小さくなるように、位置姿勢のパラメータが推定される。   The parameter updating unit 390 obtains a Jacobian matrix for estimating the position and orientation parameters by using the correlation between observation points and model points by the information processing apparatuses 101 and 102 and the result of residual calculation, and uses this as a residual matrix. Substitute into simultaneous equations to calculate least squares method. The value calculated by this is used as the updated value of the position / orientation parameter. That is, the position and orientation parameters are estimated so that the residual between the observation point and the model point becomes small.

ここでは、エッジ点と距離点の両方を観測点として利用しているため、情報処理装置101に応じた第1のパラメータと、情報処理装置102に応じた第2のパラメータをそれぞれ推定し、該第1および第2のパラメータから位置姿勢パラメータを推定できる。パラメータの更新時には、それぞれによる推定パラメータのうち評価が良い方、すなわち残差がより小さい方を利用すれば良い。さらに、第1の観測点と第2の観測点は同一の計測対象物体を観察していることから、それぞれの観測点とモデルとの誤差を最尤推定して位置姿勢のパラメータを推定することで、より良いパラメータの推定が可能となる。(立野ら、"ビンピッキングのための距離・濃淡画像を最ゆうに統合する高精度高安定なモデルフィッティング手法"、電子情報通信学会論文誌D、Vol.J94-D、No.8、pp.1410-1422、2011、参照)。なお、ヤコビ行列の算出はVisual Servoなどの研究により周知となっている式を利用すれば良い。また、パラメータの算出にはGauss-Newton法による演算を利用すれば良い。すなわちパラメータ更新部390では、観測点とモデル点の対応付けと残差計算結果に応じた位置姿勢パラメータの更新ができれば良く、その更新方法について特定するものではない。   Here, since both the edge point and the distance point are used as observation points, the first parameter according to the information processing device 101 and the second parameter according to the information processing device 102 are estimated, The position and orientation parameters can be estimated from the first and second parameters. When updating the parameters, it is sufficient to use one of the estimated parameters by each having a better evaluation, that is, the one having a smaller residual. In addition, since the first observation point and the second observation point are observing the same measurement target object, the error between each observation point and the model is estimated with maximum likelihood to estimate the position and orientation parameters. Thus, better parameter estimation is possible. (Tateno et al., “Highly accurate and stable model fitting method that best integrates distance and grayscale images for bin picking”, IEICE Transactions D, Vol. J94-D, No. 8, pp. 1410-1422, 2011). The Jacobian matrix may be calculated using a formula that is well known by research such as Visual Servo. In addition, calculation by the Gauss-Newton method may be used for parameter calculation. That is, the parameter update unit 390 only needs to be able to update the position and orientation parameters in accordance with the association between the observation points and the model points and the residual calculation result, and does not specify the update method.

パラメータ更新部390では、更新の割合が所定の条件を満たす場合や、所定回数の繰り返しが行われた等の収束判定条件に基づいて位置姿勢推定パラメータ値の推定結果を確定し、該推定結果を推定パラメータ出力部400から出力する。   The parameter update unit 390 determines the position / orientation estimation parameter value estimation result based on a convergence determination condition such as when the update rate satisfies a predetermined condition or when a predetermined number of repetitions are performed, and the estimation result is Output from the estimated parameter output unit 400.

なお、第2実施形態では情報処理装置101,102によって、距離点とエッジ点のそれぞれに基づく残差演算を行う例を示したが、これらを統合し、1台の装置において両方の残差演算を行うように構成しても良い。   In the second embodiment, the information processing apparatuses 101 and 102 have shown an example in which the residual calculation based on each of the distance point and the edge point is performed. However, these are integrated and both residual calculations are performed in one apparatus. You may comprise as follows.

以上説明したように第2実施形態によれば、上述した第1実施形態で説明したモデルフィッティングを行う情報処理装置において利用される位置姿勢のパラメータを推定することで、情報処理装置における処理負荷を軽減し、処理速度の向上が望める。   As described above, according to the second embodiment, by estimating the position and orientation parameters used in the information processing apparatus that performs the model fitting described in the first embodiment, the processing load on the information processing apparatus is reduced. It can be reduced and the processing speed can be improved.

<第3実施形態>
以下、本発明に係る第3実施形態について説明する。上述した第1および第2実施形態によって実現される位置姿勢計測は高速処理を可能とすることから、ロボットとビジョンを組み合わせた作業システムでのタクトタイムが問題となる場合に利用することが考えられる。第3実施形態の具体的な構成としては、第2実施形態で示した図5の構成に対し、ロボットと、該ロボットの位置姿勢制御を行うロボットコントローラを追加すればよい。これにより、推定パラメータ出力部400から出力される計測対象物体10の位置姿勢パラメータをロボットコントローラに入力し、ロボット座標系に変換することで、ロボットの手先を計測対象物体10に向けて作業することが可能となる。
<Third embodiment>
The third embodiment according to the present invention will be described below. Since the position and orientation measurement realized by the first and second embodiments described above enables high-speed processing, it can be used when the tact time in a work system combining a robot and a vision becomes a problem. . As a specific configuration of the third embodiment, a robot and a robot controller for controlling the position and orientation of the robot may be added to the configuration of FIG. 5 shown in the second embodiment. As a result, the position and orientation parameters of the measurement target object 10 output from the estimation parameter output unit 400 are input to the robot controller and converted to the robot coordinate system, so that the robot's hand is directed toward the measurement target object 10. Is possible.

以上説明したように第3実施形態によれば、第1および第2実施形態による位置姿勢計測処理において観測点とモデル点の対応付けの処理が高速に行われるため、撮影から推定までの処理時間が短縮される。したがって、ロボットシステムにおける作業全体のタクトタイムを短縮することが可能となる。   As described above, according to the third embodiment, the process of associating observation points with model points is performed at high speed in the position and orientation measurement processing according to the first and second embodiments, so the processing time from shooting to estimation Is shortened. Therefore, it is possible to shorten the tact time of the entire work in the robot system.

第3実施形態からも分かるように、本発明は、精度を向上するために大量の観測値を利用して観測点とモデル点の対応付けを行う必要のある処理について、高速化が可能となる。したがって例えば、工業製品の組み立てにおける部品の自動供給や自動組み付け作業において、部品の位置姿勢計測を高速に処理することができる。   As can be seen from the third embodiment, the present invention can speed up a process that needs to associate observation points with model points using a large amount of observation values in order to improve accuracy. . Therefore, for example, in the automatic supply of parts and the assembly work in the assembly of industrial products, the position and orientation measurement of parts can be processed at high speed.

<他の実施形態>
本発明は、上述した実施形態の機能(例えば、上記の各部の処理を各工程に対応させたフローチャートにより示される処理)を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても実現できる。この場合、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が、コンピュータが読み取り可能に記憶媒体に格納されたプログラムコードを読み出し実行することにより、上述した実施形態の機能を実現する。
<Other embodiments>
The present invention provides a system or apparatus with a storage medium in which a program code of software that realizes the functions of the above-described embodiments (for example, processing shown by a flowchart in which processing of each unit described above is associated with each step) is recorded. This can also be realized. In this case, the function of the above-described embodiment is realized by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium so that the computer can read it.

Claims (13)

対象物体の形状を示すモデルにおける幾何特徴を示すモデル点と、該対象物体を計測して得られた画像中に含まれる該対象物体の幾何特徴を示す観測点との対応付けを行う情報処理装置であって、
前記観測点の座標値にインデックス値を付し、該インデックス値と座標値の関係を保持する第1の保持手段と、
前記座標値を変換し、該変換された座標値に対応する画素に前記インデックス値を格納したインデックスマップを保持する第2の保持手段と、
前記モデル点の座標値を前記インデックスマップの座標系における座標値に変換するモデル点座標変換手段と、
前記モデル点座標変換手段によって変換された座標値に対応する前記インデックスマップの画素に格納されたインデックス値を取得する取得手段と、を有し、
前記取得手段で取得されたインデックス値に基づいて前記モデル点に対応する観測点が特定されることを特徴とする情報処理装置。
Information processing apparatus for associating a model point indicating a geometric feature in a model indicating a shape of a target object with an observation point indicating a geometric feature of the target object included in an image obtained by measuring the target object Because
Attaching an index value to the coordinate value of the observation point, a first holding means for holding a relationship between the index value and the coordinate value,
Second holding means for converting the coordinate value and holding an index map in which the index value is stored in a pixel corresponding to the converted coordinate value;
A model point coordinate conversion means for converting the coordinate values of the model point coordinate values definitive the coordinate system of the index map,
Obtaining means for obtaining an index value stored in a pixel of the index map corresponding to the coordinate value transformed by the model point coordinate transformation means;
An information processing apparatus, wherein an observation point corresponding to the model point is specified based on an index value acquired by the acquisition unit.
さらに、前記観測点の座標値を、前記インデックスマップの座標系における座標値に変換する観測点座標変換手段と、
前記観測点座標変換手段によって変換された座標値について、前記インデックスマップにおいて対応する画素に対し、該座標値に対応する前記観測点に付された前記インデックス値を書き込む書き込み手段と、
前記インデックスマップにおいて、前記インデックス値を該インデックス値に対応する画素の周辺の画素に対して拡張する拡張手段と、を有し、
前記第2の保持手段は、前記拡張手段によりインデックス値が拡張された前記インデックスマップを保持することを特徴とする請求項1に記載の情報処理装置。
Further, the coordinate values of the observation point, and observation point coordinate transforming means for converting the coordinate values definitive the coordinate system of the index map,
Write means for writing the index value assigned to the observation point corresponding to the coordinate value for the pixel corresponding to the coordinate value converted by the observation point coordinate conversion means ;
In the index map, anda expansion means for expanding the index value for the pixels around the pixel corresponding to the index value,
2. The information processing apparatus according to claim 1, wherein the second holding unit holds the index map in which an index value is extended by the extension unit.
前記拡張手段は、前記インデックス値を、隣接する、値が未設定である画素に伝播させることを特徴とする請求項2に記載の情報処理装置。   3. The information processing apparatus according to claim 2, wherein the expansion unit propagates the index value to adjacent pixels whose values are not set. さらに、前記モデル点の座標値を前記観測点の座標系における座標値に変換するための座標パラメータを入力する座標パラメータ入力手段を有することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 Furthermore, any one of claims 1 to 3, characterized in that it has a coordinate parameter input means for inputting coordinate parameters for transforming the coordinate values of the model point coordinate values definitive the coordinate system of the observation point The information processing apparatus described in 1. さらに、前記取得手段で取得されたインデックス値に基づいて取得される前記観測点の座標値と、前記モデル点座標変換手段で前記観測点の座標系に変換した座標値と、を用いて、前記観測点と前記モデル点の差分を計算する差分計算手段を有することを特徴とする請求項4に記載の情報処理装置。 Further, by using the coordinate values of the observation point is obtained based on the index value acquired by the acquisition unit, and a coordinate value converted into the coordinate system of the observation point in the model point coordinate transforming means, said 5. The information processing apparatus according to claim 4, further comprising difference calculation means for calculating a difference between the observation point and the model point. さらに、前記差分に基づいて、前記対象物体の位置姿勢を示す位置姿勢パラメータを推定する推定手段を有することを特徴とする請求項5に記載の情報処理装置。   6. The information processing apparatus according to claim 5, further comprising an estimation unit configured to estimate a position / orientation parameter indicating a position / orientation of the target object based on the difference. さらに、前記対象物体の画像を含む距離画像において該対象物体の幾何特徴を示す距離点を第1の観測点として入力する第1の観測点入力手段と、
前記対象物体の画像を含む2次元画像において該対象物体の幾何特徴を示すエッジ点を第2の観測点として入力する第2の観測点入力手段と、を有し、
前記推定手段は、前記第1および第2の観測点に基づいて前記位置姿勢パラメータを推定することを特徴とする請求項6に記載の情報処理装置。
A first observation point input means for inputting, as a first observation point, a distance point indicating a geometric feature of the target object in a distance image including the image of the target object;
A second observation point input means for inputting, as a second observation point, an edge point indicating a geometric feature of the target object in a two-dimensional image including the image of the target object;
7. The information processing apparatus according to claim 6, wherein the estimation unit estimates the position / orientation parameter based on the first and second observation points.
さらに、前記推定手段により推定された前記位置姿勢パラメータに基づき、前記対象物体の位置姿勢を制御する位置姿勢制御手段を有することを特徴とする請求項6または7に記載の情報処理装置。   8. The information processing apparatus according to claim 6, further comprising position and orientation control means for controlling the position and orientation of the target object based on the position and orientation parameters estimated by the estimation means. さらに、前記対象物体を撮影する撮像手段を有し、
前記撮像手段によって撮影された前記対象物体の画像から、前記観測点の座標値を取得することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
Furthermore, it has an imaging means for photographing the target object,
9. The information processing apparatus according to claim 1, wherein a coordinate value of the observation point is acquired from an image of the target object imaged by the imaging unit.
前記観測点は、前記対象物体の画像を含む距離画像において該対象物体の幾何特徴を示す距離点であることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。   10. The information processing apparatus according to claim 1, wherein the observation point is a distance point indicating a geometric feature of the target object in a distance image including the image of the target object. 前記観測点は、前記対象物体の画像を含む2次元画像において該対象物体の幾何特徴を示すエッジ点であることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。   10. The information processing apparatus according to claim 1, wherein the observation point is an edge point that indicates a geometric feature of the target object in a two-dimensional image including the image of the target object. 第1および第2の保持手段、モデル点座標変換手段、および取得手段、を有する情報処理装置において、対象物体の形状を示すモデルにおける幾何特徴を示すモデル点と、該対象物体を計測して得られた画像中に含まれる該対象物体の幾何特徴を示す観測点との対応付けを行う情報処理方法であって、
前記第1の保持手段が、前記観測点の座標値にインデックス値を付し、該インデックス値と座標値の関係を保持し、
前記第2の保持手段が、前記座標値を変換し、該変換された座標値に付されたインデックス値が書き込まれたインデックスマップを保持し、
前記モデル点座標変換手段が、前記モデル点の座標値を前記インデックスマップの座標系における座標値に変換し、
前記取得手段が、該変換された座標値に対応する前記インデックスマップの画素に格納されたインデックス値を取得し、
該取得されたインデックス値に基づいて、前記モデル点に対応する観測点が特定されることを特徴とする情報処理方法。
In an information processing apparatus having first and second holding means, model point coordinate conversion means, and acquisition means, a model point indicating a geometric feature in a model indicating the shape of a target object, and measurement of the target object An information processing method for associating with an observation point indicating a geometric feature of the target object included in a captured image,
It said first holding means, denoted by the index value to the coordinate value of the observation point, and holds the relationship between the index value and the coordinate value,
The second holding means converts the coordinate value, and holds an index map in which an index value attached to the converted coordinate value is written;
The model point coordinate converting means converts the coordinate values of the model point coordinate values definitive the coordinate system of the index map,
The acquisition unit acquires an index value stored in a pixel of the index map corresponding to the converted coordinate value;
An information processing method, wherein an observation point corresponding to the model point is specified based on the acquired index value.
対象物体の形状を示すモデルにおけるにおける幾何特徴を示すモデル点と、該対象物体を計測して得られた画像中に含まれる該対象物体の幾何特徴を示す観測点との対応付けを行うコンピュータ装置であって、A computer apparatus for associating a model point showing a geometric feature in a model showing a shape of a target object with an observation point showing a geometric feature of the target object included in an image obtained by measuring the target object Because
前記観測点の座標値にインデックス値を付し、該インデックス値と該座標値との関係を保持する第1の保持手段と、First holding means for attaching an index value to the coordinate value of the observation point, and holding the relationship between the index value and the coordinate value;
前記座標値を変換し、該変換された座標値に対応する画素に前記インデックス値を格納したインデックスマップを保持する第2の保持手段と、Second holding means for converting the coordinate value and holding an index map in which the index value is stored in a pixel corresponding to the converted coordinate value;
を有する前記コンピュータ装置を、The computer device comprising:
前記モデル点の座標値を前記インデックスマップの座標系における座標値に変換するモデル点座標変換手段、Model point coordinate conversion means for converting the coordinate value of the model point into a coordinate value in a coordinate system of the index map;
前記モデル点座標変換手段によって変換された座標値に対応する前記インデックスマップの画素に格納されたインデックス値を取得する取得手段、として機能させるためのコンピュータプログラムであり、A computer program for functioning as an acquisition unit that acquires an index value stored in a pixel of the index map corresponding to a coordinate value converted by the model point coordinate conversion unit,
前記取得手段で取得されたインデックス値に基づいて前記モデル点に対応する観測点が特定されることを特徴とするコンピュータプログラム。A computer program characterized in that an observation point corresponding to the model point is specified based on an index value acquired by the acquisition means.
JP2012276120A 2012-12-18 2012-12-18 Information processing apparatus and information processing method Active JP6071522B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012276120A JP6071522B2 (en) 2012-12-18 2012-12-18 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012276120A JP6071522B2 (en) 2012-12-18 2012-12-18 Information processing apparatus and information processing method

Publications (3)

Publication Number Publication Date
JP2014120068A JP2014120068A (en) 2014-06-30
JP2014120068A5 JP2014120068A5 (en) 2016-01-28
JP6071522B2 true JP6071522B2 (en) 2017-02-01

Family

ID=51174833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012276120A Active JP6071522B2 (en) 2012-12-18 2012-12-18 Information processing apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP6071522B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110851558A (en) * 2020-01-14 2020-02-28 武大吉奥信息技术有限公司 Universal loading method for map of coordinate system in earth

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3040941B1 (en) * 2014-12-29 2017-08-02 Dassault Systèmes Method for calibrating a depth camera
EP3243188A4 (en) * 2015-01-06 2018-08-22 Facebook Inc. Method and system for providing depth mapping using patterned light
JP2018091656A (en) * 2016-11-30 2018-06-14 キヤノン株式会社 Information processing apparatus, measuring apparatus, system, calculating method, program, and article manufacturing method
JP6926906B2 (en) 2017-09-29 2021-08-25 セイコーエプソン株式会社 Robot system, control device and robot control method
CN116756352A (en) * 2023-06-25 2023-09-15 北京建科研软件技术有限公司 Method and device for acquiring construction engineering standard based on AI technology
CN116985143B (en) * 2023-09-26 2024-01-09 山东省智能机器人应用技术研究院 Polishing track generation system of polishing robot

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4747293B2 (en) * 2005-01-21 2011-08-17 国立大学法人 東京大学 Image processing apparatus, image processing method, and program used therefor
JP2011175477A (en) * 2010-02-24 2011-09-08 Canon Inc Three-dimensional measurement apparatus, processing method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110851558A (en) * 2020-01-14 2020-02-28 武大吉奥信息技术有限公司 Universal loading method for map of coordinate system in earth

Also Published As

Publication number Publication date
JP2014120068A (en) 2014-06-30

Similar Documents

Publication Publication Date Title
JP6071522B2 (en) Information processing apparatus and information processing method
JP6635690B2 (en) Information processing apparatus, information processing method and program
JP5297403B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, program, and storage medium
JP5671281B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
JP6415066B2 (en) Information processing apparatus, information processing method, position and orientation estimation apparatus, robot system
JP6736257B2 (en) Information processing device, information processing method, and program
KR100855657B1 (en) System for estimating self-position of the mobile robot using monocular zoom-camara and method therefor
JP6092530B2 (en) Image processing apparatus and image processing method
JP6503906B2 (en) Image processing apparatus, image processing method and image processing program
JP5043023B2 (en) Image processing method and apparatus
JP6324025B2 (en) Information processing apparatus and information processing method
CN117115256A (en) image processing system
CN113330486A (en) Depth estimation
JP5439277B2 (en) Position / orientation measuring apparatus and position / orientation measuring program
JP2008014691A (en) Stereo image measuring method and instrument for executing the same
JP2020027439A (en) Information processing device and information processing method
JP6936974B2 (en) Position / orientation estimation device, position / orientation estimation method and program
JP5976089B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
CA3201158A1 (en) Method and system for automatic characterization of a three-dimensional (3d) point cloud
JP6486083B2 (en) Information processing apparatus, information processing method, and program
JP2016527574A (en) A method for registering data using a set of primitives
JP6531395B2 (en) Three-dimensional shape measuring device, three-dimensional shape measuring method, and program
JP6584139B2 (en) Information processing apparatus, information processing method, and program
JP7251631B2 (en) Template creation device, object recognition processing device, template creation method, object recognition processing method, and program
JP4877105B2 (en) Vehicle 3D shape model data creation method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161227

R151 Written notification of patent or utility model registration

Ref document number: 6071522

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151