JP2018036770A - Position attitude estimation device, position attitude estimation method, and position attitude estimation program - Google Patents

Position attitude estimation device, position attitude estimation method, and position attitude estimation program Download PDF

Info

Publication number
JP2018036770A
JP2018036770A JP2016168026A JP2016168026A JP2018036770A JP 2018036770 A JP2018036770 A JP 2018036770A JP 2016168026 A JP2016168026 A JP 2016168026A JP 2016168026 A JP2016168026 A JP 2016168026A JP 2018036770 A JP2018036770 A JP 2018036770A
Authority
JP
Japan
Prior art keywords
feature point
feature
global
image
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016168026A
Other languages
Japanese (ja)
Inventor
裕也 大日方
Yuya Obinata
裕也 大日方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016168026A priority Critical patent/JP2018036770A/en
Publication of JP2018036770A publication Critical patent/JP2018036770A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance an estimation accuracy of the position attitude of an object based on an image.SOLUTION: A position attitude estimation device includes: a first extraction part; a global area determination part; a second extraction part; and a specifying part. The first extraction part extracts local feature information around a feature point of an object image imaging an object which is an estimation object of a position attitude, and the local feature information around the feature point of a registered image in which the object is shown in a predetermined position attitude. The global area setting part determines the global area including a plurality of feature points for the object image and the registered image, respectively. The second extraction part extracts global area feature information based on the feature point of the object image and the global area and the global area feature information based on the feature point of the registered image and the global area. The specifying part specifies a group of pairs of feature points showing the correspondence between the feature point of the object image and the feature point of the registered image on the basis of the similarity of the local feature information and the similarity of the global feature information in the pairs of feature points of the feature point of object image and the feature point of the registered image.SELECTED DRAWING: Figure 2

Description

本発明は、位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラムに関する。   The present invention relates to a position / orientation estimation apparatus, a position / orientation estimation method, and a position / orientation estimation program.

各種製品の組み立て作業を行う工場等では、拡張現実感(Augmented Reality;AR)等により作業員に作業内容を指示することで、作業員による作業の効率化を支援している。この種の支援技術の1つとして、対象物を撮像した画像に基づいて、当該対象物の位置及び向き(以下「位置姿勢」という)を推定する技術が知られている。   In factories that assemble various products, the work contents are instructed to the workers by augmented reality (AR) or the like, thereby supporting the efficiency of the work by the workers. As one type of assist technology of this type, a technology for estimating the position and orientation (hereinafter referred to as “position and orientation”) of an object based on an image obtained by imaging the object is known.

画像に基づいて対象物の位置姿勢を推定する技術は、例えば、ベルトコンベア等の搬送路により搬送される対象物の指定位置にラベルを貼付する作業ラインに適用されている。搬送される対象物の位置姿勢を推定し、位置姿勢に基づいて算出したラベルの貼付位置を示す画像を対象物に直接投影することで、作業員に対し対象物の位置姿勢に応じた正しい貼付位置(指定位置)を提示することが可能となる。   A technique for estimating the position and orientation of an object based on an image is applied to, for example, a work line for attaching a label to a specified position of an object conveyed by a conveyance path such as a belt conveyor. The position and orientation of the object to be conveyed is estimated, and an image showing the label application position calculated based on the position and orientation is directly projected onto the object, so that the correct application according to the position and orientation of the object is applied to the worker. A position (specified position) can be presented.

画像に基づいて対象物の位置姿勢を推定する際には、位置姿勢を推定する対象物を撮像した対象画像と、対象物が所定の位置姿勢で写っている登録画像とを用い、両画像における特徴点の対応関係に基づいて対象画像における対象物の位置及び向きを推定する。対象画像の特徴点と登録画像の特徴点との対応関係は、特徴点の周囲(局所領域)における画像情報の類似度に基づいて特定する。また、カメラと距離センサとを用い、画像から検出された特徴点の周辺における画像情報に凹凸情報(奥行の微分値)を追加した特徴情報に基づいて、特徴点の対応関係を特定する方法が知られている(例えば、特許文献1を参照)。更に、画像内の対象物から抽出される特徴点の集合を幾何学的な図形として登録することで、幾何学的変換に強い特徴情報を付与する方法が知られている(例えば、非特許文献1を参照)。   When estimating the position and orientation of an object based on an image, a target image obtained by imaging the object for which the position and orientation is estimated and a registered image in which the object is captured at a predetermined position and orientation are used. The position and orientation of the target object in the target image are estimated based on the correspondence between the feature points. The correspondence between the feature point of the target image and the feature point of the registered image is specified based on the similarity of the image information around the feature point (local region). In addition, there is a method of using a camera and a distance sensor to specify the correspondence between feature points based on feature information obtained by adding unevenness information (depth differential value) to image information around the feature points detected from the image. It is known (see, for example, Patent Document 1). Furthermore, a method of adding feature information that is strong against geometric transformation by registering a set of feature points extracted from an object in an image as a geometric figure is known (for example, non-patent literature). 1).

特開2011−174879号公報JP 2011-174879 A

Lamdan, Y. and Wolfson, H.J.:"Geometric Hashing: A General And Efficient Model-based Recognition Scheme", Computer Vision. Second International Conference on, pp.238-249, 1988Lamdan, Y. and Wolfson, H.J .: "Geometric Hashing: A General And Efficient Model-based Recognition Scheme", Computer Vision. Second International Conference on, pp.238-249, 1988

画像から検出した特徴点の周囲の局所領域における画像情報や凹凸情報に基づいて特徴点の対応関係を特定する方法では、局所領域内の画像情報の差異が小さい特徴点同士を区別することが困難である。そのため、画像内における対象物の表面に繰り返しパターン等が存在する場合には、複数の特徴点における局所的な画像情報の類似度が高くなり、特徴点の対応関係を特定することが困難となる。すなわち、1枚の画像から検出した複数の特徴点における局所的な特徴情報の類似度が高い場合、対象画像の特徴点と登録画像の特徴点との対応関係を特定することが困難となるため、対象物の位置姿勢の推定精度が低下する。   It is difficult to distinguish between feature points with small differences in image information in the local area by the method of identifying the correspondence between the feature points based on the image information and unevenness information in the local area around the feature points detected from the image It is. Therefore, when there is a repetitive pattern or the like on the surface of the object in the image, the similarity of local image information at a plurality of feature points increases, and it becomes difficult to specify the correspondence between the feature points. . That is, when the similarity of local feature information at a plurality of feature points detected from one image is high, it is difficult to specify the correspondence between the feature points of the target image and the feature points of the registered image. The estimation accuracy of the position and orientation of the target object is reduced.

1つの側面において、本発明は、画像に基づいた対象物の位置姿勢の推定精度を向上させることを目的とする。   In one aspect, an object of the present invention is to improve the estimation accuracy of the position and orientation of an object based on an image.

1つの態様では、位置姿勢推定装置は、検出部と、第1の抽出部と、大域領域決定部と、第2の抽出部と、特定部と、算出部とを備える。検出部は、位置姿勢の推定対象である対象物が写っている対象画像と、対象物が所定の位置姿勢で写っている登録画像とから特徴点を検出する。第1の抽出部は、対象画像から検出した複数の特徴点のなかから対象物の特徴を示す特徴点を選出するとともに、対象画像における選出した特徴点の周囲の特徴を示す局所特徴情報と、登録画像における複数の特徴点の周囲の特徴を示す局所特徴情報とを抽出する。大域領域設定部は、対象画像及び登録画像のそれぞれに、複数の前記特徴点を含む大域領域を設定する。第2の抽出部は、対象画像の特徴点と大域領域とに基づいて対象画像における大域特徴情報を抽出するとともに、登録画像の特徴点と大域領域とに基づいて登録画像における大域特徴情報を抽出する。特定部は、対象画像の特徴点と登録画像の特徴点とによる特徴点対における、局所特徴情報の類似度と、大域特徴情報の類似度とに基づいて、対象画像の特徴点と登録画像の特徴点との対応関係を示す特徴点対群を特定する。算出部は、特定した特徴点対群に基づいて、対象画像に写っている対象物の位置姿勢を算出する。   In one aspect, the position / orientation estimation apparatus includes a detection unit, a first extraction unit, a global region determination unit, a second extraction unit, a specification unit, and a calculation unit. The detection unit detects a feature point from a target image in which a target object whose position and orientation is to be estimated is captured and a registered image in which the target object is captured in a predetermined position and orientation. The first extraction unit selects a feature point indicating the feature of the target object from among a plurality of feature points detected from the target image, and local feature information indicating a feature around the selected feature point in the target image; Local feature information indicating features around a plurality of feature points in the registered image is extracted. The global region setting unit sets a global region including a plurality of the feature points in each of the target image and the registered image. The second extraction unit extracts global feature information in the target image based on the feature points and the global region of the target image, and extracts global feature information in the registered image based on the feature points and the global region of the registered image To do. The identifying unit determines whether the feature point of the target image and the registered image are based on the similarity of the local feature information and the similarity of the global feature information in the feature point pair of the feature point of the target image and the feature point of the registered image. A feature point pair group indicating the correspondence with the feature point is specified. The calculation unit calculates the position and orientation of the target object shown in the target image based on the identified feature point pair group.

上述の態様によれば、画像に基づいた対象物の位置姿勢の推定精度が向上する。   According to the above aspect, the estimation accuracy of the position and orientation of the object based on the image is improved.

位置姿勢推定装置の適用例を示す図である。It is a figure which shows the example of application of a position and orientation estimation apparatus. 第1の実施形態に係る位置姿勢推定装置の機能的構成を示す図である。It is a figure which shows the functional structure of the position and orientation estimation apparatus which concerns on 1st Embodiment. 第1の実施形態に係る特徴点対群抽出部の構成を示す図である。It is a figure which shows the structure of the feature point pair group extraction part which concerns on 1st Embodiment. 第1の実施形態に係る位置姿勢推定装置が行う処理を説明するフローチャートである。It is a flowchart explaining the process which the position and orientation estimation apparatus which concerns on 1st Embodiment performs. 特徴点検出処理の内容を説明するフローチャートである。It is a flowchart explaining the content of the feature point detection process. 第1の実施形態に係る大域領域決定処理の内容を説明するフローチャートである。It is a flowchart explaining the content of the global region determination process which concerns on 1st Embodiment. 第1の実施形態に係る特徴点対群抽出処理の内容を説明するフローチャートである。It is a flowchart explaining the content of the feature point pair group extraction process which concerns on 1st Embodiment. 第1の実施形態に係る大域特徴情報抽出処理の内容を説明するフローチャートである。It is a flowchart explaining the content of the global feature information extraction process which concerns on 1st Embodiment. 登録画像と対象画像との例を示す図である。It is a figure which shows the example of a registration image and a target image. 局所特徴情報の抽出方法を説明する図である。It is a figure explaining the extraction method of local feature information. 第1の実施形態に係る大域領域の決定方法を説明する図である。It is a figure explaining the determination method of the global area | region which concerns on 1st Embodiment. 対象画像の大域特徴情報を説明する図である。It is a figure explaining the global feature information of a target image. 登録画像の大域特徴情報を説明する図である。It is a figure explaining the global feature information of a registration image. 大域特徴情報を抽出した後の対象画像特徴情報及び登録画像特徴情報の例を示す図である。It is a figure which shows the example of the target image feature information and registered image feature information after extracting global feature information. 位置姿勢の算出方法とラベル貼付位置の変換方法とを説明する図である。It is a figure explaining the calculation method of a position and orientation, and the conversion method of a label sticking position. 大域特徴情報の抽出方法の変形例を説明する図である。It is a figure explaining the modification of the extraction method of global feature information. 第2の実施形態に係る大域領域決定処理の内容を説明するフローチャートである。It is a flowchart explaining the content of the global area | region determination process which concerns on 2nd Embodiment. 第2の実施形態に係る特徴点対群抽出処理の内容を説明するフローチャート(その1)である。It is a flowchart (the 1) explaining the content of the feature point pair group extraction process which concerns on 2nd Embodiment. 第2の実施形態に係る特徴点対群抽出処理の内容を説明するフローチャート(その2)である。It is a flowchart (the 2) explaining the content of the feature point pair group extraction process which concerns on 2nd Embodiment. 第2の実施形態に係る特徴点対群抽出処理の内容を説明するフローチャート(その3)である。It is a flowchart (the 3) explaining the content of the feature point pair group extraction process which concerns on 2nd Embodiment. 第2の実施形態に係る大域領域の決定方法を説明する図である。It is a figure explaining the determination method of the global area | region which concerns on 2nd Embodiment. 対象画像における大域特徴情報の抽出方法を説明する図である。It is a figure explaining the extraction method of the global feature information in a target image. 登録画像における大域特徴情報の抽出方法を説明する図である。It is a figure explaining the extraction method of the global feature information in a registration image. 大域特徴情報を抽出した後の対象画像特徴情報及び登録画像特徴情報の例を示す図である。It is a figure which shows the example of the target image feature information and registered image feature information after extracting global feature information. 頂点対の集合の生成方法を説明する図である。It is a figure explaining the production | generation method of the set of vertex pairs. 大域領域の回転対称性と生成し得る頂点対の集合との関係を説明する図である。It is a figure explaining the relationship between the rotational symmetry of a global area | region, and the set of the vertex pair which can be produced | generated. 頂点対と比較する大域特徴情報との関係を説明する図である。It is a figure explaining the relationship with the global feature information compared with a vertex pair. 第3の実施形態に係る特徴点対群抽出処理の内容を説明するフローチャート(その1)である。It is a flowchart (the 1) explaining the content of the feature point pair group extraction process which concerns on 3rd Embodiment. 第3の実施形態に係る特徴点対群抽出処理の内容を説明するフローチャート(その2)である。It is a flowchart (the 2) explaining the content of the feature point pair group extraction process which concerns on 3rd Embodiment. 第4の実施形態に係る位置姿勢推定装置の機能的構成を示す図である。It is a figure which shows the functional structure of the position and orientation estimation apparatus which concerns on 4th Embodiment. 第4の実施形態に係る位置姿勢推定装置が行う処理を説明するフローチャートである。It is a flowchart explaining the process which the position and orientation estimation apparatus which concerns on 4th Embodiment performs. 対象画像から遮蔽物を除去する方法を説明する図である。It is a figure explaining the method of removing an obstruction from a target image. コンピュータのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a computer.

[第1の実施形態]
本実施形態に係る位置姿勢推定装置は、例えば、工場等の作業ラインにおいてベルトコンベア等のラインを流れる対象物の位置姿勢の推定に適用される。ここで、対象物の位置姿勢は、対象物の位置と向きとを含む情報を意味する。この種の作業ラインの1つとして、例えば、対象物にラベルを貼付する作業ラインがある。
[First Embodiment]
The position / orientation estimation apparatus according to the present embodiment is applied to, for example, estimation of the position / orientation of an object flowing on a line such as a belt conveyor in a work line such as a factory. Here, the position and orientation of the target means information including the position and orientation of the target. One example of this type of work line is a work line for attaching a label to an object.

図1は、位置姿勢推定装置の適用例を示す図である。
図1に示すように、位置姿勢推定装置1は、撮像装置2と、プロジェクタ3とに接続される。
FIG. 1 is a diagram illustrating an application example of the position and orientation estimation apparatus.
As shown in FIG. 1, the position / orientation estimation apparatus 1 is connected to an imaging apparatus 2 and a projector 3.

撮像装置2は、ベルトコンベア4により搬送される対象物5の画像を撮像する。図1に示したベルトコンベア4は、右方端部が上流端部である。ベルトコンベア4の上流端部で搬送ベルト401に載置した対象物5は、左に移動する。撮像装置2は、搬送ベルト401の上方に、搬送ベルト401を撮像する向きに設置される。撮像装置2は、搬送ベルト401が周回移動する搬送路における所定の撮像領域410を定点撮像し、撮像した画像を位置姿勢推定装置1に順次送信する。   The imaging device 2 captures an image of the object 5 conveyed by the belt conveyor 4. In the belt conveyor 4 shown in FIG. 1, the right end is the upstream end. The object 5 placed on the conveyor belt 401 at the upstream end of the belt conveyor 4 moves to the left. The imaging device 2 is installed above the conveyor belt 401 in a direction for imaging the conveyor belt 401. The imaging device 2 performs fixed-point imaging of a predetermined imaging area 410 in the conveyance path in which the conveyance belt 401 moves around, and sequentially transmits the captured images to the position / orientation estimation device 1.

位置姿勢推定装置1は、撮像領域410を通過する対象物5を撮像した画像と、予め所定の位置姿勢で撮像しておいた対象物の画像とに基づいて、撮像領域410を通過した対象物5の位置姿勢を推定する。また、本実施形態に係る位置姿勢推定装置1は、推定した対象物5の位置姿勢に基づいて、対象物5におけるラベルの貼付位置を示す画像6の表示データを生成し、プロジェクタ3に出力する。   The position / orientation estimation apparatus 1 detects an object that has passed through the imaging area 410 based on an image obtained by imaging the object 5 that passes through the imaging area 410 and an image of the object that has been imaged in advance at a predetermined position and orientation. 5 is estimated. In addition, the position / orientation estimation apparatus 1 according to the present embodiment generates display data of an image 6 indicating the label application position on the object 5 based on the estimated position / orientation of the object 5 and outputs the display data to the projector 3. .

プロジェクタ3は、位置姿勢推定装置1から受信した表示データに基づいて、画像6を対象物5に投影する。プロジェクタ3は、搬送ベルト401により搬送される対象物5がラベル7を貼付する作業員8の前を通過するタイミングで、対象物5にラベルの貼付位置を示す画像6を投影する。これにより、作業員8は紙の指示書等で確認することなく対象物5におけるラベルの貼付位置を知ることができ、作業が効率化されるようになる。   The projector 3 projects the image 6 onto the object 5 based on the display data received from the position / orientation estimation apparatus 1. The projector 3 projects an image 6 indicating the label application position on the object 5 at a timing when the object 5 conveyed by the conveyance belt 401 passes in front of the worker 8 applying the label 7. As a result, the worker 8 can know the label application position on the object 5 without confirming with a paper instruction or the like, and the work can be made more efficient.

図1に示した作業ライン10では、対象物5Aが撮像領域410を通過してから作業者8の前に到達するまでの期間内に、位置姿勢推定装置1が、対象物5Aの位置姿勢を推定し、画像6の表示データを生成してプロジェクタ3に出力する。このため、プロジェクタ3は、対象物5Aが作業者8の前に到達するタイミングで、対象物5Aにおけるラベルの貼付位置を示す画像6を対象物5Aに投影する。   In the work line 10 illustrated in FIG. 1, the position / orientation estimation apparatus 1 determines the position / orientation of the object 5 </ b> A within a period from when the object 5 </ b> A passes through the imaging region 410 to reach the worker 8. The display data of the image 6 is generated and output to the projector 3. For this reason, the projector 3 projects the image 6 indicating the label application position on the object 5A onto the object 5A at the timing when the object 5A reaches the worker 8.

また、図1において撮像領域410の上流側に位置する対象物5Bが撮像領域410を通過して作業員8の前に到達したときには、プロジェクタ3は、対象物5Bの位置姿勢に応じた画像6を対象物5Bに投影する。   In addition, when the object 5B located on the upstream side of the imaging area 410 in FIG. 1 passes through the imaging area 410 and reaches the worker 8, the projector 3 displays an image 6 corresponding to the position and orientation of the object 5B. Is projected onto the object 5B.

搬送ベルト401に載置された対象物5の位置姿勢は常に一定であるとは限らない。例えば、図1に示した対象物5Aと対象物5Bとでは、ラベル貼付面における辺の方向が異なる。そのため、対象物5Aのラベルの貼付位置と、対象物5Bのラベルの貼付位置とは異なる。よって、対象物5毎に位置姿勢を推定してラベルの貼付位置を投影することで、作業員8は、投影された貼付位置の画像6に従って、各対象物5の所定位置にラベル7を正しく貼付することが可能となる。   The position and orientation of the object 5 placed on the transport belt 401 is not always constant. For example, the object 5A and the object 5B shown in FIG. 1 have different side directions on the label attachment surface. Therefore, the label sticking position of the object 5A is different from the label sticking position of the object 5B. Therefore, by estimating the position and orientation for each object 5 and projecting the label application position, the worker 8 correctly puts the label 7 on the predetermined position of each object 5 according to the projected image 6 of the application position. It becomes possible to affix.

図2は、第1の実施形態に係る位置姿勢推定装置の機能的構成を示す図である。
図2に示すように、本実施形態に係る位置姿勢推定装置1は、位置姿勢推定部110と、記憶部120と、投影画像生成部130と、を備える。
FIG. 2 is a diagram illustrating a functional configuration of the position / orientation estimation apparatus according to the first embodiment.
As illustrated in FIG. 2, the position / orientation estimation apparatus 1 according to the present embodiment includes a position / orientation estimation unit 110, a storage unit 120, and a projection image generation unit 130.

位置姿勢推定部110は、撮像装置2から取得した画像に写っている対象物の位置姿勢を推定する。位置姿勢推定部110は、画像取得部111と、特徴点検出部112と、局所特徴情報抽出部113と、大域領域決定部114と、特徴点対群抽出部115と、位置姿勢算出部116と、を含む。   The position / orientation estimation unit 110 estimates the position / orientation of the object shown in the image acquired from the imaging device 2. The position / orientation estimation unit 110 includes an image acquisition unit 111, a feature point detection unit 112, a local feature information extraction unit 113, a global region determination unit 114, a feature point pair group extraction unit 115, and a position / orientation calculation unit 116. ,including.

記憶部120は、位置姿勢推定部110が参照するデータ、算出したデータ及び抽出したデータ、並びに投影画像生成部130が参照するデータを記憶する。記憶部120には、登録画像121と、対象画像122と、登録画像特徴情報123と、対象画像特徴情報124と、類似度情報125と、ラベル貼付位置129と、を含む各種のデータを記憶させる。ここで、登録画像121は予め所定の位置姿勢で撮像した対象物の画像であり、対象画像122は位置姿勢を推定する対象物が写っている画像(言い換えると、撮像装置2で撮像した、ベルトコンベア4で搬送される対象物の画像)である。記憶部120には、1種類の対象物についての登録画像121に限らず、複数種類の対象物のそれぞれを個別に撮像した複数枚の登録画像を記憶させてもよい。   The storage unit 120 stores data referred to by the position / orientation estimation unit 110, calculated data, extracted data, and data referred to by the projection image generation unit 130. The storage unit 120 stores various data including a registered image 121, a target image 122, registered image feature information 123, target image feature information 124, similarity information 125, and a label pasting position 129. . Here, the registered image 121 is an image of an object captured in advance at a predetermined position and orientation, and the target image 122 is an image showing the object whose position and orientation is estimated (in other words, a belt imaged by the imaging device 2). The image of the object conveyed by the conveyor 4). The storage unit 120 is not limited to the registered image 121 for one type of object, and may store a plurality of registered images obtained by individually capturing a plurality of types of objects.

投影画像生成部130は、位置姿勢推定部110における対象物の位置姿勢の推定結果と、記憶部120に記憶させたラベル貼付位置129とに基づいて、対象物に投影する画像を生成する。   The projection image generation unit 130 generates an image to be projected on the object based on the estimation result of the position and orientation of the object in the position and orientation estimation unit 110 and the label pasting position 129 stored in the storage unit 120.

上記のように、本実施形態に係る位置姿勢推定装置1の位置姿勢推定部110は、画像取得部111と、特徴点検出部112と、局所特徴情報抽出部113と、大域領域決定部114と、特徴点対群抽出部115と、位置姿勢算出部116と、を含む。   As described above, the position / orientation estimation unit 110 of the position / orientation estimation apparatus 1 according to the present embodiment includes the image acquisition unit 111, the feature point detection unit 112, the local feature information extraction unit 113, and the global region determination unit 114. , A feature point pair group extraction unit 115 and a position / orientation calculation unit 116.

画像取得部111は、撮像装置2で撮像した撮像範囲401の画像(対象画像122)を取得する。   The image acquisition unit 111 acquires an image (target image 122) of the imaging range 401 imaged by the imaging device 2.

特徴点検出部112は、位置姿勢の推定対象である対象物5が写っている対象画像121と、前記対象物5が所定の位置姿勢で写っている登録画像121とから特徴点を検出する検出部である。登録画像121の特徴点の位置は登録画像特徴情報123の1つとして記憶部120に格納され、対象画像122の特徴点の位置は対象画像特徴情報124の1つとして記憶部120に格納される。   The feature point detection unit 112 detects a feature point from a target image 121 in which the target object 5 that is a position and orientation estimation target is shown, and a registered image 121 in which the target object 5 is shown in a predetermined position and orientation. Part. The position of the feature point of the registered image 121 is stored in the storage unit 120 as one of the registered image feature information 123, and the position of the feature point of the target image 122 is stored in the storage unit 120 as one of the target image feature information 124. .

局所特徴情報抽出部113は、登録画像121及び対象画像122のそれぞれから、対象物の位置姿勢の推定に用いる局所特徴情報を抽出する第1の抽出部である。局所特徴情報は、画像から検出した特徴点の周囲(局所領域)における画像上での特徴(例えば、色の分布やエッジ等)を表す情報である。局所特徴情報抽出部130は、登録画像121から検出された全ての特徴点についての局所特徴情報と、対象画像122から検出された全ての特徴点についての局所特徴情報とを抽出する。また、局所特徴情報抽出部130は、抽出した各特徴点の局所特徴情報に基づいて、対象画像122における背景領域の特徴点等の、対象物の位置姿勢の推定に不要な特徴点を除外する。登録画像121の各特徴点の局所特徴情報は、特徴点の位置と対応付け、登録画像特徴情報123の1つとして記憶部120に格納される。また、対象画像122における不要な特徴点を除外した後の各特徴点の局所特徴情報は、特徴点の位置と対応付け、登録画面特徴情報124の1つとして記憶部120に格納される。   The local feature information extraction unit 113 is a first extraction unit that extracts local feature information used for estimating the position and orientation of the target object from each of the registered image 121 and the target image 122. The local feature information is information representing features (for example, color distribution, edges, etc.) on the image around the feature points detected from the image (local region). The local feature information extraction unit 130 extracts local feature information for all feature points detected from the registered image 121 and local feature information for all feature points detected from the target image 122. Further, the local feature information extraction unit 130 excludes feature points that are unnecessary for estimation of the position and orientation of the target object, such as feature points of the background region in the target image 122, based on the extracted local feature information of each feature point. . The local feature information of each feature point of the registered image 121 is associated with the position of the feature point and stored in the storage unit 120 as one of the registered image feature information 123. The local feature information of each feature point after removing unnecessary feature points in the target image 122 is associated with the position of the feature point and stored in the storage unit 120 as one of the registration screen feature information 124.

大域領域決定部114は、所定の条件に従って、登録画像及び対象画像のそれぞれに設定する大域領域を決定する。大域領域決定部114は、登録画像及び対象画像のそれぞれに、複数の特徴点を含む大域領域を設定する大域領域設定部(図示せず)を含む。本実施形態に係る大域領域決定部114は、画像内の全ての特徴点を含む最小外接図形(最小外接多角形)の輪郭で囲まれた領域を大域領域とする。登録画像121の大域領域は登録画像特徴情報123の1つとして記憶部120に格納され、対象画面122の大域領域は登録画面特徴情報124の1つとして記憶部120に格納される。   The global area determination unit 114 determines a global area to be set for each of the registered image and the target image according to a predetermined condition. The global region determination unit 114 includes a global region setting unit (not shown) that sets a global region including a plurality of feature points in each of the registered image and the target image. The global region determination unit 114 according to the present embodiment sets a region surrounded by the outline of a minimum circumscribed figure (minimum circumscribed polygon) including all feature points in the image as a global region. The global region of the registered image 121 is stored in the storage unit 120 as one of the registered image feature information 123, and the global region of the target screen 122 is stored in the storage unit 120 as one of the registered screen feature information 124.

特徴点対群抽出部115は、対象画像122の特徴点と、登録画像121の特徴点との対応関係を表す特徴点対の集合(特徴点対群)を抽出する。特徴点対群抽出部115は、対象画像122の特徴点と登録画像121の特徴点とによる特徴点対毎に算出した局所特徴情報の類似度及び大域特徴情報の類似度に基づいて、生成し得る複数通りの特徴点対の集合のなかから特徴点対群を抽出する。ここで、大域特徴情報は、大域情報に基づいて算出した画像内の各特徴点についての特徴量を表す情報、すなわち各特徴点についての局所特徴情報とは異なる特徴情報である。本実施形態に係る特徴点対群抽出部115は、画像内の特徴点毎に算出した、特徴点から大域領域の重心までの距離を大域特徴情報とする。特徴点対群抽出部115は、特徴点対の集合毎に、局所特徴情報の類似度及び大域特徴情報の類似度に基づいて特徴点類似度を算出し、算出した特徴点類似度を特徴点対の集合と対応付けて記憶部120の類似度情報125に格納する。そして、生成し得る複数通りの特徴点対の集合の全てで特徴点類似度を算出した後、特徴点対群抽出部115は、特徴点類似度が最大値となる特徴点対の集合を特徴点対群に決定する。   The feature point pair group extraction unit 115 extracts a set of feature point pairs (a feature point pair group) representing a correspondence relationship between the feature points of the target image 122 and the feature points of the registered image 121. The feature point pair extraction unit 115 generates based on the similarity of the local feature information and the similarity of the global feature information calculated for each feature point pair based on the feature points of the target image 122 and the feature points of the registered image 121. A feature point pair group is extracted from a set of a plurality of obtained feature point pairs. Here, the global feature information is feature information that is different from local feature information about each feature point, that is, information representing the feature amount for each feature point in the image calculated based on the global information. The feature point pair group extraction unit 115 according to the present embodiment uses the distance from the feature point to the center of gravity of the global region calculated for each feature point in the image as the global feature information. The feature point pair extraction unit 115 calculates the feature point similarity for each set of feature points based on the similarity of the local feature information and the similarity of the global feature information, and uses the calculated feature point similarity as a feature point. The information is stored in the similarity information 125 of the storage unit 120 in association with the set of pairs. Then, after calculating the feature point similarity with all of a plurality of sets of feature point pairs that can be generated, the feature point pair group extraction unit 115 characterizes the set of feature point pairs having the maximum feature point similarity. Decide on a point-pair group.

位置姿勢算出部116は、特徴点対群抽出部115が抽出した特徴点対群に含まれる各特徴点対における対象画像122の特徴点と、登録画像121の特徴点との位置関係に基づいて、対象画像122に写っている対象物の位置姿勢を算出する算出部である。本実施形態では、位置姿勢算出部116は、対象物の位置姿勢を示す情報として、登録画像121の特徴点の位置を対象画像122の特徴点の位置に変換する変換式(変換行列)を算出する。すなわち、投影画像生成部130は、位置姿勢算出部116で算出した変換行列により、登録画像121におけるラベル貼付位置129を対象画像122におけるラベル貼付位置に変換し、対象物のラベル貼付位置を示す画像を生成する。   The position and orientation calculation unit 116 is based on the positional relationship between the feature points of the target image 122 and the feature points of the registered image 121 in each feature point pair included in the feature point pair group extracted by the feature point pair group extraction unit 115. The calculation unit calculates the position and orientation of the object shown in the target image 122. In the present embodiment, the position / orientation calculation unit 116 calculates, as information indicating the position / orientation of the object, a conversion formula (conversion matrix) that converts the position of the feature point of the registered image 121 into the position of the feature point of the target image 122. To do. That is, the projection image generation unit 130 converts the label application position 129 in the registered image 121 to the label application position in the target image 122 using the conversion matrix calculated by the position / orientation calculation unit 116, and an image indicating the label application position of the target object Is generated.

次に、図3を参照し、特徴点対群抽出部115の機能的構成について詳細に説明する。
図3は、第1の実施形態に係る特徴点対群抽出部の構成を示す図である。
Next, the functional configuration of the feature point pair group extraction unit 115 will be described in detail with reference to FIG.
FIG. 3 is a diagram illustrating a configuration of the feature point pair group extraction unit according to the first embodiment.

図3に示すように、本実施形態に係る特徴点対群抽出部115は、大域特徴情報抽出部115Aと、集合作成部115Bと、局所特徴情報比較部115Cと、大域特徴情報比較部115Dと、類似度算出部115Eと、を含む。また、特徴点対群抽出部115は、算出処理制御部115Fと、特徴点対群決定部115Gと、を含む。   As shown in FIG. 3, the feature point pair group extraction unit 115 according to this embodiment includes a global feature information extraction unit 115A, a set creation unit 115B, a local feature information comparison unit 115C, and a global feature information comparison unit 115D. And a similarity calculation unit 115E. The feature point pair group extraction unit 115 includes a calculation processing control unit 115F and a feature point pair group determination unit 115G.

大域特徴情報抽出部115Aは、対象画像122及び登録画像121のそれぞれから、特徴点と、大域領域に基づいて決定した基点とにより特徴付けられる大域特徴情報を抽出する第2の抽出部である。本実施形態に係る大域特徴情報抽出部115Aは、大域領域の重心を基点とし、特徴点から基点までの距離を大域特徴情報として抽出する(算出する)。   The global feature information extraction unit 115A is a second extraction unit that extracts, from each of the target image 122 and the registered image 121, global feature information characterized by a feature point and a base point determined based on the global region. The global feature information extraction unit 115A according to the present embodiment extracts (calculates) the distance from the feature point to the base point as the global feature information using the center of gravity of the global region as the base point.

集合生成部115Bは、対象画像122の特徴点と、登録画像121の特徴点とによる特徴点対の集合ψを生成する。   The set generation unit 115B generates a set ψ of feature point pairs based on the feature points of the target image 122 and the feature points of the registered image 121.

局所特徴情報比較部115Cは、特徴点対の集合ψに含まれる特徴点対毎に、対象画像122の特徴点の局所特徴情報と、登録画像121の特徴点の局所特徴情報とを比較して局所特徴情報の類似度を算出する。   The local feature information comparison unit 115C compares the local feature information of the feature point of the target image 122 with the local feature information of the feature point of the registered image 121 for each feature point pair included in the feature point pair set ψ. The similarity of local feature information is calculated.

大域特徴情報比較部115Dは、特徴点対の集合ψに含まれる特徴点対毎に、対象画像122の特徴点の大域特徴情報と、登録画像121の特徴点の大域特徴情報とを比較して大域特徴情報の類似度を算出する。   The global feature information comparison unit 115D compares the global feature information of the feature point of the target image 122 with the global feature information of the feature point of the registered image 121 for each feature point pair included in the feature point pair set ψ. The similarity of global feature information is calculated.

類似度算出部115Eは、特徴点対の集合ψに含まれる特徴点対毎に算出した局所特徴情報の類似度と大域特徴情報の類似度とに基づいて、特徴点対の集合ψにおける特徴点の対応関係についての評価値(特徴点類似度)を算出する。   The similarity calculation unit 115E calculates the feature points in the feature point pair set ψ based on the local feature information similarity and the global feature information similarity calculated for each feature point pair included in the feature point pair set ψ. An evaluation value (feature point similarity) is calculated for the correspondence relationship.

算出処理制御部115Fは、集合作成部115B、局所特徴情報比較部115C、大域特徴情報比較部115D、及び類似度算出部115Eによる特徴点類似度の算出処理を制御する。算出処理制御部115Fは、生成し得る特徴点対の集合の全てで特徴点類似度を算出するまで、集合作成部115B、局所特徴情報比較部115C、大域特徴情報比較部115D、及び類似度算出部115Eに、特徴点類似度の算出処理を繰り返し行わせる。   The calculation processing control unit 115F controls the feature point similarity calculation processing by the set creation unit 115B, the local feature information comparison unit 115C, the global feature information comparison unit 115D, and the similarity calculation unit 115E. The calculation processing control unit 115F calculates the feature point similarity for all sets of feature point pairs that can be generated, the set creation unit 115B, the local feature information comparison unit 115C, the global feature information comparison unit 115D, and the similarity calculation. The unit 115E repeatedly performs the feature point similarity calculation process.

特徴点対群決定部115Gは、特徴点類似度を算出した複数通りの特徴点対の集合のうちの特徴点類似度が最も高い特徴点対の集合を、対象画像122の特徴点と登録画像121の特徴点との対応関係を表す特徴点対の集合(特徴点対群)に決定する。   The feature point pair group determination unit 115G determines a feature point pair set having the highest feature point similarity among a plurality of feature point pair sets for which feature point similarity is calculated, as a feature point of the target image 122 and a registered image. A set of feature point pairs (a feature point pair group) representing a correspondence relationship with 121 feature points is determined.

すなわち、特徴点対群抽出部115は、大域特徴情報を抽出する第2の抽出部(大域特徴情報抽出部115A)と、特定部とに大別される。ここで、特定部は、対象画像122の特徴点と登録画像121の特徴点とによる特徴点対における、局所特徴情報の類似度と、大域特徴情報の類似度とに基づいて、対象画像の特徴点と登録画像の特徴点との対応関係を示す特徴点対群を特定する。特定部は、集合生成部115B、局所特徴情報比較部115C、大域特徴情報比較部115D、算出処理制御部115D、及び特徴点対群決定部115Gを含む。   That is, the feature point pair group extraction unit 115 is roughly divided into a second extraction unit (global feature information extraction unit 115A) that extracts global feature information and a specifying unit. Here, the specifying unit determines the feature of the target image based on the similarity of the local feature information and the similarity of the global feature information in the feature point pair of the feature point of the target image 122 and the feature point of the registered image 121. A feature point pair group indicating the correspondence between the points and the feature points of the registered image is specified. The specifying unit includes a set generation unit 115B, a local feature information comparison unit 115C, a global feature information comparison unit 115D, a calculation processing control unit 115D, and a feature point pair group determination unit 115G.

本実施形態に係る位置姿勢推定装置1は、例えば、図4に示すステップS1〜S9の処理を所定の時間間隔で繰り返し行う。なお、位置姿勢推定装置1は、ステップS1〜S9の一連の処理を1回の処理単位として繰り返し行ってもよいし、ステップS1〜S9の処理をパイプライン化して行ってもよい。   For example, the position / orientation estimation apparatus 1 according to the present embodiment repeatedly performs the processes of steps S1 to S9 illustrated in FIG. 4 at predetermined time intervals. Note that the position / orientation estimation apparatus 1 may repeatedly perform the series of processes in steps S1 to S9 as a single processing unit, or may perform the processes in steps S1 to S9 in a pipeline.

図4は、第1の実施形態に係る位置姿勢推定装置が行う処理を説明するフローチャートである。   FIG. 4 is a flowchart for explaining processing performed by the position and orientation estimation apparatus according to the first embodiment.

図4に示すように、本実施形態に係る位置姿勢推定装置1は、まず、撮像装置2から対象物を撮像した対象画像を取得する(ステップS1)。ステップS1の処理は、画像取得部111が行う。   As shown in FIG. 4, the position / orientation estimation apparatus 1 according to the present embodiment first acquires a target image obtained by imaging a target from the imaging apparatus 2 (step S <b> 1). The process of step S1 is performed by the image acquisition unit 111.

次に、位置姿勢推定装置1は、対象画像及び登録画像から特徴点を検出する特徴点検出処理(ステップS2)を行う。ステップS2の処理は、特徴点検出部112が行う。特徴点検出部112は、画像処理の分野における既知の特徴点の検出方法に従って、撮像画像及び登録画像のそれぞれから特徴点を検出する。例えば、特徴点検出部112は、Speeded Up Robust Features(SURF)、或いはScale Invariant Feature Transform(SIFT)により、特徴点を算出する。   Next, the position / orientation estimation apparatus 1 performs a feature point detection process (step S2) for detecting a feature point from the target image and the registered image. The feature point detection unit 112 performs the process of step S2. The feature point detection unit 112 detects a feature point from each of the captured image and the registered image according to a known feature point detection method in the field of image processing. For example, the feature point detection unit 112 calculates feature points by Speeded Up Robust Features (SURF) or Scale Invariant Feature Transform (SIFT).

特徴点検出部112は、登録画像から検出した特徴点の位置を登録画像特徴情報123の1つとして記憶部120に格納し、対象画像から検出した特徴点の位置を対象画像特徴情報124の1つとして記憶部120に格納する。   The feature point detection unit 112 stores the position of the feature point detected from the registered image in the storage unit 120 as one of the registered image feature information 123, and the position of the feature point detected from the target image is one of the target image feature information 124. Stored in the storage unit 120.

なお、特徴点検出部112は、例えば、ある1種類の対象物に対する位置姿勢の推定を開始した直後の検出処理で検出した登録画像の特徴点を、対象物の種類が変更されるまで、登録画像の特徴点としてもよい。すなわち、特徴点検出部112が位置姿勢を推定する対象物についての登録画像から特徴点を検出するのは、ある1種類の対象物に対する位置姿勢の推定を開始した直後の1度だけでもよい。この場合、ある1種類の対象物に対する位置姿勢の推定処理における2回目以降のステップS2の処理では、特徴点検出部112は、対象画像から特徴点を検出する処理のみを行う。また、現時点において処理対象となっている対象画像の特徴点の位置を対象画像特徴情報124の1つとして記憶部120に格納する際、特徴点検出部112は、過去の情報を消去してもよいし、対象画像毎に識別可能な状態で蓄積してもよい。   Note that the feature point detection unit 112 registers, for example, the feature points of the registered image detected in the detection process immediately after the start of position and orientation estimation for a certain type of object until the type of the object is changed. It may be a feature point of an image. That is, the feature point detection unit 112 may detect the feature point from the registered image for the target object whose position and orientation are estimated only once after the start of the position and orientation estimation for a certain type of target object. In this case, the feature point detection unit 112 performs only the process of detecting the feature point from the target image in the second and subsequent processes of the position and orientation estimation process for one type of target object. In addition, when storing the position of the feature point of the target image that is the current processing target in the storage unit 120 as one of the target image feature information 124, the feature point detection unit 112 may erase past information. Alternatively, it may be stored in an identifiable state for each target image.

次に、位置姿勢推定装置1は、対象画像に対象物が写っているか否かを判定する(ステップS3)。ステップS3の判定は、例えば、特徴点検出部112が行う。特徴点検出部112は、ステップS2における対象画像に対する特徴点の検出結果に基づいて、対象画像に対象物が写っているか否かを判定する。例えば、対象画像の特徴点の総数Nから登録画像の特徴点の総数Mを減じた値(N−M)が閾値TH1よりも小さい場合、特徴点検出部112は、対象画像に対象物が写っていないと判定する。閾値TH1は、例えば、登録画像の特徴点の総数Mに基づいて設定される負の値(TH1<0)とする。対象画像に対象物が写っていないと判定した場合(ステップS3;NO)、位置姿勢推定装置1は、現時点において処理対象となっている対象画像に対する処理を終了する。   Next, the position / orientation estimation apparatus 1 determines whether or not the object is shown in the target image (step S3). The determination in step S3 is performed by, for example, the feature point detection unit 112. The feature point detection unit 112 determines whether or not the target object is shown in the target image based on the detection result of the feature point with respect to the target image in step S2. For example, when a value (N−M) obtained by subtracting the total number M of feature points of the registered image from the total number N of feature points of the target image is smaller than the threshold value TH1, the feature point detection unit 112 captures the target object in the target image. Judge that it is not. The threshold value TH1 is, for example, a negative value (TH1 <0) set based on the total number M of feature points of the registered image. When it is determined that the target object is not shown in the target image (step S3; NO), the position / orientation estimation apparatus 1 ends the process for the target image that is currently the processing target.

一方、対象画像の特徴点の総数Nから登録画像の特徴点の総数Mを減じた値(N−M)が閾値TH1以上である場合、特徴点抽出部112は、対象画像に対象物が写っていると判定する。対象画像に対象物が写っていると判定した場合(ステップS3;YES)、位置姿勢推定装置1は、次に、対象画像及び登録画像のそれぞれから、検出した特徴点の局所特徴情報を抽出する(ステップS4)。ステップS4の処理は、局所特徴情報抽出部113が行う。局所特徴情報抽出部113は、画像処理の分野における既知の局所特徴情報の抽出方法に従って、対象画像及び登録画像のそれぞれから、特徴点の周囲(局所領域)における画像の特徴を表す局所特徴情報を抽出する。例えば、局所特徴情報抽出部113は、SURF、或いはSIFTにより、各特徴点の局所特徴情報を抽出する。局所特徴情報抽出部113は、対象画像の特徴点についての局所特徴情報を対象画像特徴情報124の1つとして記憶部120に格納し、登録画像の特徴点についての局所特徴情報を登録画像特徴情報123の1つとして記憶部120に格納する。   On the other hand, when the value (N−M) obtained by subtracting the total number M of feature points of the registered image from the total number N of feature points of the target image is equal to or greater than the threshold value TH1, the feature point extraction unit 112 captures the target object in the target image. It is determined that When it is determined that the target object is captured in the target image (step S3; YES), the position / orientation estimation apparatus 1 next extracts local feature information of the detected feature point from each of the target image and the registered image. (Step S4). The local feature information extraction unit 113 performs the process of step S4. The local feature information extraction unit 113 obtains local feature information representing the feature of the image around the feature point (local region) from each of the target image and the registered image according to a known local feature information extraction method in the field of image processing. Extract. For example, the local feature information extraction unit 113 extracts local feature information of each feature point by SURF or SIFT. The local feature information extraction unit 113 stores the local feature information about the feature points of the target image in the storage unit 120 as one of the target image feature information 124, and the local feature information about the feature points of the registered image as registered image feature information. One of 123 is stored in the storage unit 120.

なお、局所特徴情報抽出部113は、例えば、ある1種類の対象物に対する位置姿勢の推定を開始した直後の抽出処理で抽出した登録画像の特徴点についての局所特徴情報を、対象物の種類が変更されるまで、登録画像の特徴点の局所特徴情報としてもよい。すなわち、局所特徴情報抽出部113が位置姿勢を推定する対象物についての登録画像から局所特徴情報を抽出するのは、ある1種類の対象物に対する位置姿勢の推定を開始した直後の1度だけでもよい。この場合、ある1種類の対象物に対する位置姿勢の推定処理における2回目以降のステップS4の処理では、局所特徴情報抽出部113は、対象画像から局所特徴情報を抽出する処理のみを行う。   Note that the local feature information extraction unit 113, for example, obtains local feature information about the feature points of the registered image extracted in the extraction process immediately after the start of position / orientation estimation for a certain type of target object. Until it is changed, local feature information of feature points of the registered image may be used. That is, the local feature information extraction unit 113 extracts the local feature information from the registered image for the target object whose position and orientation is estimated only once immediately after the start of the position and orientation estimation for a certain type of target object. Good. In this case, the local feature information extraction unit 113 performs only the process of extracting the local feature information from the target image in the second and subsequent steps in the position and orientation estimation process for one type of target object.

次に、位置姿勢推定装置1は、局所特徴情報に基づいて、位置姿勢の推定に不要な特徴点を除外する(ステップS5)。ステップS5の処理は、例えば、局所特徴情報抽出部113が行う。局所特徴情報抽出部113は、抽出した局所特徴情報に基づいて、対象画像から検出された複数の特徴点のうちの背景領域(例えば、対象物5を搬送する搬送ベルト401等)から検出された特徴点を、位置姿勢の推定に不要な特徴点として除外する。局所特徴情報抽出部113は、例えば、対象画像の複数の特徴点のそれぞれで、登録画像における1個以上の特徴点との局所特徴情報の類似度を算出し、当該類似度が閾値以下である特徴点を除外する。除外する特徴点がある場合、局所特徴情報抽出部113は、該当する特徴点の位置及び局所特徴情報を対象画像特徴情報124から削除する。   Next, the position / orientation estimation apparatus 1 excludes feature points that are unnecessary for position / orientation estimation based on the local feature information (step S5). For example, the local feature information extraction unit 113 performs the process of step S5. Based on the extracted local feature information, the local feature information extraction unit 113 is detected from a background region (for example, a transport belt 401 that transports the target object 5) among a plurality of feature points detected from the target image. Feature points are excluded as feature points that are unnecessary for position and orientation estimation. For example, the local feature information extraction unit 113 calculates, for each of a plurality of feature points of the target image, the similarity of the local feature information with one or more feature points in the registered image, and the similarity is equal to or less than a threshold value. Exclude feature points. When there is a feature point to be excluded, the local feature information extraction unit 113 deletes the position of the corresponding feature point and the local feature information from the target image feature information 124.

次に、位置姿勢推定装置1は、対象画像及び登録画像の大域領域を決定する大域領域決定処理(ステップS6)を行う。ステップS6の大域領域決定処理は、大域領域決定部114が行う。本実施形態に係る大域領域決定部114は、不要な特徴点を除外した後の対象画像の特徴点の位置に基づいて対象画像の大域領域を決定するとともに、登録画像の特徴点の位置に基づいて登録画像の大域領域を決定する。本実施形態に係る大域領域決定部114は、対象画像及び登録画像のそれぞれで、全ての特徴点を含む最小外接多角形を算出し、当該最小外接多角形の輪郭で囲まれる領域を大域領域に決定する。大域領域決定部114は、対象画像の大域領域を表す情報を対象画像特徴情報124の1つとして記憶部120に格納し、登録画像の大域領域を表す情報を登録画像特徴情報123の1つとして記憶部120に格納する。   Next, the position / orientation estimation apparatus 1 performs a global region determination process (step S6) for determining the global region of the target image and the registered image. The global area determination process in step S6 is performed by the global area determination unit 114. The global region determination unit 114 according to the present embodiment determines the global region of the target image based on the position of the feature point of the target image after removing unnecessary feature points, and based on the position of the feature point of the registered image. To determine the global area of the registered image. The global area determination unit 114 according to the present embodiment calculates a minimum circumscribed polygon including all feature points in each of the target image and the registered image, and sets the area surrounded by the outline of the minimum circumscribed polygon as the global area. decide. The global region determination unit 114 stores information representing the global region of the target image in the storage unit 120 as one of the target image feature information 124, and information representing the global region of the registered image as one of the registered image feature information 123. Store in the storage unit 120.

次に、位置姿勢推定装置1は、対象画像の特徴点と登録画像の特徴点との対応関係を表す特徴点対群を抽出する特徴点群抽出処理(ステップS7)を行う。ステップS7の処理は、特徴点対群抽出部115が行う。特徴点対群抽出部115は、対象画像の特徴点と登録画像の特徴点とによる特徴点対の集合を複数通り生成し、当該複数通りの特徴点対の集合のなかから特徴点対群を抽出する。特徴点対群抽出部115は、特徴点対の集合毎に局所特徴情報の類似度と大域特徴情報の類似度とに基づいて集合単位での特徴点対の類似度を算出し、類似度が最も高い特徴点対の集合を特徴点対群に決定する。大域特徴情報は、対象画像及び登録画像のそれぞれにおける、特徴点と大域領域との関係を表す情報であり、特徴点対群抽出部115の大域特徴情報抽出部115Aが抽出する(算出する)。本実施形態に係る大域特徴情報抽出部115Aは、対象画像及び登録画像のそれぞれに対して、大域領域の重心を算出し、特徴点毎に特徴点から大域領域の重心までの距離を算出する処理を行う。すなわち、本実施形態に係る特徴点対群抽出処理では、特徴点毎に算出した特徴点から大域領域の重心までの距離を大域特徴情報とする。特徴点対群抽出部115は、特徴点毎に抽出した局所特徴情報と、大域特徴情報とに基づいて特徴点対の類似度を算出する毎に、算出した類似度を特徴点対の集合と対応付けて類似度情報125に蓄積する。そして、生成し得る特徴点対の集合の全てで類似度を算出した後、特徴点対群抽出部115は、類似度情報125に蓄積した特徴点対の集合のなかから類似度が最大値である特徴点対の集合を特定し、当該特徴点対の集合を特徴点対群に決定する。なお、特徴点対群抽出部115において類似度が最大値である特徴点対の集合を特徴点対群とするのは、類似度が高いほど算出される値が大きくなる類似度算出方法に従って類似度を算出する場合である。すなわち、類似度が正の値であり、かつ類似度が高いほど算出される値が小さくなる類似度算出方法に従って類似度を算出した場合、特徴点対群抽出部115は、類似度が最小値(0に最も近い)である特徴点対の集合を特徴点対群に決定する。   Next, the position / orientation estimation apparatus 1 performs a feature point group extraction process (step S7) for extracting a feature point pair group representing a correspondence relationship between the feature points of the target image and the feature points of the registered image. The process of step S7 is performed by the feature point pair group extraction unit 115. The feature point pair group extraction unit 115 generates a plurality of sets of feature point pairs based on the feature points of the target image and the feature points of the registered image, and selects a feature point pair group from the plurality of sets of feature point pairs. Extract. The feature point pair group extraction unit 115 calculates the similarity of the feature point pairs in units of sets based on the similarity of the local feature information and the similarity of the global feature information for each set of feature points. The highest feature point pair set is determined as a feature point pair group. The global feature information is information representing the relationship between the feature points and the global region in each of the target image and the registered image, and is extracted (calculated) by the global feature information extraction unit 115A of the feature point pair group extraction unit 115. The global feature information extraction unit 115A according to the present embodiment calculates the center of gravity of the global region for each of the target image and the registered image, and calculates the distance from the feature point to the center of gravity of the global region for each feature point I do. That is, in the feature point pair group extraction processing according to the present embodiment, the distance from the feature point calculated for each feature point to the center of gravity of the global region is used as the global feature information. Each time the feature point pair group extraction unit 115 calculates the similarity of the feature point pair based on the local feature information extracted for each feature point and the global feature information, the calculated similarity is used as a set of feature point pairs. Corresponding information is stored in the similarity information 125. Then, after calculating the similarity for all of the sets of feature point pairs that can be generated, the feature point pair group extraction unit 115 has the maximum similarity from the set of feature point pairs accumulated in the similarity information 125. A set of feature point pairs is specified, and the set of feature point pairs is determined as a feature point pair group. It should be noted that the feature point pair group having the maximum similarity in the feature point pair extraction unit 115 is used as the feature point pair group because the higher the similarity is, the larger the calculated value is. This is a case of calculating the degree. In other words, when the similarity is calculated according to a similarity calculation method in which the similarity is a positive value and the calculated value decreases as the similarity increases, the feature point pair group extraction unit 115 determines that the similarity is the minimum value. A set of feature point pairs (closest to 0) is determined as a feature point pair group.

次に、位置姿勢推定装置1は、決定した特徴点対群に基づいて、対象画像内の対象物の位置姿勢を算出する(ステップS8)。ステップS8の処理は、位置姿勢算出部116が行う。なお、本実施形態に係る位置姿勢算出部116は、対象物の位置姿勢として、登録画像の特徴点の位置を対象画像の特徴点の位置に変換する変換行列を算出する。位置姿勢算出部116は、既知の座標変換方法に従い、特徴点対群に含まれる複数の特徴点対のそれぞれにおける対象画像の特徴点と登録画像の特徴点との位置関係に基づいて、変換行列を算出する。   Next, the position / orientation estimation apparatus 1 calculates the position / orientation of the target object in the target image based on the determined feature point pair group (step S8). The position / orientation calculation unit 116 performs the process of step S8. Note that the position / orientation calculation unit 116 according to the present embodiment calculates a conversion matrix that converts the position of the feature point of the registered image into the position of the feature point of the target image as the position / orientation of the target object. The position / orientation calculation unit 116 converts the transformation matrix based on the positional relationship between the feature points of the target image and the feature points of the registered image in each of a plurality of feature point pairs included in the feature point pair group according to a known coordinate transformation method. Is calculated.

次に、位置姿勢推定装置1は、記憶部120のラベル貼付位置129と、算出した対象物の位置姿勢(変換行列)とに基づいて対象物に投影する画像を生成して出力する(ステップS9)。ステップS9の処理は、投影画像生成部130が行う。ラベル貼付位置129は、登録画像内の対象物におけるラベルの貼付位置を示す情報を含む。投影画像生成部130は、記憶部120のラベル貼付位置129を読み出し、位置姿勢算出部116で算出した変換行列により、登録画像におけるラベルの貼付位置を表す座標を、対象画像におけるラベルの貼付位置を表す座標に変換する。その後、投影画像生成部130は、対象画像におけるラベルの貼付位置を表す座標に、ラベルの貼付位置が表示される画像を生成してプロジェクタ3に出力する。投影画像生成部130が生成した画像を出力すると、位置姿勢推定装置1は、現時点において処理対象となっている対象画像に対する処理を終了する。   Next, the position / orientation estimation apparatus 1 generates and outputs an image to be projected onto the object based on the label attaching position 129 of the storage unit 120 and the calculated position / orientation (conversion matrix) of the object (step S9). ). The projection image generation unit 130 performs the process in step S9. The label application position 129 includes information indicating the label application position on the object in the registered image. The projection image generation unit 130 reads the label application position 129 in the storage unit 120, and uses the transformation matrix calculated by the position / orientation calculation unit 116 to indicate the coordinates indicating the label application position in the registered image and the label application position in the target image. Convert to the coordinates to represent. Thereafter, the projection image generation unit 130 generates an image in which the label pasting position is displayed at the coordinates representing the label pasting position in the target image, and outputs the image to the projector 3. When the image generated by the projection image generation unit 130 is output, the position / orientation estimation apparatus 1 ends the process on the target image that is the current processing target.

このように、本実施形態に係る対象物の位置姿勢を推定する処理では、対象物の特徴点の周囲から抽出した局所特徴情報の類似度と、画像内に設定した大域領域の重心と特徴点との関係を表す大域特徴情報の類似度とに基づいて、対象物の位置姿勢を推定する。   As described above, in the process of estimating the position and orientation of the target object according to this embodiment, the similarity of the local feature information extracted from around the feature point of the target object, the centroid and the feature point of the global area set in the image The position and orientation of the object is estimated based on the similarity of the global feature information that represents the relationship between

以下、図5〜図8を参照し、図4のフローチャートにおけるステップS2,S6,S7の各処理について詳細に説明する。   Hereinafter, with reference to FIG. 5 to FIG. 8, each process of steps S2, S6, and S7 in the flowchart of FIG. 4 will be described in detail.

図4のフローチャートにおけるステップS2の処理(特徴点検出処理)は、特徴点検出部112が行う。特徴点検出部112は、特徴点検出処理として、図5に示す処理を行う。   The feature point detection unit 112 performs the process (feature point detection process) in step S2 in the flowchart of FIG. The feature point detection unit 112 performs the process shown in FIG. 5 as the feature point detection process.

図5は、特徴点検出処理の内容を説明するフローチャートである。
特徴点検出部112は、まず、対象画像から特徴点を検出し記憶部120に保持させる(ステップS201)。ステップS201において、特徴点検出部112は、既知の検出方法に従って対象画像から特徴点P(n=1,2,・・・,N’)を検出し、検出した特徴点の位置を対象画像特徴情報124の1つとして記憶部120に記憶させる(保持させる)。
FIG. 5 is a flowchart for explaining the content of the feature point detection process.
The feature point detection unit 112 first detects a feature point from the target image and stores it in the storage unit 120 (step S201). In step S201, the feature point detection unit 112 detects feature points P n (n = 1, 2,..., N ′) from the target image according to a known detection method, and determines the position of the detected feature points as the target image. It is stored (stored) in the storage unit 120 as one of the feature information 124.

次に、特徴点検出部112は、登録画像特徴情報123を参照し、登録画像の特徴点を検出済みであるか否かを判定する。登録画像の特徴点を検出済みである場合(ステップS202;YES)、特徴点検出部112は、特徴点検出処理を終了する。   Next, the feature point detection unit 112 refers to the registered image feature information 123 and determines whether or not a feature point of the registered image has been detected. When the feature point of the registered image has been detected (step S202; YES), the feature point detection unit 112 ends the feature point detection process.

一方、登録画像の特徴点をまだ検出していない場合(ステップS202;NO)、特徴点検出部112は、次に、登録画像から特徴点を検出し記憶部120に保持させる(ステップS203)。ステップS203において、特徴点検出部112は、既知の検出方法に従って登録画像から特徴点PU(m=1,2,・・・,M)を検出し、検出した特徴点の位置を対象画像特徴情報124の1つとして記憶部120に記憶させる(保持させる)。 On the other hand, when the feature point of the registered image has not been detected yet (step S202; NO), the feature point detecting unit 112 next detects the feature point from the registered image and stores it in the storage unit 120 (step S203). In step S203, the feature point detection unit 112 detects feature points PU m (m = 1, 2,..., M) from the registered image according to a known detection method, and determines the position of the detected feature points as the target image feature. The information is stored (held) in the storage unit 120 as one piece of information 124.

特徴点検出部112は、対象画像の特徴点を検出する処理と、登録画像の特徴点を検出する処理とを、同一の特徴点検出方法(アルゴリズム)に従って行う。そのため、対象物の位置姿勢が定まっている登録画像から特徴点を検出する処理を複数回行った場合の処理結果(検出された特徴点の数及び位置)は、ほぼ同じ結果となる。よって、ある1種類の対象物についての位置姿勢を検出する処理において登録画像の特徴点が検出済みである場合には特徴点を検出する処理(ステップS202)を省略することで、特徴点検出部112の処理負荷を軽減することが可能となる。   The feature point detection unit 112 performs the process of detecting the feature point of the target image and the process of detecting the feature point of the registered image according to the same feature point detection method (algorithm). Therefore, the processing result (the number and position of the detected feature points) when the process of detecting the feature points from the registered image in which the position and orientation of the target object are determined is almost the same. Therefore, when the feature point of the registered image has already been detected in the process of detecting the position and orientation of one type of target object, the feature point detection unit is omitted by omitting the feature point detection process (step S202). The processing load 112 can be reduced.

また、フローチャートを参照した説明は省略するが、各特徴点の局所特徴情報を抽出する処理(ステップS4)において、局所特徴情報抽出部113は、図5のフローチャートと同様の手順で局所特徴情報を抽出する。すなわち、特徴画像の特徴点についての局所特徴情報を抽出済みである場合、局所特徴情報抽出部113は、特徴画像の特徴点についての局所特徴情報を抽出する処理を省略し、対象画像の特徴点についての局所特徴情報を抽出する処理のみを行う。   Although description with reference to the flowchart is omitted, in the process of extracting local feature information of each feature point (step S4), the local feature information extraction unit 113 obtains the local feature information in the same procedure as in the flowchart of FIG. Extract. That is, when the local feature information about the feature point of the feature image has already been extracted, the local feature information extraction unit 113 omits the process of extracting the local feature information about the feature point of the feature image, and the feature point of the target image Only the process of extracting local feature information about is performed.

局所特徴情報を抽出する処理(ステップS4)、及び対象物の位置姿勢の推定に不要な特徴点を除外する処理(ステップS5)を行った後、位置姿勢推定装置1は、ステップS6の大域領域決定処理を行う。大域領域決定処理は、大域領域決定部114が行う。本実施形態に係る大域領域決定部114は、大域領域決定処理として、図6に示す処理を行う。   After performing the process of extracting local feature information (step S4) and the process of excluding feature points unnecessary for estimating the position and orientation of the target object (step S5), the position and orientation estimation apparatus 1 performs the global region of step S6. Perform decision processing. The global area determination process is performed by the global area determination unit 114. The global area determination unit 114 according to the present embodiment performs the process shown in FIG. 6 as the global area determination process.

図6は、第1の実施形態に係る大域領域決定処理の内容を説明するフローチャートである。   FIG. 6 is a flowchart for explaining the contents of the global area determination processing according to the first embodiment.

大域領域決定部114は、まず、対象画像における各特徴点Pを含む最小外接多角形を算出し、当該最小外接多角形を対象画像の大域領域Dとして記憶部120に保持させる(ステップS601)。ステップS601において、大域領域決定部114は、対象画像特徴情報124に格納された対象画像の特徴点P(n=1,2,・・・,N)の位置情報に基づいて、全ての特徴点を含む最小外接多角形を算出する。ここで、最小外接多角形の算出に用いる特徴点は、ステップS5により位置姿勢の推定に不要な特徴点を除去した後の対象画像の特徴点である。すなわち、ステップS601で用いる特徴点Pnの総数Nは、ステップS5において1個以上の特徴点を除外した場合にはN<N’であり、ステップS5において除外された特徴点がない場合にはN=N’である。大域領域決定部114は、既知の算出方法に従って、対象画像の全特徴点を含む最小外接多角形を算出する。大域領域決定部114は、算出した最小外接多角形の輪郭で囲まれた領域を対象画像の大域領域Dに決定し、大域領域Dを表す情報を対象画像特徴情報124の1つとして記憶部120に格納する。 First, the global area determination unit 114 calculates a minimum circumscribed polygon including each feature point P n in the target image, and stores the minimum circumscribed polygon in the storage unit 120 as the global area D of the target image (step S601). . In step S601, the global area determination unit 114 determines all the features based on the position information of the feature points P n (n = 1, 2,..., N) of the target image stored in the target image feature information 124. Calculate the minimum circumscribed polygon containing the points. Here, the feature points used for the calculation of the minimum circumscribed polygon are the feature points of the target image after the feature points unnecessary for the position and orientation estimation are removed in step S5. That is, the total number N of feature points Pn used in step S601 is N <N ′ when one or more feature points are excluded in step S5, and N when no feature points are excluded in step S5. = N '. The global area determination unit 114 calculates a minimum circumscribed polygon including all feature points of the target image according to a known calculation method. The global region determination unit 114 determines the region surrounded by the calculated contour of the minimum circumscribed polygon as the global region D of the target image, and stores the information representing the global region D as one of the target image feature information 124. To store.

次に、大域領域決定部114は、登録画像特徴情報123を参照し、登録画像の大域領域DUを決定済みであるか否かを判定する(ステップS602)。登録画像の大域領域DUを決定済みである場合(ステップS602;YES)、大域領域決定部114は、大域領域決定処理を終了する。   Next, the global area determination unit 114 refers to the registered image feature information 123 and determines whether or not the global area DU of the registered image has been determined (step S602). When the global area DU of the registered image has been determined (step S602; YES), the global area determination unit 114 ends the global area determination process.

一方、登録画像の大域領域DUがまだ決定していない場合(ステップS602;NO)、大域領域決定部114は、次に、登録画像における各特徴点PUを含む最小外接多角形を算出し、当該最小外接多角形を登録画像の大域領域DUとして記憶部120に保持させる(ステップS603)。ステップS603において、大域領域決定部114は、登録画像特徴情報123に格納された登録画像の特徴点PU(m=1,2,・・・,M)の位置情報に基づいて、全特徴点を含む最小外接多角形を算出する。大域領域決定部114は、ステップS601で用いる算出方法と同一の算出方法に従って、登録画像の全特徴点を含む最小外接多角形を算出する。この場合、大域領域決定部114は、算出した最小外接多角形の輪郭で囲まれた領域を登録画像の大域領域DUに決定し、大域領域DUを表す情報を登録画像特徴情報123の1つとして記憶部120に格納して大域領域決定処理を終了する。 On the other hand, when the global area DU of the registered image has not yet been determined (step S602; NO), the global area determining unit 114 next calculates a minimum circumscribed polygon including each feature point PU m in the registered image, The minimum circumscribed polygon is held in the storage unit 120 as the global area DU of the registered image (step S603). In step S <b> 603, the global area determination unit 114 determines all feature points based on the position information of the registered image feature points PU m (m = 1, 2,..., M) stored in the registered image feature information 123. Compute the minimum circumscribed polygon containing. The global area determination unit 114 calculates a minimum circumscribed polygon including all feature points of the registered image according to the same calculation method as that used in step S601. In this case, the global area determination unit 114 determines the area surrounded by the calculated contour of the minimum circumscribed polygon as the global area DU of the registered image, and uses the information representing the global area DU as one of the registered image feature information 123. The data is stored in the storage unit 120 and the global area determination process is terminated.

なお、図5のフローチャートは、本実施形態に係る大域領域決定処理の一例に過ぎない。本実施形態に係る大域領域決定処理は、例えば、まずステップS602の判定を行ってもよい。この場合、登録画像の大域領域DUを決定済みであれば(ステップS602;YES)、大域領域決定部114は、ステップS601の処理のみを行う。一方、登録画像の大域領域DUをまだ決定していない場合(ステップS602;YES)、大域領域決定部114は、ステップS601の処理及びステップS603の処理を行う。   Note that the flowchart of FIG. 5 is merely an example of a global area determination process according to the present embodiment. In the global area determination processing according to the present embodiment, for example, the determination in step S602 may be performed first. In this case, if the global area DU of the registered image has been determined (step S602; YES), the global area determination unit 114 performs only the process of step S601. On the other hand, when the global area DU of the registered image has not yet been determined (step S602; YES), the global area determination unit 114 performs the process of step S601 and the process of step S603.

大域領域決定処理を行った後、位置姿勢推定装置1は、ステップS7の特徴点対群抽出処理を行う。特徴点対群抽出処理は、特徴点対群抽出部115が行う。本実施形態に係る特徴点対群抽出部115は、特徴点対群抽出処理として、図7及び図8に示す処理を行う。   After performing the global region determination process, the position / orientation estimation apparatus 1 performs the feature point pair group extraction process in step S7. The feature point pair group extraction processing is performed by the feature point pair group extraction unit 115. The feature point pair group extraction unit 115 according to the present embodiment performs the processing shown in FIGS. 7 and 8 as feature point pair group extraction processing.

図7は、第1の実施形態に係る特徴点対群抽出処理の内容を説明するフローチャートである。図8は、第1の実施形態に係る大域特徴情報抽出処理の内容を説明するフローチャートである。   FIG. 7 is a flowchart for explaining the content of the feature point pair group extraction processing according to the first embodiment. FIG. 8 is a flowchart for explaining the contents of the global feature information extraction processing according to the first embodiment.

図7に示すように、特徴点対群抽出部115は、まず、対象画像及び特徴画像のそれぞれから大域特徴情報を抽出する大域特徴情報抽出処理(ステップS701)を行う。ステップS701の処理は、特徴点対群抽出部115の大域特徴情報抽出部115Aが行う。本実施形態に係る大域特徴情報抽出部115は、対象画像の特徴点毎に特徴点から大域領域Dの重心までの距離を算出する処理と、登録画像の特徴点毎に特徴点から大域領域DUの重心までの距離を算出する処理とを行う(図8を参照)。大域特徴情報抽出部115は、対象画像の特徴点毎に算出した特徴点から大域領域Dの重心までの距離を対象画像の各特徴点についての大域特徴情報とし、当該大域特徴情報を対象画像特徴情報124の1つとして記憶部120に格納する。同様に、大域特徴情報抽出部115は、登録画像の特徴点毎に算出した特徴点から大域領域DUの重心までの距離を登録画像の各特徴点についての大域特徴情報とし、当該大域特徴情報を登録画像特徴情報123の1つとして記憶部120に格納する。   As shown in FIG. 7, the feature point pair group extraction unit 115 first performs global feature information extraction processing (step S701) for extracting global feature information from each of the target image and the feature image. The process of step S701 is performed by the global feature information extraction unit 115A of the feature point pair group extraction unit 115. The global feature information extraction unit 115 according to the present embodiment calculates the distance from the feature point to the center of gravity of the global region D for each feature point of the target image, and from the feature point to the global region DU for each feature point of the registered image. And calculating the distance to the center of gravity (see FIG. 8). The global feature information extraction unit 115 sets the distance from the feature point calculated for each feature point of the target image to the center of gravity of the global region D as global feature information for each feature point of the target image, and uses the global feature information as the target image feature It is stored in the storage unit 120 as one piece of information 124. Similarly, the global feature information extraction unit 115 sets the distance from the feature point calculated for each feature point of the registered image to the center of gravity of the global region DU as the global feature information for each feature point of the registered image, and uses the global feature information. It is stored in the storage unit 120 as one of the registered image feature information 123.

次に、特徴点対群抽出部115は、特徴点対の集合を識別する変数kを0にする(ステップS702)。ステップS702の処理は、算出処理制御部115Fが行う。   Next, the feature point pair group extraction unit 115 sets a variable k for identifying a set of feature point pairs to 0 (step S702). The calculation process control unit 115F performs the process of step S702.

ステップS702の後、特徴点対群抽出部115は、局所特徴情報と大域特徴情報とに基づいて、複数通りの特徴点対の集合のそれぞれにおける特徴点類似度を算出する処理(ステップS703〜S707)を行う。ステップS703〜S707の処理は、算出処理制御部115Fによる制御のもと、集合生成部115Bと、局所特徴情報比較部115Cと、大域特徴情報比較部115Dと、類似度算出部115Eとが行う。   After step S702, the feature point pair group extraction unit 115 calculates feature point similarity in each of a plurality of sets of feature point pairs based on the local feature information and the global feature information (steps S703 to S707). )I do. The processing in steps S703 to S707 is performed by the set generation unit 115B, the local feature information comparison unit 115C, the global feature information comparison unit 115D, and the similarity calculation unit 115E under the control of the calculation processing control unit 115F.

ステップS702の処理を終えると、特徴点対群抽出部115は、次に、対象画像の特徴点と登録画像の特徴点とによる特徴点の集合ψを生成する(ステップS703)。ステップS703の処理は、集合生成部115Bが行う。集合生成部115Bは、第1の集合に含まれる要素と第2の集合に含まれる要素とによる要素対の集合を生成する既知の生成方法に従って、対象画像の特徴点と登録画像の特徴点とによる特徴点対の集合ψを生成する。なお、集合生成部115Bは、所定の生成規則(生成アルゴリズム)に従い、1回のステップS703の処理において、対象画像の特徴点の総数Nと登録画像の特徴点の総数Mとに基づいて生成可能な特徴点対の集合のうちの1組の集合を生成する。 When the process of step S702 is completed, the feature point pair group extraction unit 115 next generates a set of feature points ψ k based on the feature points of the target image and the feature points of the registered image (step S703). The set generation unit 115B performs the process of step S703. The set generation unit 115B is configured to generate a feature point of the target image and a feature point of the registered image according to a known generation method for generating a set of element pairs by elements included in the first set and elements included in the second set. Generates a set ψ k of feature point pairs. Note that the set generation unit 115B can generate based on the total number N of feature points of the target image and the total number M of feature points of the registered image in one process of step S703 according to a predetermined generation rule (generation algorithm). A set of a set of feature point pairs is generated.

次に、特徴点対群抽出部115は、特徴点対の集合ψに含まれる各特徴点対における局所特徴情報の類似度SLn,mと、大域特徴情報の類似度SCn,mとを算出する(ステップS704)。ステップS704の処理は、局所特徴情報比較部115Cと、大域特徴情報比較部115Dとが行う。局所特徴情報比較部115Cは、特徴点対毎に、対象画像特徴情報124に格納された対象画像の特徴点の局所特徴情報と、登録画像特徴情報123に格納された登録画像121の特徴点の局所特徴情報とを比較して、局所特徴情報の類似度SLn,mを算出する。局所特徴情報比較部115Cは、既知の類似度算出方法に従って、対象画像122の特徴点の局所特徴情報と、登録画像121の特徴点の局所特徴情報との類似度SLn,mを算出する。大域特徴情報比較部115Dは、特徴点対毎に、対象画像特徴情報124に格納された対象画像の特徴点の大域特徴情報と、登録画像特徴情報123に格納された登録画像の特徴点の大域特徴情報とを比較して、大域特徴情報の類似度SCn,mを算出する。大域特徴情報比較部115Dは、比較した大域特徴情報同士の類似性と、算出される類似度SCn,mとの関係が、比較した局所特徴情報同士の類似性と、算出される類似度SLn,mとの関係と同じ関係になる算出方法で、類似度SCn,mを算出する。例えば、比較した局所特徴情報同士が類似しているほど類似度SLn,mの値が大きくなる場合、大域特徴情報比較部115Dは、比較した大域特徴情報同士が類似しいているほど類似度SCn,mの値が大きくなる算出方法で、類似度SCn,mを算出する。 Next, the feature point pair group extraction unit 115 calculates the similarity SL n, m of local feature information and the similarity SC n, m of global feature information in each feature point pair included in the set ψ k of feature point pairs. Is calculated (step S704). The local feature information comparison unit 115C and the global feature information comparison unit 115D perform the processing in step S704. For each feature point pair, the local feature information comparison unit 115C compares the local feature information of the feature point of the target image stored in the target image feature information 124 and the feature point of the registered image 121 stored in the registered image feature information 123. The local feature information is compared to calculate the similarity SL n, m of the local feature information. The local feature information comparison unit 115C calculates the similarity SL n, m between the local feature information of the feature point of the target image 122 and the local feature information of the feature point of the registered image 121 according to a known similarity calculation method. The global feature information comparison unit 115D, for each feature point pair, the global feature information of the feature point of the target image stored in the target image feature information 124 and the global feature information of the registered image stored in the registered image feature information 123. The similarity SCn , m of the global feature information is calculated by comparing with the feature information. The global feature information comparison unit 115D has a relationship between the similarity between the compared global feature information and the calculated similarity SC n, m , the similarity between the compared local feature information, and the calculated similarity SL. The similarity SC n, m is calculated by a calculation method having the same relationship as that of n, m . For example, when the compared local feature information is more similar, the similarity SL n, m value is larger, and the global feature information comparing unit 115D is more similar to the compared global feature information as the similarity SC. The similarity SC n, m is calculated by a calculation method in which the value of n, m increases.

次に、特徴点対群抽出部115は、局所特徴情報の類似度SLn,mと、大域特徴情報の類似度SCn,mとに基づいて、特徴点対の集合ψについての特徴点類似度Sを算出する(ステップS705)。ステップS705の処理は、類似度算出部115Eが行う。類似度算出部115Eは、例えば、下記式(1)により特徴点対の集合ψについての特徴点類似度Sを算出する。 Next, the feature point pair group extraction unit 115 performs feature points on the set ψ k of feature point pairs based on the similarity SL n, m of the local feature information and the similarity SC n, m of the global feature information. A similarity score Sk is calculated (step S705). The similarity calculation unit 115E performs the process of step S705. The similarity calculation unit 115E calculates, for example, the feature point similarity S k for the feature point pair set ψ k by the following equation (1).

Figure 2018036770
Figure 2018036770

式(1)におけるSLn,m及びSCn,mは、それぞれ、特徴点対の集合ψに含まれる各特徴点対(P,PU)における局所特徴情報の類似度、及び大域特徴情報の類似度である。また、式(1)におけるα及びβは、それぞれ、任意の定数である。 SL n, m and SC n, m in equation (1) are the similarity of the local feature information in each feature point pair (P n , PU m ) included in the set ψ k of feature point pairs, and the global feature, respectively. It is the similarity of information. In addition, α and β in the formula (1) are arbitrary constants, respectively.

類似度算出部115Eは、算出した特徴点類似度Sを特徴点の集合ψと対応付けて類似度情報129の1つとして記憶部120に格納するとともに、特徴点類似度Sを算出したことを算出処理制御部115Fに通知する。 The similarity calculation unit 115E associates the calculated feature point similarity S k with the feature point set ψ k and stores it in the storage unit 120 as one of the similarity information 129, and calculates the feature point similarity S k . This is notified to the calculation processing control unit 115F.

特徴点対の集合ψについての特徴点類似度Sが算出されると、算出処理制御部115Fは、生成し得る特徴点対の集合を全て生成したか否かを判定する(ステップS706)。ステップS706において、算出処理制御部115Fは、対象画像の特徴点の総数Nと登録画像の特徴点の総数Mとに基づいて算出した生成し得る集合の総数と、生成した集合を識別する変数kの値とを比較して、全ての集合を生成したか否かを判定する。例えば、生成し得る特徴点対の集合がK通りである場合、算出処理制御部115Fは、k≧K−1であるか否かを判定する(変数kが0から始まるため)。k<K−1である場合、算出処理制御部115Fは、生成していない特徴点対の集合があると判定する。 When the feature point similarity S k for the set [psi k feature point pairs are calculated, calculation control section 115F determines whether to generate all the set of feature point pairs that can generate (step S706) . In step S706, the calculation processing control unit 115F calculates the total number of sets that can be generated based on the total number N of feature points of the target image and the total number M of feature points of the registered image, and a variable k that identifies the generated set. It is determined whether or not all sets have been generated. For example, when there are K sets of feature point pairs that can be generated, the calculation processing control unit 115F determines whether or not k ≧ K−1 (since the variable k starts from 0). When k <K−1, the calculation processing control unit 115F determines that there is a set of feature point pairs that have not been generated.

生成していない特徴点対の集合がある場合(ステップS706;NO)、算出処理制御部115Fは、特徴点対の集合を識別する変数kをk+1に更新する(ステップS707)。その後、算出処理制御部115Fは、集合生成部115B、局所特徴情報比較部115C、大域特徴情報比較部115D、及び類似度算出部115Eに、ステップS703〜S705の処理を行わせる。   If there is a set of feature point pairs that have not been generated (step S706; NO), the calculation processing control unit 115F updates the variable k that identifies the set of feature point pairs to k + 1 (step S707). Thereafter, the calculation processing control unit 115F causes the set generation unit 115B, the local feature information comparison unit 115C, the global feature information comparison unit 115D, and the similarity calculation unit 115E to perform the processes of steps S703 to S705.

一方、特徴点対の集合を全て生成した場合(ステップS706;YES)、算出処理制御部115Fは、次に、特徴点対群決定部115Gに特徴点対群を決定させる。特徴点対群決定部115Gは、記憶部120の類似度情報125を参照し、特徴点類似度が最大値である特徴点対の集合を特徴点対群に決定する(ステップS708)。特徴点対群決定部115Gが特徴点対群を決定すると、特徴点対群抽出処理が終了する。   On the other hand, when all sets of feature point pairs have been generated (step S706; YES), the calculation processing control unit 115F next causes the feature point pair group determination unit 115G to determine the feature point pair group. The feature point pair group determination unit 115G refers to the similarity information 125 of the storage unit 120, and determines a set of feature point pairs having the maximum feature point similarity as a feature point pair group (step S708). When the feature point pair group determination unit 115G determines the feature point pair group, the feature point pair group extraction process ends.

なお、ステップS708において特徴点類似度が最大値である特徴点対の集合を特徴点対群に決定するのは、類似度が高いほど算出される値が大きくなる算出方法で特徴点類似度Sを算出した場合である。すなわち、類似度が正の値であり、かつ類似度が高いほど算出される値が小さくなる算出方法で特徴点類似度Sを算出した場合、特徴点対群決定部115Gは、ステップS708において、特徴点類似度が最小値である特徴点対の集合を特徴点対群に決定する。 Note that the feature point pair set having the maximum feature point similarity in step S708 is determined as a feature point pair group by a calculation method in which the higher the similarity, the larger the value calculated. This is a case where k is calculated. That is, the similarity is a positive value, and when calculating the feature point similarity S k by calculating how the value of the degree of similarity is calculated higher decreases, the feature point pair group determination unit 115G, in step S708 Then, a set of feature point pairs having a minimum feature point similarity is determined as a feature point pair group.

このように、本実施形態に係る特徴点対群抽出処理では、特徴点対の集合に含まれる特徴点対毎に局所特徴情報の類似度と大域特徴情報の類似度とを算出し、これらの類似度に基づいて集合全体での特徴点対の類似度を評価する特徴点類似度を算出する。   As described above, in the feature point pair group extraction processing according to the present embodiment, the similarity of the local feature information and the similarity of the global feature information are calculated for each feature point pair included in the set of feature points. Based on the similarity, a feature point similarity for evaluating the similarity of the feature point pair in the entire set is calculated.

ここで、図8を参照し、本実施形態に係る大域特徴情報抽出処理(ステップS701)について改めて説明する。図8は、第1の実施形態に係る大域特徴情報抽出処理の内容を説明するフローチャートである。   Here, the global feature information extraction processing (step S701) according to the present embodiment will be described again with reference to FIG. FIG. 8 is a flowchart for explaining the contents of the global feature information extraction processing according to the first embodiment.

図8に示すように、大域特徴情報抽出処理において、大域特徴情報抽出部115Aは、まず、対象画像の大域領域Dの重心Gを算出する(ステップS70101)。ステップS70101において、大域特徴情報抽出部115Aは、既知の算出方法に従って、対象画像の大域領域Dの重心Gを算出する。   As shown in FIG. 8, in the global feature information extraction process, the global feature information extraction unit 115A first calculates the center of gravity G of the global region D of the target image (step S70101). In step S70101, the global feature information extraction unit 115A calculates the centroid G of the global region D of the target image according to a known calculation method.

次に、大域特徴情報抽出部115Aは、対象画像の特徴点P毎に、特徴点Pと重心Gとの距離Cを算出し、算出した距離Cを大域特徴情報として記憶部120に保持させる(ステップS70102)。ステップS70102において、大域特徴情報抽出部115Aは、対象画像内における特徴点Pの位置(画素)から重心Gの位置(画素)までの距離Cを算出する。大域特徴情報抽出部115Aは、算出した距離Cを、各特徴点の大域特徴情報として記憶部120の対象画像登録情報124に格納する。 Next, the global feature information extraction unit 115A calculates a distance C n between the feature point P n and the center of gravity G for each feature point P n of the target image, and the storage unit 120 uses the calculated distance C n as the global feature information. (Step S70102). In step S70102, the global feature information extraction unit 115A calculates a distance C n from the position (pixel) of the feature point P n to the position (pixel) of the center of gravity G in the target image. The global feature information extraction unit 115A stores the calculated distance C n in the target image registration information 124 of the storage unit 120 as the global feature information of each feature point.

次に、大域特徴情報抽出部115Aは、登録画像の各特徴点についての大域特徴情報を抽出済みであるか否かを判定する(ステップS70103)。登録画像の各特徴点についての大域特徴情報を抽出済みである場合(ステップS70103;YES)、大域特徴情報抽出部115Aは、大域特徴情報抽出処理を終了する。   Next, the global feature information extraction unit 115A determines whether or not the global feature information for each feature point of the registered image has been extracted (step S70103). When the global feature information for each feature point of the registered image has been extracted (step S70103; YES), the global feature information extraction unit 115A ends the global feature information extraction process.

一方、大域特徴情報をまだ抽出していない場合(ステップS70103;NO)、大域特徴情報抽出部115Aは、次に、登録画像の大域領域DUの重心GUを算出する(ステップS70104)。ステップS70104において、大域特徴情報抽出部115Aは、既知の算出方法に従って、登録画像の大域領域DUの重心GUを算出する。ステップS70104の後、大域特徴情報抽出部115Aは、登録画像の特徴点PU毎に、特徴点PUと重心GUとの距離CUを算出し、算出した距離CUを大域特徴情報として記憶部120に保持させる(ステップS70105)。ステップS70105において、大域特徴情報抽出部115Aは、登録画像内における特徴点PUの位置(画素)と、重心GUの位置(画素)との距離CUを算出する。大域特徴情報抽出部115Aは、算出した距離CUを各特徴点の大域特徴情報として記憶部120の登録画像特徴情報123に格納し、大域特徴情報抽出処理を終了する。 On the other hand, if the global feature information has not yet been extracted (step S70103; NO), the global feature information extraction unit 115A next calculates the center of gravity GU of the global region DU of the registered image (step S70104). In step S70104, the global feature information extraction unit 115A calculates the center of gravity GU of the global region DU of the registered image according to a known calculation method. After step S70104, the global feature information extraction unit 115A calculates the distance CU m between the feature point PU m and the center of gravity GU for each feature point PU m of the registered image, and stores the calculated distance CU m as the global feature information. The data is held in the unit 120 (step S70105). In step S70105, the global feature information extraction unit 115A calculates a distance CU m between the position (pixel) of the feature point PU m and the position (pixel) of the center of gravity GU in the registered image. The global feature information extraction unit 115A stores the calculated distance CU m as global feature information of each feature point in the registered image feature information 123 of the storage unit 120, and ends the global feature information extraction process.

以下、図9〜図15を参照して、本実施形態に係る対象物の位置姿勢の推定処理について具体的に説明する。なお、以下の説明では、図1に示した、対象物5の所定位置にラベル7を貼付する作業ライン10における対象物5の位置姿勢の推定処理を例に挙げる。   Hereinafter, with reference to FIGS. 9 to 15, the position / orientation estimation processing of the object according to the present embodiment will be described in detail. In the following description, the position / orientation estimation process of the object 5 in the work line 10 for attaching the label 7 to a predetermined position of the object 5 shown in FIG.

図9は、登録画像と対象画像との例を示す図である。
図9の(a)には、対象物5の登録画像121の例を示している。登録画像121は対象物5における略正方形のラベル貼付面を正面方向から撮像した画像であり、登録画像121の外周は対象物5のラベル貼付面の輪郭と略一致している。登録画像10に写っている対象物5のラベル貼付面には、3個の三角形の凹部501,502,503が形成されている。
FIG. 9 is a diagram illustrating an example of a registered image and a target image.
FIG. 9A shows an example of a registered image 121 of the object 5. The registered image 121 is an image obtained by imaging a substantially square label sticking surface of the object 5 from the front direction, and the outer periphery of the registered image 121 substantially matches the outline of the label sticking surface of the object 5. Three triangular concave portions 501, 502, and 503 are formed on the label affixing surface of the object 5 shown in the registered image 10.

また、登録画像121は、画像の水平方向(x方向)を作業ライン10における対象物5の搬送方向と平行な方向としており、登録画像121に写っている対象物5は、搬送時の規定の位置姿勢になっている。すなわち、作業ライン10では、第1の凹部501、第2の凹部502、及び第3の凹部503が、それぞれラベル貼付面の左下方、右上方、及び右下方となり、かつラベル貼付面の一方の対辺がx方向と平行となる位置姿勢で対象物5を搬送するよう規定されている。   The registered image 121 has the horizontal direction (x direction) of the image parallel to the conveying direction of the object 5 on the work line 10, and the object 5 shown in the registered image 121 has a predetermined rule at the time of conveyance. Position and posture. That is, in the work line 10, the first concave portion 501, the second concave portion 502, and the third concave portion 503 are the lower left, upper right, and lower right of the label application surface, respectively, and one of the label application surfaces. It is defined that the object 5 is conveyed in a position and orientation in which the opposite side is parallel to the x direction.

このように、対象物5の所定位置にラベルを貼付する作業ライン10では、搬送時の対象物5の位置姿勢が規定されており、当該規定に従った位置姿勢となるようライン(搬送ベルト401)上に対象物5を載置する。ところが、実際の作業ライン10では、例えば、図9の(b)に示すように、対象物5の位置姿勢が、ラベル貼付面における搬送方向(x方向)と平行にさせる対辺が搬送方向に対し角度θ1だけ傾いた位置姿勢になってしまうことがある。   Thus, in the work line 10 for applying a label to a predetermined position of the target object 5, the position and orientation of the target object 5 at the time of transportation are defined, and the line (conveyor belt 401) is set to the position and orientation according to the regulation. ) Place the object 5 on top. However, in the actual work line 10, for example, as shown in FIG. 9B, the opposite side that makes the position and orientation of the object 5 parallel to the transport direction (x direction) on the label attachment surface is the transport direction. The position and orientation may be inclined by the angle θ1.

図9の(b)には、搬送ベルト401により搬送される対象物5を撮像した対象画像122の例を示している。図9の(b)の対象画像122における対象物5の位置姿勢は、登録画像121における位置姿勢(すなわち規定の位置姿勢)とは異なる。   FIG. 9B shows an example of a target image 122 obtained by imaging the target object 5 that is transported by the transport belt 401. The position and orientation of the object 5 in the target image 122 in FIG. 9B is different from the position and orientation in the registered image 121 (that is, the specified position and orientation).

ラベルを貼付する対象物5の位置姿勢が規定の位置姿勢とは異なる場合、対象物5に投影するラベルの貼付位置が変わる。そのため、ラベルを貼付する作業ライン10では、搬送される対象物5の位置姿勢に応じて対象物5に投影するラベルの貼付位置を変更する。本実施形態では、登録画像121における対象物5の特徴点と、撮像装置2で撮像した対象画像122における対象物5の特徴点との対応関係に基づいて、搬送ベルト401で搬送される対象物5の位置姿勢を推定する(算出する)。本実施形態に係る対象物5の位置姿勢を推定する処理では、まず、登録画像121及び対象画像122から特徴点を検出し(ステップS2)、検出した特徴点についての局所特徴情報を抽出する(ステップS4)。   When the position and orientation of the target object 5 to which the label is applied are different from the specified position and orientation, the label application position projected on the target object 5 changes. For this reason, in the work line 10 for applying a label, the label application position to be projected on the object 5 is changed according to the position and orientation of the object 5 to be conveyed. In the present embodiment, the target object conveyed by the conveyor belt 401 based on the correspondence between the feature point of the target object 5 in the registered image 121 and the characteristic point of the target object 5 in the target image 122 captured by the imaging device 2. 5 is estimated (calculated). In the process of estimating the position and orientation of the object 5 according to the present embodiment, first, feature points are detected from the registered image 121 and the target image 122 (step S2), and local feature information about the detected feature points is extracted (step S2). Step S4).

図10は、局所特徴情報の抽出方法を説明する図である。
本実施形態に係る位置姿勢推定装置1では、特徴点検出部112が、登録画像121及び対象画像122から特徴点を検出する(ステップS2)。特徴点検出部112は、既知の検出方法に従って、登録画像121から特徴点PUを検出する処理(ステップS203)と、対象画像122から特徴点Pを検出する処理(ステップS201)とを行う。
FIG. 10 is a diagram illustrating a method for extracting local feature information.
In the position / orientation estimation apparatus 1 according to the present embodiment, the feature point detection unit 112 detects feature points from the registered image 121 and the target image 122 (step S2). The feature point detection unit 112 performs a process of detecting the feature point PU m from the registered image 121 (step S203) and a process of detecting the feature point P n from the target image 122 (step S201) according to a known detection method. .

図10の(a)には、登録画像121から検出された3個の特徴点PU(m=1,2,3)を示している。登録画像121から検出された3個の特徴点PUの位置は、それぞれ、例えば、登録画像121における左上角部の画素を原点(0.0)としたときの、原点から特徴点PUの位置(画素)までのx方向の画素数と、y方向の画素数とで表される。 FIG. 10A shows three feature points PU m (m = 1, 2, 3) detected from the registered image 121. The positions of the three feature points PU m detected from the registered image 121 are respectively the positions of the feature points PU m from the origin when, for example, the pixel at the upper left corner in the registered image 121 is the origin (0.0). This is expressed by the number of pixels in the x direction up to the position (pixel) and the number of pixels in the y direction.

一方、図10の(b)には、対象画像122から検出された5個の特徴点P(n=1〜5)を示している。対象画像122から検出された5個の特徴点Pの位置は、それぞれ、例えば、対象画像122における左上角部の画素を原点(0.0)としたときの、原点から特徴点Pの位置(画素)までのx方向の画素数と、y方向の画素数とで表される。 On the other hand, FIG. 10B shows five feature points P n (n = 1 to 5) detected from the target image 122. The positions of the five feature points P n detected from the target image 122 are the positions of the feature points P n from the origin when the pixel at the upper left corner in the target image 122 is the origin (0.0), for example. This is expressed by the number of pixels in the x direction up to the position (pixel) and the number of pixels in the y direction.

登録画像121及び対象画像122から特徴点を検出した後、位置姿勢推定装置1では、対象画像122に対象物5が写っているか否かを判定する(ステップS3)。登録画像121から特徴点を検出する処理(ステップS203)と、対象画像122から特徴点を検出する処理(ステップS201)とは、同一の検出方法(検出アルゴリズム)で行う。そのため、対象画像122に対象物が写っている場合、対象画像122から検出された特徴点の数は、登録画像121から検出された特徴点の数とほぼ等しくなる。よって、ステップS3では、上記のように、対象画像122から検出された特徴点の数Nと、登録画像121から検出された特徴点の数Mとの差(N−M)が閾値TH1以上である場合に対象画像122に対象物5が写っていると判定する。   After detecting the feature points from the registered image 121 and the target image 122, the position / orientation estimation apparatus 1 determines whether or not the target object 5 is shown in the target image 122 (step S3). The process of detecting feature points from the registered image 121 (step S203) and the process of detecting feature points from the target image 122 (step S201) are performed by the same detection method (detection algorithm). Therefore, when a target object is shown in the target image 122, the number of feature points detected from the target image 122 is substantially equal to the number of feature points detected from the registered image 121. Therefore, in step S3, as described above, the difference (N−M) between the number N of feature points detected from the target image 122 and the number M of feature points detected from the registered image 121 is greater than or equal to the threshold value TH1. In some cases, it is determined that the target object 5 is reflected in the target image 122.

対象画像122に対象物5が写っている場合、次に、局所特徴情報抽出部113が、登録画像121の各特徴点PUについての局所特徴情報と、対象画像122の各特徴点Pについての局所特徴情報とを抽出する(ステップS4)。局所特徴情報抽出部113は、既知の抽出方法に従って、登録画像121の各特徴点についての局所特徴情報を抽出する処理と、対象画像122の各特徴点についての局所特徴情報を抽出する処理とを行う。 When the target object 5 is reflected in the target image 122, the local feature information extraction unit 113 then performs local feature information on each feature point PU m of the registered image 121 and each feature point P n of the target image 122. The local feature information is extracted (step S4). The local feature information extraction unit 113 performs processing for extracting local feature information for each feature point of the registered image 121 and processing for extracting local feature information for each feature point of the target image 122 according to a known extraction method. Do.

登録画像121の各特徴点についての局所特徴情報を抽出する処理では、局所特徴情報抽出部113は、例えば、図10の(a)に示すように、登録画像121に特徴点PU,PU,PUのそれぞれを中心とする局所領域E,E,Eを設定する。そして、局所特徴情報抽出部113は、登録画像121における各局所領域E,E,E内の画素の画素値等の情報に基づいて、各特徴点PU,PU,PUの局所特徴情報を抽出する。また、対象画像122の各特徴点についての局所特徴情報を抽出する処理では、局所特徴情報抽出部113は、例えば、図10の(b)に示すように、対象画像122に特徴点P〜Pのそれぞれを中心とする局所領域E〜Eを設定する。そして、局所特徴情報抽出部133は、対象画像122における各局所領域E〜E内の画素の画素値等の情報に基づいて、各特徴点P〜Pの局所特徴情報を抽出する。なお、局所領域E〜Eは、図10の(a)及び(b)に示した円形に限らず、四角形、或いは他の多角形であってもよい。局所領域の形状及び大きさは、対象物5の表面における凹凸や穴の形成パターン、塗装パターン(印刷パターン)等に基づいて、適宜設定すればよい。 In the process of extracting local feature information for each feature point of the registered image 121, the local feature information extracting unit 113, for example, includes feature points PU 1 and PU 2 in the registered image 121 as shown in FIG. , PU 3 , and local regions E 1 , E 2 , E 3 are set. Then, the local feature information extraction unit 113 selects each feature point PU 1 , PU 2 , PU 3 based on information such as pixel values of the pixels in the local regions E 1 , E 2 , E 3 in the registered image 121. Extract local feature information. Further, the process of extracting the local feature information about the feature points of the target image 122, the local feature information extraction unit 113, for example, as shown in (b) of FIG. 10, the feature points in the target image 122 P 1 ~ Local regions E 1 to E 5 centering on each of P 5 are set. Then, the local feature information extraction unit 133 extracts local feature information of the feature points P 1 to P 5 based on information such as pixel values of the pixels in the local regions E 1 to E 5 in the target image 122. . The local regions E 1 to E 5 are not limited to the circles shown in FIGS. 10A and 10B, but may be squares or other polygons. The shape and size of the local region may be appropriately set based on the unevenness or hole formation pattern on the surface of the object 5, a coating pattern (printing pattern), or the like.

ところで、対象画像122は、図10の(b)等に示したように、搬送ベルト401により搬送される対象物5の周囲に、搬送ベルト401等の対象物5とは別の物体が写っている。そのため、対象画像122から特徴点を検出する処理では、図10の(b)に示したように、対象物5の表面における特徴点P,P,Pとともに、対象物5とは別の物体(搬送ベルト401)の表面における特徴点P,Pを検出してしまうことがある。このように、対象画像122から検出された特徴点は、対象物5が写っている領域の外側(言い換えると対象画像122における背景領域)から検出された特徴点を含むことがある。対象画像122における背景領域から検出された特徴点は、登録画像から検出された対象物5の特徴点と対応しないため、対象物5の位置姿勢の推定には不要である。また、図10の(b)に示したように、対象画像122の背景領域から検出された特徴点に対して設定した局所領域E,E内の画像情報と、対象物5から検出された特徴点に対して設定した局所領域E〜E内の画像情報とは、類似性が低い。よって、本実施形態では、局所特徴情報に基づいて、対象画像122の特徴点から、対象物5の位置姿勢の推定には不要な特徴点を除外する処理(ステップS5)を行う。なお、上記のように、登録画像121の外周は対象物5の輪郭と略一致している。そのため、登録画像121に写っているのは対象物5のみであるとみなすことができる。よって、登録画像121から検出した複数の特徴点PUは、全て、対象物5から検出された特徴点であるとみなすことができる。 By the way, in the target image 122, as shown in FIG. 10B and the like, an object other than the target object 5 such as the transport belt 401 is reflected around the target object 5 transported by the transport belt 401. Yes. Therefore, in the process of detecting the feature points from the target image 122, the feature points P 1 , P 2 and P 3 on the surface of the target object 5 are separated from the target object 5 as shown in FIG. The feature points P 4 and P 5 on the surface of the object (conveyor belt 401) may be detected. As described above, the feature points detected from the target image 122 may include feature points detected from the outside of the region in which the target object 5 is reflected (in other words, the background region in the target image 122). Since the feature points detected from the background region in the target image 122 do not correspond to the feature points of the target object 5 detected from the registered image, it is not necessary for estimating the position and orientation of the target object 5. Also, as shown in FIG. 10B, the image information in the local areas E 4 and E 5 set for the feature points detected from the background area of the target image 122 and the target 5 are detected. Similarity is low with the image information in the local regions E 1 to E 3 set for the feature points. Therefore, in the present embodiment, based on the local feature information, a process (step S5) of excluding feature points that are unnecessary for estimating the position and orientation of the target object 5 from the feature points of the target image 122 is performed. As described above, the outer periphery of the registered image 121 substantially matches the contour of the object 5. Therefore, it can be considered that only the object 5 is shown in the registered image 121. Therefore, all of the plurality of feature points PU m detected from the registered image 121 can be regarded as feature points detected from the object 5.

ステップS5の処理において、局所特徴情報抽出部113は、対象画像122の特徴点P毎に、登録画像121の1個以上の特徴点PUとの局所特徴情報の類似度を算出する。対象画像122の特徴点P〜Pのうちの対象物5の特徴点P〜Pのそれぞれに対する局所領域E〜Eは、図10の(b)に示したように、それぞれ、対象物5における三角形状の凹部501〜503の頂点を含んでいる。同様に、登録画像121における局所領域E〜Eは、図10の(a)に示したように、それぞれ、対象物5における三角形状の凹部501〜503の頂点を含んでいる。そのため、対象画像122における対象物の特徴点P,P,及びPの局所特徴情報は、それぞれ、登録画像121における特徴点PU,PU,及びPUの局所特徴情報との類似度が高くなる。一方、対象画像122の背景領域の特徴点P及びPの局所特徴情報は、それぞれ、登録画像121における特徴点PU,PU,PUの局所特徴情報との類似度が低くなる。よって、本実施形態では、対象画像122の特徴点のうちの、登録画像121の特徴点との局所特徴情報の類似度が閾値よりも低い特徴点を、背景領域の特徴点、すなわち対象物とは別の物体の特徴点とみなして対象画像122の特徴点から除外する。すなわち、ステップS5の処理では、図10の(b)に示した対象画像122から検出した特徴点P及びPを、対象画像122の特徴点から除外する。これにより、ステップS6及びステップS7の処理において、対象画像122の特徴点は、登録画像121の特徴点との局所特徴情報の類似度が高い特徴点P,P,及びPの3点となる。 In the process of step S < b > 5, the local feature information extraction unit 113 calculates the similarity of the local feature information with one or more feature points PU m of the registered image 121 for each feature point P n of the target image 122. The local regions E 1 to E 3 corresponding to the feature points P 1 to P 3 of the target object 5 among the feature points P 1 to P 5 of the target image 122 are respectively shown in FIG. The tops of the triangular recesses 501 to 503 in the object 5 are included. Similarly, the local areas E 1 to E 3 in the registered image 121 include vertices of triangular recesses 501 to 503 in the object 5, respectively, as illustrated in FIG. Therefore, the local feature information of the feature points P 1 , P 2 , and P 3 of the object in the target image 122 is similar to the local feature information of the feature points PU 1 , PU 2 , and PU 3 in the registered image 121, respectively. The degree becomes higher. On the other hand, the local feature information of the feature points P 4 and P 5 in the background region of the target image 122 has low similarity with the local feature information of the feature points PU 1 , PU 2 , and PU 3 in the registered image 121, respectively. Therefore, in the present embodiment, among the feature points of the target image 122, feature points whose similarity of local feature information with the feature points of the registered image 121 is lower than the threshold are determined as feature points of the background region, that is, the target object. Is regarded as a feature point of another object and excluded from the feature points of the target image 122. That is, in the processing in step S5, the feature points P 4 and P 5 is detected from the target image 122 shown in (b) of FIG. 10, be excluded from the feature point of the target image 122. Thereby, in the process of step S6 and step S7, the feature points of the target image 122 are the three feature points P 1 , P 2 , and P 3 that have high similarity in local feature information with the feature points of the registered image 121. It becomes.

ところが、図10の(a)及び(b)からわかるように、対象物5の3個の凹部501,502,及び503は、外形(輪郭)が略同一であり、各特徴点を中心とする局所領域E,E,及びE内の特徴が類似している。このため、局所特徴情報の類似度のみでは、対象画像122の各特徴点P,P,及びPが、それぞれ登録画像121のどの特徴点と対応するかを判定することは困難である。そこで、本実施形態に係る位置姿勢の推定処理では、特徴点と画像内に設定した大域領域との関係を表す大域特徴情報を利用し、対象画像122の各特徴点P,P,及びPが、それぞれ登録画像121のどの特徴点と対応するかを判定する。このため、本実施形態に係る位置姿勢の推定処理では、対象物5の位置姿勢の推定には不要な特徴点を除外した後、対象画像122及び登録画像121の大域領域を決定する大域領域決定処理(ステップS6)を行う。 However, as can be seen from FIGS. 10A and 10B, the three recesses 501, 502, and 503 of the object 5 have substantially the same outer shape (contour) and are centered on each feature point. Features in local regions E 1 , E 2 , and E 3 are similar. For this reason, it is difficult to determine which feature points of the registered image 121 correspond to the feature points P 1 , P 2 , and P 3 of the target image 122 only by the similarity of the local feature information. . Therefore, in the position and orientation estimation processing according to the present embodiment, the global feature information representing the relationship between the feature points and the global region set in the image is used, and the feature points P 1 , P 2 , and P 3 is, determines whether the corresponding characteristic points of the respective registration images 121 throat. For this reason, in the position / orientation estimation processing according to the present embodiment, after the feature points unnecessary for estimating the position / orientation of the target object 5 are excluded, the global region determination for determining the global region of the target image 122 and the registered image 121 is performed. Processing (step S6) is performed.

図11は、第1の実施形態に係る大域領域の決定方法を説明する図である。
本実施形態に係る大域領域決定処理では、対象画像122の大域領域D及び登録画像121の大域領域DUとして、それぞれの画像における全ての特徴点を含む最小外接多角形を設定する。
FIG. 11 is a diagram for explaining a method of determining a global area according to the first embodiment.
In the global area determination process according to the present embodiment, a minimum circumscribed polygon including all feature points in each image is set as the global area D of the target image 122 and the global area DU of the registered image 121.

図11の(a)には、登録画像121に設定される大域領域DUの例を示している。登録画像121から検出された特徴点が3個である場合、当該3個の特徴点PU,PU,及びPUを含む最小外接多角形は、3個の特徴点PU,PU,及びPUを頂点とする三角形となる。よって、大域領域決定部114は、3個の特徴点PU,PU,及びPUを頂点とする三角形で囲まれた領域を登録画像121の大域領域DUに決定する。 FIG. 11A shows an example of the global area DU set in the registered image 121. When the number of feature points detected from the registered image 121 is three, the minimum circumscribed polygon including the three feature points PU 1 , PU 2 , and PU 3 is three feature points PU 1 , PU 2 , and a triangle whose vertices are the PU 3. Therefore, the global region determination unit 114 determines a region surrounded by a triangle having the three feature points PU 1 , PU 2 , and PU 3 as vertices as the global region DU of the registered image 121.

図11の(b)には、対象画像122に設定される大域領域Dの例を示している。図11の(b)の対象画像122は、図10の(b)に示した対象画像122と同じであるが、ステップS5の処理により背景領域の特徴点P及びPが除外されている。すなわち、対象画像122において対象物5の位置姿勢の推定に用いる特徴点は、対象物5の特徴点P,P,及びPの3個である。このため、対象画像122における3個の特徴点P,P,及びPを含む最小外接多角形は、当該3個の特徴点P,P,及びPを頂点とする三角形となる。よって、大域領域決定部114は、3個の特徴点P,P,及びPを頂点とする三角形で囲まれた領域を対象画像122の大域領域Dに決定する。 FIG. 11B shows an example of the global region D set in the target image 122. Target image 122 in FIG. 11 (b) is the same as the target image 122 shown in (b) of FIG. 10, the feature point P 4 and P 5 of the background area are excluded by the processing of step S5 . That is, the feature points used for estimating the position and orientation of the target object 5 in the target image 122 are the three feature points P 1 , P 2 , and P 3 of the target object 5. For this reason, the minimum circumscribed polygon including the three feature points P 1 , P 2 , and P 3 in the target image 122 is a triangle having the three feature points P 1 , P 2 , and P 3 as vertices. Become. Therefore, the global region determination unit 114 determines the region surrounded by the triangle having the three feature points P 1 , P 2 , and P 3 as vertices as the global region D of the target image 122.

対象画像122の大域領域Dと、登録画像121の大域領域DUとを決定した後、位置姿勢推定装置1では、特徴点対群抽出部115が特徴点対群抽出処理(ステップS7)を行う。特徴点対群抽出処理では、まず、特徴点と大域領域との関係に基づいて、局所特徴情報とは別の特徴量(大域特徴情報)を抽出する大域特徴情報抽出処理(ステップS701)を行う。本実施形態における特徴点群抽出処理では、上記のように、特徴点と、大域領域の重心との距離を、大域特徴情報として抽出する。   After determining the global region D of the target image 122 and the global region DU of the registered image 121, in the position and orientation estimation apparatus 1, the feature point pair group extraction unit 115 performs a feature point pair group extraction process (step S <b> 7). In the feature point pair group extraction processing, first, global feature information extraction processing (step S701) for extracting feature quantities (global feature information) different from local feature information based on the relationship between feature points and the global region is performed. . In the feature point group extraction process in the present embodiment, as described above, the distance between the feature point and the center of gravity of the global region is extracted as the global feature information.

図12は、対象画像の大域特徴情報を説明する図である。図13は、登録画像の大域特徴情報を説明する図である。図14は、大域特徴情報を抽出した後の対象画像特徴情報及び登録画像特徴情報の例を示す図である。   FIG. 12 is a diagram illustrating the global feature information of the target image. FIG. 13 is a diagram illustrating global feature information of a registered image. FIG. 14 is a diagram illustrating an example of target image feature information and registered image feature information after the global feature information is extracted.

図12には、図11の(b)の対象画像122に設定した大域領域Dとその周囲を含む部分矩形領域122Aを拡大して示している。   FIG. 12 is an enlarged view of the global region D set in the target image 122 of FIG. 11B and the partial rectangular region 122A including the periphery thereof.

本実施形態に係る大域特徴情報抽出処理では、対象画像122の特徴点についての大域特徴情報を抽出する処理と、登録画像121の特徴点についての大域特徴情報を抽出する処理とを行う。対象画像122の特徴点についての大域特徴情報を抽出する処理では、対象画像122の大域領域Dの重心Gを算出し(ステップS70101)、特徴点毎に、特徴点から重心Gまでの距離を算出する(ステップS70102)。図12に示すように、対象画像122(部分矩形領域122A)における大域領域Dが三角形である場合、大域領域Dの重心Gは、各辺の中点と対頂点とを結ぶ3本の線が交わる点となる。そして、対象画像122の各特徴点P,P,及びPについての大域特徴情報は、それぞれ、特徴点Pから重心Gまでの距離C、特徴点Pから重心Gまでの距離C、及び特徴点Pから重心Gまでの距離Cとなる。 In the global feature information extraction processing according to the present embodiment, processing for extracting global feature information for the feature points of the target image 122 and processing for extracting global feature information for the feature points of the registered image 121 are performed. In the process of extracting the global feature information about the feature points of the target image 122, the center of gravity G of the global region D of the target image 122 is calculated (step S70101), and the distance from the feature point to the center of gravity G is calculated for each feature point. (Step S70102). As shown in FIG. 12, when the global region D in the target image 122 (partial rectangular region 122A) is a triangle, the center of gravity G of the global region D has three lines connecting the midpoint of each side and the opposite vertex. It will be a crossing point. The global feature information about each feature point P 1 , P 2 , and P 3 of the target image 122 is the distance C 1 from the feature point P 1 to the center of gravity G and the distance from the feature point P 2 to the center of gravity G, respectively. C 2 and the distance C 3 from the feature point P 3 to the center of gravity G.

また、登録画像121の特徴点についての大域特徴情報を抽出する処理では、登録画像121の大域領域DUの重心GUを算出し(ステップS70104)、特徴点毎に、特徴点から重心Gまでの距離を算出する(ステップS70104)。図13に示すように、登録画像121の大域領域DUが三角形である場合、大域領域DUの重心GUは、各辺の中点と対頂点とを結ぶ3本の線が交わる点となる。そして、登録画像121の各特徴点PU,PU,及びPUについての大域特徴情報は、それぞれ、特徴点PUから重心GUまでの距離CU、特徴点PUから重心GUまでの距離CU、及び特徴点PUから重心GUまでの距離CUとなる。 Further, in the process of extracting the global feature information about the feature points of the registered image 121, the center of gravity GU of the global region DU of the registered image 121 is calculated (step S70104), and the distance from the feature point to the center of gravity G for each feature point. Is calculated (step S70104). As shown in FIG. 13, when the global area DU of the registered image 121 is a triangle, the center of gravity GU of the global area DU is a point where three lines connecting the midpoint of each side and the opposite vertex intersect. The global feature information about each feature point PU 1 , PU 2 , and PU 3 of the registered image 121 is the distance CU 1 from the feature point PU 1 to the center of gravity GU, and the distance from the feature point PU 2 to the center of gravity GU, respectively. CU 2 and the distance CU 3 from the feature point PU 3 to the center of gravity GU.

したがって、大域特徴情報抽出処理(ステップS701)を終えると、対象画像特徴情報124には、図14の(a)に示すテーブル1101のように、特徴点Pと、局所特徴情報Lと、大域特徴情報Cとが対応付けられて格納されている。同様に、大域特徴情報抽出処理(ステップS701)を終えると、登録画像特徴情報123には、図14の(b)に示すテーブル1102のように、特徴点PUと、局所特徴情報LUと、大域特徴情報CUとが対応付けられて格納されている。 Therefore, when the global feature information extraction process (step S701) is completed, the target image feature information 124 includes feature points P n , local feature information L n, and a table 1101 shown in FIG. The global feature information C n is stored in association with each other. Similarly, when the global feature information extraction process (step S701) is finished, the registered image feature information 123 includes a feature point PU m , local feature information LU m, and a table 1102 shown in FIG. , Global feature information CU m is stored in association with each other.

なお、対象画像121から検出した特徴点がN個(N>2)である場合には、N個の特徴点P,P,・・・,Pのそれぞれに、局所特徴情報L,L,・・・,Lと、大域特徴情報C,C,・・・,Cとが対応付けられる。同様に、登録画像121から検出した特徴点がM個(M>0)である場合には、M個の特徴点PU,PU,・・・,PUのそれぞれに、局所特徴情報LU,LU,・・・,LUと、大域特徴情報CU,CU,・・・,CUとが対応付けられる。 When the number of feature points detected from the target image 121 is N (N> 2), the local feature information L 1 is included in each of the N feature points P 1 , P 2 ,. , L 2, ···, and L N, global feature information C 1, C 2, ···, and a C N associated. Similarly, when there are M feature points detected from the registered image 121 (M> 0), the local feature information LU is included in each of the M feature points PU 1 , PU 2 ,. 1, LU 2, ···, and LU M, global feature information CU 1, CU 2, ···, and the CU M associated.

対象画像122及び登録画像121のそれぞれにおける各特徴点の大域特徴情報を抽出した後、特徴点対群抽出部115は、ステップS702以降の処理を行い、対象画像の特徴点と登録画像の特徴点との対応関係を表す特徴点対群を抽出する(決定する)。   After extracting the global feature information of each feature point in each of the target image 122 and the registered image 121, the feature point pair group extraction unit 115 performs the processing from step S <b> 702 onward, and the feature point of the target image and the feature point of the registered image A feature point pair group that represents the correspondence relationship is extracted (determined).

特徴点対群を抽出するため、特徴点対群抽出部115は、集合生成部115Bにおいて対象画像122の特徴点と登録画像121の特徴点とによる特徴点対の集合ψを生成する(ステップS704)。集合生成部115Bは、所定の生成規則に従って、対象画像から検出したN個の特徴点P(n=1,2,・・・,N)のそれぞれに、登録画像から検出したM個の特徴点PU(m=1,2,・・・,M)のいずれかを対応付けた特徴点対の集合ψを生成する。k=0,M≧Nの場合、集合生成部115Bは、例えば、N個の特徴点対を含む集合ψ={(P,PU),(P,PU),・・・,(P,PU)}を生成する。また、k=0,M<Nの場合、集合生成部115Bは、例えば、M個の特徴点対を含む集合ψ={(P,PU),(P,PU),・・・,(PN=M,PUM)}を生成する。 In order to extract a feature point pair group, the feature point pair group extraction unit 115 generates a set ψ k of feature point pairs based on the feature points of the target image 122 and the feature points of the registered image 121 in the set generation unit 115B (step S704). The set generation unit 115B has M features detected from the registered image at each of the N feature points P n (n = 1, 2,..., N) detected from the target image according to a predetermined generation rule. A set ψ k of feature point pairs in which any one of the points PU m (m = 1, 2,..., M) is associated is generated. When k = 0 and M ≧ N, the set generation unit 115B includes, for example, a set ψ k = {(P 1 , PU 1 ), (P 2 , PU 2 ),... including N feature point pairs. , (P N , PU M )}. When k = 0 and M <N, the set generation unit 115B includes, for example, a set ψ k = {(P 1 , PU 1 ), (P 2 , PU 2 ),. .., (P N = M , P UM )}.

k≠0の場合、集合生成部115Bは、例えば、N個の特徴点P(n=1,2,・・・,N)のそれぞれに、M個の特徴点PU(m=1,2,・・・,M)を1対1で対応付ける場合の順列の生成方法に従って、まだ生成していない集合ψを生成する。 When k ≠ 0, the set generation unit 115B, for example, adds M feature points PU m (m = 1, N) to each of the N feature points P n (n = 1, 2,..., N). 2, ..., according to the method of generating the permutation in the case of associating M) on a one-to-one, to produce a set [psi k which is not yet produced.

特徴点対の集合ψを生成した後、特徴点対群抽出部115は、局所特徴情報比較部115Cにおいて各特徴点対の局所特徴情報の類似度SLn,mを算出するとともに、大域特徴情報比較部115Dにおいて各特徴点対の大域特徴情報の類似度SCn,mを算出する。 After generating the set ψ k of feature point pairs, the feature point pair group extraction unit 115 calculates the similarity SL n, m of the local feature information of each feature point pair in the local feature information comparison unit 115C, and the global feature The information comparison unit 115D calculates the similarity SC n, m of the global feature information of each feature point pair.

局所特徴情報は、それぞれ、特徴点を含む局所領域内の画素の画素値等に基づいて算出した、局所領域内における画像の特徴を表す情報である。よって、局所特徴情報比較部115Cは、画像処理の分野における既知の類似度算出方法に従って、特徴点対毎に、対象画像122の特徴点Pの局所特徴情報Lと、登録画像121の特徴点PUの局所特徴情報LUとの類似度SLn,mを算出する。 The local feature information is information representing the feature of the image in the local region calculated based on the pixel value of the pixel in the local region including the feature point. Therefore, the local feature information comparison unit 115C, for each feature point pair, the local feature information L n of the feature point P n of the target image 122 and the feature of the registered image 121 according to a known similarity calculation method in the field of image processing. similarity SL n the local feature information LU m at point PU m, to calculate the m.

一方、大域特徴情報は、それぞれ、画像内における特徴点の位置から大域領域の重心の位置までの距離を表す情報である。よって、大域特徴情報比較部115Dは、例えば、特徴点対毎に、対象画像122の特徴点Pの大域特徴情報Cと、登録画像121の特徴点PUの大域特徴情報CUとの差に基づいて、大域特徴情報の類似度SCn,mを算出する。 On the other hand, the global feature information is information representing the distance from the position of the feature point in the image to the position of the center of gravity of the global region. Therefore, for example, for each feature point pair, the global feature information comparison unit 115D calculates the global feature information C n of the feature point P n of the target image 122 and the global feature information CU m of the feature point PU m of the registered image 121. Based on the difference, the similarity SC n, m of the global feature information is calculated.

局所特徴情報の類似度SLn,m及び大域特徴情報の類似度SCn,mを算出した後、特徴点対群抽出部115は、類似度算出部115Eにおいて特徴点対の集合ψについての特徴点類似度Sを算出する。特徴点類似度Sは、上記のように、特徴点対の集合ψにおける特徴点の対応関係を評価する値であり、局所特徴情報の類似度SLn,mと、大域特徴情報の類似度SCn,mとに基づいて算出されればよい。このため、本実施形態では、例えば、上記式(1)により、特徴点対の集合ψについての特徴点類似度Sを算出する。すなわち、本実施形態では、特徴点対の集合ψに含まれる各特徴点対の局所特徴情報の類似度SLn,mの総和に係数αを乗じた値と、各特徴点対の大域特徴情報の類似度SCn,mの総和に係数βを乗じた値との和を、特徴点対の集合ψの特徴点類似度Sとする。 After calculating the similarity SL n, m of the local feature information and the similarity SC n, m of the global feature information, the feature point pair group extraction unit 115 performs the feature point pair set ψ k on the similarity calculation unit 115E. The feature point similarity Sk is calculated. As described above, the feature point similarity S k is a value for evaluating the correspondence between the feature points in the set of feature points ψ k , and the similarity SL n, m of the local feature information and the similarity of the global feature information It may be calculated based on the degree SC n, m . For this reason, in this embodiment, for example, the feature point similarity S k for the set ψ k of feature point pairs is calculated by the above equation (1). That is, in this embodiment, a value obtained by multiplying the sum of the similarity SL n, m of the local feature information of each feature point pair included in the feature point pair set ψ k by the coefficient α and the global feature of each feature point pair. The sum of the information similarity SC n, m and the value obtained by multiplying by the coefficient β is defined as the feature point similarity S k of the set ψ k of feature point pairs.

本実施形態に係る特徴点対群抽出部115は、算出処理制御部115Fによる制御のもと、生成し得る複数通り(K通り)の特徴点対の集合ψ(k=0,1,・・・,K−1)のそれぞれについての特徴点類似度Sを算出する。その後、特徴点対群抽出部115は、特徴点対群決定部115Fにおいて特徴点類似度が最大値である特徴点対の集合を抽出し、当該特徴点対の集合を対象画像122の特徴点と登録画像121の特徴点との対応関係を表す特徴点対群に決定する。 The feature point pair group extraction unit 115 according to the present embodiment is a set of a plurality of (K) feature point pairs ψ k (k = 0, 1,...) That can be generated under the control of the calculation processing control unit 115F. .., K−1), the feature point similarity Sk is calculated. After that, the feature point pair group extraction unit 115 extracts a set of feature point pairs having the maximum feature point similarity in the feature point pair group determination unit 115F, and uses the set of feature point pairs as the feature points of the target image 122. And a pair of feature points representing the correspondence between the feature points of the registered image 121.

特徴点対群抽出部115で特徴点対群を決定した(抽出した)後、位置姿勢推定装置1は、位置姿勢算出部116において、決定した特徴点対群に基づいて、対象画像122に写っている対象物5の位置姿勢を算出する(ステップS8)。本実施形態に係る位置姿勢算出部116は、上記のように、特徴点対群において特徴点対となっている対象画像122の特徴点の位置と登録画像121の特徴点の位置とに基づいて、登録画像121の各点(各画素)の位置を対象画像122の各点の位置に変換する変換行列を算出する。位置姿勢算出部116は、特徴点対群において特徴点対となっている対象画像122の特徴点の位置と登録画像121の特徴点の位置とに基づいて、例えば、下記式(2)における6個の係数a,b,c,d,t,tを決定する。 After the feature point pair group extraction unit 115 determines (extracts) the feature point pair group, the position / orientation estimation apparatus 1 is reflected in the target image 122 by the position / orientation calculation unit 116 based on the determined feature point pair group. The position and orientation of the target object 5 is calculated (step S8). As described above, the position / orientation calculation unit 116 according to the present embodiment is based on the position of the feature point of the target image 122 and the position of the feature point of the registered image 121 that are feature point pairs in the feature point pair group. Then, a conversion matrix for converting the position of each point (each pixel) in the registered image 121 to the position of each point in the target image 122 is calculated. The position / orientation calculation unit 116, for example, 6 in the following formula (2) based on the position of the feature point of the target image 122 and the position of the feature point of the registered image 121 that are feature point pairs in the feature point pair group. The coefficients a, b, c, d, t x , and ty are determined.

Figure 2018036770
Figure 2018036770

式(2)における係数a,b,c,d,t,tを決定する際には、登録画像121の特徴点の位置を表す座標を(x,y)に代入する。また、特徴点対群において登録画像121の特徴点と特徴点対となっている対象画像122の特徴点の位置を表す座標を(x’,y’)に代入する。位置姿勢算出部116は、このように複数の特徴点対のそれぞれにおける特徴点の位置を表す座標を式(2)の(x,y)及び(x’,y’)に代入した複数通りの行列式を生成し、生成した行列式に基づいて係数a,b,c,d,t,tを決定する。 Coefficients in equation (2) a, b, c , d, t x, in determining t y substitutes coordinates representing the position of the feature point of the registered image 121 in (x, y). Further, in the feature point pair group, the coordinates representing the position of the feature point of the target image 122 that is a feature point pair with the feature point of the registered image 121 are substituted into (x ′, y ′). The position / orientation calculation unit 116 thus substitutes the coordinates representing the position of the feature point in each of the plurality of feature point pairs into (x, y) and (x ′, y ′) in Expression (2). A determinant is generated, and coefficients a, b, c, d, t x , and ty are determined based on the generated determinant.

対象物5の位置姿勢(変換行列の係数)を算出した後、位置姿勢推定装置1は、投影画像生成部130において対象物5に投影する画像を生成しプロジェクタ3に出力する(ステップS9)。投影画像生成部130は、記憶部120のラベル貼付位置129から登録画像121におけるラベルの貼付位置を読み出し、読み出した貼付位置を、変換行列により、対象画像122におけるラベルの貼付位置に変換する。   After calculating the position and orientation (coefficient of the transformation matrix) of the target object 5, the position and orientation estimation apparatus 1 generates an image to be projected on the target object 5 in the projection image generation unit 130 and outputs the image to the projector 3 (step S9). The projection image generation unit 130 reads the label application position in the registered image 121 from the label application position 129 in the storage unit 120, and converts the read application position into the label application position in the target image 122 using a conversion matrix.

図15は、位置姿勢の算出方法とラベル貼付位置の変換方法とを説明する図である。
図15に示した対象画像122の特徴点P,P,及びPと、登録画像121の特徴点PU,PU,及びPUとの対応関係を表す特徴点対群(特徴点の集合ψ)は、ψ={(P,PU),(P,PU),(P,PU)}となっている。このため、位置姿勢算出部116は、登録画像121における3個の特徴点PU,PU,及びPUの位置をそれぞれ、対象画像122における3個の特徴点P,P,及びPの位置に変換する変換行列を算出する。なお、図15には3個の特徴点のみを示しているが、実際にはより多数の特徴点が検出される。位置姿勢算出部116が算出する式(2)の変換行列において、右辺第1項の2行2列の行列は線形変換成分であり、右辺第2項は平行移動成分である。したがって、登録画像121における各点(画素)の位置は、変換行列により、対象画像122における対象物5が写っている領域内の1点の位置に変換される。
FIG. 15 is a diagram for explaining a position and orientation calculation method and a label application position conversion method.
A feature point pair group (feature point) representing the correspondence between the feature points P 1 , P 2 , and P 3 of the target image 122 shown in FIG. 15 and the feature points PU 1 , PU 2 , and PU 3 of the registered image 121. Ψ) is set to ψ = {(P 1 , PU 1 ), (P 2 , PU 2 ), (P 3 , PU 3 )}. For this reason, the position / orientation calculation unit 116 determines the positions of the three feature points PU 1 , PU 2 , and PU 3 in the registered image 121 as the three feature points P 1 , P 2 , and P in the target image 122, respectively. A conversion matrix to be converted into position 3 is calculated. Although only three feature points are shown in FIG. 15, a larger number of feature points are actually detected. In the transformation matrix of Expression (2) calculated by the position and orientation calculation unit 116, the matrix of 2 rows and 2 columns of the first term on the right side is a linear transformation component, and the second term on the right side is a translation component. Therefore, the position of each point (pixel) in the registered image 121 is converted into the position of one point in the region where the target object 5 is shown in the target image 122 by the conversion matrix.

すなわち、登録画像121においてラベル貼付領域504の左上角部となる点(XU1,YU1)は、変換行列により、対象画像122における対象物5が写っている領域内の点(X1,Y1)に変換される。同様に、登録画像121においてラベル貼付領域504の右下角部となる点(XU4,YU4)は、変換行列により、対象画像122における対象物5が写っている領域内の点(X4,Y4)に変換される。更に、図示は省略するが、登録画像121においてラベル貼付領域504の右上角部となる点の位置及び左下角部となる点は、それぞれ、対象画像122における対象物5が写っている領域内の1点に変換される。   That is, the point (XU1, YU1) which is the upper left corner of the label pasting area 504 in the registered image 121 is converted into a point (X1, Y1) in the area where the object 5 is reflected in the target image 122 by the conversion matrix. Is done. Similarly, a point (XU4, YU4) which is the lower right corner of the label pasting area 504 in the registered image 121 is a point (X4, Y4) in the area where the object 5 is reflected in the target image 122 by the transformation matrix. Converted. Furthermore, although illustration is omitted, in the registration image 121, the position of the point that becomes the upper right corner and the point that becomes the lower left corner of the label affixing region 504 are within the region in which the object 5 is reflected in the target image 122, respectively. Converted to 1 point.

このように、登録画像121におけるラベル貼付領域504の位置を表す座標を変換行列により変換することで、登録画像生成部130は、対象画像122に写っている対象物5におけるラベル貼付領域504を算出することが可能となる。したがって、登録画像生成部130は、対象画像122に写っている対象物5の位置姿勢に応じた、適正なラベル貼付位置を示す画像を生成することが可能となる。よって、プロジェクタ3により、登録画像生成部130で生成した画像を対象画像122に写っている対象物5に投影することで、作業員8に対し、適正なラベル貼付位置を提示することが可能となる。   In this way, by converting the coordinates representing the position of the label pasting area 504 in the registered image 121 using the conversion matrix, the registered image generating unit 130 calculates the label pasting area 504 in the target object 5 shown in the target image 122. It becomes possible to do. Therefore, the registered image generation unit 130 can generate an image indicating an appropriate label attaching position according to the position and orientation of the target object 5 shown in the target image 122. Therefore, by projecting the image generated by the registered image generation unit 130 onto the target object 5 shown in the target image 122 by the projector 3, it is possible to present an appropriate label attaching position to the worker 8. Become.

以上のように、本実施形態に係る位置姿勢推定装置1は、対象画像122及び登録画像121のそれぞれから検出した特徴点についての局所的な特徴の類似度と、複数の特徴点を含む大域領域に対する特徴の類似度とに基づいて、対象物5の位置姿勢を推定する。このとき、1枚の画像から検出された複数の特徴点を含む最小外接多角形を大域領域とし、特徴点から大域領域の重心までの距離を特徴点についての大域領域に対する特徴(大域特徴情報)とすることで、特徴点毎の大域特徴情報に差が生じる。そのため、1枚の画像から検出された複数の特徴点についての局所的な特徴(局所特徴情報)の類似度が高い場合でも、大域特徴情報の差に基づいて、対象画像の特徴点と登録画像の特徴点との対応関係を特定することが可能となる。すなわち、本実施形態によれば、1枚の対象画像から検出された複数の特徴点についての局所的な特徴(局所特徴情報)の類似度が高い場合でも、当該対象画像に写っている対象物の正しい位置姿勢を推定することが可能となる。したがって、本実施形態によれば、対象物を撮像した対象画像と登録画像とに基づいて対象画像に写っている対象物の位置姿勢を推定する際の推定精度が向上する。よって、例えば、デザインの画一性や吸気口を設置すること等により、検出された特徴点の局所的な特徴情報の類似度が高くなる製品を対象物とする作業ライン等において、作業者に製品の位置姿勢を正しく提示することが可能となる。   As described above, the position / orientation estimation apparatus 1 according to the present embodiment includes a local feature similarity of feature points detected from each of the target image 122 and the registered image 121 and a global region including a plurality of feature points. The position and orientation of the object 5 are estimated based on the feature similarity to At this time, the minimum circumscribed polygon including a plurality of feature points detected from one image is set as the global region, and the distance from the feature point to the centroid of the global region is the feature point for the global region (global feature information) As a result, a difference occurs in the global feature information for each feature point. Therefore, even when the local feature (local feature information) similarity between a plurality of feature points detected from one image is high, the feature point of the target image and the registered image are based on the difference of the global feature information. It is possible to specify the correspondence with the feature points. That is, according to the present embodiment, even when the similarity of local features (local feature information) about a plurality of feature points detected from one target image is high, the target object shown in the target image It is possible to estimate the correct position and orientation. Therefore, according to this embodiment, the estimation accuracy at the time of estimating the position and orientation of the target object shown in the target image based on the target image obtained by capturing the target object and the registered image is improved. Therefore, for example, in a work line or the like that targets a product in which the similarity of the local feature information of the detected feature points becomes high due to the uniformity of the design and the installation of an intake port, etc. It is possible to correctly present the position and orientation of the product.

なお、図7のフローチャートは、本実施形態に係る位置姿勢の推定処理における特徴点群抽出処理の一例に過ぎない。本実施形態に係る特徴点対群抽出処理は、図7に示した手順に限らず、適宜変更可能である。例えば、特徴点対群抽出処理は、特徴点対の集合ψについての特徴点類似度Sを算出する毎に特徴点類似度の最大値と比較し、特徴点類似度が最大値となる特徴点対の集合のみを保持する処理であってもよい。このように、特徴点対群抽出処理において特徴点類似度が最大値となる特徴点の集合のみを保持することで、記憶部120の類似度情報125に格納する情報の量を低減し、記憶部120の容量の増大を抑制することが可能となる。 Note that the flowchart in FIG. 7 is merely an example of a feature point group extraction process in the position and orientation estimation process according to the present embodiment. The feature point pair group extraction processing according to the present embodiment is not limited to the procedure shown in FIG. For example, in the feature point pair group extraction process, each time the feature point similarity S k is calculated for the set of feature point pairs ψ k , the feature point similarity is compared with the maximum value, and the feature point similarity becomes the maximum value. Processing that holds only a set of feature point pairs may be used. In this way, by holding only a set of feature points having the maximum feature point similarity in the feature point pair group extraction process, the amount of information stored in the similarity information 125 of the storage unit 120 is reduced and stored. An increase in the capacity of the unit 120 can be suppressed.

更に、特徴点対群抽出処理は、例えば、生成し得る特徴点の集合を全て生成した後で、各特徴点の集合についての特徴点類似度を算出する処理であってもよい。   Furthermore, the feature point pair group extraction process may be a process of calculating the feature point similarity for each set of feature points after generating all the sets of feature points that can be generated, for example.

加えて、特徴点対の集合ψについての特徴点類似度Sを算出する処理では、上記の式(1)に限らず、他の数式により特徴点類似度を算出してもよい。例えば、特徴点類似度Sは、下記式(3)又は式(4)により算出してもよい。 In addition, in the process of calculating the feature point similarity S k for the set ψ k of feature point pairs, the feature point similarity may be calculated not only by the above equation (1) but also by other equations. For example, the feature point similarity S k may be calculated by the following formula (3) or (4).

Figure 2018036770
Figure 2018036770

式(2)は、局所特徴情報の類似度SLn,mの総和と、大域特徴情報の類似度の逆数(1/SCn,m)の総和とに基づいて特徴点類似度Sを算出する場合の算出式の一例である。式(2)により特徴点類似度Sを算出することにより、大域特徴情報の類似度SCn,mの悪化が特徴点類似度Sに与える影響を大きくすること、言い換えると特徴点類似度Sにおける大域特徴情報の類似度SCn,mの寄与度を大きくすることが可能となる。一方、式(3)は、局所特徴情報の類似度の逆数(1/SLn,m)の総和と、大域特徴情報の類似度SCn,mの総和とに基づいて特徴点類似度Sを算出する場合の算出式の一例である。式(3)により特徴点類似度Sを算出することにより、局所特徴情報の類似度SLn,mの悪化が特徴点類似度Sに与える影響、言い換えると特徴点類似度Sにおける局所特徴情報の類似度SLn,mの寄与度を大きくすることが可能となる。 Expression (2) calculates the feature point similarity S k based on the sum of the similarity SL n, m of the local feature information and the sum of the reciprocal (1 / SC n, m ) of the similarity of the global feature information. It is an example of the calculation formula in the case of doing. By calculating the feature point similarity S k according to equation (2), the influence of the deterioration of the similarity SC n, m of the global feature information on the feature point similarity S k is increased, in other words, the feature point similarity. It becomes possible to increase the contribution of the similarity SC n, m of the global feature information in S k . Meanwhile, Equation (3) is a local inverse (1 / SL n, m) of the similarity of the feature information and the total sum of similarity SC n global feature information, a feature point similarity S k based on the sum of m It is an example of the calculation formula in the case of calculating. By calculating the feature point similarity S k according to the expression (3), the influence of the deterioration of the similarity SL n, m of the local feature information on the feature point similarity S k , in other words, the local in the feature point similarity S k The contribution degree of the similarity SL n, m of the feature information can be increased.

また、図8のフローチャート、図12、及び図13は、本実施形態に係る大域特徴情報の抽出方法の一例に過ぎない。本実施形態に係る大域特徴情報は、特徴点と、複数の特徴点を含む大域領域の重心との距離に限らず、例えば、図16に示すように、特徴点から大域領域の対辺に下ろした垂線の長さとしてもよい。   Further, the flowchart of FIG. 8, FIG. 12, and FIG. 13 are merely examples of the global feature information extraction method according to the present embodiment. The global feature information according to the present embodiment is not limited to the distance between the feature point and the center of gravity of the global region including a plurality of feature points. For example, as shown in FIG. 16, the feature point is lowered from the feature point to the opposite side of the global region. It may be the length of the perpendicular line.

図16は、大域特徴情報の抽出方法の変形例を説明する図である。
図16には、大域特徴情報の抽出方法の変形例として、図12の対象画像122(部分拡大領域122A)における特徴点P,P,及びPと大域領域Dとに基づいて大域特徴情報を抽出する方法の変形例を示している。図16に示したように、対象画像における位置姿勢の推定に用いる特徴点が3個である場合、大域領域Dは3個の特徴点P,P,及びPを頂点とする三角形の領域となる。ここで例示する変形例では、上記のように、特徴点Pから大域領域Dの辺に下ろした垂線の長さCとする。よって、大域特徴情報抽出部115Aは、特徴点毎に、特徴点Pの対辺に垂線を下ろし特徴点Pの位置から対辺と垂線との交点の位置までの距離Cを算出する。このように、特徴点Pから大域領域Dの辺に下ろした垂線の長さCを大域特徴情報とした場合も、1枚の画像における各特徴点Pの大域特徴情報には差異が生じる。このため、特徴点Pから大域領域Dの辺に下ろした垂線の長さCを大域特徴情報とすることで、1枚の画像における複数の特徴点Pnの局所特徴情報が類似している場合にも特徴点対群を特定することが可能となる。
FIG. 16 is a diagram illustrating a modification of the global feature information extraction method.
FIG. 16 shows, as a modification of the global feature information extraction method, a global feature based on the feature points P 1 , P 2 and P 3 and the global region D in the target image 122 (partially enlarged region 122A) of FIG. The modification of the method of extracting information is shown. As shown in FIG. 16, when there are three feature points used for position and orientation estimation in the target image, the global region D is a triangular shape having three feature points P 1 , P 2 , and P 3 as vertices. It becomes an area. In the modification illustrated here, the length C n of the perpendicular line extending from the feature point P n to the side of the global region D is set as described above. Therefore, global feature information extraction unit 115A, for each feature point, and calculates the distance C n from the position of the feature point P n a perpendicular line is dropped on opposite sides of the feature point P n to the position of intersection of the opposite sides and the vertical. In this way, even when the length C n of the perpendicular line extending from the feature point P n to the side of the global region D is used as the global feature information, there is a difference in the global feature information of each feature point P n in one image. Arise. For this reason, the local feature information of a plurality of feature points Pn in one image is similar by using, as the global feature information, the length C n of the perpendicular line extending from the feature point P n to the side of the global region D. Even in this case, it is possible to specify the feature point pair group.

また、本実施形態で例示したように大域領域D,DUが三角形の場合、大域特徴情報は、上記の値に限らず、例えば、特徴点から垂心、内心、外心、及び傍心のいずれかまでの距離としてもよい。   Further, as illustrated in the present embodiment, when the global regions D and DU are triangular, the global feature information is not limited to the above values, and for example, any one of the centroid, inner center, outer center, and side center from the feature point It is good also as distance to.

更に加えて、図1の作業ライン10は、本実施形態に係る位置姿勢推定装置1の一適用例に過ぎない。本実施形態に係る位置姿勢推定装置1は、位置姿勢を推定する対象物5を撮像した対象画像122と、所定の位置姿勢で撮像した対象物5の登録画像121とに基づいて対象画像122内の対象物5の位置姿勢を推定する種々の装置及びシステムに適用可能である。   In addition, the work line 10 in FIG. 1 is merely an application example of the position and orientation estimation apparatus 1 according to the present embodiment. The position / orientation estimation apparatus 1 according to the present embodiment includes an object image 122 based on a target image 122 obtained by imaging the object 5 whose position / orientation is estimated and a registered image 121 of the object 5 obtained by imaging at a predetermined position / orientation. The present invention can be applied to various apparatuses and systems that estimate the position and orientation of the target object 5.

[第2の実施形態]
本実施形態では、位置姿勢の推定に用いる大域特徴情報の、第1の実施形態とは別の抽出方法について説明する。
[Second Embodiment]
In this embodiment, a method for extracting global feature information used for position and orientation estimation, which is different from the first embodiment, will be described.

本実施形態に係る位置姿勢推定装置の機能的構成は、第1の実施形態に係る位置姿勢推定装置1の機能的構成と同じでよい。すなわち、本実施形態に係る位置姿勢推定装置1は、図2に示したように、位置姿勢推定部110と、記憶部120と、投影画像生成部130と、を備える。位置姿勢推定部110は、画像取得部111と、特徴点検出部112と、局所特徴情報抽出部113と、大域領域決定部114と、特徴点対群抽出部115と、位置姿勢算出部116と、を含む(図2を参照)。特徴点対群抽出部115は、大域特徴情報抽出部115Aと、集合作成部115Bと、局所特徴情報比較部115Cと、大域特徴情報比較部115Dと、類似度算出部115Eと、算出処理制御部115Fと、特徴点対群決定部115Gと、を含む(図3を参照)。   The functional configuration of the position / orientation estimation apparatus according to the present embodiment may be the same as the functional configuration of the position / orientation estimation apparatus 1 according to the first embodiment. That is, the position / orientation estimation apparatus 1 according to this embodiment includes a position / orientation estimation unit 110, a storage unit 120, and a projection image generation unit 130, as illustrated in FIG. The position / orientation estimation unit 110 includes an image acquisition unit 111, a feature point detection unit 112, a local feature information extraction unit 113, a global region determination unit 114, a feature point pair group extraction unit 115, and a position / orientation calculation unit 116. (See FIG. 2). The feature point pair group extraction unit 115 includes a global feature information extraction unit 115A, a set creation unit 115B, a local feature information comparison unit 115C, a global feature information comparison unit 115D, a similarity calculation unit 115E, and a calculation processing control unit. 115F and a feature point pair group determination unit 115G (see FIG. 3).

また、記憶部120は、図2に示したように、登録画像121と、対象画像122と、登録画像特徴情報123と、対象画像特徴情報124と、類似度情報125と、ラベル貼付位置129と、を含む各種のデータを記憶する。   Further, as shown in FIG. 2, the storage unit 120 includes the registered image 121, the target image 122, the registered image feature information 123, the target image feature information 124, the similarity information 125, and the label pasting position 129. The various data including are stored.

なお、本実施形態に係る位置姿勢推定装置1の大域領域決定部114は、画像に写っている対象物5の輪郭を大域領域とする。また、本実施形態に係る位置姿勢推定装置1の大域特徴情報抽出部115Aは、大域領域の複数の頂点を基点とし、特徴点毎に、特徴点から各基点までの距離を大域特徴情報として抽出する(算出する)。更に、本実施形態に係る位置姿勢推定装置1の特徴点対群抽出部115は、対象画像の基点と登録画像の基点とによる基点対の集合を複数通り生成し、基点対の集合毎に抽出した特徴点対群の候補のなかから、特徴点類似度が最大となる特徴点対群を決定する。   In addition, the global area | region determination part 114 of the position and orientation estimation apparatus 1 which concerns on this embodiment makes the outline of the target object 5 reflected in the image a global area | region. In addition, the global feature information extraction unit 115A of the position / orientation estimation apparatus 1 according to the present embodiment uses a plurality of vertices of the global region as base points, and for each feature point, extracts the distance from the feature point to each base point as global feature information. (Calculate). Furthermore, the feature point pair group extraction unit 115 of the position / orientation estimation apparatus 1 according to the present embodiment generates a plurality of sets of base point pairs based on the base point of the target image and the base point of the registered image, and extracts each base point pair set. The feature point pair group that maximizes the feature point similarity is determined from the candidate feature point pair groups.

本実施形態に係る位置姿勢推定装置1は、例えば、図4に示したステップS1〜S9の処理を所定の時間間隔で繰り返し行う。位置姿勢推定装置1は、ステップS1〜S9の一連の処理を1回の処理単位として繰り返し行ってもよいし、ステップS1〜S9の処理をパイプライン化して行ってもよい。   For example, the position / orientation estimation apparatus 1 according to the present embodiment repeatedly performs the processes of steps S1 to S9 illustrated in FIG. 4 at predetermined time intervals. The position / orientation estimation apparatus 1 may repeatedly perform a series of processes in steps S1 to S9 as one processing unit, or may perform the processes in steps S1 to S9 in a pipeline.

なお、本実施形態に係る位置姿勢推定装置1は、ステップS1〜S9の処理のうちのステップS6の大域領域決定処理として、図17に示す処理を行う。   Note that the position / orientation estimation apparatus 1 according to the present embodiment performs the process shown in FIG. 17 as the global region determination process in step S6 of the processes in steps S1 to S9.

図17は、第2の実施形態に係る大域領域決定処理の内容を説明するフローチャートである。   FIG. 17 is a flowchart for explaining the contents of the global area determination processing according to the second embodiment.

本実施形態においても、ステップS6の大域領域決定処理は、位置姿勢推定装置1の大域領域決定部114が行う。大域領域決定部114は、図17に示すように、まず、対象画像122における対象物5の輪郭を抽出し、対象物5の輪郭で囲まれた領域を対象画像の大域領域Dとして記憶部120に保持させる(ステップS621)。ステップS621において、大域領域決定部114は、画像処理の分野における既知の輪郭抽出方法に従って、対象画像122における対象物5の輪郭を抽出する。例えば、大域領域決定部114は、対象画像122に対しエッジ検出処理を行い、対象物5の輪郭を検出する(抽出する)。大域領域決定部114は、対象画像122から抽出した大域領域Dを表す情報を対象画像特徴情報124の1つとして記憶部120に格納する。   Also in the present embodiment, the global region determination process in step S6 is performed by the global region determination unit 114 of the position and orientation estimation apparatus 1. As illustrated in FIG. 17, the global region determination unit 114 first extracts the contour of the target object 5 in the target image 122, and stores the region surrounded by the contour of the target object 5 as the global region D of the target image. (Step S621). In step S621, the global region determination unit 114 extracts the contour of the target object 5 in the target image 122 according to a known contour extraction method in the field of image processing. For example, the global region determination unit 114 performs edge detection processing on the target image 122 and detects (extracts) the contour of the target object 5. The global region determination unit 114 stores information representing the global region D extracted from the target image 122 in the storage unit 120 as one of the target image feature information 124.

次に、大域領域決定部114は、登録画像特徴情報123を参照し、登録画像121の大域領域DUを決定済みであるか否かを判定する(ステップS622)。登録画像121の大域領域DUを決定済みである場合(ステップS622;YES)、大域領域決定部114は、大域領域決定処理を終了する。   Next, the global area determination unit 114 refers to the registered image feature information 123 and determines whether or not the global area DU of the registered image 121 has been determined (step S622). When the global area DU of the registered image 121 has been determined (step S622; YES), the global area determination unit 114 ends the global area determination process.

一方、登録画像121の大域領域DUがまだ決定していない場合(ステップS622;NO)、大域領域決定部114は、次に、登録画像121における対象物5の輪郭を抽出し、対象物5の輪郭で囲まれた領域を登録画像の大域領域DUとして記憶部120に保持させる(ステップS623)。図9の(a)に示したように登録画像121の外周が対象物5の輪郭と一致している場合、ステップS613において、大域領域決定部114は、登録画像121の外周を大域領域DUに決定する。これに対し、登録画像121の外周と対象物5の輪郭とが一致していない場合、ステップS613において、大域領域決定部114は、ステップS611と同様の処理を行って対象物5の輪郭を抽出する。ステップS613の処理を行った場合、大域領域決定部114は、抽出した対象物5の輪郭を登録画像121の大域領域DUに決定し、大域領域DUを表す情報を登録画像特徴情報123の1つとして記憶部120に格納して大域領域決定処理を終了する。   On the other hand, when the global area DU of the registered image 121 has not yet been determined (step S622; NO), the global area determining unit 114 next extracts the contour of the object 5 in the registered image 121, and The area surrounded by the outline is held in the storage unit 120 as the global area DU of the registered image (step S623). When the outer periphery of the registered image 121 matches the contour of the object 5 as shown in FIG. 9A, in step S613, the global area determining unit 114 changes the outer periphery of the registered image 121 to the global area DU. decide. On the other hand, when the outer periphery of the registered image 121 and the contour of the target object 5 do not match, in step S613, the global region determining unit 114 performs the same process as in step S611 to extract the contour of the target object 5. To do. When the process of step S613 is performed, the global region determination unit 114 determines the contour of the extracted object 5 as the global region DU of the registered image 121, and sets information indicating the global region DU as one of the registered image feature information 123. To store in the storage unit 120, and the global area determination process is terminated.

大域領域決定処理を行った後、位置姿勢推定装置1は、図4のフローチャートにおけるステップS7の特徴点対群抽出処理を行う。特徴点対群抽出処理は、特徴点対群抽出部115が行う。本実施形態に係る特徴点対群抽出部115は、特徴点対群抽出処理として、図18A〜図18Cに示す処理を行う。   After performing the global region determination process, the position / orientation estimation apparatus 1 performs the feature point pair group extraction process of step S7 in the flowchart of FIG. The feature point pair group extraction processing is performed by the feature point pair group extraction unit 115. The feature point pair group extraction unit 115 according to the present embodiment performs the processes shown in FIGS. 18A to 18C as the feature point pair group extraction process.

図18Aは、第2の実施形態に係る特徴点対群抽出処理の内容を説明するフローチャート(その1)である。図18Bは、第2の実施形態に係る特徴点対群抽出処理の内容を説明するフローチャート(その2)である。図18Cは、第2の実施形態に係る特徴点対群抽出処理の内容を説明するフローチャート(その3)である。   FIG. 18A is a flowchart (part 1) for explaining the contents of the feature point pair group extraction processing according to the second embodiment. FIG. 18B is a flowchart (part 2) illustrating the contents of the feature point pair group extraction processing according to the second embodiment. FIG. 18C is a flowchart (part 3) for explaining the content of the feature point pair group extraction processing according to the second embodiment.

本実施形態に係る特徴点対群抽出部115は、図18Aに示すように、まず、対象画像の大域領域Dの頂点Gを検出する(ステップS721)。ステップS721の処理は、大域特徴情報抽出部115Aが行う。大域特徴情報抽出部115Aは、既知の頂点検出方法に従い、対象画像122の大域領域Dの頂点Gを検出する。このとき、大域特徴情報抽出部115Aは、例えば、対象画像122から検出した複数の頂点のうちの1個をGi=1とし、残りの頂点には当該頂点Gi=1から大域領域Dの輪郭を時計回りで1周したときの頂点の出現順を表す識別子iを付与する。 Feature point pair group extraction unit 115 according to the present embodiment, as shown in FIG. 18A, first detects the vertex G i of the global area D of the target image (step S721). The processing in step S721 is performed by the global feature information extraction unit 115A. Global feature information extraction unit 115A, in accordance with known peak detecting method, for detecting the vertex G i of the global area D of the target image 122. At this time, the global feature information extraction unit 115A sets, for example, one of a plurality of vertices detected from the target image 122 to G i = 1 , and the remaining vertices from the vertex G i = 1 to the global region D An identifier i indicating the order of appearance of vertices when the contour is rotated once in a clockwise direction is assigned.

ステップS721の処理を終えると、大域特徴情報抽出部115Aは、続けて、対象画像の特徴点P毎に、特徴点Pから各頂点Gまでの距離Cn,iを算出し、当該距離Cn,iを対象画像の大域特徴情報として記憶部120に保持させる(ステップS722)。ステップS722において、大域特徴情報抽出部115Aは、画像内における特徴点Pの位置(画素)から頂点Gの位置(画素)までの距離Cn,iを算出する。大域特徴情報抽出部115Aは、算出した距離Cn,iを各特徴点Pの大域特徴情報として対象画像登録情報124に格納する。 After execution of step S721, the global feature information extraction unit 115A continues, the feature point for each P n of the target image, calculates the distance C n, i to each vertex G i from the feature point P n, the The distance C n, i is stored in the storage unit 120 as the global feature information of the target image (step S722). In step S722, the global feature information extraction unit 115A calculates a distance C n, i from the position (pixel) of the feature point P n to the position (pixel) of the vertex G i in the image. The global feature information extraction unit 115A stores the calculated distance C n, i in the target image registration information 124 as global feature information of each feature point P n .

ステップS722の処理を終えると、大域特徴情報抽出部115Aは、次に、登録画像特徴情報123を参照し、登録画像の大域領域DUの頂点及び大域特徴情報を抽出済みであるか否かを判定する(ステップS723)。登録画像の大域領域DUの頂点及び大域特徴情報をまだ抽出していない場合(ステップS723;NO)、大域特徴情報抽出部115Aは、次に、登録画像の大域領域DUの頂点GUを検出する(ステップS724)。ステップS724において、大域特徴情報抽出部115Aは、ステップS711と同様の処理により登録画像121の大域領域DUの頂点GUを検出する。このとき、大域特徴情報抽出部115Aは、例えば、登録画像から検出した複数の頂点のうちの1個をGUj=1とし、残りの頂点には当該頂点GUj=1から大域領域DUの輪郭を時計回りで1周したときの頂点の出現順を表す識別子jを付与する。 When the process of step S722 is completed, the global feature information extraction unit 115A next refers to the registered image feature information 123 and determines whether or not the vertices of the global region DU and the global feature information of the registered image have been extracted. (Step S723). If the vertex and global feature information of the global area DU of the registered image have not yet been extracted (step S723; NO), the global feature information extraction unit 115A next detects the vertex GU j of the global area DU of the registered image. (Step S724). In step S724, the global feature information extraction unit 115A detects the vertex GU j of the global region DU of the registered image 121 by the same processing as in step S711. At this time, the global feature information extraction unit 115A sets, for example, one of a plurality of vertices detected from the registered image as GU j = 1 , and the remaining vertices from the vertex GU j = 1 to the outline of the global region DU. Is assigned an identifier j indicating the order of appearance of the vertices when the circle is rotated clockwise.

ステップS724の処理を終えると、大域特徴情報抽出部115Aは、続けて、登録画像の特徴点PU毎に、特徴点PUから各頂点GUまでの距離CUm,jを算出し、当該距離CUm,jを登録画像の大域特徴情報として記憶部120に保持させる(ステップS725)。ステップS725において、大域特徴情報抽出部115Aは、登録画像内における特徴点PUの位置(画素)から頂点GUの位置(画素)までの距離CUm,jを算出する。大域特徴情報抽出部115Aは、算出した距離CUm,jを各特徴点の大域特徴情報として登録画像登録情報123に格納する。 After execution of step S724, the global feature information extraction unit 115A is followed, for each feature point PU m of the reference image, calculates the distance CU m, j to each vertex GU j from the feature point PU m, the The distance CU m, j is stored in the storage unit 120 as the global feature information of the registered image (step S725). In step S725, the global feature information extraction unit 115A calculates a distance CU m, j from the position (pixel) of the feature point PU m to the position (pixel) of the vertex GU j in the registered image. The global feature information extraction unit 115A stores the calculated distance CU m, j in the registered image registration information 123 as global feature information of each feature point.

ステップS724及びS725の処理を終えると、特徴点対群抽出部115は、次に、大域領域の頂点対の集合を識別する変数pを0にする(ステップS726)。また、登録画像の大域領域DUの頂点GU及び大域特徴情報(距離CUm,j)が決定済みであった場合(ステップS723;YES)、特徴点対群抽出部115は、ステップS724及びS725の処理をスキップして、ステップS726の処理を行う。ステップS726の処理は、算出処理制御部115Fが行う。 When the processes of steps S724 and S725 are completed, the feature point pair group extraction unit 115 then sets a variable p for identifying a set of vertex pairs in the global region to 0 (step S726). When the vertex GU j and the global feature information (distance CU m, j ) of the global region DU of the registered image have been determined (step S723; YES), the feature point pair group extraction unit 115 performs steps S724 and S725. The process of step S726 is performed by skipping the process. The calculation process control unit 115F performs the process of step S726.

ステップS726の処理の後、特徴点対群抽出部115は、局所特徴情報と大域特徴情報とに基づいて、対象画像の特徴点と登録画像の特徴点との対応関係を表す特徴点対群を抽出する(特定する)処理(ステップS727〜S737)を行う。ステップS727〜S737の処理は、算出処理制御部115Fによる制御のもと、集合生成部115Bと、局所特徴情報比較部115Cと、大域特徴情報比較部115Dと、類似度算出部115Eと、特徴点対群決定部115Gとが行う。   After the processing of step S726, the feature point pair group extraction unit 115 generates a feature point pair group that represents the correspondence between the feature points of the target image and the feature points of the registered image based on the local feature information and the global feature information. An extraction (identification) process (steps S727 to S737) is performed. The processes in steps S727 to S737 are performed under the control of the calculation processing control unit 115F, the set generation unit 115B, the local feature information comparison unit 115C, the global feature information comparison unit 115D, the similarity calculation unit 115E, and the feature points. Performed by the pair determination unit 115G.

ステップS726の処理の後、特徴点対群抽出部115は、図18Bに示すように、次に、対象画像122の大域領域Dの頂点Gと登録画像121の大域領域DUの頂点GUとによる頂点対の集合ωを生成する(ステップS727)。ステップS727の処理は、集合生成部115Bが行う。集合生成部115Bは、第1の集合に含まれる要素と第2の集合に含まれる要素との要素対の集合を生成する既知の生成方法に従って、対象画像の大域領域の頂点Gと登録画像の大域領域の頂点GUとによる頂点対の集合ωを生成する。なお、1回のステップS727の処理において、集合生成部115Bは、所定の生成規則(生成アルゴリズム)に従い、生成可能な頂点対の集合のうちの1組の集合を生成する。 After the process of step S726, the feature point pair group extraction unit 115 then, as shown in FIG. 18B, the vertex G i of the global area D of the target image 122 and the vertex GU j of the global area DU of the registered image 121 A set ω p of vertex pairs by is generated (step S727). The set generation unit 115B performs the process of step S727. The set generation unit 115B, according to a known generation method for generating a set of element pairs of the elements included in the first set and the elements included in the second set, the vertex G i of the global region of the target image and the registered image A set of vertex pairs ω p with vertices GU i in the global region is generated. In one process of step S727, the set generation unit 115B generates one set of sets of vertex pairs that can be generated according to a predetermined generation rule (generation algorithm).

次に、特徴点対群抽出部115は、特徴点対の集合を識別する変数kをk=0にする(ステップS728)。ステップS728の処理は、算出処理制御部115Fが行う。   Next, the feature point pair group extraction unit 115 sets a variable k for identifying a set of feature point pairs to k = 0 (step S728). The calculation process control unit 115F performs the process of step S728.

次に、特徴点対群抽出部115は、対象画像の特徴点Pと、登録画像の特徴点PUによる特徴点対の集合ψを生成する(ステップS729)。ステップS729の処理は、集合生成部115Bが行う。集合生成部115Bは、第1の実施形態と同様、既知の生成方法に従って、対象画像の特徴点Pと登録画像の特徴点PUとによる特徴点対の集合ψを生成する。なお、1回のステップS729の処理において、集合生成部115Bは、所定の生成規則(生成アルゴリズム)に従い、対象画像の特徴点の総数Nと登録画像の特徴点の総数Mとに基づいて生成可能な特徴点対の集合のうちの1組の集合を生成する。 Next, the feature point pair group extraction unit 115 generates a set ψ k of feature point pairs based on the feature point P n of the target image and the feature point PU m of the registered image (step S729). The set generation unit 115B performs the process of step S729. Similar to the first embodiment, the set generation unit 115B generates a set ψ k of feature point pairs of the feature points P n of the target image and the feature points PU m of the registered image according to a known generation method. Note that in one process of step S729, the set generation unit 115B can generate based on the total number N of feature points of the target image and the total number M of feature points of the registered image according to a predetermined generation rule (generation algorithm). A set of a set of feature point pairs is generated.

次に、特徴点対群抽出部115は、特徴点対の集合ψに含まれる各特徴点対における局所特徴情報の類似度SLn,mと、大域特徴情報の類似度SCn,mとを算出する(ステップS730)。ステップS730の処理は、局所特徴情報比較部115Cと、大域特徴情報比較部115Dとが行う。局所特徴情報比較部115Cは、特徴点対毎に、対象画像特徴情報124に格納された対象画像の特徴点Pの局所特徴情報Lと、登録画像特徴情報123に格納された登録画像の特徴点PUの局所特徴情報LUとを比較して、局所特徴情報の類似度SLn,mを算出する。大域特徴情報比較部115Dは、特徴点対毎に、対象画像特徴情報124に格納された対象画像の特徴点Pの大域特徴情報Cと、登録画像特徴情報123に格納された登録画像の特徴点PUの大域特徴情報CUとを比較して、大域特徴情報の類似度SCn,mを算出する。 Next, the feature point pair group extraction unit 115 calculates the similarity SL n, m of local feature information and the similarity SC n, m of global feature information in each feature point pair included in the set ψ k of feature point pairs. Is calculated (step S730). The local feature information comparison unit 115C and the global feature information comparison unit 115D perform the process in step S730. For each feature point pair, the local feature information comparison unit 115C compares the local feature information L n of the feature point P n of the target image stored in the target image feature information 124 and the registered image stored in the registered image feature information 123. by comparing the local feature information LU m feature points PU m, the similarity is calculated SL n, m of the local feature information. For each feature point pair, the global feature information comparison unit 115D performs the global feature information C n of the feature point P n of the target image stored in the target image feature information 124 and the registered image stored in the registered image feature information 123. compares the global feature information CU m feature points PU m, it calculates the global feature information similarity SC n, the m.

なお、ステップS730の処理のうちの大域特徴情報の類似度を算出する処理では、頂点対の集合ωにおける対象画像の頂点Gと、登録画像の頂点GUとの対応関係に基づいて、大域特徴情報を比較する。例えば、頂点対の集合ωが(G,GU)の頂点対を含む場合、特徴点対(P,PU)についての大域特徴情報の類似度SC1,1を算出する処理では、特徴点Pから頂点Gまでの距離と、特徴点PUから頂点GUまでの距離とを比較する。また、例えば、頂点対の集合ωが(G,GU)の頂点対を含む場合、特徴点対(P,PU)についての大域特徴情報の類似度SC1,1を算出する処理では、特徴点Pから頂点Gまでの距離C1,1と、特徴点PU1から頂点GU3までの距離CU1,3とを比較する。 In the process of calculating the similarity of the global feature information in the process of step S730, based on the correspondence between the vertex G i of the target image in the vertex pair set ω p and the vertex GU j of the registered image, Compare global feature information. For example, when the vertex pair set ω p includes (G 1 , GU 1 ) vertex pairs, in the process of calculating the global feature information similarity SC 1,1 for the feature point pair (P 1 , PU 1 ) The distance from the feature point P 1 to the vertex G 1 is compared with the distance from the feature point PU 1 to the vertex GU 1 . Further, for example, when the vertex pair set ω p includes (G 1 , GU 3 ) vertex pairs, the similarity SC 1 , 1 of the global feature information for the feature point pair (P 1 , PU 1 ) is calculated. In the processing, the distance C 1,1 from the feature point P 1 to the vertex G 1 is compared with the distance CU 1,3 from the feature point PU 1 to the vertex GU 3 .

次に、特徴点対群抽出部115は、局所特徴情報の類似度SLn,mと、大域特徴情報の類似度SCn,mとに基づいて、特徴点対の集合ψについての特徴点類似度Sを算出する(ステップS731)。ステップS731の処理は、類似度算出部115Eが行う。類似度算出部115Eは、例えば、上記式(1)により集合ψについての特徴点類似度Sを算出する。類似度算出部115Eは、算出した集合ψについての特徴点類似度Sを集合ψと対応付けて記憶部120の類似度情報125に格納するとともに、特徴点類似度Sを算出したことを算出処理制御部115Fに通知する。 Next, the feature point pair group extraction unit 115 performs feature points on the set ψ k of feature point pairs based on the similarity SL n, m of the local feature information and the similarity SC n, m of the global feature information. calculating a similarity S k (step S731). The process of step S731 is performed by the similarity calculation unit 115E. For example, the similarity calculation unit 115E calculates the feature point similarity S k for the set ψ k by the above equation (1). Similarity calculation unit 115E is configured to store the similarity information 125 in the storage unit 120 the feature point similarity S k for the calculated set [psi k in correspondence with the set [psi k, was calculated feature point similarity S k This is notified to the calculation processing control unit 115F.

特徴点対の集合ψについての特徴点類似度Sが算出されると、算出処理制御部115Fは、生成し得る特徴点対の集合を全て生成したか否かを判定する(ステップS732)。ステップS732において、算出処理制御部115Fは、対象画像の特徴点の総数Nと登録画像の特徴点の総数Mとに基づいて算出した生成し得る集合の総数と、生成した集合を識別する変数kの値とを比較して、全ての集合を生成したか否かを判定する。例えば、生成し得る特徴点対の集合がK通りである場合、算出処理制御部115Fは、k≧K−1であるか否かを判定する(変数kが0から始まるため)。k<K−1である場合、算出処理制御部115Fは、生成していない特徴点対の集合があると判定する。 When the feature point similarity S k for the set [psi k feature point pairs are calculated, calculation control section 115F determines whether to generate all the set of feature point pairs that can generate (step S732) . In step S732, the calculation processing control unit 115F calculates the total number of sets that can be generated calculated based on the total number N of feature points of the target image and the total number M of feature points of the registered image, and a variable k that identifies the generated set. It is determined whether or not all sets have been generated. For example, when there are K sets of feature point pairs that can be generated, the calculation processing control unit 115F determines whether or not k ≧ K−1 (since the variable k starts from 0). When k <K−1, the calculation processing control unit 115F determines that there is a set of feature point pairs that have not been generated.

生成していない特徴点対の集合がある場合(ステップS732;NO)、算出処理制御部115Fは、特徴点対の集合を識別する変数kをk+1に更新する(ステップS733)。その後、算出処理制御部115Fは、集合生成部115B、局所特徴情報比較部115C、大域特徴情報比較部115D、及び類似度算出部115Eに、ステップS729〜S732の処理を行わせる。   When there is a set of feature point pairs that have not been generated (step S732; NO), the calculation processing control unit 115F updates the variable k that identifies the set of feature point pairs to k + 1 (step S733). Thereafter, the calculation processing control unit 115F causes the set generation unit 115B, the local feature information comparison unit 115C, the global feature information comparison unit 115D, and the similarity calculation unit 115E to perform the processes of steps S729 to S732.

一方、生成し得る特徴点対の集合を全て生成した場合(ステップS732;YES)、算出処理制御部115Fは、次に、特徴点対群決定部115Gに特徴点対群の候補を決定させる。特徴点対群決定部115Gは、類似度情報125を参照し、頂点対の集合ωの状態で特徴点類似度を算出した複数の特徴点対の集合のうちの、特徴点類似度が最大値である特徴点対の集合を、特徴点対群の候補に決定して記憶部120に保持させる(ステップS733)。特徴点対群決定部115Gは、頂点対の集合ωについての特徴点対群の候補ψと特徴点類似度Sとを類似度情報125に格納するとともに、特徴点対群の候補を決定したことを算出処理制御部115Fに通知する。 On the other hand, when all sets of feature point pairs that can be generated are generated (step S732; YES), the calculation processing control unit 115F next causes the feature point pair group determination unit 115G to determine feature point pair group candidates. The feature point pair group determination unit 115G refers to the similarity information 125, and the feature point similarity among the sets of a plurality of feature point pairs whose feature point similarity is calculated in the state of the vertex pair set ω p is the maximum. A set of feature point pairs as values is determined as a candidate feature point group and stored in the storage unit 120 (step S733). Feature point pair group determination unit 115G is configured to store the candidate [psi p and the feature point similarity S p of the feature point pair group for collection omega p pair of vertices in similarity information 125, a candidate of the feature point pair group The calculation processing control unit 115F is notified of the determination.

頂点対の集合ωについての特徴点対群の候補ψが決定すると、算出処理制御部115Fは、図18Cに示すように、生成し得る頂点対の集合を全て生成したか否かを判定する(ステップS735)。ステップS735において、算出処理制御部115Fは、大域領域D,DUの形状に基づいて算出した生成し得る集合の総数と、生成した集合を識別する変数pの値とを比較して、全ての集合を生成したか否かを判定する。例えば、生成し得る頂点対の集合がP通りである場合、算出処理制御部115Fは、p≧P−1であるか否かを判定する(変数pが0から始まるため)。p<P−1である場合、算出処理制御部115Fは、生成していない頂点対の集合があると判定する。 If candidates [psi p of the feature point pair group for collection omega p pair of vertices is determined, calculation control section 115F is, as shown in FIG. 18C, the determination whether to generate all set of vertices pairs capable of producing (Step S735). In step S735, the calculation processing control unit 115F compares the total number of sets that can be generated calculated based on the shapes of the global areas D and DU with the value of the variable p that identifies the generated set, and sets all sets It is determined whether or not has been generated. For example, when there are P sets of vertex pairs that can be generated, the calculation processing control unit 115F determines whether or not p ≧ P−1 (since the variable p starts from 0). When p <P-1, the calculation processing control unit 115F determines that there is a set of vertex pairs that have not been generated.

生成していない頂点対の集合がある場合(ステップS735;NO)、算出処理制御部115Fは、頂点対の集合を識別する変数pをp+1に更新する(ステップS736)。その後、算出処理制御部115Fは、集合生成部115B、局所特徴情報比較部115C、大域特徴情報比較部115D、類似度算出部115E、及び特徴点対群決定部115Gに、ステップS727〜S734の処理を行わせる。   When there is a set of vertex pairs that have not been generated (step S735; NO), the calculation processing control unit 115F updates the variable p for identifying the set of vertex pairs to p + 1 (step S736). Thereafter, the calculation processing control unit 115F performs the processing of steps S727 to S734 to the set generation unit 115B, the local feature information comparison unit 115C, the global feature information comparison unit 115D, the similarity calculation unit 115E, and the feature point pair group determination unit 115G. To do.

一方、生成し得る頂点対の集合を全て生成した場合(ステップS735;YES)、算出処理制御部115Fは、次に、特徴点対群決定部115Gに特徴点対群を決定させる。特徴点対群決定部115Gは、類似度情報125を参照し、特徴点対群の候補のうちの特徴点類似度が最大値である特徴点対群の候補を、特徴点対群に決定する(ステップS737)。特徴点対群決定部115Gが特徴点対群を決定すると、特徴点対群抽出処理が終了する。   On the other hand, when all sets of vertex pairs that can be generated are generated (step S735; YES), the calculation processing control unit 115F next causes the feature point pair group determination unit 115G to determine a feature point pair group. The feature point pair group determination unit 115G refers to the similarity information 125, and determines a feature point pair group candidate having the maximum feature point similarity among the feature point pair group candidates as a feature point pair group. (Step S737). When the feature point pair group determination unit 115G determines the feature point pair group, the feature point pair group extraction process ends.

このように、本実施形態に係る特徴点対群抽出処理では、生成した特徴点対の集合に含まれる特徴点対毎に局所特徴情報の類似度と大域特徴情報の類似度とを算出し、これらの類似度に基づいて各集合における特徴点対の類似度を表す値を算出する。この際、本実施形態に係る特徴点対群抽出処理では、画像内の対象物の輪郭を大域領域とし、特徴点毎に算出した、特徴点から大域領域の頂点までの距離を大域特徴情報とする。   Thus, in the feature point pair group extraction processing according to the present embodiment, the similarity of the local feature information and the similarity of the global feature information are calculated for each feature point pair included in the generated feature point pair set, Based on these similarities, a value representing the similarity of feature point pairs in each set is calculated. At this time, in the feature point pair group extraction processing according to the present embodiment, the outline of the object in the image is set as the global region, and the distance from the feature point to the vertex of the global region calculated for each feature point is set as the global feature information. To do.

以下、図19〜図23を参照し、本実施形態に係る対象物の位置姿勢の推定処理について具体的に説明する。なお、以下の説明では、図9に示した登録画像121及び対象画像122に基づいて対象物5の位置姿勢を推定する場合を例に挙げる。また、以下の説明では、本実施形態に係る対象物5の位置姿勢の推定処理のうちの第1の実施形態で説明した処理と同じ処理でよい箇所についての詳細な説明を省略する。   Hereinafter, with reference to FIG. 19 to FIG. 23, the estimation process of the position and orientation of the object according to the present embodiment will be specifically described. In the following description, a case where the position and orientation of the target object 5 is estimated based on the registered image 121 and the target image 122 shown in FIG. Moreover, in the following description, detailed description about the part which may be the same process as the process demonstrated in 1st Embodiment among the estimation processes of the position and orientation of the target object 5 which concerns on this embodiment is abbreviate | omitted.

図19は、第2の実施形態に係る大域領域の決定方法を説明する図である。
本実施形態に係る大域領域決定処理では、対象画像122及び登録画像121のそれぞれにおける対象物5の輪郭で囲まれた領域を、対象画像122の大域領域D及び登録画像121の大域領域DUに決定する。
FIG. 19 is a diagram for explaining a method of determining a global area according to the second embodiment.
In the global region determination processing according to the present embodiment, the region surrounded by the contour of the target object 5 in each of the target image 122 and the registered image 121 is determined as the global region D of the target image 122 and the global region DU of the registered image 121. To do.

図19の(a)には、登録画像121の大域領域DUの例を示している。登録画像121の外周が対象物5の輪郭と一致している場合、登録画像121の全体が大域領域DUとなる。この場合、大域領域決定部114は、例えば、登録画像121の外周となる画素の位置を、登録画像121の大域領域DUを表す情報として登録画像特徴情報123に格納する。登録画像121の全体を大域領域DUとした場合、当該大域領域DUは、登録画像121から検出した特徴点PU,PU,及びPUを含む領域となる。 FIG. 19A shows an example of the global area DU of the registered image 121. When the outer periphery of the registered image 121 matches the contour of the object 5, the entire registered image 121 becomes the global region DU. In this case, for example, the global area determination unit 114 stores the position of the pixel that is the outer periphery of the registered image 121 in the registered image feature information 123 as information representing the global area DU of the registered image 121. When the entire registered image 121 is a global region DU, the global region DU is a region including the feature points PU 1 , PU 2 , and PU 3 detected from the registered image 121.

図19の(b)には、対象画像122に設定される大域領域Dの例を示している。対象画像122には、対象物5の他に搬送ベルト401等が写っている。このため、大域領域決定部114は、例えば、既知のエッジ検出方法に従い、対象物5のエッジ、すなわち対象物5と背景(搬送ベルト401等)との境界を検出する。大域領域決定部114は、検出したエッジ(境界)を表す画素の位置を、対象画像122の大域領域Dを表す情報として、対象画像特徴情報124に格納する。対象画像122における対象物5の輪郭で囲まれた領域を大域領域Dとした場合、当該大域領域Dは、対象画像122における対象物5から検出した特徴点P,P,及びPを含む領域となる。 FIG. 19B shows an example of the global region D set in the target image 122. In the target image 122, the conveyance belt 401 and the like are shown in addition to the target object 5. For this reason, the global region determination unit 114 detects, for example, the edge of the object 5, that is, the boundary between the object 5 and the background (such as the conveyor belt 401) according to a known edge detection method. The global area determination unit 114 stores the position of the pixel representing the detected edge (boundary) in the target image feature information 124 as information indicating the global area D of the target image 122. When the region surrounded by the contour of the target object 5 in the target image 122 is a global region D, the global region D includes feature points P 1 , P 2 , and P 3 detected from the target object 5 in the target image 122. It becomes an area to include.

対象画像122の大域領域Dと、登録画像121の大域領域DUとを決定した後、位置姿勢推定装置1では、特徴点対群抽出部115が特徴点対群抽出処理(ステップS7)を行う。特徴点対群抽出処理では、まず、特徴点と大域領域との関係に基づいて、局所特徴情報とは別の特徴量(大域特徴情報)を抽出する。本実施形態における特徴点群抽出処理では、上記のように、特徴点と、大域領域の頂点との距離を、大域特徴情報として抽出する。   After determining the global region D of the target image 122 and the global region DU of the registered image 121, in the position and orientation estimation apparatus 1, the feature point pair group extraction unit 115 performs a feature point pair group extraction process (step S <b> 7). In the feature point pair group extraction processing, first, a feature amount (global feature information) different from the local feature information is extracted based on the relationship between the feature points and the global region. In the feature point group extraction process in the present embodiment, as described above, the distance between the feature point and the vertex of the global region is extracted as the global feature information.

図20は、対象画像における大域特徴情報の抽出方法を説明する図である。図21は、登録画像における大域特徴情報の抽出方法を説明する図である。図22は、大域特徴情報を抽出した後の対象画像特徴情報及び登録画像特徴情報の例を示す図である。   FIG. 20 is a diagram illustrating a method for extracting global feature information from a target image. FIG. 21 is a diagram illustrating a method for extracting global feature information from a registered image. FIG. 22 is a diagram illustrating an example of target image feature information and registered image feature information after the global feature information is extracted.

図20には、図19の(b)の対象画像122から検出した特徴点Pについての大域特長情報の抽出方法を示している。 FIG 20 illustrates a method of extracting global features information about the feature points P 2 detected from the target image 122 of (b) in FIG. 19.

対象画像122における対象物5の外形が略正方形である場合、大域領域Dは略正方形となる。そのため、大域特徴情報抽出部115Aは、ステップS721の処理において対象画像122の大域領域Dから4個の頂点G〜Gを検出する。この際、大域特徴情報抽出部115Aは、4個の頂点のうちの1個、例えばy座標の値が最小値である頂点を第1の頂点Gとする。また、大域特徴情報抽出部115Aは、残りの3個の頂点を、第1の頂点Gから大域領域Dの輪郭を時計回りに1周したときの頂点の出現順に従って、第2の頂点G、第3の頂点G、及び第4の頂点Gとする。 When the outer shape of the target object 5 in the target image 122 is approximately square, the global region D is approximately square. Therefore, the global feature information extraction unit 115A detects four vertices G 1 to G 4 from the global region D of the target image 122 in the process of step S721. In this case, global feature information extraction unit 115A is one of the four vertices, for example, the value of y-coordinate is the first vertex G 1 vertex is the minimum value. Also, the global feature information extraction unit 115A has the remaining three vertices, according to order of appearance of the vertices when the one round the contour of the global area D in the clockwise direction from the first vertex G 1, the second vertex G 2 , a third vertex G 3 , and a fourth vertex G 4 .

次に、大域特徴情報抽出部114は、対象画像122から検出した特徴点P毎に、特徴点Pから各頂点G〜Gまでの距離Cn,1〜Cn,4を算出し、算出した距離Cn,1〜Cn,4を特徴点Pについての大域特徴情報とする(ステップS722)。図20には、対象画像122から検出した特徴点の1つである特徴点Pについての大域特徴情報(距離C2,1〜C2,4)を示している。 Then, the global feature information extraction unit 114 calculates the the feature point for each P n detected, the distance C n, 1 ~C n, 4 from the feature point P n to each vertex G 1 ~G 4 from the target image 122 Then, the calculated distances C n, 1 to C n, 4 are set as the global feature information about the feature point P n (step S722). FIG. 20 shows global feature information (distance C 2,1 to C 2,4 ) about the feature point P 2 that is one of the feature points detected from the target image 122.

次に、大域特徴情報抽出部115Aは、登録画像121の大域特徴情報を抽出する。大域特徴情報抽出部115Aは、ステップS724の処理において登録画像121の大域領域DUから4個の頂点GU〜GUを抽出する。この際、大域特徴情報抽出部115Aは、例えば、図21に示すように、4個の頂点のうちの左上角部の頂点を第1の頂点GUとする。また、大域特徴情報抽出部115Aは、残りの3個の頂点を、第1の頂点GUから大域領域DUの輪郭を時計回りに1周したときの頂点の出現順に従って、第2の頂点GU、第3の頂点GU、及び第4の頂点GUとする。 Next, the global feature information extraction unit 115 </ b> A extracts the global feature information of the registered image 121. Global feature information extraction unit 115A extracts four vertices GU 1 ~GU 4 from the global area DU of the registered image 121 in the process of step S724. In this case, global feature information extraction unit 115A, for example, as shown in FIG. 21, the apex of the upper left corner of the four vertexes and the first vertex GU 1. Also, the global feature information extraction unit 115A has the remaining three vertices, according to order of appearance of the vertex when the edge of the global heap DU and one round clockwise from the first vertex GU 1, second vertex GU 2 , a third vertex GU 3 , and a fourth vertex GU 4 .

次に、大域特徴情報抽出部114は、登録画像から検出した特徴点PU毎に、特徴点PUから各頂点GU〜GUまでの距離CUm,1〜CUm,4を算出し、算出した距離CUm,1〜CUm,4を特徴点PUについての大域特徴情報とする(ステップS725)。図21には、登録画像121から検出した特徴点の1つである特徴点PUについての大域特徴情報(距離CU2,1〜CU2,4)を示している。 Then, the global feature information extraction unit 114 calculates for each feature point PU m detected from the registration image, the distance CU m, 1 ~CU m, 4 from the feature point PU m to each vertex GU 1 ~GU 4 The calculated distances CU m, 1 to CU m, 4 are set as global feature information about the feature point PU m (step S725). FIG. 21 shows global feature information (distance CU 2,1 to CU 2,4 ) for the feature point PU 2 that is one of the feature points detected from the registered image 121.

したがって、ステップS721及びS722の処理を行うと、対象画像特徴情報124には、図22の(a)に示すテーブル1103のように、特徴点Pと、局所特徴情報Lと、大域特徴情報Cn,1〜Cn,4とを対応付けた情報が格納される。同様に、ステップS724及びS725の処理を行うと、登録画像特徴情報123には、図22の(b)に示すテーブル1104のように、特徴点PUと、局所特徴情報LUと、大域特徴情報CUm,1〜CUm,4とを対応付けた情報が格納される。 Therefore, when the processes of steps S721 and S722 are performed, the target image feature information 124 includes feature points P n , local feature information L n , and global feature information as in the table 1103 illustrated in FIG. Information that associates C n, 1 to C n, 4 is stored. Similarly, when the processes in steps S724 and S725 are performed, the registered image feature information 123 includes the feature point PU m , the local feature information LU m, and the global feature as in the table 1104 shown in FIG. Information that associates information CU m, 1 to CU m, 4 is stored.

なお、対象画像122から検出した特徴点PがN個である場合には、N個の特徴点P,P,・・・,Pのそれぞれに、局所特徴情報L,L,・・・,Lと、大域特徴情報C1,i,C2,i,・・・,CN,i(i=1〜I)とが対応付けられる。また、登録画像121から検出した特徴点PUがM個である場合には、M個の特徴点PU,PU,・・・,PUのそれぞれに、局所特徴情報LU,LU,・・・,LUと、大域特徴情報CU1,j,CU2,j,・・・,CUM,j(j=1〜J)とが対応付けられる。 When the number of feature points P n detected from the target image 122 is N, the local feature information L 1 , L 2 is included in each of the N feature points P 1 , P 2 ,. ,..., L N and global feature information C 1, i , C 2, i ,..., C N, i (i = 1 to I) are associated with each other. Further, when there are M feature points PU m detected from the registered image 121, local feature information LU 1 , LU 2 is included in each of the M feature points PU 1 , PU 2 ,. ,..., LU M and global feature information CU 1, j , CU 2, j ,..., CU M, j (j = 1 to J) are associated with each other.

対象画像122及び登録画像121のそれぞれにおける各特徴点の大域特徴情報を抽出した後、特徴点対群抽出部115は、集合生成部115Aにおいて頂点対の集合ωを生成する(ステップS727)。集合生成部115Bは、所定の生成規則に従って、対象画像の大域領域DにおけるI個の頂点Gのそれぞれに、登録画像の大域領域DUにおけるJ個の特徴点GUのいずれかを1対1で対応付けた頂点対の集合ωを生成する。登録画像121及び対象画像122には同一形状の対象物が写っているため、対象画像122の大域領域Dにおける頂点の数Iと、登録画像121の大域領域DUにおける頂点の数Jとは同じ数(I=J)となるはずである。しかしながら、対象画像122に写っている対象物5の位置姿勢によっては、I≠Jとなる可能性がある。そのため、p=0,J≧Iの場合、集合生成部115Bは、例えば、I個の頂点対を含む集合ω={(G,GU),(G,GU),・・・,(G,GUJ=I)}を生成する。一方、k=0,J<Iの場合、集合生成部115Bは、例えば、J個の頂点対を含む集合ω={(G,GU),(G,GU),・・・,(GI=J,GU)}を生成する。 After extracting the global feature information of each feature point in each of the target image 122 and the registered image 121, the feature point pair group extraction unit 115 generates a vertex pair set ω p in the set generation unit 115A (step S727). Set generation unit 115B in accordance with a predetermined generation rule to each of the I-number of vertices G i in the global area D of the target image, a pair of one of the J feature points GU j in the global heap DU registered image 1 A set ω p of vertex pairs associated with each other is generated. Since the registered image 121 and the target image 122 include objects having the same shape, the number I of vertices in the global area D of the target image 122 and the number J of vertices in the global area DU of the registered image 121 are the same number. (I = J). However, there is a possibility that I ≠ J depending on the position and orientation of the target object 5 shown in the target image 122. Therefore, when p = 0 and J ≧ I, the set generation unit 115B includes, for example, a set ω p = {(G 1 , GU 1 ), (G 2 , GU 2 ), including I vertex pairs. ., (G I , GU J = I )} is generated. On the other hand, when k = 0 and J <I, the set generation unit 115B includes, for example, a set ω p = {(G 1 , GU 1 ), (G 2 , GU 2 ), including J vertex pairs. · to produce a (G I = J, GU J )}.

また、p≠0の場合、集合生成部115Bは、対象画像122の大域領域Dの各頂点Gと対応付ける登録画像121の大域領域DのGUを、時計回りで頂点p個分だけずらした頂点とする。 When p ≠ 0, the set generation unit 115B shifts the GU j of the global area D of the registered image 121 to be associated with each vertex G i of the global area D of the target image 122 by p vertices clockwise. Let it be a vertex.

図23は、頂点対の集合の生成方法を説明する図である。図24は、大域領域の回転対称性と生成し得る頂点対の集合との関係を説明する図である。   FIG. 23 is a diagram for explaining a method for generating a set of vertex pairs. FIG. 24 is a diagram for explaining the relationship between the rotational symmetry of the global region and the set of vertex pairs that can be generated.

図23の(a)には、対象画像122の大域領域Dの頂点G〜Gと、登録画像121の大域領域DUの頂点GU〜GUとの対応関係とを説明するテーブル1105を示している。対象画像122の大域領域Dの頂点G〜Gは、上記のように、第1の頂点Gから大域領域Dの輪郭を時計回りで1周したときの頂点の出現順に識別子iを付与している(図20を参照)。同様に、登録画像121の大域領域DUの頂点GU〜GUは、第1の頂点GUから大域領域DUの輪郭を時計回りで1周したときの頂点の出現順に識別子jを付与している(図21を参照)。また、大域領域D,DUが略正方形であるとすると、大域領域D,DUを表す情報のみでは、対象画像122の大域領域Dの頂点G1が、登録画像121の大域領域DUの4個の頂点GU〜GUのうちのどの頂点と対応するかの判定が困難である。このため、本実施形態では、図18B及び図18Cに示したように、対象画像122の頂点Gと、登録画像121の頂点GUとによる頂点対の集合ωを複数通り生成し、それぞれの場合における特徴点対群の候補を抽出する。 23A shows a table 1105 for explaining the correspondence between the vertices G 1 to G 4 of the global area D of the target image 122 and the vertices GU 1 to GU 4 of the global area DU of the registered image 121. Show. As described above, the vertices G 1 to G 4 of the global area D of the target image 122 are assigned identifiers i in the order of appearance of the vertices when the outline of the global area D is made one round clockwise from the first vertex G 1. (See FIG. 20). Similarly, the vertex GU 1 ~GU 4 global regions DU of the registered image 121, the identifier j by applying the appearance order of the vertices of when one round the contour of the global heap DU clockwise from the first vertex GU 1 (See FIG. 21). Also, assuming that the global areas D and DU are substantially square, the vertex G1 of the global area D of the target image 122 is represented by four vertices of the global area DU of the registered image 121 only by the information representing the global areas D and DU. It is difficult to determine which vertex of GU 1 to GU 4 corresponds to. For this reason, in the present embodiment, as shown in FIGS. 18B and 18C, a plurality of vertex pair sets ω p are generated by the vertex G i of the target image 122 and the vertex GU j of the registered image 121, respectively. In this case, feature point pair group candidates are extracted.

各画像の大域領域D,DUが略正方形であり、上記の規則に従って識別子i,jを付与している場合、対象画像122の頂点Gと、登録画像121の頂点GUとの対応関係は、図23の(a)のテーブル1105に示した4通りのパターンに限定される。パターン1は対象画像122の頂点Gと、登録画像121の頂点GUとが対応するパターンであり、パターン2は対象画像122の頂点Gと、登録画像121の頂点GUとが対応するパターンである。パターン3は対象画像122の頂点Gと、登録画像121の頂点GUとが対応するパターンであり、パターン4は対象画像122の頂点Gと、登録画像121の頂点GUとが対応するパターンである。 When the global areas D and DU of each image are substantially square and identifiers i and j are assigned according to the above rules, the correspondence between the vertex G i of the target image 122 and the vertex GU j of the registered image 121 is The patterns are limited to the four patterns shown in the table 1105 in FIG. Pattern 1 and the apex G 1 of the target image 122, a pattern in which the vertex GU 1 of the reference image 121 corresponding, pattern 2 and the apex G 1 of the target image 122, and the vertex GU 2 registration image 121 corresponding It is a pattern. Pattern 3 vertex G 1 of the target image 122, a pattern in which the vertex GU 3 registered image 121 corresponding pattern 4 and the apex G 1 of the target image 122, and the vertex GU 4 of the reference image 121 corresponding It is a pattern.

よって、頂点対の集合ωを生成する場合、集合生成部115Bは、パターン1からパターン4までの4通りのパターンを順次生成する。例えば、p=0の場合、集合生成部115Bは、各頂点G,GUがパターン1で対応付けられる頂点対の集合ωp=0を生成する。また、p=1の場合、集合生成部115Bは、例えば、各頂点G,GUがパターン2で対応付けられる頂点対の集合ωp=1を生成する。すなわち、集合生成部115Bは、例えば、図23の(b)のテーブル1106に示した4通りの頂点対の集合ω〜ωを順次生成する。 Therefore, when generating the set ω p of vertex pairs, the set generation unit 115B sequentially generates four patterns from pattern 1 to pattern 4. For example, when p = 0, the set generation unit 115B generates a set of vertex pairs ω p = 0 in which the vertices G i and GU j are associated with each other in the pattern 1. When p = 1, the set generation unit 115B generates, for example, a set of vertex pairs ω p = 1 in which the vertices G i and GU j are associated with each other in the pattern 2. That is, the set generation unit 115B sequentially generates, for example, four sets of vertex pairs ω 0 to ω 3 shown in the table 1106 in FIG.

対象物5の輪郭を表す大域領域D,DUが正方形(4回対称)である場合、対象画像122における第1の頂点Gは、登録画像121における4個の頂点GU〜GUのいずれとも頂点対になり得る。したがって、大域領域D,DUが正方形である場合、頂点対の集合ωは、図23の(b)に示したように4通り存在する。これに対し、対象物5の輪郭を表す大域領域D,DUが長方形(2回対称)である場合、図24に示すように、対象画像の大域領域Dにおける第1の頂点Gは、登録画像の大域領域DUにおける2個の頂点GU,GUとだけ頂点対になり得る。すなわち、対象物5の輪郭(例えばラベル貼付面)が長方形である場合、頂点に接続する短辺と長辺との位置関係が反対である頂点同士(例えば、頂点Gと頂点GU)が対応することはない。よって、算出処理制御部115F及び集合生成部115Bは、大域領域D,DUの形状に応じて、生成し得る頂点対の集合の組み合わせ数を変更することが好ましい。大域領域Dの頂点G〜Gと、大域領域DUの頂点GU〜GUとが図24の(a)に示した関係である場合、生成し得る頂点対の集合ωは、図24の(b)のテーブル1107に示した2通りの集合ω,ωとなる。このように、大域領域D,DUの回転対称性が低い場合には、生成する頂点対の集合ωの組み合わせ(言い換えるとステップS727〜S734の繰り返し回数)を低減することができ、特徴点対群抽出処理の処理負荷を軽減することが可能となる。 When the global regions D and DU representing the contour of the target object 5 are square (four-fold symmetry), the first vertex G 1 in the target image 122 is any of the four vertices GU 1 to GU 4 in the registered image 121. Both can be vertex pairs. Therefore, when the global areas D and DU are square, there are four sets of vertex pairs ω p as shown in FIG. On the other hand, when the global areas D and DU representing the contour of the target object 5 are rectangular (two-fold symmetry), the first vertex G 1 in the global area D of the target image is registered as shown in FIG. Only two vertices GU 1 and GU 3 in the global region DU of the image can be a vertex pair. That is, when the contour of the object 5 (for example, the label sticking surface) is a rectangle, vertices (for example, the vertex G 1 and the vertex GU 2 ) whose positional relationship between the short side and the long side connected to the vertex are opposite to each other are opposite. There is no correspondence. Therefore, it is preferable that the calculation processing control unit 115F and the set generation unit 115B change the number of combinations of vertex pair sets that can be generated according to the shapes of the global regions D and DU. Vertex G 1 ~G 4 global area D, when the relationship shown in the global heap DU apex GU 1 of ~GU 4 Togazu 24 (a), a set omega p pair of vertices that may be generated, FIG. The two sets ω 0 and ω 1 shown in the table 1107 in FIG. Thus, when the rotational symmetry of the global areas D and DU is low, the combination of the set of vertex pairs ω p to be generated (in other words, the number of repetitions of steps S727 to S734) can be reduced, and the feature point pairs It becomes possible to reduce the processing load of the group extraction process.

頂点対の集合ωを生成した後、特徴点対群抽出部115は、第1の実施形態で説明したように、特徴点対の集合ψを生成し、特徴点対毎に、局所特徴情報の類似度と、大域特徴情報の類似度とを算出する。特徴点対の局所特徴情報の類似度は、第1の実施形態で説明したように、既知の類似度算出方法に従って算出すればよい。 After generating the vertex pair set ω p , as described in the first embodiment, the feature point pair group extraction unit 115 generates a set of feature point pairs ψ k, and for each feature point pair, a local feature is generated. The similarity of information and the similarity of global feature information are calculated. The similarity of the local feature information of the feature point pair may be calculated according to a known similarity calculation method as described in the first embodiment.

一方、本実施形態における大域特徴情報は、上記のように、特徴点から大域領域の複数の頂点のそれぞれまでの距離である。すなわち、図22の(a)及び(b)に示したように、1個の特徴点に対する大域特徴情報は複数個存在する。また、図20及び図21に示したように、1個の特徴点に対する複数個の大域特徴情報は、特徴点の位置によって異なる値の組み合わせとなる。そのため、特徴点対における大域特徴情報の類似度は、対象画像の特徴点における複数個の大域特徴情報と、登録画像の特徴点における複数個の大域特徴情報との対応関係によって異なる値となる。よって、本実施形態において特徴点対の大域特徴情報の類似度を算出する際には、頂点対の集合ωに基づいて、対象画像の特徴点における複数個の大域特徴情報と、登録画像の特徴点における複数個の大域特徴情報との対応関係を決定する。 On the other hand, the global feature information in the present embodiment is the distance from the feature point to each of a plurality of vertices in the global region as described above. That is, as shown in FIGS. 22A and 22B, there are a plurality of pieces of global feature information for one feature point. Also, as shown in FIGS. 20 and 21, a plurality of pieces of global feature information for one feature point are combinations of different values depending on the position of the feature point. Therefore, the similarity of the global feature information in the feature point pair varies depending on the correspondence between the plurality of global feature information in the feature points of the target image and the plurality of global feature information in the feature points of the registered image. Therefore, when calculating the similarity of the global feature information of the feature point pair in this embodiment, based on the vertex pair set ω p , a plurality of global feature information at the feature points of the target image and the registered image A correspondence relationship between a plurality of global feature information at the feature points is determined.

図25は、頂点対と比較する大域特徴情報との関係を説明する図である。
例えば、集合生成部115Bが、図20の対象画像122における頂点G〜Gと、図21の登録画像121における頂点GU〜GUとによる頂点対の集合ω={(G,GU),(G,GU),(G,GU),(G,GU)}を生成した場合を考える。この場合、図20の対象画像122における特徴点Pと、図21の登録画像121における特徴点PUとの特徴点対(P、PU)に対する大域特徴情報の類似度SC2,2は、例えば、以下のように算出する。
FIG. 25 is a diagram for explaining the relationship between vertex pairs and global feature information to be compared.
For example, set generation unit 115B is a vertex G 1 ~G 4 in the target image 122 in FIG. 20, the vertex GU 1 ~GU 4 collectively ω p = {(G 1 pair of vertices by the registered image 121 in FIG. 21, Suppose that GU 1 ), (G 2 , GU 2 ), (G 3 , GU 3 ), (G 4 , GU 4 )} are generated. In this case, the global feature information similarity SC 2,2 for the feature point pair (P 2 , PU 2 ) between the feature point P 2 in the target image 122 in FIG. 20 and the feature point PU 2 in the registered image 121 in FIG. Is calculated as follows, for example.

大域特徴情報比較部115Dは、図25の(a)のテーブル1107に示すように、まず、頂点対(G,GU)に従い、対象画像における特徴点Pから頂点Gまでの距離C2,1と、登録画像における特徴点PUから頂点GUまでの距離CU2,1とを比較する。次に、大域特徴情報比較部115Dは、頂点対(G,GU)に従い、対象画像における特徴点Pから頂点Gまでの距離C2,2と、登録画像における特徴点PUから頂点GUまでの距離CU2,2とを比較する。次に、大域特徴情報比較部115Dは、頂点対(G,GU)に従い、対象画像における特徴点Pから頂点Gまでの距離C2,3と、登録画像における特徴点PUから頂点GUまでの距離CU2,3とを比較する。次に、大域特徴情報比較部115Dは、頂点対(G,GU)に従い、対象画像における特徴点Pから頂点Gまでの距離C2,4と、登録画像における特徴点PUから頂点GUまでの距離CU2,4とを比較する。そして最後に、大域特徴情報比較部115Dは、上記の4組の頂点対のそれぞれにおける距離の比較結果に基づいて、特徴点Pと、特徴点PUとの特徴点対に対する大域特徴情報の類似度SC2,2を算出する。 As shown in the table 1107 in FIG. 25A, the global feature information comparison unit 115D first follows the distance C from the feature point P 2 to the vertex G 1 in the target image according to the vertex pair (G 1 , GU 1 ). 2 and 1 are compared with the distance CU 2,1 from the feature point PU 2 to the vertex GU 1 in the registered image. Next, the global feature information comparing unit 115D follows the distance C 2,2 from the feature point P 2 to the vertex G 2 in the target image and the feature point PU 2 in the registered image according to the vertex pair (G 2 , GU 2 ). The distance CU 2,2 to the vertex GU 2 is compared. Next, the global feature information comparison unit 115D follows the vertex pair (G 3 , GU 3 ) from the distance C 2,3 from the feature point P 2 to the vertex G 3 in the target image and the feature point PU 2 in the registered image. The distances CU 2 and 3 to the vertex GU 3 are compared. Then, the global feature information comparing unit 115D in accordance with the vertex pair (G 4, GU 4), the distance C 2, 4 from the feature point P 2 in the target image to the apex G 4, from the feature point PU 2 in the registration image The distances CU 2 and 4 to the vertex GU 2 are compared. Finally, the global feature information comparing unit 115D is based on the distance comparison result in each of the four sets of vertices pairs described above, the feature point P 2, the global feature information for the feature point pairs between the feature point PU 2 The similarity SC 2,2 is calculated.

また、例えば、集合生成部115Bが頂点対の集合ω={(G,GU),(G,GU),(G,GU),(G,GU)}を生成した場合、特徴点Pと、特徴点PUとの特徴点対に対する大域特徴情報の類似度SC2,2は、以下のように算出する。 Further, for example, the set generation unit 115B sets the vertex pair set ω p = {(G 1 , GU 3 ), (G 2 , GU 4 ), (G 3 , GU 1 ), (G 4 , GU 2 )}. When generated, the similarity SC 2,2 of the global feature information for the feature point pair of the feature point P 2 and the feature point PU 2 is calculated as follows.

大域特徴情報比較部115Dは、図25の(b)のテーブル1108に示すように、まず、頂点対(G,GU)に従い、対象画像における特徴点Pから頂点Gまでの距離C2,1と、登録画像における特徴点PUから頂点GUまでの距離CU2,3とを比較する。次に、大域特徴情報比較部115Dは、頂点対(G,GU)に従い、対象画像における特徴点Pから頂点Gまでの距離C2,2と、登録画像における特徴点PUから頂点GUまでの距離CU2,4とを比較する。次に、大域領域特徴比較部115Dは、頂点対(G,GU)に従い、対象画像における特徴点Pから頂点Gまでの距離C2,3と、登録画像における特徴点PUから頂点GUまでの距離CU2,1とを比較する。次に、大域特徴情報比較部115Dは、頂点対(G,GU)に従い、対象画像における特徴点Pから頂点Gまでの距離C2,4と、登録画像における特徴点PUから頂点GUまでの距離CU2,2とを比較する。そして最後に、大域特徴情報比較部115Dは、上記の4組の頂点対のそれぞれにおける距離の比較結果に基づいて、特徴点Pと、特徴点PUとの特徴点対に対する大域特徴情報の類似度SC2,2を算出する。 Global feature information comparing unit 115D, as shown in table 1108 of (b) in FIG. 25, first, the distance in accordance with the vertex pair (G 1, GU 3), from the feature point P 2 in the target image to vertex G 1 C 2 and 1 are compared with the distance CU 2,3 from the feature point PU 2 to the vertex GU 3 in the registered image. Next, the global feature information comparison unit 115D follows the distance C 2,2 from the feature point P 2 to the vertex G 2 in the target image and the feature point PU 2 in the registered image according to the vertex pair (G 2 , GU 4 ). The distance CU 2,4 to the vertex GU 4 is compared. Next, the global area feature comparison unit 115D follows the vertex pair (G 3 , GU 1 ) from the distance C 2,3 from the feature point P 2 to the vertex G 3 in the target image and the feature point PU 2 in the registered image. The distance CU 2,1 to the vertex GU 1 is compared. Then, the global feature information comparing unit 115D in accordance with the vertex pair (G 4, GU 2), the distance C 2, 4 from the feature point P 2 in the target image to the apex G 4, from the feature point PU 2 in the registration image The distance CU 2,2 to the vertex GU 2 is compared. Finally, the global feature information comparing unit 115D is based on the distance comparison result in each of the four sets of vertices pairs described above, the feature point P 2, the global feature information for the feature point pairs between the feature point PU 2 The similarity SC 2,2 is calculated.

特徴点対の集合ψに含まれる各特徴点対の局所特徴情報の類似度及び大域特徴情報の類似度を算出した後、特徴点対群抽出部115は、類似度算出部115Eにおいて特徴点対の集合ψについての特徴点類似度Sを算出する。類似度算出部115Eは、例えば、式(1)により特徴点類似度Sを算出する。そして、ある1組の頂点対の集合ωを生成した状態で、生成し得る特徴点対の集合ψの全てについての特徴点類似度Sを算出すると、特徴点対群抽出部115は、特徴点対群決定部115Gにおいて、特徴点類似度が最大値である特徴点対の集合を抽出する。特徴点対群決定部115Gは、抽出した特徴点対の集合を、特徴点対群の候補として、頂点対の集合ωと、特徴点類似度と対応付けて類似度情報125に格納する(ステップS734)。なお、特徴点対群決定部115Gにおいて特徴点類似度が最大値である特徴点対の集合を特徴点対群の候補とするのは、類似度が高いほど算出される値が大きくなる算出方法で特徴点類似度Sを算出した場合である。すなわち、類似度が正の値であり、かつ類似度が高いほど算出される値が小さくなる算出方法で特徴点類似度Sを算出した場合、特徴点対群決定部115Gは、特徴点類似度が最小値である特徴点対の集合を特徴点対群の候補とする。 After calculating the similarity of the local feature information and the similarity of the global feature information of each feature point pair included in the set ψ k of feature point pairs, the feature point pair group extraction unit 115 performs the feature points in the similarity calculation unit 115E. It calculates a feature point similarity S k for the set [psi k pairs. Similarity calculation unit 115E, for example, to calculate the feature point similarity S k by equation (1). Then, when the feature point similarity score S k is calculated for all of the feature point pair sets ψ k that can be generated in a state where a set of vertex pairs ω p is generated, the feature point pair group extraction unit 115 In the feature point pair group determination unit 115G, a set of feature point pairs having the maximum feature point similarity is extracted. The feature point pair group determination unit 115G stores the extracted set of feature point pairs in the similarity information 125 in association with the vertex pair set ω p and the feature point similarity as candidate feature point pairs ( Step S734). Note that the feature point pair set having the maximum feature point similarity in the feature point pair group determination unit 115G is used as a feature point pair group candidate because the calculated value increases as the similarity increases. This is a case where the feature point similarity Sk is calculated. That is, the similarity is a positive value, and when calculating the feature point similarity S k by calculating how the value of the degree of similarity is calculated higher decreases, the feature point pair group determination unit 115G, feature points similar A set of feature point pairs having a minimum degree is set as a candidate feature point group.

その後、特徴点対群抽出部115は、生成し得る頂点対の集合ωの全てで特徴点対群の候補を抽出するまで、ステップS727〜S734の処理を繰り返す。そして、特徴点対群抽出部115は、抽出した特徴点対群の候補のうちの特徴点類似度が最大値である候補を、対象画像の特徴点と登録画像の特徴点との対応関係を表す特徴点対群に特定する(ステップS737)。なお、特徴点対群抽出部115において特徴点類似度が最大値である特徴点対対郡の候補を特徴点対群に特定するは、類似度が高いほど算出される値が大きくなる算出方法で特徴点類似度Sを算出した場合である。すなわち、類似度が正の値であり、かつ類似度が高いほど算出される値が小さくなる算出方法で特徴点類似度Sを算出した場合、特徴点対群抽出部115は、特徴点類似度が最小値である特徴点対群の候補を特徴点対群とする。 After that, the feature point pair group extraction unit 115 repeats the processes of steps S727 to S734 until the feature point pair group candidates are extracted from all of the vertex pair sets ω p that can be generated. Then, the feature point pair group extraction unit 115 determines the correspondence between the feature point of the target image and the feature point of the registered image for the candidate having the maximum feature point similarity among the extracted feature point pair group candidates. The feature point pair group to be represented is specified (step S737). The feature point pair group extraction unit 115 specifies the feature point pair versus group candidate having the maximum feature point similarity as the feature point pair group. The calculation method increases the calculated value as the similarity degree increases. This is a case where the feature point similarity Sk is calculated. That is, when the feature point similarity Sk is calculated by a calculation method in which the similarity is a positive value and the calculated value is smaller as the similarity is higher, the feature point pair group extraction unit 115 calculates the feature point similarity. A feature point pair group having a minimum degree is defined as a feature point pair group.

特徴点対群を特定した後、位置姿勢推定装置1は、位置姿勢算出部116において対象画像に写っている対象物の位置姿勢を算出する(ステップS8)。位置姿勢算出部116は、第1の実施形態で説明したように、特徴点対群における特徴点の対応関係に基づいて、登録画像121における各特徴点PUの位置を、対象画像122における特徴点Pの位置に変換する行列式を算出する。 After specifying the feature point pair group, the position / orientation estimation apparatus 1 calculates the position / orientation of the object shown in the object image in the position / orientation calculation unit 116 (step S8). As described in the first embodiment, the position and orientation calculation unit 116 determines the position of each feature point PU m in the registered image 121 based on the feature point correspondence in the feature point pair group in the target image 122. A determinant to be converted into the position of the point P n is calculated.

行列式を算出した後、位置姿勢推定装置1は、投影画像生成部130において、算出した行列式と、記憶部120のラベル貼付位置129とに基づいて、対象画像122に写っている対象物5におけるラベルの貼付位置を算出する(ステップS9)。更に、投影画像生成部130は、算出した貼付位置に基づいて、対象画像122に写っている対象物5に投影する画像6を生成しプロジェクタ3に出力する(ステップS9)。   After calculating the determinant, the position / orientation estimation apparatus 1 uses the projection image generation unit 130 to calculate the object 5 shown in the target image 122 based on the calculated determinant and the label pasting position 129 of the storage unit 120. The label attaching position at is calculated (step S9). Furthermore, the projection image generation unit 130 generates an image 6 to be projected onto the target object 5 shown in the target image 122 based on the calculated pasting position, and outputs it to the projector 3 (step S9).

以上のように、本実施形態に係る位置姿勢推定装置1は、対象画像及び登録画像のそれぞれから検出した特徴点についての局所的な特徴の類似度と、複数の特徴点を含む大域領域に対する特徴の類似度とに基づいて、対象物の位置姿勢を推定する。また、本実施形態では、画像に写っている対象物の輪郭を大域領域とし、特徴点から大域領域の頂点までの距離を大域特徴情報とすることで、特徴点毎の大域特徴情報に差異を生じさせる。そのため、1枚の画像から検出された複数の特徴点についての局所的な特徴(局所特徴情報)の類似度が高い場合でも、大域特徴情報の差に基づいて、対象画像の特徴点と登録画像の特徴点との対応関係を特定することが可能となる。すなわち、本実施形態によれば、1枚の対象画像から検出された複数の特徴点についての局所的な特徴(局所特徴情報)の類似度が高い場合でも、当該対象画像に写っている対象物の正しい位置姿勢を算出することが可能となる。したがって、本実施形態によれば、対象物を撮像した対象画像と登録画像とに基づいて対象画像に写っている対象物の位置姿勢を推定する際の推定精度が向上する。よって、例えば、デザインの画一性や吸気口を設置すること等により、検出された特徴点の局所的な特徴情報の類似度が高くなる製品を対象物とする作業ライン等において、作業者に製品の位置姿勢を正しく提示することが可能となる。   As described above, the position / orientation estimation apparatus 1 according to the present embodiment performs local feature similarity on feature points detected from each of the target image and the registered image, and features for a global region including a plurality of feature points. The position and orientation of the object are estimated based on the similarity. In the present embodiment, the global feature information for each feature point is differentiated by defining the outline of the object in the image as the global region and the distance from the feature point to the vertex of the global region as the global feature information. Cause it to occur. Therefore, even when the local feature (local feature information) similarity between a plurality of feature points detected from one image is high, the feature point of the target image and the registered image are based on the difference of the global feature information. It is possible to specify the correspondence with the feature points. That is, according to the present embodiment, even when the similarity of local features (local feature information) about a plurality of feature points detected from one target image is high, the target object shown in the target image It is possible to calculate the correct position and orientation. Therefore, according to this embodiment, the estimation accuracy at the time of estimating the position and orientation of the target object shown in the target image based on the target image obtained by capturing the target object and the registered image is improved. Therefore, for example, in a work line or the like that targets a product in which the similarity of the local feature information of the detected feature points becomes high due to the uniformity of the design and the installation of an intake port, etc. It is possible to correctly present the position and orientation of the product.

また、本実施形態では、上記のように、画像に写っている対象物の輪郭を大域領域とし、特徴点から大域領域の頂点(基点)までの距離を大域特徴情報としている。そのため、本実施形態によれば、1枚の画像から多数の特徴点が検出される場合にも、検出される特徴点の数が少ない場合と同じ処理負荷で大域領域と、大域特徴情報を抽出する際の基点と決定することが可能となる。したがって、本実施形態によれば、大域領域及び基点を決定する処理における処理負荷の増大を抑制することが可能となる。   In the present embodiment, as described above, the outline of the object shown in the image is the global region, and the distance from the feature point to the vertex (base point) of the global region is the global feature information. Therefore, according to this embodiment, even when a large number of feature points are detected from one image, the global region and the global feature information are extracted with the same processing load as when the number of detected feature points is small. It becomes possible to determine the base point when Therefore, according to the present embodiment, it is possible to suppress an increase in processing load in the process of determining the global region and the base point.

なお、図18A〜図18Cのフローチャートは、本実施形態に係る特徴点対群抽出処理の一例に過ぎない。本実施形態に係る特徴点対群抽出処理の内容は、図18A〜図18Cに示した手順に限らず、適宜変更可能である。例えば、図18BのステップS729〜S734の処理は、特徴点対の集合ψについての特徴点類似度Sを算出する毎に特徴点類似度の最大値と比較し、特徴点類似度が最大値となる特徴点対の集合のみを保持する処理であってもよい。このように、特徴点対群抽出処理において特徴点類似度が最大値となる特徴点の集合のみを保持することで、記憶部120の類似度情報125に格納する情報の量を低減し、記憶部120の容量の増大を抑制することが可能となる。 Note that the flowcharts of FIGS. 18A to 18C are merely an example of feature point pair group extraction processing according to the present embodiment. The content of the feature point pair group extraction processing according to the present embodiment is not limited to the procedure shown in FIGS. 18A to 18C and can be changed as appropriate. For example, the processes in steps S729 to S734 of FIG. 18B are compared with the maximum value of the feature point similarity every time the feature point similarity S k is calculated for the set ψ k of the feature point pairs, and the feature point similarity is maximized. Processing that holds only a set of feature point pairs as values may be used. In this way, by holding only a set of feature points having the maximum feature point similarity in the feature point pair group extraction process, the amount of information stored in the similarity information 125 of the storage unit 120 is reduced and stored. An increase in the capacity of the unit 120 can be suppressed.

更に、図18のステップS729〜S734の処理は、例えば、生成し得る特徴点対の集合ψを全て生成した後で、各特徴点の集合ψについての特徴点類似度Sを算出する処理であってもよい。 Furthermore, the processing of steps S729 to S734 in FIG. 18 includes, for example, a process of calculating a feature point similarity S k for each set of feature points ψ k after generating all sets ψ of possible feature point pairs. It may be.

加えて、特徴点対の集合ψについての特徴点類似度Sを算出する処理では、上記の式(1)に限らず、例えば、上記の式(3)又は式(4)により特徴点類似度Sを算出してもよい。 In addition, the process of calculating the feature point similarity S k for the set ψ k of feature point pairs is not limited to the above-described equation (1), and for example, the feature points by the above-described equation (3) or equation (4). The similarity score S k may be calculated.

また、本実施形態に係る大域特徴情報は、特徴点と、大域領域(対象物の輪郭)の頂点との距離に限らず、例えば、特徴点から大域領域の各辺に下ろした垂線の長さとしてもよい。   In addition, the global feature information according to the present embodiment is not limited to the distance between the feature point and the vertex of the global region (the contour of the object), but, for example, the length of a perpendicular line extending from the feature point to each side of the global region It is good.

[第3の実施形態]
本実施形態では、特徴点対の局所特徴情報の類似度と、大域特徴情報の類似度とに基づいて特徴点対群を抽出する方法の別の例について説明する。
[Third Embodiment]
In the present embodiment, another example of a method for extracting a feature point pair group based on the similarity of local feature information of feature point pairs and the similarity of global feature information will be described.

本実施形態に係る位置姿勢推定装置の機能的構成は、第1の実施形態に係る位置姿勢推定装置1の機能的構成と同じでよい。すなわち、本実施形態に係る位置姿勢推定装置1は、図2に示したように、位置姿勢推定部110と、記憶部120と、投影画像生成部130と、を備える。位置姿勢推定部110は、画像取得部111と、特徴点検出部112と、局所特徴情報抽出部113と、大域領域決定部114と、特徴点対群抽出部115と、位置姿勢算出部116と、を含む(図2を参照)。特徴点対群抽出部115は、大域特徴情報抽出部115Aと、集合作成部115Bと、局所特徴情報比較部115Cと、大域特徴情報比較部115Dと、類似度算出部115Eと、算出処理制御部115Fと、特徴点対群決定部115Gと、を含む(図3を参照)。   The functional configuration of the position / orientation estimation apparatus according to the present embodiment may be the same as the functional configuration of the position / orientation estimation apparatus 1 according to the first embodiment. That is, the position / orientation estimation apparatus 1 according to this embodiment includes a position / orientation estimation unit 110, a storage unit 120, and a projection image generation unit 130, as illustrated in FIG. The position / orientation estimation unit 110 includes an image acquisition unit 111, a feature point detection unit 112, a local feature information extraction unit 113, a global region determination unit 114, a feature point pair group extraction unit 115, and a position / orientation calculation unit 116. (See FIG. 2). The feature point pair group extraction unit 115 includes a global feature information extraction unit 115A, a set creation unit 115B, a local feature information comparison unit 115C, a global feature information comparison unit 115D, a similarity calculation unit 115E, and a calculation processing control unit. 115F and a feature point pair group determination unit 115G (see FIG. 3).

また、記憶部120は、図2に示したように、登録画像121と、対象画像122と、登録画像特徴情報123と、対象画像特徴情報124と、類似度情報125と、ラベル貼付位置129と、を含む各種のデータを記憶する。   Further, as shown in FIG. 2, the storage unit 120 includes the registered image 121, the target image 122, the registered image feature information 123, the target image feature information 124, the similarity information 125, and the label pasting position 129. The various data including are stored.

なお、本実施形態に係る位置姿勢推定装置1の大域領域決定部114は、第1の実施形態と同様、画像から検出された複数の特徴点を含む最小外接多角形を算出し、当該最小外接多角形を大域領域D,DUに検定する。また、本実施形態に係る位置姿勢推定装置1の大域特徴情報抽出部115Aは、大域領域の重心を基点とし、特徴点毎に、特徴点から各基点までの距離を大域特徴情報として抽出する(算出する)。   Note that, as in the first embodiment, the global region determination unit 114 of the position / orientation estimation apparatus 1 according to the present embodiment calculates a minimum circumscribed polygon including a plurality of feature points detected from an image, and calculates the minimum circumscribed polygon. The polygon is verified to the global areas D and DU. Further, the global feature information extraction unit 115A of the position / orientation estimation apparatus 1 according to the present embodiment extracts the distance from the feature point to each base point as the global feature information for each feature point using the center of gravity of the global region as the base point ( calculate).

本実施形態に係る位置姿勢推定装置1は、例えば、図4に示したステップS1〜S9の処理を所定の時間間隔で繰り返し行う。位置姿勢推定装置1は、ステップS1〜S9の一連の処理を1回の処理単位として繰り返し行ってもよいし、ステップS1〜S9の処理をパイプライン化して行ってもよい。   For example, the position / orientation estimation apparatus 1 according to the present embodiment repeatedly performs the processes of steps S1 to S9 illustrated in FIG. 4 at predetermined time intervals. The position / orientation estimation apparatus 1 may repeatedly perform a series of processes in steps S1 to S9 as one processing unit, or may perform the processes in steps S1 to S9 in a pipeline.

なお、本実施形態に係る位置姿勢推定装置1は、ステップS1〜S9の処理のうちのステップS6の特徴点対群抽出処理として、図26A及び図26Bに示す処理を行う。本実施形態においても、特徴点対群抽出処理は、特徴点対群抽出部115が行う。   Note that the position / orientation estimation apparatus 1 according to the present embodiment performs the process shown in FIGS. 26A and 26B as the feature point pair group extraction process in step S6 of the processes in steps S1 to S9. Also in this embodiment, the feature point pair group extraction process is performed by the feature point pair group extraction unit 115.

図26Aは、第3の実施形態に係る特徴点対群抽出処理の内容を説明するフローチャート(その1)である。図26Bは、第3の実施形態に係る特徴点対群抽出処理の内容を説明するフローチャート(その2)である。   FIG. 26A is a flowchart (part 1) for explaining the contents of the feature point pair group extraction processing according to the third embodiment. FIG. 26B is a flowchart (part 2) for explaining the contents of the feature point pair group extraction processing according to the third embodiment.

本実施形態に係る特徴点対群抽出部115は、図26Aに示すように、まず、対象画像及び特徴画像のそれぞれから大域特徴情報を抽出する大域特徴情報抽出処理(ステップS741)を行う。ステップS741の処理は、特徴点対群抽出部115の大域特徴情報抽出部115Aが行う。本実施形態に係る大域特徴情報抽出部115は、対象画像の特徴点毎に特徴点から大域領域Dの重心までの距離を算出する処理と、登録画像の特徴点毎に特徴点から大域領域DUの重心までの距離を算出する処理とを行う(図8を参照)。大域特徴情報抽出部115は、対象画像の特徴点毎に算出した特徴点から大域領域Dの重心までの距離を対象画像の各特徴点についての大域特徴情報とし、当該大域特徴情報を対象画像特徴情報124の1つとして記憶部120に格納する。同様に、大域特徴情報抽出部115は、登録画像の特徴点毎に算出した特徴点から大域領域DUの重心までの距離を登録画像の各特徴点についての大域特徴情報とし、当該大域特徴情報を登録画像特徴情報123の1つとして記憶部120に格納する。   As shown in FIG. 26A, the feature point pair group extraction unit 115 according to the present embodiment first performs global feature information extraction processing (step S741) for extracting global feature information from each of the target image and the feature image. The process of step S741 is performed by the global feature information extraction unit 115A of the feature point pair group extraction unit 115. The global feature information extraction unit 115 according to the present embodiment calculates the distance from the feature point to the center of gravity of the global region D for each feature point of the target image, and from the feature point to the global region DU for each feature point of the registered image. And calculating the distance to the center of gravity (see FIG. 8). The global feature information extraction unit 115 sets the distance from the feature point calculated for each feature point of the target image to the center of gravity of the global region D as global feature information for each feature point of the target image, and uses the global feature information as the target image feature It is stored in the storage unit 120 as one piece of information 124. Similarly, the global feature information extraction unit 115 sets the distance from the feature point calculated for each feature point of the registered image to the center of gravity of the global region DU as the global feature information for each feature point of the registered image, and uses the global feature information. It is stored in the storage unit 120 as one of the registered image feature information 123.

次に、特徴点対群抽出部115は、特徴点対の集合を識別する変数kを0にする(ステップS742)。ステップS742の処理は、算出処理制御部115Fが行う。   Next, the feature point pair group extraction unit 115 sets a variable k for identifying a set of feature point pairs to 0 (step S742). The calculation process control unit 115F performs the process of step S742.

ステップS742の後、特徴点対群抽出部115は、局所特徴情報に基づいて、複数通りの特徴点対の集合のそれぞれにおける特徴点類似度を算出する処理(ステップS743〜S745)を行う。ステップS743〜S745の処理は、算出処理制御部115Fによる制御のもと、集合生成部115Bと、局所特徴情報比較部115Cと、類似度算出部115Eとが行う。   After step S742, the feature point pair group extraction unit 115 performs processing (steps S743 to S745) for calculating the feature point similarity in each of a plurality of sets of feature point pairs based on the local feature information. The processes in steps S743 to S745 are performed by the set generation unit 115B, the local feature information comparison unit 115C, and the similarity calculation unit 115E under the control of the calculation processing control unit 115F.

ステップS742の処理を終えると、特徴点対群抽出部115は、次に、対象画像の特徴点と登録画像の特徴点とによる特徴点の集合ψを生成する(ステップS743)。ステップS743の処理は、集合生成部115Bが行う。集合生成部115Bは、第1の実施形態で説明したように、既知の生成方法に従って、対象画像の特徴点と登録画像の特徴点とによる特徴点対の集合ψを生成する。なお、集合生成部115Bは、所定の生成規則(生成アルゴリズム)に従い、1回のステップS743の処理において、対象画像の特徴点の総数Nと登録画像の特徴点の総数Mとに基づいて生成可能な特徴点対の集合のうちの1組の集合を生成する。 When the process of step S742 is completed, the feature point pair group extraction unit 115 next generates a set of feature points ψ k based on the feature points of the target image and the feature points of the registered image (step S743). The set generation unit 115B performs the process of step S743. As described in the first embodiment, the set generation unit 115B generates a set ψ k of feature point pairs based on the feature points of the target image and the feature points of the registered image according to a known generation method. Note that the set generation unit 115B can generate based on the total number N of feature points of the target image and the total number M of feature points of the registered image in one process of step S743 according to a predetermined generation rule (generation algorithm). A set of a set of feature point pairs is generated.

次に、特徴点対群抽出部115は、特徴点対の集合ψに含まれる各特徴点対における局所特徴情報の類似度SLn,mを算出する(ステップS744)。ステップS744の処理は、局所特徴情報比較部115Cが行う。局所特徴情報比較部115Cは、特徴点対毎に、対象画像特徴情報124に格納された対象画像の特徴点の局所特徴情報と、登録画像特徴情報123に格納された登録画像121の特徴点の局所特徴情報とを比較して、局所特徴情報の類似度SLn,mを算出する。局所特徴情報比較部115Cは、既知の類似度算出方法に従って、対象画像122の特徴点の局所特徴情報と、登録画像121の特徴点の局所特徴情報との類似度SLn,mを算出する。 Next, the feature point pair group extraction unit 115 calculates the similarity SL n, m of local feature information in each feature point pair included in the set ψ k of feature point pairs (step S744). The local feature information comparison unit 115C performs the process of step S744. For each feature point pair, the local feature information comparison unit 115C compares the local feature information of the feature point of the target image stored in the target image feature information 124 and the feature point of the registered image 121 stored in the registered image feature information 123. The local feature information is compared to calculate the similarity SL n, m of the local feature information. The local feature information comparison unit 115C calculates the similarity SL n, m between the local feature information of the feature point of the target image 122 and the local feature information of the feature point of the registered image 121 according to a known similarity calculation method.

次に、特徴点対群抽出部115は、局所特徴情報の類似度SLn,mに基づいて、特徴点対の集合ψについての特徴点類似度Sを算出する(ステップS745)。ステップS745の処理は、類似度算出部115Eが行う。類似度算出部115Eは、例えば、下記式(5)により特徴点対の集合ψについての特徴点類似度Sを算出する。 Next, the feature point pair group extraction unit 115 calculates the feature point similarity S k for the set ψ k of feature point pairs based on the similarity SL n, m of the local feature information (step S745). The similarity calculation unit 115E performs the process of step S745. For example, the similarity calculation unit 115E calculates the feature point similarity S k for the set ψ k of feature point pairs by the following equation (5).

Figure 2018036770
Figure 2018036770

類似度算出部115Eは、算出した特徴点類似度Sを特徴点の集合ψと対応付けて類似度情報125の1つとして記憶部120に格納するとともに、特徴点類似度Sを算出したことを算出処理制御部115Fに通知する。 The similarity calculation unit 115E associates the calculated feature point similarity S k with the feature point set ψ k and stores it in the storage unit 120 as one of the similarity information 125, and calculates the feature point similarity S k . This is notified to the calculation processing control unit 115F.

特徴点対の集合ψについての特徴点類似度Sが算出されると、算出処理制御部115Fは、生成し得る特徴点対の集合を全て生成したか否かを判定する(ステップS746)。ステップS746において、算出処理制御部115Fは、対象画像の特徴点の総数Nと登録画像の特徴点の総数Mとに基づいて算出した生成し得る集合の総数と、生成した集合を識別する変数kの値とを比較して、全ての集合を生成したか否かを判定する。例えば、生成し得る特徴点対の集合がK通りである場合、算出処理制御部115Fは、k≧K−1であるか否かを判定する(変数kが0から始まるため)。k<K−1である場合、算出処理制御部115Fは、生成していない特徴点対の集合があると判定する。 When the feature point similarity S k for the set [psi k feature point pairs are calculated, calculation control section 115F determines whether to generate all the set of feature point pairs that can generate (step S746) . In step S746, the calculation processing control unit 115F calculates the total number of sets that can be generated calculated based on the total number N of feature points of the target image and the total number M of feature points of the registered image, and a variable k that identifies the generated set. It is determined whether or not all sets have been generated. For example, when there are K sets of feature point pairs that can be generated, the calculation processing control unit 115F determines whether or not k ≧ K−1 (since the variable k starts from 0). When k <K−1, the calculation processing control unit 115F determines that there is a set of feature point pairs that have not been generated.

生成していない特徴点対の集合がある場合(ステップS746;NO)、算出処理制御部115Fは、特徴点対の集合を識別する変数kをk+1に更新する(ステップS747)。その後、算出処理制御部115Fは、集合生成部115B、局所特徴情報比較部115C、及び類似度算出部115Eに、ステップS743〜S745の処理を行わせる。   When there is a set of feature point pairs that have not been generated (step S746; NO), the calculation processing control unit 115F updates the variable k that identifies the set of feature point pairs to k + 1 (step S747). Thereafter, the calculation process control unit 115F causes the set generation unit 115B, the local feature information comparison unit 115C, and the similarity calculation unit 115E to perform the processes of steps S743 to S745.

一方、特徴点対の集合を全て生成した場合(ステップS746;YES)、算出処理制御部115Fは、次に、特徴点対群決定部115Gに特徴点対群を決定させる。特徴点対群決定部115Gは、記憶部120の類似度情報125を参照し、特徴点類似度が最大値である特徴点対の集合を特徴点対群に決定する(ステップS748)。なお、特徴点対群決定部115Gにおいて特徴点類似度が最大値である特徴点対の集合を特徴点対群に決定するのは、類似度が高いほど算出される値が大きくなる算出方法で特徴点類似度Sを算出した場合である。すなわち、類似度が正の値であり、かつ類似度が高いほど算出される値が小さくなる算出方法で特徴点類似度Sを算出した場合、特徴点対群決定部115Gは、特徴点類似度が最小値である特徴点対の集合を特徴点対群に決定する。 On the other hand, when all sets of feature point pairs have been generated (step S746; YES), the calculation processing control unit 115F next causes the feature point pair group determination unit 115G to determine the feature point pair group. The feature point pair group determination unit 115G refers to the similarity information 125 of the storage unit 120, and determines a set of feature point pairs having the maximum feature point similarity as a feature point pair group (step S748). Note that the feature point pair determining unit 115G determines the feature point pair set having the maximum feature point similarity as the feature point pair group by a calculation method in which the higher the similarity, the larger the calculated value. This is a case where the feature point similarity Sk is calculated. That is, the similarity is a positive value, and when calculating the feature point similarity S k by calculating how the value of the degree of similarity is calculated higher decreases, the feature point pair group determination unit 115G, feature points similar A set of feature point pairs having a minimum degree is determined as a feature point pair group.

特徴点対群を決定した後、特徴点対群抽出部115は、図26Bに示すように、特徴点対群に含まれる特徴点対のうちの、大域特徴情報の類似度が低い特徴点対を除外する処理(ステップS749〜S752)を行う。ステップS749〜S752の処理は、算出処理制御部115Fによる制御のもと、大域特徴情報比較部115Dと、特徴点対群決定部115Gとが行う。   After the feature point pair group is determined, the feature point pair group extraction unit 115, as shown in FIG. 26B, of the feature point pairs included in the feature point pair group has a low similarity in global feature information. Is performed (steps S749 to S752). The processes in steps S749 to S752 are performed by the global feature information comparison unit 115D and the feature point pair group determination unit 115G under the control of the calculation processing control unit 115F.

特徴点対群を決定すると、特徴点対群抽出部115は、図26Bに示したように、次に、特徴点対群の候補から1組の特徴点対を選択する(ステップS749)。ステップS749の処理は、算出処理制御部115Fが行う。算出処理制御部115Fは、所定の選択規則に従い、特徴点対群に含まれる複数組の特徴点対のなかから1組の特徴点対を選択する。選択規則は、例えば、未選択の特徴点対のうちの、特徴点対群における登録順が最も早い特徴点対を選択する、という規則とする。   When the feature point pair group is determined, the feature point pair group extraction unit 115 next selects one feature point pair from the feature point pair group candidates as shown in FIG. 26B (step S749). The calculation process control unit 115F performs the process of step S749. The calculation processing control unit 115F selects one feature point pair from among a plurality of feature point pairs included in the feature point pair group according to a predetermined selection rule. The selection rule is, for example, a rule of selecting a feature point pair with the earliest registration order in the feature point pair group from among unselected feature point pairs.

次に、特徴点対群抽出部115は、選択した特徴点対における大域特徴情報の類似度SCn,mを算出する(ステップS750)。ステップS750の処理は、大域特徴情報比較部115Dが行う。大域特徴情報比較部115Dは、第1の実施形態で説明したように、特徴点対における対象画像の特徴点Pについての大域特徴情報Cと、登録画像の特徴点PUについての大域特徴情報PUとの差に基づいて、大域特徴情報の類似度SCn,mとする。この際、大域特徴情報比較部115Dは、大域特徴情報の差が小さいほど、大域特徴情報の類似度SCn,mの値が大きくなる所定の関数に従い、類似度SCn,mを算出する。 Next, the feature point pair group extraction unit 115 calculates the similarity SC n, m of the global feature information in the selected feature point pair (step S750). The process of step S750 is performed by the global feature information comparison unit 115D. As described in the first embodiment, the global feature information comparison unit 115D has the global feature information C n for the feature point P n of the target image in the feature point pair and the global feature for the feature point PU m of the registered image. Based on the difference with the information PU m , the similarity SC n, m of the global feature information is set. At this time, the global feature information comparison unit 115D calculates the similarity SC n, m according to a predetermined function in which the value of the similarity SC n, m of the global feature information increases as the difference in the global feature information decreases.

次に、特徴点対群抽出部115は、算出した大域特徴情報の類似度SCn,mが閾値以上であるか否かを判定する(ステップS751)。ステップS751の判定は、例えば、特徴点対群決定部115Gが行う。選択した特徴点対における対象画像の特徴点Pと、登録画像の特徴点PUとが正しい組み合わせである場合、当該特徴点対についての大域特徴情報の類似度SCn,mは高くなる。すなわち、選択した特徴点対についての大域特徴情報の類似度SCn,mが低い場合、当該特徴点対における対象画像の特徴点Pと、登録画像の特徴点PUとの組み合わせは、特徴点対群に含める組み合わせとして不適当であると判断できる。よって、算出した大域特徴情報の類似度SCn,mが閾値よりも小さい場合(ステップS751;NO)、特徴点対群決定部115Gは、選択した特徴点対を特徴点対群から除外する(ステップS752)。特徴点対を除外した後、特徴点対群決定部115Gは、ステップS752の処理が終了したことを算出処理制御部115Fに通知する。一方、選択した特徴点対の大域特徴情報の類似度SCが閾値以上である場合(ステップS751;YES)、特徴点対群決定部115Gは、ステップS752の処理をスキップすることを算出処理制御部115Fに通知する。 Next, the feature point pair group extraction unit 115 determines whether or not the calculated similarity SC n, m of the global feature information is equal to or greater than a threshold (step S751). The determination in step S751 is performed by, for example, the feature point pair group determination unit 115G. When the feature point P n of the target image in the selected feature point pair and the feature point PU m of the registered image are a correct combination, the similarity SC n, m of the global feature information for the feature point pair becomes high. That is, when the similarity SC n, m of the global feature information for the selected feature point pair is low, the combination of the feature point P n of the target image and the feature point PU m of the registered image in the feature point pair is the feature It can be determined that the combination included in the point pair group is inappropriate. Therefore, when the calculated similarity SC n, m of the global feature information is smaller than the threshold (step S751; NO), the feature point pair group determination unit 115G excludes the selected feature point pair from the feature point pair group ( Step S752). After excluding the feature point pair, the feature point pair group determination unit 115G notifies the calculation processing control unit 115F that the process of step S752 has been completed. On the other hand, when the similarity SC n , m of the global feature information of the selected feature point pair is equal to or greater than the threshold (step S751; YES), the feature point pair group determination unit 115G calculates that the process of step S752 is skipped. The processing control unit 115F is notified.

特徴点対群決定部115Gからの通知を受けると、算出処理制御部115Fは、特徴点対群に含まれる全ての特徴点対を選択したか否かを判定する(ステップS753)。選択していない特徴点対が存在する場合(ステップS753;NO)、算出処理制御部115Fは、未選択の特徴点対を選択し(ステップS749)、当該特徴点対を除外するか否かを判定する処理(ステップS750〜S752)を行う。   Upon receiving the notification from the feature point pair group determination unit 115G, the calculation processing control unit 115F determines whether all the feature point pairs included in the feature point pair group have been selected (step S753). When there is an unselected feature point pair (step S753; NO), the calculation processing control unit 115F selects an unselected feature point pair (step S749), and determines whether or not to exclude the feature point pair. Processing for determination (steps S750 to S752) is performed.

一方、特徴点対群に含まれる全ての特徴点を選択した場合(ステップS753;)、算出処理制御部115Fは、次に、特徴点対群決定部115Gに特徴点対群を決定させる。特徴点対群決定部115Gは、大域特徴情報の類似度SCが低い特徴点対を除外した後の特徴点対群を、対象画像の特徴点と登録画像の特徴点との正しい対応関係を表す特徴点対群して出力する(ステップS754)。特徴点対群決定部115Gが特徴点対群を決定すると、本実施形態に係る特徴点対群抽出処理が終了する。 On the other hand, when all feature points included in the feature point pair group are selected (step S753;), the calculation processing control unit 115F next causes the feature point pair group determination unit 115G to determine the feature point pair group. The feature point pair group determination unit 115G corrects the feature point pair group after the feature point pair having a low similarity SC n , m of the global feature information is excluded between the feature point of the target image and the feature point of the registered image. A pair of feature points representing the relationship is output (step S754). When the feature point pair group determination unit 115G determines the feature point pair group, the feature point pair group extraction process according to the present embodiment is completed.

このように、本実施形態に係る特徴点対群抽出処理では、特徴点対の集合に含まれる各特徴点対における局所特徴情報の類似度に基づいて特徴点対群を決定した後、当該特徴点対群から大域特徴情報の類似度の低い特徴点対を除外する。局所特徴情報は、特徴点を含む特徴点近傍の局所領域における画像上の特徴を表す情報である。このため、対象画像の特徴点と登録画像の特徴点との正しい対応関係を表していない特徴点対であっても、局所的な画像上の特徴の類似度が高いと、対象画像の特徴点と登録画像の特徴点との正しい対応関係を表す特徴点対群に含まれる可能性がある。   As described above, in the feature point pair group extraction processing according to this embodiment, after determining a feature point pair group based on the similarity of local feature information in each feature point pair included in the set of feature point pairs, A feature point pair having a low similarity of global feature information is excluded from the point pair group. The local feature information is information representing the feature on the image in the local region in the vicinity of the feature point including the feature point. For this reason, even if the feature point pair does not represent the correct correspondence between the feature point of the target image and the feature point of the registered image, if the feature similarity on the local image is high, the feature point of the target image May be included in a pair of feature points representing a correct correspondence between the feature points and the registered image feature points.

これに対し、複数の特徴点を含む大域領域に基づいて設定した基点(例えば大域領域の重心)は、対象画像の対象物が写っている領域における位置と、登録画像内における位置とが略一致する。そのため、特徴点から基点までの距離を大域特徴情報とした場合、対象画像の特徴点と登録画像の特徴点との対応関係が正しくないと、大域特徴情報の類似度が低くなる。したがって、局所特徴情報に基づいて特定した特徴点対群に含まれる大域対象画像の類似度の低い特徴点対を除外することで、特徴点対群から対象画像の特徴点と登録画像の特徴点との対応関係が正しくない特徴点対群を除外することが可能となる。大域特徴情報の類似度に基づいて特徴点の対応関係が正しくない特徴点対を位置姿勢の推定に用いる特徴点対群(特徴点対の集合)から除外することが可能となる。よって、本実施形態によれば、対象物の位置姿勢の推定精度が向上する。   On the other hand, the base point set based on the global region including a plurality of feature points (for example, the center of gravity of the global region) is substantially coincident with the position in the region where the target object of the target image is reflected in the registered image. To do. Therefore, when the distance from the feature point to the base point is the global feature information, the similarity of the global feature information is low unless the correspondence between the feature point of the target image and the feature point of the registered image is correct. Therefore, by excluding the feature point pairs with low similarity of the global target image included in the feature point pair group specified based on the local feature information, the feature point of the target image and the feature point of the registered image are excluded from the feature point pair group. It is possible to exclude a pair of feature points whose correspondence with is incorrect. Based on the similarity of the global feature information, it is possible to exclude a feature point pair whose feature point correspondence is not correct from a feature point pair group (a set of feature point pairs) used for position and orientation estimation. Therefore, according to this embodiment, the estimation accuracy of the position and orientation of the object is improved.

[第4の実施形態]
図27は、第4の実施形態に係る位置姿勢推定装置の機能的構成を示す図である。
[Fourth Embodiment]
FIG. 27 is a diagram illustrating a functional configuration of a position and orientation estimation apparatus according to the fourth embodiment.

図27に示すように、本実施形態に係る位置姿勢推定装置1は、位置姿勢推定部110と、記憶部120と、投影画像生成部130と、を備える。   As illustrated in FIG. 27, the position / orientation estimation apparatus 1 according to this embodiment includes a position / orientation estimation unit 110, a storage unit 120, and a projection image generation unit 130.

位置姿勢推定部110は、画像取得部111と、特徴点検出部112と、局所特徴情報抽出部113と、大域領域決定部114と、特徴点対群抽出部115と、位置姿勢算出部116と、を含む。特徴点対群抽出部115は、大域特徴情報抽出部115Aと、集合作成部115Bと、局所特徴情報比較部115Cと、大域特徴情報比較部115Dと、類似度算出部115Eと、算出処理制御部115Fと、特徴点対群決定部115Gと、を含む(図3を参照)。本実施形態に係る位置姿勢推定装置1の位置姿勢推定部110における上記の各部は、それぞれ、第1の実施形態から第3の実施形態までで説明した機能を有する。   The position / orientation estimation unit 110 includes an image acquisition unit 111, a feature point detection unit 112, a local feature information extraction unit 113, a global region determination unit 114, a feature point pair group extraction unit 115, and a position / orientation calculation unit 116. ,including. The feature point pair group extraction unit 115 includes a global feature information extraction unit 115A, a set creation unit 115B, a local feature information comparison unit 115C, a global feature information comparison unit 115D, a similarity calculation unit 115E, and a calculation processing control unit. 115F and a feature point pair group determination unit 115G (see FIG. 3). Each of the above-described units in the position / orientation estimation unit 110 of the position / orientation estimation apparatus 1 according to the present embodiment has the functions described in the first to third embodiments.

本実施形態に係る位置姿勢推定装置1の位置姿勢推定部110は、上記の各部に加え、画像編集部117を、更に備える。画像編集部117は、撮像装置2から取得した対象画像に写っている、作業者8の腕等の、対象物5を遮蔽する物体を検出し、対象画像を当該遮蔽物体が除去された画像に編集する。   The position / orientation estimation unit 110 of the position / orientation estimation apparatus 1 according to the present embodiment further includes an image editing unit 117 in addition to the above-described units. The image editing unit 117 detects an object that shields the target object 5 such as the arm of the operator 8 that is reflected in the target image acquired from the imaging device 2, and converts the target image into an image from which the shielded object has been removed. To edit.

記憶部120は、図27に示したように、登録画像121と、対象画像122と、登録画像特徴情報123と、対象画像特徴情報124と、類似度情報125と、ラベル貼付位置129と、を含む各種のデータを記憶する。記憶部120に記憶させる(格納する)。これらの情報は、それぞれ、第1の実施形態から第3の実施形態までで説明したような情報である。   As illustrated in FIG. 27, the storage unit 120 includes a registered image 121, a target image 122, registered image feature information 123, target image feature information 124, similarity information 125, and a label pasting position 129. Various types of data are stored. It is stored (stored) in the storage unit 120. These pieces of information are information as described in the first to third embodiments.

投影画像生成部130は、位置姿勢推定部110で算出した対象物5の位置姿勢と、記憶部120のラベル貼付位置129とに基づいて、対象画像に写っている対象物5に投影する画像を生成し、プロジェクタ3に出力する。   Based on the position and orientation of the target object 5 calculated by the position and orientation estimation unit 110 and the label attaching position 129 of the storage unit 120, the projection image generation unit 130 projects an image to be projected onto the target object 5 shown in the target image. It is generated and output to the projector 3.

本実施形態に係る位置姿勢推定装置1は、例えば、図28に示したステップS1,S11,及びS2〜S9の処理を所定の時間間隔で繰り返し行う。位置姿勢推定装置1は、ステップS1,S11,及びS2〜S9の一連の処理を1回の処理単位として繰り返し行ってもよいし、ステップS1,S11,及びS2〜S9の処理をパイプライン化して行ってもよい。   For example, the position / orientation estimation apparatus 1 according to the present embodiment repeatedly performs the processes of steps S1, S11, and S2 to S9 shown in FIG. 28 at predetermined time intervals. The position / orientation estimation apparatus 1 may repeatedly perform a series of processes of steps S1, S11, and S2 to S9 as a single processing unit, or pipeline the processes of steps S1, S11, and S2 to S9. You may go.

図28は、第4の実施形態に係る位置姿勢推定装置が行う処理を説明するフローチャートである。   FIG. 28 is a flowchart for describing processing performed by the position and orientation estimation apparatus according to the fourth embodiment.

図28に示すように、本実施形態に係る位置姿勢推定装置1は、まず、撮像装置2から対象物を撮像した対象画像を取得する(ステップS1)。ステップS1の処理は、画像取得部111が行う。   As shown in FIG. 28, the position / orientation estimation apparatus 1 according to the present embodiment first acquires a target image obtained by capturing an image of an object from the imaging apparatus 2 (step S1). The process of step S1 is performed by the image acquisition unit 111.

次に、位置姿勢推定装置1は、対象画像から遮蔽物を除去する(ステップS11)。ステップS11の処理は、画像編集部117が行う。画像編集部117は、例えば、対象画像からHistograms of Oriented Gradients(HOG)特徴量を抽出し、対象画像内で所定の方向に移動する対象物及び背景物とは異なる物体の有無を検出する。対象画像内に対象物及び背景物とは異なる物体(遮蔽物)が存在する場合、画像編集部117は、対象画像における遮蔽物が写っている部分領域を、過去の、遮蔽物が写っていない対象画像における対応部分領域に置換する。対象画像に遮蔽物が存在した場合、画像編集部117は、遮蔽物を除去した対象画像を記憶部120に記憶させる
次に、位置姿勢推定装置1は、対象画像及び登録画像から特徴点を検出する特徴点検出処理(ステップS2)を行う。ステップS2の処理は、特徴点検出部112が行う。特徴点検出部112は、第1の実施形態で説明したように、例えば、SURF、或いはSIFTにより、特徴点を算出する。
Next, the position / orientation estimation apparatus 1 removes the shielding object from the target image (step S11). The image editing unit 117 performs the process in step S11. For example, the image editing unit 117 extracts Histograms of Oriented Gradients (HOG) features from the target image, and detects the presence or absence of an object different from the target object and the background object moving in a predetermined direction in the target image. When there is an object (shielding object) different from the object and the background object in the target image, the image editing unit 117 does not capture the past shielding object in the partial area where the shielding object is reflected in the target image. Replace with the corresponding partial region in the target image. When there is an obstruction in the target image, the image editing unit 117 stores the target image from which the obstruction has been removed in the storage unit 120. Next, the position and orientation estimation device 1 detects feature points from the target image and the registered image. A feature point detection process (step S2) is performed. The feature point detection unit 112 performs the process of step S2. As described in the first embodiment, the feature point detection unit 112 calculates the feature points by, for example, SURF or SIFT.

本実施形態に係る位置姿勢推定装置1が行う処理のうちの、ステップS2〜S9の処理は、それぞれ、第1の実施形態から第3の実施形態で説明した処理のいずれかでよい。よって、本実施形態では、図28のステップS2〜S9の処理の内容についての説明を省略する。   Of the processes performed by the position / orientation estimation apparatus 1 according to the present embodiment, the processes of steps S2 to S9 may be any of the processes described in the first to third embodiments. Therefore, in this embodiment, the description about the content of the process of step S2 to S9 of FIG. 28 is abbreviate | omitted.

このように、本実施形態に係る対象物の位置姿勢を推定する処理では、対象画像に対象物及び背景物(例えば、搬送ベルト401)とは異なる別の物体(遮蔽物)が存在する場合に、対象画像に対する編集処理を行って当該遮蔽物を除去する。このため、例えば、作業ライン10の作業員8の腕部が対象画像に写ってしまい、位置姿勢の推定に不要な特徴点の増大や、対象物5の一部又は全部が腕部に隠れてしまうことによる位置姿勢の推定精度の劣化を抑制することが可能となる。   Thus, in the process of estimating the position and orientation of the target object according to the present embodiment, when another object (shielding object) different from the target object and the background object (for example, the conveyor belt 401) exists in the target image. Then, an editing process is performed on the target image to remove the shielding object. For this reason, for example, the arm part of the worker 8 on the work line 10 is reflected in the target image, an increase in feature points unnecessary for position and orientation estimation, and a part or all of the target object 5 is hidden in the arm part. Therefore, it is possible to suppress the deterioration of the position and orientation estimation accuracy due to the occurrence.

また、本実施形態に係る対象物の位置姿勢を推定する処理では、対象物の特徴点の周囲から抽出した局所特徴情報の類似度と、画像内に設定した大域領域の重心と特徴点との関係を表す大域特徴情報の類似度とに基づいて、対象物の位置姿勢を推定する。よって、第1の実施形態から第3の実施形態で説明した位置姿勢の推定処理と同様に、位置姿勢の推定精度を向上させることが可能となる。   Further, in the process of estimating the position and orientation of the target object according to the present embodiment, the similarity between the local feature information extracted from around the feature point of the target object, the center of gravity of the global region set in the image, and the feature point Based on the similarity of the global feature information representing the relationship, the position and orientation of the object are estimated. Therefore, similarly to the position / orientation estimation process described in the first to third embodiments, the position / orientation estimation accuracy can be improved.

図29は、対象画像から遮蔽物を除去する方法を説明する図である。
図29の下方には、時刻t−1に撮像した対象画像122t−1と、時刻tに撮像した対象画像122と、時刻t+1に撮像した対象画像122t+1との3枚の対象画像を示している。また、3枚の対象画像122t−1,122,122t+1の上方には、それぞれ、対象画像を撮像した時点での撮像領域410の状態を示している。
FIG. 29 is a diagram for explaining a method of removing the shielding object from the target image.
Below 29, the target image 122 t-1 captured at time t-1, and the target image 122 t captured at time t, the three target image and the target image 122 t + 1 captured at time t + 1 Show. In addition, above the three target images 122 t−1 , 122 t , and 122 t + 1 , the state of the imaging region 410 at the time when the target images are captured is shown.

時刻t−1の時点で撮像領域410に存在する物体は、所定の背景物である搬送ベルト401を除けば、対象物5のみである。したがって、背景物を除けば、時刻t−1に撮像した対象画像122t−1には、対象物5のみが写っている。 The object existing in the imaging region 410 at the time t-1 is only the object 5 except for the conveyor belt 401 which is a predetermined background object. Therefore, except for the background object, only the object 5 is shown in the object image 122 t-1 captured at time t-1.

これに対し、時刻tの時点では、撮像領域410内に、対象物5及び所定の背景物(搬送ベルト401)とは異なる作業員の腕部801が存在する。このため、時刻tに撮像した対象画像122tは、撮像装置2から取得した時点では、画像112内に点線で示した位置に作業員の腕部801が写っている。このように、対象物5及び背景物とは異なる物体(作業員の腕部801)が写っている場合、特徴点検出処理(ステップS2)において、腕部801の部分から複数の特徴点が検出される可能性がある。このため、本実施形態に係る位置姿勢推定装置1では、画像112から腕部801等の、対象物5及び所定の背景物とは異なる物体(遮蔽物)を検出した場合、当該遮蔽物を除去する。具体的には、画像112における腕部801が写っている矩形の部分領域BL1を指定し、当該部分領域BL1を過去の対象画像(例えば時刻t−1に撮像した対象画像122t−1)における対応部分領域BL0の像に置換する。これにより、時刻tに撮像した対象画像122tから作業者の腕部801が除去され、背景領域から多数の特徴点が検出される事態を防ぐことが可能となる。 On the other hand, at the time t, the arm portion 801 of the worker different from the target object 5 and the predetermined background object (conveyance belt 401) exists in the imaging region 410. Therefore, the target image 122t is captured at time t, at the time acquired from the image pickup device 2, the arm portion 801 of the operator to the position shown by dotted lines in the image 112 in t is captured. As described above, when an object (worker's arm 801) different from the object 5 and the background is captured, a plurality of feature points are detected from the arm 801 in the feature point detection process (step S2). There is a possibility that. Therefore, the position and orientation estimation apparatus 1 according to the present embodiment, the image 112 t of such arms 801, when detecting a different object (obstacle) is the object 5 and a predetermined background object, the shield Remove. Specifically, specify a rectangular partial regions BL1 the arm portion 801 is captured in the image 112 t, the partial region BL1 past target image (for example, time t-1 target image 122 t-1 captured in) Is replaced with the image of the corresponding partial region BL0. As a result, it is possible to remove the worker's arm 801 from the target image 122t imaged at time t and prevent a large number of feature points from being detected from the background area.

また、時刻t+1の時点では、撮像領域410内に、対象物5及び所定の背景物(搬送ベルト401)とは異なる作業員の腕部802が存在する。しかも、時刻t+1においては、作業員の腕部802の一部分が対象物5の一部分を遮蔽している。このため、時刻tに撮像した対象画像122t+1は、撮像装置2から取得した時点では、画像112t+1内に点線で示した位置に作業員の腕部802が写っており、対象物5の一部が欠けた像になっている。このように、対象物5及び背景物とは異なる物体(作業員の腕部802)が写っている場合、特徴点検出処理(ステップS2)において、腕部801の部分から複数の特徴点が検出される可能性がある。更に、対象物5の一部が欠けている場合、特徴点検出処理において対象物5の特徴点の検出に失敗し、対象物5の位置姿勢の推定に失敗する可能性がある。このような場合も、本実施形態に係る位置姿勢推定装置1では、画像112t−1から検出した腕部802等の、対象物5及び所定の背景物とは異なる物体(遮蔽物)を除去する。具体的には、画像112t+1における腕部802及び対象物5の一部が写っている矩形の部分領域BL3を指定し、当該部分領域BL3を過去の対象画像(例えば時刻tに撮像した対象画像122)における対応部分領域BL2の像に置換する。この際、画像編集部117は、例えば、過去の複数の対象画像における対応部分領域のなかから、対象物5が写っている領域の位置や寸法が部分領域BL3に最も近い対応部分領域BL2を切り出して、部分領域BL3と置換する。これにより、時刻t+1に撮像した対象画像122t+1から作業者の腕部802が除去され、背景領域から多数の特徴点が検出される事態を防ぐことが可能となる。また、撮像装置2から取得した対象画像122t+1において腕部802により欠損していた対象物5の一部分が他の対象画像から補完されるため、対象物5の位置姿勢の推定精度の低下を防ぐことが可能となる。 Further, at time t + 1, there is an arm portion 802 of the worker that is different from the object 5 and the predetermined background object (conveyor belt 401) in the imaging region 410. Moreover, at time t + 1, a part of the arm 802 of the worker shields a part of the object 5. For this reason, when the target image 122 t + 1 captured at time t is acquired from the imaging device 2, the arm portion 802 of the worker is reflected at the position indicated by the dotted line in the image 112 t + 1 . The image is missing. As described above, when an object (worker's arm 802) different from the object 5 and the background object is captured, a plurality of feature points are detected from the arm 801 in the feature point detection process (step S2). There is a possibility that. Furthermore, when a part of the target object 5 is missing, the feature point detection process may fail to detect the feature point of the target object 5 and may fail to estimate the position and orientation of the target object 5. Even in such a case, the position / orientation estimation apparatus 1 according to the present embodiment removes an object (shielding object) different from the target object 5 and the predetermined background object, such as the arm 802 detected from the image 112 t-1. To do. Specifically, a rectangular partial area BL3 in which a part of the arm 802 and the object 5 in the image 112 t + 1 is shown is specified, and the partial area BL3 is captured in the past target image (for example, a target image captured at time t). The image of the corresponding partial region BL2 at 122 t ) is replaced. At this time, for example, the image editing unit 117 cuts out the corresponding partial region BL2 whose position and size of the region in which the object 5 is reflected is closest to the partial region BL3 from the corresponding partial regions in the plurality of past target images. Then, the partial region BL3 is replaced. Thereby, it is possible to remove the worker's arm 802 from the target image 122 t + 1 captured at time t + 1, and to prevent a situation in which many feature points are detected from the background area. In addition, since a part of the target object 5 missing by the arm portion 802 in the target image 122 t + 1 acquired from the imaging device 2 is complemented from the other target image, a reduction in accuracy of estimation of the position and orientation of the target object 5 is prevented. It becomes possible.

上記の各実施形態で説明した、位置姿勢推定装置1は、例えば、コンピュータと、当該コンピュータに実行させるプログラムとにより実現可能である。以下、図30を参照して、コンピュータとプログラムとにより実現される位置姿勢推定装置1について説明する。   The position / orientation estimation apparatus 1 described in each of the above embodiments can be realized by, for example, a computer and a program executed by the computer. Hereinafter, the position / orientation estimation apparatus 1 realized by a computer and a program will be described with reference to FIG.

図30は、コンピュータのハードウェア構成を示す図である。
図30に示すように、コンピュータ15は、プロセッサ1501と、主記憶装置1502と、補助記憶装置1503と、入力装置1504と、出力装置1505と、入出力インタフェース1506と、通信制御装置1507と、媒体駆動装置1508と、を備える。コンピュータ15におけるこれらの要素1501〜1508は、バス1510により相互に接続されており、要素間でのデータの受け渡しが可能になっている。
FIG. 30 is a diagram illustrating a hardware configuration of a computer.
As shown in FIG. 30, the computer 15 includes a processor 1501, a main storage device 1502, an auxiliary storage device 1503, an input device 1504, an output device 1505, an input / output interface 1506, a communication control device 1507, and a medium. A driving device 1508. These elements 1501 to 1508 in the computer 15 are connected to each other by a bus 1510 so that data can be exchanged between the elements.

プロセッサ1501は、Central Processing Unit(CPU)やMicro Processing Unit(MPU)等である。プロセッサ1501は、オペレーティングシステムを含む各種のプログラムを実行することにより、コンピュータ15の全体の動作を制御する。また、プロセッサ1501は、例えば、図4〜図8に示した各処理等を行う。   The processor 1501 is a central processing unit (CPU), a micro processing unit (MPU), or the like. The processor 1501 controls the overall operation of the computer 15 by executing various programs including an operating system. Further, the processor 1501 performs, for example, each process illustrated in FIGS.

主記憶装置1502は、図示しないRead Only Memory(ROM)及びRandom Access Memory(RAM)を含む。主記憶装置1502のROMには、例えば、コンピュータ15の起動時にプロセッサ1501が読み出す所定の基本制御プログラム等が予め記録されている。また、主記憶装置1502のRAMは、プロセッサ1501が、各種のプログラムを実行する際に必要に応じて作業用記憶領域として使用する。主記憶装置1502のRAMは、例えば、位置姿勢推定装置1における登録画像特徴情報123、対象画像特徴情報124、類似度情報125等を記憶する記憶部として利用可能である。   The main storage device 1502 includes a read only memory (ROM) and a random access memory (RAM) not shown. In the ROM of the main storage device 1502, for example, a predetermined basic control program read by the processor 1501 when the computer 15 is started is recorded in advance. The RAM of the main storage device 1502 is used as a working storage area as needed when the processor 1501 executes various programs. The RAM of the main storage device 1502 can be used as a storage unit that stores, for example, registered image feature information 123, target image feature information 124, similarity information 125, and the like in the position and orientation estimation device 1.

補助記憶装置1503は、例えば、Hard Disk Drive(HDD)や、フラッシュメモリ等の不揮発性メモリ(Solid State Drive(SSD)を含む)等、主記憶装置1502のRAMと比べて容量の大きい記憶装置である。補助記憶装置1503は、プロセッサ1501によって実行される各種のプログラムや各種のデータ等の記憶に利用可能である。補助記憶装置1503は、例えば、図4〜図8に示した各処理を含む位置姿勢推定プログラム等の記憶に利用可能である。また、補助記憶装置1503は、例えば、登録画像121、撮像画像122、登録画像特徴情報123、対象画像特徴情報124、類似度情報125、及びラベル貼付位置129等を記憶する記憶部120として利用可能である。   The auxiliary storage device 1503 is a storage device having a larger capacity than the RAM of the main storage device 1502, such as a hard disk drive (HDD) and a non-volatile memory such as a flash memory (including a solid state drive (SSD)). is there. The auxiliary storage device 1503 can be used to store various programs executed by the processor 1501 and various data. The auxiliary storage device 1503 can be used for storing, for example, a position / orientation estimation program including the processes shown in FIGS. Further, the auxiliary storage device 1503 can be used as the storage unit 120 that stores, for example, the registered image 121, the captured image 122, the registered image feature information 123, the target image feature information 124, the similarity information 125, the label pasting position 129, and the like. It is.

入力装置1504は、例えば、キーボード装置やタッチパネル装置等である。コンピュータ15のオペレータ(利用者)が入力装置1504に対して所定の操作を行うと、入力装置1504は、その操作内容に対応付けられている入力情報をプロセッサ1501に送信する。入力装置1504は、例えば、対象物の位置姿勢を推定する処理を開始させる命令、コンピュータ15が実行可能な他の処理に関する命令等の入力や、各種設定値の入力等に利用可能である。   The input device 1504 is, for example, a keyboard device or a touch panel device. When an operator (user) of the computer 15 performs a predetermined operation on the input device 1504, the input device 1504 transmits input information associated with the operation content to the processor 1501. The input device 1504 can be used, for example, for inputting a command for starting a process for estimating the position and orientation of an object, a command related to other processes that can be executed by the computer 15, and for inputting various setting values.

出力装置1505は、例えば、液晶表示装置等の装置、スピーカ等の音声再生装置、及び対象物5に画像を投影するプロジェクタ3を含む。   The output device 1505 includes, for example, a device such as a liquid crystal display device, a sound reproduction device such as a speaker, and the projector 3 that projects an image on the object 5.

入出力インタフェース1506は、コンピュータ15と、他の電子機器とを接続する。入出力インタフェース1506は、例えば、Universal Serial Bus(USB)規格のコネクタ等を備える。入出力インタフェース1506は、例えば、コンピュータ15と、対象物5を撮像する撮像装置2との接続に利用可能である。   The input / output interface 1506 connects the computer 15 and other electronic devices. The input / output interface 1506 includes, for example, a universal serial bus (USB) standard connector. The input / output interface 1506 can be used, for example, for connection between the computer 15 and the imaging device 2 that images the object 5.

通信制御装置1507は、コンピュータ15をインターネット等のネットワークに接続し、ネットワークを介したコンピュータ15と他の電子機器との各種通信を制御する装置である。通信制御装置1507は、例えば、コンピュータ15と、遠隔地から作業ライン10における作業状況を監視する監視システムとの通信に利用可能である。また、コンピュータ15が作業ライン10の設置箇所とは異なる管理施設等に設置されている場合には、通信制御装置1507は、作業ライン10の設置箇所に設置された撮像装置2及びプロジェクタ3と、コンピュータ15との通信に利用可能である。   The communication control device 1507 is a device that connects the computer 15 to a network such as the Internet and controls various communications between the computer 15 and other electronic devices via the network. The communication control device 1507 can be used, for example, for communication between the computer 15 and a monitoring system that monitors the work status in the work line 10 from a remote location. When the computer 15 is installed in a management facility or the like different from the installation location of the work line 10, the communication control device 1507 includes the imaging device 2 and the projector 3 installed at the installation location of the work line 10, It can be used for communication with the computer 15.

媒体駆動装置1508は、可搬型記憶媒体16に記録されているプログラムやデータの読み出し、補助記憶装置1503に記憶されたデータ等の可搬型記憶媒体16への書き込みを行う。媒体駆動装置1508には、例えば、1種類又は複数種類の規格に対応したメモリカード用リーダ/ライタが利用可能である。媒体駆動装置1508としてメモリカード用リーダ/ライタを用いる場合、可搬型記憶媒体16としては、メモリカード用リーダ/ライタが対応している規格、例えば、Secure Digital(SD)規格のメモリカード(フラッシュメモリ)等を利用可能である。また、可搬型記録媒体16としては、例えば、USB規格のコネクタを備えたフラッシュメモリが利用可能である。更に、コンピュータ15が媒体駆動装置1508として利用可能な光ディスクドライブを搭載している場合、当該光ディスクドライブで認識可能な各種の光ディスクを可搬型記録媒体16として利用可能である。可搬型記録媒体16として利用可能な光ディスクには、例えば、Compact Disc(CD)、Digital Versatile Disc(DVD)、Blu-ray Disc(Blu-rayは登録商標)等がある。可搬型記録媒体16は、例えば、図4〜図8に示した処理を含む位置姿勢推定プログラム等の記憶に利用可能である。また、可搬型記録媒体16は、例えば、登録画像121、撮像画像122、登録画像特徴情報123、対象画像特徴情報124、類似度情報125、及びラベル貼付位置129等を記憶する記憶部120として利用可能である。   The medium driving device 1508 reads programs and data recorded in the portable storage medium 16 and writes data stored in the auxiliary storage device 1503 to the portable storage medium 16. For the medium driving device 1508, for example, a memory card reader / writer corresponding to one type or a plurality of types of standards can be used. When a memory card reader / writer is used as the medium driving device 1508, the portable storage medium 16 is a memory card (flash memory) conforming to a standard supported by the memory card reader / writer, for example, Secure Digital (SD) standard. ) Etc. can be used. As the portable recording medium 16, for example, a flash memory provided with a USB standard connector can be used. Further, when the computer 15 is equipped with an optical disk drive that can be used as the medium driving device 1508, various optical disks that can be recognized by the optical disk drive can be used as the portable recording medium 16. Examples of the optical disc that can be used as the portable recording medium 16 include a Compact Disc (CD), a Digital Versatile Disc (DVD), and a Blu-ray Disc (Blu-ray is a registered trademark). The portable recording medium 16 can be used for storing, for example, a position / orientation estimation program including the processes shown in FIGS. Further, the portable recording medium 16 is used as the storage unit 120 that stores, for example, the registered image 121, the captured image 122, the registered image feature information 123, the target image feature information 124, the similarity information 125, the label pasting position 129, and the like. Is possible.

オペレータが入力装置1504等を利用して対象物の位置姿勢の推定処理を開始する命令をコンピュータ15に入力すると、プロセッサ1501が、補助記憶装置1503等の非一時的な記録媒体に記憶させた位置姿勢推定プログラムを読み出して実行する。この処理において、プロセッサ1501は、図2や図27の位置姿勢推定装置1における位置姿勢推定部110、及び投影画像生成部130として機能する(動作する)。また、主記憶装置1502のRAMや補助記憶装置1503等は、図2や図27の位置姿勢推定装置1における記憶部120として機能する。   When the operator inputs an instruction to start the position / orientation estimation process of the object to the computer 15 using the input device 1504 or the like, the position stored by the processor 1501 in a non-temporary recording medium such as the auxiliary storage device 1503 or the like. Read and execute the posture estimation program. In this process, the processor 1501 functions (operates) as the position / orientation estimation unit 110 and the projection image generation unit 130 in the position / orientation estimation apparatus 1 of FIGS. The RAM of the main storage device 1502, the auxiliary storage device 1503, and the like function as the storage unit 120 in the position / orientation estimation device 1 of FIGS.

なお、位置姿勢推定装置1として動作させるコンピュータ15は、図30に示した全ての要素1501〜1508を含む必要はなく、用途や条件に応じて一部の要素を省略することも可能である。例えば、コンピュータ15は、通信制御装置1507や媒体駆動装置1508が省略されたものであってもよい。   Note that the computer 15 operated as the position / orientation estimation apparatus 1 does not need to include all the elements 1501 to 1508 illustrated in FIG. 30, and some elements may be omitted depending on applications and conditions. For example, the computer 15 may be one in which the communication control device 1507 and the medium driving device 1508 are omitted.

以上記載した各実施形態に関し、更に以下の付記を開示する。
(付記1)
位置姿勢の推定対象である対象物が写っている対象画像と、前記対象物が所定の位置姿勢で写っている登録画像とから特徴点を検出する検出部と、
前記対象画像から検出した複数の前記特徴点のなかから前記対象物の特徴を示す特徴点を選出するとともに、前記対象画像における選出した前記特徴点の周囲の特徴を示す局所特徴情報と、前記登録画像における複数の前記特徴点の周囲の特徴を示す局所特徴情報とを抽出する第1の抽出部と、
前記対象画像及び前記登録画像のそれぞれに、複数の前記特徴点を含む大域領域を設定する大域領域設定部と、
前記対象画像の前記特徴点と前記大域領域とに基づいて前記対象画像における大域特徴情報を抽出するとともに、前記登録画像の前記特徴点と前記大域領域とに基づいて前記登録画像における大域特徴情報を抽出する第2の抽出部と、
前記対象画像の前記特徴点と前記登録画像の前記特徴点とによる特徴点対における、前記局所特徴情報の類似度と、前記大域特徴情報の類似度とに基づいて、前記対象画像の前記特徴点と前記登録画像の前記特徴点との対応関係を示す特徴点対群を特定する特定部と、
特定した前記特徴点対群に基づいて、前記対象画像に写っている前記対象物の位置姿勢を算出する算出部と、
を備えることを特徴とする位置姿勢推定装置。
(付記2)
前記大域領域設定部は、前記対象画像における複数の前記特徴点を含む最小外接多角形を前記対象画像の前記大域領域に決定し、前記登録画像における複数の前記特徴点を含む最小外接多角形を前記登録画像の前記大域領域に決定する、
ことを特徴とする付記1に記載の位置姿勢推定装置。
(付記3)
前記第2の抽出部は、前記大域領域の形状に基づいて基点を設定し、前記対象画像における前記特徴点から前記基点までの距離と、前記登録画像における前記特徴点から前記基点までの距離とを前記大域特徴情報として抽出する、
ことを特徴とする付記2に記載の位置姿勢推定装置。
(付記4)
前記第2の抽出部は、前記大域領域の重心を前記基点に設定する、
ことを特徴とする付記3に記載の位置姿勢推定装置。
(付記5)
前記大域領域設定部は、前記対象画像における複数の前記特徴点を含む三角形領域を前記対象画像の前記大域領域に決定し、前記登録画像における複数の前記特徴点を含む三角形領域を前記登録画像の前記大域領域に決定し、
前記第2の抽出部は、前記大域領域の重心、内心、外心、垂心、及び傍心のいずれかを基点とし、前記対象画像における前記特徴点から前記基点までの距離と、前記登録画像における前記特徴点から前記基点までの距離とを前記大域特徴情報として抽出する、
ことを特徴とする付記1に記載の位置姿勢推定装置。
(付記6)
前記大域領域設定部は、前記対象画像における前記対象物の輪郭で囲まれた領域を前記対象画像の前記大域領域に決定し、前記登録画像における前記対象物の輪郭で囲まれた領域を前記登録画像の大域領域に決定する、
ことを特徴とする付記1に記載の位置姿勢推定装置。
(付記7)
前記大域領域設定部は、前記対象画像及び前記登録画像に、多角形の前記大域領域を設定し、
前記第2の抽出部は、前記対象画像における前記特徴点から前記大域領域の頂点までの距離と、前記登録画像における前記特徴点から前記大域領域の頂点までの距離とを前記第2の特徴情報として抽出する、
ことを特徴とする付記1に記載の位置姿勢推定装置。
(付記8)
前記大域領域設定部は、前記対象画像及び前記登録画像のそれぞれに、多角形の前記大域領域を設定し、
前記第2の抽出部は、前記対象画像における前記特徴点から前記大域領域の辺に下ろした垂線の長さと、前記登録画像における前記特徴点から前記大域領域の辺に下ろした垂線の長さとを前記第2の特徴情報として抽出する、
ことを特徴とする付記1に記載の位置姿勢推定装置。
(付記9)
前記特定部は、前記対象画像の複数の前記特徴点のそれぞれに、前記登録画像の前記特徴点を1対1で対応付けた前記特徴点対の集合を複数通り生成し、当該複数通りの前記特徴点対の集合のそれぞれで、前記特徴点対の集合に含まれる前記特徴点対における前記局所特徴情報の類似度と、前記大域特徴情報の類似度とに基づいて特徴点類似度を算出し、算出した前記特徴点類似度が最大となる前記特徴点対の集合を前記特徴点対群に特定する、
ことを特徴とする付記1に記載の位置姿勢推定装置。
(付記10)
前記特定部は、前記対象画像の前記特徴点と前記登録画像の特徴点とによる特徴点対における前記局所特徴情報の類似度に基づいて、前記特徴点対群を特定した後、特定した前記特徴点対群に含まれる特徴点対のうちの、前記大域特徴情報の類似度が閾値よりも低い特徴点対を前記特徴点対群から除外し、
前記算出部は、前記大域特徴情報の類似度が閾値よりも低い特徴点を除外した前記特徴点対群に基づいて、前記対象画像に写っている前記対象物の位置姿勢を算出する、
ことを特徴とする付記1に記載の位置姿勢推定装置。
(付記11)
前記第1の抽出部は、前記対象画像から検出した全ての特徴点の前記局所特徴情報を抽出し、抽出した前記局所特徴情報と、前記登録画像の前記特徴点の前記局所特徴情報との類似度が閾値よりも高い前記特徴点を、前記対象物の特徴点として選出する、
ことを特徴とする付記1に記載の位置姿勢推定装置。
(付記12)
前記対象画像を蓄積する記憶部と、
前記対象画像から前記対象物及び背景物に指定された物体とは異なる物体を検出し、前記対象画像における検出した前記物体を含む部分領域を、前記記憶部に蓄積された前記対象画像における前記部分領域と対応する部分領域と置換する画像編集部と、
を更に備えることを特徴とする付記1に記載の位置姿勢推定装置。
(付記13)
コンピュータが、
位置姿勢の推定対象である対象物が写っている対象画像と、前記対象物が所定の位置姿勢で写っている登録画像とから特徴点を検出し、
前記対象画像から検出した複数の前記特徴点のなかから前記対象物の特徴を示す特徴点を選出するとともに、前記対象画像における選出した前記特徴点の周囲の特徴を示す局所特徴情報と、前記登録画像における複数の前記特徴点の周囲の特徴を示す局所特徴情報とを抽出し、
前記対象画像及び前記登録画像のそれぞれに、複数の前記特徴点を含む大域領域を設定し、
前記対象画像の前記特徴点と前記大域領域とに基づいて前記対象画像における大域特徴情報を抽出するとともに、前記登録画像の前記特徴点と前記大域領域とに基づいて前記登録画像における大域特徴情報を抽出し、
前記対象画像の前記特徴点と前記登録画像の前記特徴点とによる特徴点対における、前記局所特徴情報の類似度と、前記大域特徴情報の類似度とに基づいて、前記対象画像の前記特徴点と前記登録画像の前記特徴点との対応関係を示す特徴点対群を特定し、
特定した前記特徴点対群に基づいて、前記対象画像に写っている前記対象物の位置姿勢を算出する、
処理を実行することを特徴とする位置姿勢推定方法。
(付記14)
位置姿勢の推定対象である対象物が写っている対象画像と、前記対象物が所定の位置姿勢で写っている登録画像とから特徴点を検出し、
前記対象画像から検出した複数の前記特徴点のなかから前記対象物の特徴を示す特徴点を選出するとともに、前記対象画像における選出した前記特徴点の周囲の特徴を示す局所特徴情報と、前記登録画像における複数の前記特徴点の周囲の特徴を示す局所特徴情報とを抽出し、
前記対象画像及び前記登録画像のそれぞれに、複数の前記特徴点を含む大域領域を設定し、
前記対象画像の前記特徴点と前記大域領域とに基づいて前記対象画像における大域特徴情報を抽出するとともに、前記登録画像の前記特徴点と前記大域領域とに基づいて前記登録画像における大域特徴情報を抽出し、
前記対象画像の前記特徴点と前記登録画像の前記特徴点とによる特徴点対における、前記局所特徴情報の類似度と、前記大域特徴情報の類似度とに基づいて、前記対象画像の前記特徴点と前記登録画像の前記特徴点との対応関係を示す特徴点対群を特定し、
特定した前記特徴点対群に基づいて、前記対象画像に写っている前記対象物の位置姿勢を算出する、
処理をコンピュータに実行させる位置姿勢推定プログラム。
The following additional notes are disclosed for each of the embodiments described above.
(Appendix 1)
A detection unit that detects a feature point from a target image in which a target object that is an estimation target of a position and orientation is captured, and a registered image in which the target object is captured in a predetermined position and orientation;
The feature point indicating the feature of the target object is selected from among the plurality of feature points detected from the target image, and the local feature information indicating the features around the selected feature point in the target image, and the registration A first extraction unit for extracting local feature information indicating features around the plurality of feature points in the image;
A global region setting unit for setting a global region including a plurality of the feature points in each of the target image and the registered image;
The global feature information in the target image is extracted based on the feature point of the target image and the global region, and the global feature information in the registered image is extracted based on the feature point of the registered image and the global region. A second extraction unit for extracting;
The feature point of the target image based on the similarity of the local feature information and the similarity of the global feature information in a feature point pair of the feature point of the target image and the feature point of the registered image And a specifying unit for specifying a feature point pair group indicating a correspondence relationship between the registered image and the feature point of the registered image;
A calculation unit that calculates a position and orientation of the object in the target image based on the identified feature point pair group;
A position / orientation estimation apparatus comprising:
(Appendix 2)
The global region setting unit determines a minimum circumscribed polygon including the plurality of feature points in the target image as the global region of the target image, and determines a minimum circumscribed polygon including the plurality of feature points in the registered image. Determining the global area of the registered image;
The position and orientation estimation apparatus according to Supplementary Note 1, wherein
(Appendix 3)
The second extraction unit sets a base point based on the shape of the global region, and a distance from the feature point to the base point in the target image, and a distance from the feature point to the base point in the registered image Is extracted as the global feature information,
The position and orientation estimation apparatus according to Supplementary Note 2, wherein
(Appendix 4)
The second extraction unit sets a center of gravity of the global region as the base point;
The position and orientation estimation apparatus according to Supplementary Note 3, wherein
(Appendix 5)
The global region setting unit determines a triangular region including a plurality of the feature points in the target image as the global region of the target image, and sets a triangular region including the plurality of feature points in the registered image to the registered image. Determine the global area,
The second extraction unit is based on any one of the center of gravity, inner center, outer center, vertical center, and side center of the global region, the distance from the feature point to the base point in the target image, and the registered image A distance from the feature point to the base point is extracted as the global feature information;
The position and orientation estimation apparatus according to Supplementary Note 1, wherein
(Appendix 6)
The global area setting unit determines an area surrounded by the outline of the target object in the target image as the global area of the target image, and registers the area surrounded by the outline of the target object in the registered image. To determine the global region of the image,
The position and orientation estimation apparatus according to Supplementary Note 1, wherein
(Appendix 7)
The global area setting unit sets the polygonal global area in the target image and the registered image,
The second extraction unit is configured to determine a distance from the feature point to the vertex of the global area in the target image and a distance from the feature point to the vertex of the global area in the registered image. Extract as,
The position and orientation estimation apparatus according to Supplementary Note 1, wherein
(Appendix 8)
The global area setting unit sets the polygonal global area in each of the target image and the registered image,
The second extraction unit includes: a length of a perpendicular drawn from the feature point in the target image to a side of the global region; and a length of a perpendicular drawn from the feature point in the registered image to the side of the global region. Extracting as the second feature information;
The position and orientation estimation apparatus according to Supplementary Note 1, wherein
(Appendix 9)
The specifying unit generates a plurality of sets of feature point pairs in which the feature points of the registered image are associated with the feature points of the target image on a one-to-one basis, For each set of feature points, a feature point similarity is calculated based on the similarity of the local feature information in the feature point pair included in the set of feature points and the similarity of the global feature information. A set of the feature point pairs that maximizes the calculated feature point similarity is specified as the feature point pair group;
The position and orientation estimation apparatus according to Supplementary Note 1, wherein
(Appendix 10)
The specifying unit specifies the feature point pair after specifying the feature point pair group based on the similarity of the local feature information in the feature point pair by the feature point of the target image and the feature point of the registered image. Of the feature point pairs included in the point pair group, the feature point pair whose similarity of the global feature information is lower than a threshold is excluded from the feature point pair group,
The calculation unit calculates the position and orientation of the object shown in the target image based on the feature point pair group excluding feature points whose similarity of the global feature information is lower than a threshold value.
The position and orientation estimation apparatus according to Supplementary Note 1, wherein
(Appendix 11)
The first extraction unit extracts the local feature information of all feature points detected from the target image, and similarity between the extracted local feature information and the local feature information of the feature points of the registered image Selecting the feature point whose degree is higher than a threshold as the feature point of the object;
The position and orientation estimation apparatus according to Supplementary Note 1, wherein
(Appendix 12)
A storage unit for storing the target image;
An object different from the object specified as the object and the background object is detected from the target image, and a partial region including the detected object in the target image is stored in the target image stored in the storage unit. An image editing section that replaces a partial area corresponding to the area;
The position and orientation estimation apparatus according to appendix 1, further comprising:
(Appendix 13)
Computer
A feature point is detected from a target image in which a target object whose position and orientation are to be estimated is recorded and a registered image in which the target object is captured in a predetermined position and orientation;
The feature point indicating the feature of the target object is selected from among the plurality of feature points detected from the target image, and the local feature information indicating the features around the selected feature point in the target image, and the registration Extracting local feature information indicating features around the plurality of feature points in the image;
A global region including a plurality of the feature points is set for each of the target image and the registered image,
The global feature information in the target image is extracted based on the feature point of the target image and the global region, and the global feature information in the registered image is extracted based on the feature point of the registered image and the global region. Extract and
The feature point of the target image based on the similarity of the local feature information and the similarity of the global feature information in a feature point pair of the feature point of the target image and the feature point of the registered image And a feature point pair group indicating a correspondence relationship between the registered image and the feature point of the registered image,
Based on the specified feature point pair group, the position and orientation of the object shown in the target image is calculated.
A position and orientation estimation method characterized by executing processing.
(Appendix 14)
A feature point is detected from a target image in which a target object whose position and orientation are to be estimated is recorded and a registered image in which the target object is captured in a predetermined position and orientation;
The feature point indicating the feature of the target object is selected from among the plurality of feature points detected from the target image, and the local feature information indicating the features around the selected feature point in the target image, and the registration Extracting local feature information indicating features around the plurality of feature points in the image;
A global region including a plurality of the feature points is set for each of the target image and the registered image,
The global feature information in the target image is extracted based on the feature point of the target image and the global region, and the global feature information in the registered image is extracted based on the feature point of the registered image and the global region. Extract and
The feature point of the target image based on the similarity of the local feature information and the similarity of the global feature information in a feature point pair of the feature point of the target image and the feature point of the registered image And a feature point pair group indicating a correspondence relationship between the registered image and the feature point of the registered image,
Based on the specified feature point pair group, the position and orientation of the object shown in the target image is calculated.
A position and orientation estimation program for causing a computer to execute processing.

1 位置姿勢推定装置
110 位置姿勢推定部
111 画像取得部
112 特徴点検出部
113 局所特徴情報抽出部
114 大域領域決定部
115 特徴点対群抽出部
115A 大域特徴情報抽出部
115B 集合生成部
115C 局所特徴情報比較部
115D 大域特徴情報比較部
115F 類似度算出部
115G 算出処理制御部
115F 特徴点対群決定部
116 位置姿勢算出部
117 画像編集部
120 記憶部
121 登録画像
122 対象画像
123 登録画像特徴情報
124 対象画像特徴情報
125 類似度情報
129 ラベル貼付位置
130 投影画像生成部
2 撮像装置
3 プロジェクタ
4 ベルトコンベア
401 搬送ベルト
410 撮像領域
5,5A,5B,5U 対象物
6 投影画像
7 ラベル
8 作業員
801,802 腕部
10 作業ライン
15 コンピュータ
1501 プロセッサ
1502 主記憶装置
1503 補助記憶装置
1504 入力装置
1505 出力装置
1506 入出力インタフェース
1507 通信制御装置
1508 媒体駆動装置
16 可搬型記録媒体
DESCRIPTION OF SYMBOLS 1 Position and orientation estimation apparatus 110 Position and orientation estimation part 111 Image acquisition part 112 Feature point detection part 113 Local feature information extraction part 114 Global area determination part 115 Feature point pair group extraction part 115A Global feature information extraction part 115B Set generation part 115C Local feature Information comparison unit 115D Global feature information comparison unit 115F Similarity calculation unit 115G Calculation processing control unit 115F Feature point pair group determination unit 116 Position and orientation calculation unit 117 Image editing unit 120 Storage unit 121 Registered image 122 Target image 123 Registered image feature information 124 Target image feature information 125 Similarity information 129 Label application position 130 Projected image generation unit 2 Imaging device 3 Projector 4 Belt conveyor 401 Conveying belt 410 Imaging regions 5, 5A, 5B, 5U Object 6 Projected image 7 Label 8 Worker 801 802 Arm 10 Work line 15 Compu Data 1501 processor 1502 processor storage 1503 auxiliary memory 1504 input device 1505 output devices 1506 output interface 1507 communication controller 1508 medium drive device 16 portable recording medium

Claims (13)

位置姿勢の推定対象である対象物が写っている対象画像と、前記対象物が所定の位置姿勢で写っている登録画像とから特徴点を検出する検出部と、
前記対象画像から検出した複数の前記特徴点のなかから前記対象物の特徴を示す特徴点を選出するとともに、前記対象画像における選出した前記特徴点の周囲の特徴を示す局所特徴情報と、前記登録画像における複数の前記特徴点の周囲の特徴を示す局所特徴情報とを抽出する第1の抽出部と、
前記対象画像及び前記登録画像のそれぞれに、複数の前記特徴点を含む大域領域を設定する大域領域設定部、
前記対象画像の前記特徴点と前記大域領域とに基づいて前記対象画像における大域特徴情報を抽出するとともに、前記登録画像の前記特徴点と前記大域領域とに基づいて前記登録画像における大域特徴情報を抽出する第2の抽出部と、
前記対象画像の前記特徴点と前記登録画像の前記特徴点とによる特徴点対における、前記局所特徴情報の類似度と、前記大域特徴情報の類似度とに基づいて、前記対象画像の前記特徴点と前記登録画像の前記特徴点との対応関係を示す特徴点対群を特定する特定部と、
特定した前記特徴点対群に基づいて、前記対象画像に写っている前記対象物の位置姿勢を算出する算出部と、
を備えることを特徴とする位置姿勢推定装置。
A detection unit that detects a feature point from a target image in which a target object that is an estimation target of a position and orientation is captured, and a registered image in which the target object is captured in a predetermined position and orientation;
The feature point indicating the feature of the target object is selected from among the plurality of feature points detected from the target image, and the local feature information indicating the features around the selected feature point in the target image, and the registration A first extraction unit for extracting local feature information indicating features around the plurality of feature points in the image;
A global region setting unit for setting a global region including a plurality of the feature points in each of the target image and the registered image;
The global feature information in the target image is extracted based on the feature point of the target image and the global region, and the global feature information in the registered image is extracted based on the feature point of the registered image and the global region. A second extraction unit for extracting;
The feature point of the target image based on the similarity of the local feature information and the similarity of the global feature information in a feature point pair of the feature point of the target image and the feature point of the registered image And a specifying unit for specifying a feature point pair group indicating a correspondence relationship between the registered image and the feature point of the registered image;
A calculation unit that calculates a position and orientation of the object in the target image based on the identified feature point pair group;
A position / orientation estimation apparatus comprising:
前記大域領域設定部は、前記対象画像における複数の前記特徴点を含む最小外接多角形を前記対象画像の前記大域領域に決定し、前記登録画像における複数の前記特徴点を含む最小外接多角形を前記登録画像の前記大域領域に決定する、
ことを特徴とする請求項1に記載の位置姿勢推定装置。
The global region setting unit determines a minimum circumscribed polygon including the plurality of feature points in the target image as the global region of the target image, and determines a minimum circumscribed polygon including the plurality of feature points in the registered image. Determining the global area of the registered image;
The position and orientation estimation apparatus according to claim 1.
前記第2の抽出部は、前記大域領域の形状に基づいて基点を設定し、前記対象画像における前記特徴点から前記基点までの距離と、前記登録画像における前記特徴点から前記基点までの距離とを前記大域特徴情報として抽出する、
ことを特徴とする請求項2に記載の位置姿勢推定装置。
The second extraction unit sets a base point based on the shape of the global region, and a distance from the feature point to the base point in the target image, and a distance from the feature point to the base point in the registered image Is extracted as the global feature information,
The position and orientation estimation apparatus according to claim 2.
前記第2の抽出部は、前記大域領域の重心を前記基点に設定する、
ことを特徴とする請求項3に記載の位置姿勢推定装置。
The second extraction unit sets a center of gravity of the global region as the base point;
The position and orientation estimation apparatus according to claim 3.
前記大域領域設定部は、前記対象画像における前記対象物の輪郭で囲まれた領域を前記対象画像の前記大域領域に決定し、前記登録画像における前記対象物の輪郭で囲まれた領域を前記登録画像の大域領域に決定する、
ことを特徴とする請求項1に記載の位置姿勢推定装置。
The global area setting unit determines an area surrounded by the outline of the target object in the target image as the global area of the target image, and registers the area surrounded by the outline of the target object in the registered image. To determine the global region of the image,
The position and orientation estimation apparatus according to claim 1.
前記大域領域設定部は、前記対象画像及び前記登録画像に、多角形の前記大域領域を設定し、
前記第2の抽出部は、前記対象画像における前記特徴点から前記大域領域の頂点までの距離と、前記登録画像における前記特徴点から前記大域領域の頂点までの距離とを前記第2の特徴情報として抽出する、
ことを特徴とする請求項1に記載の位置姿勢推定装置。
The global area setting unit sets the polygonal global area in the target image and the registered image,
The second extraction unit is configured to determine a distance from the feature point to the vertex of the global area in the target image and a distance from the feature point to the vertex of the global area in the registered image. Extract as,
The position and orientation estimation apparatus according to claim 1.
前記大域領域設定部は、前記対象画像及び前記登録画像のそれぞれに、多角形の前記大域領域を設定し、
前記第2の抽出部は、前記対象画像における前記特徴点から前記大域領域の辺に下ろした垂線の長さと、前記登録画像における前記特徴点から前記大域領域の辺に下ろした垂線の長さとを前記第2の特徴情報として抽出する、
ことを特徴とする請求項1に記載の位置姿勢推定装置。
The global area setting unit sets the polygonal global area in each of the target image and the registered image,
The second extraction unit includes: a length of a perpendicular drawn from the feature point in the target image to a side of the global region; and a length of a perpendicular drawn from the feature point in the registered image to the side of the global region. Extracting as the second feature information;
The position and orientation estimation apparatus according to claim 1.
前記特定部は、前記対象画像の複数の前記特徴点のそれぞれに、前記登録画像の前記特徴点を1対1で対応付けた前記特徴点対の集合を複数通り生成し、当該複数通りの前記特徴点対の集合のそれぞれで、前記特徴点対の集合に含まれる前記特徴点対における前記局所特徴情報の類似度と、前記大域特徴情報の類似度とに基づいて特徴点類似度を算出し、算出した前記特徴点類似度が最大となる前記特徴点対の集合を前記特徴点対群に特定する、
ことを特徴とする請求項1に記載の位置姿勢推定装置。
The specifying unit generates a plurality of sets of feature point pairs in which the feature points of the registered image are associated with the feature points of the target image on a one-to-one basis, For each set of feature points, a feature point similarity is calculated based on the similarity of the local feature information in the feature point pair included in the set of feature points and the similarity of the global feature information. A set of the feature point pairs that maximizes the calculated feature point similarity is specified as the feature point pair group;
The position and orientation estimation apparatus according to claim 1.
前記特定部は、前記対象画像の前記特徴点と前記登録画像の特徴点とによる特徴点対における前記局所特徴情報の類似度に基づいて、前記特徴点対群を特定した後、特定した前記特徴点対群に含まれる特徴点対のうちの、前記大域特徴情報の類似度が閾値よりも低い特徴点対を前記特徴点対群から除外し、
前記算出部は、前記大域特徴情報の類似度が閾値よりも低い特徴点を除外した前記特徴点対群に基づいて、前記対象画像に写っている前記対象物の位置姿勢を算出する、
ことを特徴とする請求項1に記載の位置姿勢推定装置。
The specifying unit specifies the feature point pair after specifying the feature point pair group based on the similarity of the local feature information in the feature point pair by the feature point of the target image and the feature point of the registered image. Of the feature point pairs included in the point pair group, the feature point pair whose similarity of the global feature information is lower than a threshold is excluded from the feature point pair group,
The calculation unit calculates the position and orientation of the object shown in the target image based on the feature point pair group excluding feature points whose similarity of the global feature information is lower than a threshold value.
The position and orientation estimation apparatus according to claim 1.
前記第1の抽出部は、前記対象画像から検出した全ての特徴点の前記局所特徴情報を抽出し、抽出した前記局所特徴情報と、前記登録画像の前記特徴点の前記局所特徴情報との類似度が閾値よりも高い前記特徴点を、前記対象物の特徴点として選出する、
ことを特徴とする請求項1に記載の位置姿勢推定装置。
The first extraction unit extracts the local feature information of all feature points detected from the target image, and similarity between the extracted local feature information and the local feature information of the feature points of the registered image Selecting the feature point whose degree is higher than a threshold as the feature point of the object;
The position and orientation estimation apparatus according to claim 1.
前記対象画像を蓄積する記憶部と、
前記対象画像から前記対象物及び背景物に指定された物体とは異なる物体を検出し、前記対象画像における検出した前記物体を含む部分領域を、前記記憶部に蓄積された前記対象画像における前記部分領域と対応する部分領域と置換する画像編集部と、
を更に備えることを特徴とする請求項1に記載の位置姿勢推定装置。
A storage unit for storing the target image;
An object different from the object specified as the object and the background object is detected from the target image, and a partial region including the detected object in the target image is stored in the target image stored in the storage unit. An image editing section that replaces a partial area corresponding to the area;
The position / orientation estimation apparatus according to claim 1, further comprising:
コンピュータが、
位置姿勢の推定対象である対象物が写っている対象画像と、前記対象物が所定の位置姿勢で写っている登録画像とから特徴点を検出し、
前記対象画像から検出した複数の前記特徴点のなかから前記対象物の特徴を示す特徴点を選出するとともに、前記対象画像における選出した前記特徴点の周囲の特徴を示す局所特徴情報と、前記登録画像における複数の前記特徴点の周囲の特徴を示す局所特徴情報とを抽出し、
前記対象画像及び前記登録画像のそれぞれに、複数の前記特徴点を含む大域領域を設定し、
前記対象画像の前記特徴点と前記大域領域とに基づいて前記対象画像における大域特徴情報を抽出するとともに、前記登録画像の前記特徴点と前記大域領域とに基づいて前記登録画像における大域特徴情報を抽出し、
前記対象画像の前記特徴点と前記登録画像の前記特徴点とによる特徴点対における、前記局所特徴情報の類似度と、前記大域特徴情報の類似度とに基づいて、前記対象画像の前記特徴点と前記登録画像の前記特徴点との対応関係を示す特徴点対群を特定し、
特定した前記特徴点対群に基づいて、前記対象画像に写っている前記対象物の位置姿勢を算出する、
処理を実行することを特徴とする位置姿勢推定方法。
Computer
A feature point is detected from a target image in which a target object whose position and orientation are to be estimated is recorded and a registered image in which the target object is captured in a predetermined position and orientation;
The feature point indicating the feature of the target object is selected from among the plurality of feature points detected from the target image, and the local feature information indicating the features around the selected feature point in the target image, and the registration Extracting local feature information indicating features around the plurality of feature points in the image;
A global region including a plurality of the feature points is set for each of the target image and the registered image,
The global feature information in the target image is extracted based on the feature point of the target image and the global region, and the global feature information in the registered image is extracted based on the feature point of the registered image and the global region. Extract and
The feature point of the target image based on the similarity of the local feature information and the similarity of the global feature information in a feature point pair of the feature point of the target image and the feature point of the registered image And a feature point pair group indicating a correspondence relationship between the registered image and the feature point of the registered image,
Based on the specified feature point pair group, the position and orientation of the object shown in the target image is calculated.
A position and orientation estimation method characterized by executing processing.
位置姿勢の推定対象である対象物が写っている対象画像と、前記対象物が所定の位置姿勢で写っている登録画像とから特徴点を検出し、
前記対象画像から検出した複数の前記特徴点のなかから前記対象物の特徴を示す特徴点を選出するとともに、前記対象画像における選出した前記特徴点の周囲の特徴を示す局所特徴情報と、前記登録画像における複数の前記特徴点の周囲の特徴を示す局所特徴情報とを抽出し、
前記対象画像及び前記登録画像のそれぞれに、複数の前記特徴点を含む大域領域を設定し、
前記対象画像の前記特徴点と前記大域領域とに基づいて前記対象画像における大域特徴情報を抽出するとともに、前記登録画像の前記特徴点と前記大域領域とに基づいて前記登録画像における大域特徴情報を抽出し、
前記対象画像の前記特徴点と前記登録画像の前記特徴点とによる特徴点対における、前記局所特徴情報の類似度と、前記大域特徴情報の類似度とに基づいて、前記対象画像の前記特徴点と前記登録画像の前記特徴点との対応関係を示す特徴点対群を特定し、
特定した前記特徴点対群に基づいて、前記対象画像に写っている前記対象物の位置姿勢を算出する、
処理をコンピュータに実行させる位置姿勢推定プログラム。
A feature point is detected from a target image in which a target object whose position and orientation are to be estimated is recorded and a registered image in which the target object is captured in a predetermined position and orientation;
The feature point indicating the feature of the target object is selected from among the plurality of feature points detected from the target image, and the local feature information indicating the features around the selected feature point in the target image, and the registration Extracting local feature information indicating features around the plurality of feature points in the image;
A global region including a plurality of the feature points is set for each of the target image and the registered image,
The global feature information in the target image is extracted based on the feature point of the target image and the global region, and the global feature information in the registered image is extracted based on the feature point of the registered image and the global region. Extract and
The feature point of the target image based on the similarity of the local feature information and the similarity of the global feature information in a feature point pair of the feature point of the target image and the feature point of the registered image And a feature point pair group indicating a correspondence relationship between the registered image and the feature point of the registered image,
Based on the specified feature point pair group, the position and orientation of the object shown in the target image is calculated.
A position and orientation estimation program for causing a computer to execute processing.
JP2016168026A 2016-08-30 2016-08-30 Position attitude estimation device, position attitude estimation method, and position attitude estimation program Pending JP2018036770A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016168026A JP2018036770A (en) 2016-08-30 2016-08-30 Position attitude estimation device, position attitude estimation method, and position attitude estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016168026A JP2018036770A (en) 2016-08-30 2016-08-30 Position attitude estimation device, position attitude estimation method, and position attitude estimation program

Publications (1)

Publication Number Publication Date
JP2018036770A true JP2018036770A (en) 2018-03-08

Family

ID=61567564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016168026A Pending JP2018036770A (en) 2016-08-30 2016-08-30 Position attitude estimation device, position attitude estimation method, and position attitude estimation program

Country Status (1)

Country Link
JP (1) JP2018036770A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019197316A (en) * 2018-05-08 2019-11-14 東芝テック株式会社 Article recognition device
CN111161355A (en) * 2019-12-11 2020-05-15 上海交通大学 Pure pose resolving method and system for multi-view camera pose and scene
JPWO2020044510A1 (en) * 2018-08-30 2021-08-26 株式会社オプティム Computer systems, object detection methods and programs
JP2022106808A (en) * 2018-05-08 2022-07-20 東芝テック株式会社 Article recognition device
CN117115783A (en) * 2023-09-06 2023-11-24 江苏泰坦智慧科技有限公司 Assembly line work behavior recognition method based on machine vision

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019197316A (en) * 2018-05-08 2019-11-14 東芝テック株式会社 Article recognition device
JP7062507B2 (en) 2018-05-08 2022-05-16 東芝テック株式会社 Article recognition device
JP2022106808A (en) * 2018-05-08 2022-07-20 東芝テック株式会社 Article recognition device
JP7274644B2 (en) 2018-05-08 2023-05-16 東芝テック株式会社 Article recognition device
JPWO2020044510A1 (en) * 2018-08-30 2021-08-26 株式会社オプティム Computer systems, object detection methods and programs
CN111161355A (en) * 2019-12-11 2020-05-15 上海交通大学 Pure pose resolving method and system for multi-view camera pose and scene
CN111161355B (en) * 2019-12-11 2023-05-09 上海交通大学 Multi-view camera pose and scene pure pose resolving method and system
CN117115783A (en) * 2023-09-06 2023-11-24 江苏泰坦智慧科技有限公司 Assembly line work behavior recognition method based on machine vision
CN117115783B (en) * 2023-09-06 2024-03-26 江苏泰坦智慧科技有限公司 Assembly line work behavior recognition method based on machine vision

Similar Documents

Publication Publication Date Title
Romero-Ramirez et al. Speeded up detection of squared fiducial markers
JP6216508B2 (en) Method for recognition and pose determination of 3D objects in 3D scenes
US9044858B2 (en) Target object gripping apparatus, method for controlling the same and storage medium
JP2018036770A (en) Position attitude estimation device, position attitude estimation method, and position attitude estimation program
JP5671281B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
US20150098645A1 (en) Method, apparatus and system for selecting a frame
JP2015147256A (en) Robot, robot system, control device, and control method
JP2012526335A (en) Object recognition method, object recognition device, autonomous mobile robot
JP2011133273A (en) Estimation apparatus and control method thereof, and program
US10713530B2 (en) Image processing apparatus, image processing method, and image processing program
WO2021036373A1 (en) Target tracking method and device, and computer readable storage medium
JP6245880B2 (en) Information processing apparatus, information processing method, and program
US9911204B2 (en) Image processing method, image processing apparatus, and recording medium
US10207409B2 (en) Image processing method, image processing device, and robot system
JP6172432B2 (en) Subject identification device, subject identification method, and subject identification program
US20200051278A1 (en) Information processing apparatus, information processing method, robot system, and non-transitory computer-readable storage medium
JP2015049776A (en) Image processor, image processing method and image processing program
JP2018055199A (en) Image processing program, image processing device, and image processing method
US10657672B2 (en) Image processing device, image processing method and storage medium
CN110288040B (en) Image similarity judging method and device based on topology verification
JP5976089B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
JP2022009474A (en) System and method for detecting lines in vision system
Fonseka et al. Feature extraction and template matching algorithms classification for PCB fiducial verification
CN109978829B (en) Detection method and system for object to be detected
JP2020181234A (en) Object information registration apparatus and object information registration method