JP2014029664A - Image comparison range generation method, positional orientation detection method, image comparison range generation device, positional orientation detection device, robot, robot system, image comparison range generation program and positional orientation detection program - Google Patents

Image comparison range generation method, positional orientation detection method, image comparison range generation device, positional orientation detection device, robot, robot system, image comparison range generation program and positional orientation detection program Download PDF

Info

Publication number
JP2014029664A
JP2014029664A JP2013030089A JP2013030089A JP2014029664A JP 2014029664 A JP2014029664 A JP 2014029664A JP 2013030089 A JP2013030089 A JP 2013030089A JP 2013030089 A JP2013030089 A JP 2013030089A JP 2014029664 A JP2014029664 A JP 2014029664A
Authority
JP
Japan
Prior art keywords
image
feature
template
model
acquisition unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2013030089A
Other languages
Japanese (ja)
Inventor
Yukihiro Yamaguchi
如洋 山口
Kazuhiro Kosuge
一弘 小菅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013030089A priority Critical patent/JP2014029664A/en
Publication of JP2014029664A publication Critical patent/JP2014029664A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve detection accuracy of positions or orientation of an object.SOLUTION: An image comparison range generation method includes: feature acquisition procedure where a feature acquisition section 331 acquires feature points of a model represented in a template image and magnitude of features of the feature points for each template image with each of a plurality of images that are images of the model representing contours of an object, and each have the model different from one another in at least any of orientation and positions as the template image; and image comparison range acquisition procedure where an image comparison range acquisition section 334 acquires an image range used for comparing a photographed image of the object and the template image on the basis of the feature points of the model and the magnitude of the features of the feature points acquired by the feature acquisition section 331 for each of the template images as an image comparison range.

Description

本発明は、比較画像範囲生成方法、位置姿勢検出方法、比較画像範囲生成装置、位置姿勢検出装置、ロボット、ロボットシステム、比較画像範囲生成プログラム及び位置姿勢検出プログラムに関する。   The present invention relates to a comparative image range generation method, a position and orientation detection method, a comparative image range generation device, a position and orientation detection device, a robot, a robot system, a comparative image range generation program, and a position and orientation detection program.

3次元物体認識を行なう方法のひとつに、モデルベーストマッチング法がある。この方法は、位置及び姿勢を検出する対象となる対象物の3次元物体モデル(以下、CADモデルともいう)をコンピューターの内部に予め蓄え、このCADモデルと対象物が撮像された画像とを比較して、その画像中から対象物を探し出し、対象物の3次元位置と姿勢を検出するものである。   One of the methods for performing three-dimensional object recognition is a model-based matching method. In this method, a three-dimensional object model (hereinafter also referred to as a CAD model) of an object whose position and orientation are to be detected is stored in advance in a computer, and the CAD model is compared with an image obtained by capturing the object. Then, the object is searched from the image, and the three-dimensional position and orientation of the object are detected.

例えば、特許文献1には、対象物の特徴データの集合と入力画像から得られた特徴データとのマッチングを取って対象物の位置姿勢を認識するモデルデータ作成方法において、対象物の姿勢の異なる数種類の特徴データを作成することが開示されている。そして、特許文献1には、これら特徴データの座標変換を行い、全ての特徴データをベースの座標に合わせてから、各特徴データから必要な部分を切り出し、切り出した全ての特徴データを重ね合わせてモデルの基データを作成することが開示されている。更に、特許文献1には、その後に、似通った近傍の特徴データを平均化処理して得たデータをモデルデータとして登録するようにしたモデルベーストマッチング法によるモデルデータ作成方法が開示されている。   For example, Patent Document 1 discloses a model data creation method for recognizing a position and orientation of an object by matching a set of feature data of the object and feature data obtained from an input image. Several types of feature data are disclosed. In Patent Document 1, coordinate conversion of these feature data is performed, and after all feature data is matched to the base coordinates, necessary portions are cut out from each feature data, and all the cut out feature data are superimposed. Creating a base data for a model is disclosed. Further, Patent Document 1 discloses a model data creation method based on a model-based matching method in which data obtained by averaging similar neighboring feature data is registered as model data.

特開平8−96133号公報JP-A-8-96133

一般的なモデルベーストマッチング法では、CADモデルが実際の対象物とは完全に一致しない為に、所望のマッチングの精度が達成できなかった。また、特許文献1では、各特徴データから必要な部分を切り出すが、その必要な部分の切り出し方によっては、所望のマッチングの精度が達成できなかった。このように、所望のマッチングの精度が達成できないと、対象物の位置または姿勢を精度よく検出することができないという問題があった。   In a general model-based matching method, since the CAD model does not completely match the actual object, the desired matching accuracy cannot be achieved. In Patent Document 1, a necessary portion is cut out from each feature data. However, depending on how to cut out the necessary portion, a desired matching accuracy cannot be achieved. As described above, there has been a problem that the position or orientation of the target cannot be detected with high accuracy unless the desired matching accuracy can be achieved.

そこで本発明は、上記問題に鑑みてなされたものであり、対象物の位置または姿勢の検出精度を向上させることを可能とする比較画像範囲生成方法、位置姿勢検出方法、比較画像範囲生成装置、位置姿勢検出装置、ロボット、ロボットシステム、比較画像範囲生成プログラム及び位置姿勢検出プログラムを提供することを課題とする。   Therefore, the present invention has been made in view of the above problems, and a comparison image range generation method, a position / orientation detection method, a comparison image range generation device, which can improve the detection accuracy of the position or orientation of an object, It is an object to provide a position and orientation detection device, a robot, a robot system, a comparative image range generation program, and a position and orientation detection program.

(1)本発明は前記事情に鑑みなされたもので、本発明の一態様は、特徴取得部が、対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさを取得する特徴取得手順と、比較画像範囲取得部が、前記それぞれのテンプレート画像について、前記特徴取得部により取得されたモデルの特徴点およびその特徴点の特徴の大きさに基づいて、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲を比較画像範囲として取得する比較画像範囲取得手順と、を有することを特徴とする比較画像範囲生成方法である。
この構成によれば、テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさに基づいて比較画像範囲を取得するので、特徴点の特徴が大きいほど、比較画像範囲に含まれるその特徴点周辺の領域の割合を増加させることができる。これにより、この比較画像範囲に関して、テンプレート画像と対象物が撮影された撮影画像との間で、比較することにより位置または姿勢のうちいずれかを推定するので、位置または姿勢の推定精度を向上させることができる。
(1) The present invention has been made in view of the above circumstances. In one aspect of the present invention, the feature acquisition unit is an image of a model that represents the contour of an object, and the position or orientation of the model in the image. A feature acquisition procedure for acquiring, as template images, a plurality of images at least one of which is different from each other, and for each template image, the feature points of the model represented in the template images and the feature sizes of the feature points; A comparison image range acquisition unit, for each of the template images, based on the feature points of the model acquired by the feature acquisition unit and the feature size of the feature points; A comparison image range acquisition procedure for acquiring an image range used for comparison with a template image as a comparison image range. A comparison image range generation process for.
According to this configuration, since the comparison image range is acquired based on the feature point of the model represented in the template image and the feature size of the feature point, the larger the feature point feature, the more included in the comparison image range. The ratio of the area around the feature point can be increased. Thereby, regarding the comparison image range, either the position or the posture is estimated by comparing between the template image and the captured image obtained by photographing the object, so that the position or posture estimation accuracy is improved. be able to.

(2)上記に記載の比較画像範囲生成方法において、本発明の一態様は、前記それぞれのテンプレート画像について、前記対象物の加工精度が予め決められた精度より低い部分の画像領域を取得する低加工精度領域取得手順を更に有し、前記比較画像範囲取得手順において、前記比較画像範囲取得部は、前記それぞれのテンプレート画像について、前記特徴取得部により取得されたモデルの特徴点およびその特徴点の特徴の大きさ、ならびに前記低加工精度領域取得部により取得された画像領域に基づいて、前記比較画像範囲を取得することを特徴とする。
この構成によれば、モデル及び対象物自体の特徴点の中でも加工精度の低い部分の情報を除くことができる。これにより、この比較画像範囲に関して、テンプレート画像と対象物が撮影された撮影画像との間で、比較することにより位置または姿勢のうちいずれかを推定するので、対象物に加工精度のばらつきがあったとしても、位置または姿勢の推定精度を向上させることができる。
(2) In the comparative image range generation method described above, according to one aspect of the present invention, a low image area is obtained in which the processing accuracy of the object is lower than a predetermined accuracy for each template image. In the comparison image range acquisition procedure, the comparison image range acquisition unit further includes a feature point of the model acquired by the feature acquisition unit and the feature point of the template image in the comparison image range acquisition procedure. The comparison image range is acquired based on the size of the feature and the image region acquired by the low processing accuracy region acquisition unit.
According to this configuration, it is possible to exclude information of a portion with low processing accuracy from the feature points of the model and the object itself. As a result, regarding the comparison image range, either the position or the posture is estimated by comparing between the template image and the photographed image obtained by photographing the object, so that the object has a variation in processing accuracy. Even so, the estimation accuracy of the position or orientation can be improved.

(3)本発明の一態様は、取得部が、対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさに基づいて取得される、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲である比較画像範囲を取得する取得手順と、撮影画像取得部が、前記対象物が撮影された画像を取得する撮影画像取得手順と、位置姿勢推定部が、前記取得部が取得した前記複数のテンプレート画像のそれぞれについて、前記取得部が取得した該テンプレート画像に対応する前記比較画像範囲に関して、前記撮影画像取得部により取得された画像と比較することにより、前記対象物の位置または姿勢のうち少なくともいずれかを推定する位置姿勢推定手順と、を有することを特徴とする位置姿勢検出方法である。
この構成によれば、テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさに基づいて比較画像範囲を取得するので、特徴点の特徴が大きいほど、比較画像範囲に含まれるその特徴点周辺の領域の割合を増加させることができる。これにより、この比較画像範囲に関して、テンプレート画像と対象物が撮影された撮影画像との間で、比較することにより位置または姿勢のうちいずれかを推定するので、位置または姿勢の推定精度を向上させることができる。
(3) According to one aspect of the present invention, each of the plurality of images in which the acquisition unit is an image of a model representing the contour of an object and at least one of the position or orientation of the model in the image is different from each other. As a template image, for each template image, an image of the object captured and the template image acquired based on the feature points of the model represented in the template image and the feature size of the feature points An acquisition procedure for acquiring a comparison image range that is an image range used in the comparison, a captured image acquisition unit, a captured image acquisition procedure for acquiring an image in which the object is captured, and a position and orientation estimation unit, For each of the plurality of template images acquired by the acquisition unit, the comparison image range corresponding to the template image acquired by the acquisition unit is included in the comparison image range. And a position and orientation estimation procedure for estimating at least one of the position and orientation of the object by comparing with the image acquired by the captured image acquisition unit. Is the method.
According to this configuration, since the comparison image range is acquired based on the feature point of the model represented in the template image and the feature size of the feature point, the larger the feature point feature, the more included in the comparison image range. The ratio of the area around the feature point can be increased. Thereby, regarding the comparison image range, either the position or the posture is estimated by comparing between the template image and the captured image obtained by photographing the object, so that the position or posture estimation accuracy is improved. be able to.

(4)本発明の一態様は、特徴取得部が、対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさを取得する特徴取得手順と、比較画像範囲取得部が、前記それぞれのテンプレート画像について、前記特徴取得部により取得されたモデルの特徴点およびその特徴点の特徴の大きさに基づいて、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲を比較画像範囲として取得する比較画像範囲取得手順と、撮影画像取得部が、前記対象物が撮影された画像を取得する撮影画像取得手順と、位置姿勢推定部が、前記複数のテンプレート画像のそれぞれについて、前記比較画像範囲取得部が取得した該テンプレート画像に対応する前記比較画像範囲に関して、前記撮影画像取得部により取得された画像と比較することにより、前記対象物の位置または姿勢のうち少なくともいずれかを推定する位置姿勢推定手順と、を有することを特徴とする位置姿勢検出方法である。
この構成によれば、テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさに基づいて比較画像範囲を取得するので、特徴点の特徴が大きいほど、比較画像範囲に含まれるその特徴点周辺の領域の割合を増加させることができる。これにより、この比較画像範囲に関して、テンプレート画像と対象物が撮影された撮影画像との間で、比較することにより位置または姿勢のうちいずれかを推定するので、位置または姿勢の推定精度を向上させることができる。
(4) According to one aspect of the present invention, each of the plurality of images in which the feature acquisition unit is an image of a model representing the contour of the object, and at least one of the position or orientation of the model in the image is different from each other For each template image, the feature acquisition procedure for acquiring the feature point of the model represented in the template image and the feature size of the feature point, and the comparison image range acquisition unit Based on the feature points of the model acquired by the feature acquisition unit and the size of the features of the feature points, the image range used in the comparison between the image obtained by photographing the object and the template image is determined. A comparative image range acquisition procedure to be acquired as a comparative image range, and a captured image acquisition unit that captures an image in which the object is captured. The image acquisition procedure and the position / orientation estimation unit are acquired by the captured image acquisition unit for each of the plurality of template images with respect to the comparative image range corresponding to the template image acquired by the comparative image range acquisition unit. A position and orientation estimation procedure for estimating at least one of the position and orientation of the object by comparing with an image.
According to this configuration, since the comparison image range is acquired based on the feature point of the model represented in the template image and the feature size of the feature point, the larger the feature point feature, the more included in the comparison image range. The ratio of the area around the feature point can be increased. Thereby, regarding the comparison image range, either the position or the posture is estimated by comparing between the template image and the captured image obtained by photographing the object, so that the position or posture estimation accuracy is improved. be able to.

(5)本発明の一態様は、対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさを取得する特徴取得部と、前記それぞれのテンプレート画像について、前記特徴取得部により取得されたモデルの特徴点およびその特徴点の特徴の大きさに基づいて、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲を比較画像範囲として取得する比較画像範囲取得部と、を備えることを特徴とする比較画像範囲生成装置である。   (5) According to one aspect of the present invention, each of a plurality of images that are images of a model representing the contour of an object and at least one of the positions or orientations of the model in the image is a template image. For each template image, a feature acquisition unit that acquires a feature point of the model represented in the template image and a feature size of the feature point, and a model acquired by the feature acquisition unit for each template image A comparison image range acquisition unit that acquires, as a comparison image range, an image range that is used in comparison between the image of the object and the template image based on the feature point of the feature point and the feature size of the feature point; And a comparative image range generation device.

(6)本発明の一態様は、対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさに基づいて取得される、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲である比較画像範囲を取得する取得部と、前記対象物が撮影された画像を取得する撮影画像取得部と、前記取得部が取得した前記複数のテンプレート画像のそれぞれについて、前記取得部が取得した該テンプレート画像に対応する前記比較画像範囲に関して、前記撮影画像取得部により取得された画像と比較することにより、前記対象物の位置または姿勢のうち少なくともいずれかを推定する位置姿勢推定部と、を備えることを特徴とする位置姿勢検出装置である。   (6) According to one aspect of the present invention, each of a plurality of images that is an image of a model that represents an outline of an object and in which at least one of the position or orientation of the model in the image is different from each other is used as a template image. For each template image, used for comparison between the template image and the image obtained by photographing the object, which is obtained based on the feature points of the model represented in the template image and the feature size of the feature points For each of the plurality of template images acquired by the acquisition unit that acquires a comparison image range that is an image range to be acquired, a captured image acquisition unit that acquires an image in which the object is captured, and the acquisition unit The comparison image range corresponding to the template image acquired by the unit is compared with the image acquired by the captured image acquisition unit. By a position and posture detecting device characterized by comprising a position and orientation estimation unit for estimating at least one, the one of the position or orientation of the object.

(7)本発明の一態様は、対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさを取得する特徴取得部と、前記それぞれのテンプレート画像について、前記特徴取得部により取得されたモデルの特徴点およびその特徴点の特徴の大きさに基づいて、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲を比較画像範囲として取得する比較画像範囲取得部と、を備えることを特徴とするロボットである。   (7) One aspect of the present invention is an image of a model representing the contour of an object, and each of a plurality of images in which at least one of the position or orientation of the model in the image is different from each other is used as a template image. For each template image, a feature acquisition unit that acquires a feature point of the model represented in the template image and a feature size of the feature point, and a model acquired by the feature acquisition unit for each template image A comparison image range acquisition unit that acquires, as a comparison image range, an image range that is used in comparison between the image of the object and the template image based on the feature point of the feature point and the feature size of the feature point; A robot characterized by comprising:

(8)本発明の一態様は、対象物のモデルの輪郭を表わす画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさに基づいて取得される、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲である比較画像範囲を取得する取得部と、前記対象物が撮影された画像を取得する撮影画像取得部と、前記取得部が取得した前記複数のテンプレート画像のそれぞれについて、前記取得部が取得した該テンプレート画像に対応する前記比較画像範囲に関して、前記撮影画像取得部により取得された画像と比較することにより、前記対象物の位置または姿勢のうち少なくともいずれかを推定する位置姿勢推定部と、を備えることを特徴とするロボットである。   (8) According to one aspect of the present invention, each of a plurality of images representing an outline of a model of an object and having at least one of the position or orientation of the model in the image as a template image, For each template image, used for comparison between the template image and the image obtained by photographing the object, which is obtained based on the feature points of the model represented in the template image and the feature size of the feature points For each of the plurality of template images acquired by the acquisition unit that acquires a comparison image range that is an image range to be acquired, a captured image acquisition unit that acquires an image in which the object is captured, and the acquisition unit The comparison image range corresponding to the template image acquired by the unit is compared with the image acquired by the captured image acquisition unit. By a robot, characterized in that it comprises a position and orientation estimation unit that estimates at least one of the position or orientation of the object.

(9)本発明の一態様は、対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさを取得する特徴取得部と、前記それぞれのテンプレート画像について、前記特徴取得部により取得されたモデルの特徴点およびその特徴点の特徴の大きさに基づいて、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲を比較画像範囲として取得する比較画像範囲取得部と、を備えることを特徴とするロボットシステムである。   (9) One aspect of the present invention is an image of a model representing the contour of an object, and a plurality of images in which at least one of the position or orientation of the model in the image is different from each other as template images, For each template image, a feature acquisition unit that acquires a feature point of the model represented in the template image and a feature size of the feature point, and a model acquired by the feature acquisition unit for each template image A comparison image range acquisition unit that acquires, as a comparison image range, an image range that is used in comparison between the image of the object and the template image based on the feature point of the feature point and the feature size of the feature point; A robot system comprising:

(10)本発明の一態様は、対象物のモデルの輪郭を表わす画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさに基づいて取得される、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲である比較画像範囲を取得する取得部と、前記対象物が撮影された画像を取得する撮影画像取得部と、前記取得部が取得した前記複数のテンプレート画像のそれぞれについて、前記取得部が取得した該テンプレート画像に対応する前記比較画像範囲に関して、前記撮影画像取得部により取得された画像と比較することにより、前記対象物の位置または姿勢のうち少なくともいずれかを推定する位置姿勢推定部と、を備えることを特徴とするロボットシステムである。   (10) According to one aspect of the present invention, each of a plurality of images representing an outline of a model of a target object and at least one of the positions or orientations of the models in the image is a template image. For each template image, used for comparison between the template image and the image obtained by photographing the object, which is obtained based on the feature points of the model represented in the template image and the feature size of the feature points For each of the plurality of template images acquired by the acquisition unit that acquires a comparison image range that is an image range to be acquired, a captured image acquisition unit that acquires an image in which the object is captured, and the acquisition unit An image acquired by the captured image acquisition unit with respect to the comparative image range corresponding to the template image acquired by the unit; By compare a robotic system, characterized by comprising a position and orientation estimation unit that estimates at least one of the position or orientation of the object.

(11)本発明の一態様は、コンピューターに、対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさを取得する特徴取得ステップと、前記それぞれのテンプレート画像について、前記特徴取得ステップにより取得されたモデルの特徴点およびその特徴点の特徴の大きさに基づいて、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲を比較画像範囲として取得する比較画像範囲取得ステップと、を実行させるための比較画像範囲生成プログラムである。   (11) In one embodiment of the present invention, each of a plurality of images of a model representing an outline of an object and having at least one of the position and orientation of the model in the image is templated in a computer As each image, for each template image, a feature acquisition step for acquiring a feature point of the model represented in the template image and a feature size of the feature point, and for each of the template images, acquired by the feature acquisition step. A comparison image range that acquires, as a comparison image range, an image range that is used for comparison between the image of the object and the template image based on the feature points of the model and the feature size of the feature points A comparison image range generation program for executing the acquisition step.

(12)本発明の一態様は、コンピューターに、対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさに基づいて取得される、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲である比較画像範囲を取得する取得ステップと、前記対象物が撮影された画像を取得する撮影画像取得ステップと、前記取得ステップにより取得された前記複数のテンプレート画像のそれぞれについて、前記取得ステップにより取得された該テンプレート画像に対応する前記比較画像範囲に関して、前記撮影画像取得ステップにより取得された画像と比較することにより、前記対象物の位置または姿勢のうち少なくともいずれかを推定する位置姿勢推定ステップと、を実行させるための位置姿勢検出プログラムである。   (12) In one embodiment of the present invention, a plurality of images, each of which is an image of a model representing the contour of an object and in which at least one of the position or orientation of the model in the image is different, is templated As an image, for each template image, an image of the object photographed on the basis of the feature point of the model represented in the template image and the feature size of the feature point, and the template image An acquisition step for acquiring a comparison image range that is an image range used in comparison, a captured image acquisition step for acquiring an image in which the object is captured, and each of the plurality of template images acquired by the acquisition step The comparison image corresponding to the template image acquired by the acquisition step A position and orientation detection program for executing a position and orientation estimation step for estimating at least one of the position and orientation of the object by comparing with the image obtained by the captured image acquisition step. is there.

本発明によれば、対象物の位置または姿勢の検出精度を向上させることができる。   According to the present invention, it is possible to improve the detection accuracy of the position or orientation of an object.

第1の実施形態におけるロボットシステムの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the robot system in 1st Embodiment. 第1の実施形態におけるロボット本体の斜視図の一例である。It is an example of the perspective view of the robot main body in 1st Embodiment. 板金部品が撮像された撮像画像と該板金部品の輪郭を表わすCADモデルのCG画像の比較である。This is a comparison between a captured image obtained by imaging a sheet metal part and a CG image of a CAD model representing the outline of the sheet metal part. 第1の実施形態における位置姿勢検出装置のハードウェアの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the hardware of the position and orientation detection apparatus in 1st Embodiment. 第1の実施形態における制御部の論理的な構成を示す概略ブロック図である。It is a schematic block diagram which shows the logical structure of the control part in 1st Embodiment. 特徴点抽出部の処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the process of a feature point extraction part. 特徴領域抽出部の処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the process of a characteristic area extraction part. 特徴領域画像生成部の処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the process of a characteristic area image generation part. 高精度領域画像生成部の処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of a process of a high precision area | region image generation part. 重複範囲抽出部の処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the process of an duplication range extraction part. 比較画像生成部の処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the process of a comparative image generation part. 第1の実施形態の位置姿勢検出装置が、位置姿勢検出の前に、事前に予め実行する処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process which the position and orientation detection apparatus of 1st Embodiment performs in advance before a position and orientation detection. 第1の実施形態の位置姿勢検出装置が、実際に対象物の位置または姿勢を検出する位置姿勢検出処理の流れの一例を示すフローチャートである。5 is a flowchart illustrating an example of a flow of position and orientation detection processing in which the position and orientation detection apparatus of the first embodiment actually detects the position or orientation of an object. 第2の実施形態におけるロボットシステムの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the robot system in 2nd Embodiment. 第2の実施形態における比較画像範囲生成装置の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the comparison image range production | generation apparatus in 2nd Embodiment. 第2の実施形態における比較画像範囲生成装置の制御部の論理的な構成を示す概略ブロック図である。It is a schematic block diagram which shows the logical structure of the control part of the comparative image range production | generation apparatus in 2nd Embodiment. 第2の実施形態における位置姿勢検出装置の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the position and orientation detection apparatus in 2nd Embodiment. 第2の実施形態における位置姿勢検出装置の制御部の論理的な構成を示す概略ブロック図である。It is a schematic block diagram which shows the logical structure of the control part of the position and orientation detection apparatus in 2nd Embodiment. ロボット本体のアームが2本の場合のロボットシステムの概略の外観図の一例である。It is an example of the outline external view of the robot system in case the number of the arms of a robot main body is two.

<第1の実施形態>
以下、本発明の実施形態について、図面を参照して詳細に説明する。図1は、第1の実施形態におけるロボットシステム1の構成を示す概略ブロック図である。同図に示すように、ロボットシステム1は、ロボット本体10と、撮像装置20と、位置姿勢検出装置30と、ロボット制御装置50とを備える。
<First Embodiment>
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a schematic block diagram showing the configuration of the robot system 1 according to the first embodiment. As shown in FIG. 1, the robot system 1 includes a robot body 10, an imaging device 20, a position / orientation detection device 30, and a robot control device 50.

撮像装置20は、ロボット制御装置50の制御に基づいて、位置または姿勢を検出する対象となる対象物を撮像する。そして、撮像装置20は、撮像することにより得られた撮像画像を示す撮像画像データを位置姿勢検出装置30とロボット制御装置50へ出力する。
位置姿勢検出装置30は、比較画像範囲生成部40を備える。位置姿勢検出装置30は、撮像装置20から入力された撮像画像データに基づいて、対象物の位置または姿勢のうち少なくともいずれか一つを検出する。そして、位置姿勢検出装置30は、検出した位置または姿勢のうち少なくともいずれか一つの情報を含む位置姿勢情報をロボット制御装置50へ出力する。
Based on the control of the robot control device 50, the imaging device 20 captures an image of a target object whose position or orientation is to be detected. Then, the imaging device 20 outputs captured image data indicating a captured image obtained by imaging to the position and orientation detection device 30 and the robot control device 50.
The position / orientation detection apparatus 30 includes a comparative image range generation unit 40. The position / orientation detection device 30 detects at least one of the position and orientation of the object based on the captured image data input from the imaging device 20. Then, the position / orientation detection device 30 outputs position / orientation information including at least one of the detected positions and orientations to the robot control device 50.

ロボット制御装置50は、撮像装置20から入力された撮像画像データと位置姿勢検出装置30から入力された位置姿勢情報に基づいて、ロボット本体10を制御する。具体的には、例えば、ロボット制御装置50は、位置姿勢検出装置30から入力された位置姿勢情報に含まれる位置または姿勢の一方または双方に基づいて、ロボット本体10の把持部が対象物を把持できる把持位置またはロボット本体10の把持部が対象物を把持できる把持角度の一方または双方を算出する。そして、ロボット制御装置50は、例えば、撮像画像データを参照しつつ、算出した把持位置へロボット本体10の把持部を移動するように制御するとともに、ロボット本体10の把持部の角度が算出した把持角度になるよう制御する。   The robot control device 50 controls the robot body 10 based on the captured image data input from the imaging device 20 and the position and orientation information input from the position and orientation detection device 30. Specifically, for example, in the robot control device 50, the grip unit of the robot body 10 grips an object based on one or both of the position and orientation included in the position and orientation information input from the position and orientation detection device 30. One or both of the possible gripping positions and the gripping angles at which the gripping part of the robot body 10 can grip the object are calculated. Then, for example, the robot control device 50 controls the gripping part of the robot body 10 to move to the calculated gripping position while referring to the captured image data, and the gripping angle calculated by the gripping part of the robot body 10 is calculated. Control the angle.

そして、ロボット本体10の把持部の位置および角度がそれぞれ算出した把持位置及び把持角度になった場合、ロボット制御装置50は、例えば、ロボット本体に10の把持部に、対象物を把持させるように制御する。
ロボット本体10は、例えば、ロボット制御装置50の制御により、対象物を把持し、対象物を把持したまま予め決められた目的位置まで対象物を搬送する。
When the position and angle of the gripping portion of the robot body 10 reach the calculated gripping position and gripping angle, for example, the robot control device 50 causes the 10 gripping portions of the robot body to grip the object. Control.
For example, the robot body 10 grips the object under the control of the robot control device 50, and conveys the object to a predetermined target position while holding the object.

図2は、第1の実施形態におけるロボット本体10の斜視図の一例である。同図において、ロボットシステム1におけるロボット本体10と、撮像装置20と、位置姿勢検出装置30と、ロボット制御装置50と、対象物200とが設置されている。また、ロボット本体10とロボット制御装置50とは、第1の信号ケーブル11を介して接続されている。ロボット本体10とロボット制御装置50は、互いに第1の信号ケーブルを介して信号のやり取りを行う。また、位置姿勢検出装置30とロボット制御装置50とは、第2の信号ケーブル12を介して接続されている。位置姿勢検出装置30は、第2の信号ケーブル12を介して情報をロボット制御装置50に出力する。なお、同図において、撮像装置20と位置姿勢検出装置30の間の信号ケーブル、及び撮像装置20とロボット制御装置50との間の信号ケーブルは省略されているものとする。同図は、ロボット本体10が対象物200をこれから把持する動作を開始する直前の図である。   FIG. 2 is an example of a perspective view of the robot main body 10 according to the first embodiment. In the figure, a robot body 10, an imaging device 20, a position / orientation detection device 30, a robot control device 50, and an object 200 are installed in the robot system 1. Further, the robot body 10 and the robot control device 50 are connected via the first signal cable 11. The robot body 10 and the robot control device 50 exchange signals with each other via the first signal cable. In addition, the position / orientation detection device 30 and the robot control device 50 are connected via the second signal cable 12. The position / orientation detection device 30 outputs information to the robot control device 50 via the second signal cable 12. In the figure, the signal cable between the imaging device 20 and the position / orientation detection device 30 and the signal cable between the imaging device 20 and the robot control device 50 are omitted. This figure is a diagram immediately before the robot body 10 starts the operation of grasping the object 200 from now on.

同図の例において、撮像装置20の光軸上に、対象物200の中心が位置するよう、予め対象物200が位置決めされている。図2に示すように、本実施形態のロボットシステム1では、撮像装置20がロボット本体10とは独立に配置されているので、対象物200に対する撮像アングルの自由度が高くなる。これにより、位置姿勢検出装置30は、様々な撮像アングルで撮像された撮像画像を用いて、対象物200の位置及び姿勢を検出でできるので、位置及び姿勢の検出精度が向上する。
なお、同図では、位置姿勢検出装置30およびロボット制御装置50の図示を省略している。また、同図における部品や構造等の縮尺は、図を明りょうなものとするために実際のものとは異なる。
In the example of the figure, the object 200 is positioned in advance so that the center of the object 200 is positioned on the optical axis of the imaging device 20. As shown in FIG. 2, in the robot system 1 of the present embodiment, since the imaging device 20 is arranged independently of the robot body 10, the degree of freedom of the imaging angle with respect to the object 200 is increased. Thereby, the position and orientation detection device 30 can detect the position and orientation of the target object 200 using the captured images taken at various imaging angles, so that the position and orientation detection accuracy is improved.
In the figure, the illustration of the position / orientation detection device 30 and the robot control device 50 is omitted. Further, the scales of parts, structures, etc. in the figure are different from actual ones in order to make the figure clear.

ロボット本体10は、地面に固定された支持台10aと、旋回可能および屈伸可能に支持台10aに連結されたアーム部10bと、回動可能および首振り可能にアーム部10bに連結されたハンド部10cと、ハンド部10cに取り付けられた把持部10dとを含んで構成される。   The robot body 10 includes a support base 10a fixed to the ground, an arm part 10b connected to the support base 10a so as to be capable of turning and bending, and a hand part connected to the arm part 10b so as to be rotatable and swingable. 10c and the holding part 10d attached to the hand part 10c.

ロボット本体10は、例えば6軸の垂直多関節ロボットであり、支持台10aとアーム部10bとハンド部10cとの連係した動作によって6軸の自由度を有し、把持部10dが把持する部品の位置および向きを自在に変更することができる。ロボット本体10は、ロボット制御装置50による制御によって、アーム部10bとハンド部10cと把持部10dとのうちいずれか一つまたは組み合わせを動かす。
なお、ロボット本体10の自由度は6軸によるものに限ったものではなく、任意の数の軸を有してもよい。例えば、ロボット本体10の自由度は7軸でもよい。また、支持台10aは、壁や天井等、地面に対して固定された場所に設置してもよい。
The robot body 10 is, for example, a 6-axis vertical articulated robot, and has a 6-axis degree of freedom by a coordinated operation of the support base 10a, the arm unit 10b, and the hand unit 10c. The position and orientation can be changed freely. The robot body 10 moves one or a combination of the arm unit 10b, the hand unit 10c, and the gripping unit 10d under the control of the robot control device 50.
The degree of freedom of the robot body 10 is not limited to six axes, and may have any number of axes. For example, the robot body 10 may have seven axes of freedom. Moreover, you may install the support stand 10a in the place fixed with respect to the grounds, such as a wall and a ceiling.

図3は、板金部品が撮像された撮像画像と該板金部品の輪郭を表わすCADモデルのCG(Computer Graphics)画像の比較である。画像F31は板金部品が撮像された撮像画像の一例である。画像F31に示されるように、本板金部品が、金属を打ち抜きや曲げ加工する事により成形されている。画像F32は、画像F31のCADモデルのCG(Computer Graphics)画像である。従来のモデルベーストマッチング法を用いた装置は、画像F31に示す撮像画像と画像F32に示すCG画像とを比較する事で位置及び姿勢を求める。ここで、画像F31に示す対象物と画像F32に示すCADモデルが完全に同じ形状でなければ、正確な位置または姿勢を求める事ができない。しかし、実際は対象物の加工精度にばらつきがある事等により、CADモデルと完全に一致する事はない。   FIG. 3 is a comparison between a captured image obtained by capturing a sheet metal part and a CG (Computer Graphics) image of a CAD model representing the contour of the sheet metal part. The image F31 is an example of a captured image obtained by capturing a sheet metal part. As shown in the image F31, the sheet metal part is formed by stamping or bending a metal. The image F32 is a CG (Computer Graphics) image of the CAD model of the image F31. The apparatus using the conventional model-based matching method obtains the position and orientation by comparing the captured image shown in the image F31 with the CG image shown in the image F32. Here, if the object shown in the image F31 and the CAD model shown in the image F32 are not completely the same shape, an accurate position or posture cannot be obtained. However, in actuality, it does not completely match the CAD model due to variations in the processing accuracy of the object.

それに対し、第1の実施形態における位置姿勢検出装置30は、特徴の大きさに応じた特徴領域と、加工精度が予め決められた基準より高い高加工精度領域とを抽出する。特徴の大きさは、特徴の程度を表す数で、大きい方が特徴の程度が大きい。特徴の大きさは、例えば、隣接する画素間での輝度値差である。そして、位置姿勢検出装置30は、一例として、CADモデルのCG画像と撮像画像との比較の際に、特徴領域と高加工精度領域が重なる重複領域の画像情報のみを比較することにより、対象物の位置または姿勢の検出精度を向上させる。   In contrast, the position / orientation detection apparatus 30 according to the first embodiment extracts a feature region corresponding to the feature size and a high processing accuracy region whose processing accuracy is higher than a predetermined reference. The size of the feature is a number that represents the degree of the feature. The larger the feature, the larger the feature. The feature size is, for example, a luminance value difference between adjacent pixels. Then, as an example, the position and orientation detection device 30 compares only the image information of the overlapping region where the feature region and the high processing accuracy region overlap when comparing the CG image of the CAD model and the captured image. Improve the detection accuracy of the position or orientation of

図4は、第1の実施形態における位置姿勢検出装置30のハードウェアの構成を示す概略ブロック図である。同図において、位置姿勢検出装置30は、入力部31と、記憶部32と、制御部33と、表示部34とを備える。
入力部31は、位置姿勢検出装置30を使用するユーザからの入力を受け付ける。具体的には、例えば、入力部31は、対象物の三次元物体モデル(CADモデル)において、加工精度が予め決められた基準より低い領域(以下、低加工精度領域という)を受け付ける。ここで、低加工精度領域とは、換言すれば、許容差が予め決められた閾値より高い領域のことである。例えば対象物が板金部品の場合、低加工精度領域とは、曲げまたは絞りの加工がされた画像領域である。これは、金属プレス加工において、曲げ及び絞りの普通寸法許容差が、打ち抜きの普通寸法許容差よりも大きいことを根拠としている。入力部31は、受け付けた低加工精度領域を示す低加工精度領域情報を制御部33へ出力する。
FIG. 4 is a schematic block diagram illustrating a hardware configuration of the position / orientation detection apparatus 30 according to the first embodiment. In the figure, the position / orientation detection apparatus 30 includes an input unit 31, a storage unit 32, a control unit 33, and a display unit 34.
The input unit 31 receives an input from a user who uses the position and orientation detection device 30. Specifically, for example, the input unit 31 receives a region (hereinafter referred to as a low processing accuracy region) whose processing accuracy is lower than a predetermined reference in a three-dimensional object model (CAD model) of the target object. Here, the low machining accuracy region is, in other words, a region where the tolerance is higher than a predetermined threshold value. For example, when the object is a sheet metal part, the low processing accuracy region is an image region that has been bent or drawn. This is based on the fact that the normal dimension tolerance of bending and drawing is larger than the normal dimension tolerance of punching in metal pressing. The input unit 31 outputs low machining accuracy region information indicating the received low machining accuracy region to the control unit 33.

記憶部32には、CADモデルに基づいて生成された複数のテンプレート画像(例えば、CG画像)を示すテンプレート画像情報が記憶されている。ここで、対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像とする。
また、記憶部32には、対象物の三次元モデルを構成する座標データと、その座標が低加工精度領域であるか否かを示す低加工精度領域フラグとが関連付けられて記憶されている。ここで、低加工精度領域フラグは、一例として公差が予め決められた基準を超える場合に1、公差が予め決められた基準以下の場合に0をとる。但し、入力部31がユーザから低加工精度領域を受け付ける前にあっては、低加工精度領域フラグは、全て0であるものとする。
The storage unit 32 stores template image information indicating a plurality of template images (for example, CG images) generated based on the CAD model. Here, a plurality of images each representing an image of a model representing the contour of an object and having at least one of the position and orientation of the model in the image are set as template images.
Further, the storage unit 32 stores coordinate data constituting a three-dimensional model of the object and a low machining accuracy area flag indicating whether or not the coordinates are a low machining accuracy area. Here, as an example, the low machining accuracy region flag is 1 when the tolerance exceeds a predetermined reference and 0 when the tolerance is equal to or less than the predetermined reference. However, before the input unit 31 receives a low machining accuracy region from the user, all the low machining accuracy region flags are assumed to be zero.

続いて、制御部33の処理を、実際に対象物の位置または姿勢を推定する前に事前に行っておく事前処理と、実際に対象物の位置または姿勢を推定する処理(以下、位置姿勢推定処理という)とに分けて説明する。
まず、制御部33の事前処理について説明する。事前処理において、制御部33は、対象物の三次元モデルを表示部34に表示させる。そして、制御部33は、ユーザに低加工精度領域を入力するよう指示する旨を表示部34に表示させる。これにより、ユーザに低加工精度領域を入力するよう促す。また、制御部33は、入力部31から入力された低加工精度領域情報を受け付け、受け付けた低加工精度領域情報を記憶部32に反映させる。この処理の詳細は後述する。
Subsequently, the processing of the control unit 33 is performed in advance before actually estimating the position or orientation of the object, and the processing for actually estimating the position or orientation of the object (hereinafter, position and orientation estimation). This will be described separately.
First, pre-processing of the control unit 33 will be described. In the preprocessing, the control unit 33 causes the display unit 34 to display a three-dimensional model of the object. Then, the control unit 33 causes the display unit 34 to display that the user is instructed to input a low machining accuracy region. This prompts the user to enter a low machining accuracy region. In addition, the control unit 33 receives the low machining accuracy region information input from the input unit 31 and reflects the received low machining accuracy region information in the storage unit 32. Details of this processing will be described later.

そして、制御部33は、対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲を比較画像範囲として取得する。その際、制御部33は、CADモデルのCG画像と対象物が撮像された撮像画像との間で比較する際に、曲げや絞りの加工がされた領域などの低加工精度領域を比較画像範囲から排除する。そして、制御部33は、加工精度が高い画像領域のみを比較することで、テンプレート画像とのマッチングの精度を向上させる。例えば、対象物が板金部品の場合は、制御部33は、入力部31から受け付けた低加工精度領域情報が曲げや絞りの加工がされた画像領域である場合、その曲げや絞りの加工がされた画像領域を、CADモデルのCG画像と対象物が撮像された撮像画像とを比較する際の比較対象となる領域から除外する。   And the control part 33 acquires the image range used by the comparison with the image in which the target object was image | photographed, and this template image as a comparison image range. At that time, when comparing the CG image of the CAD model and the captured image obtained by capturing the target object, the control unit 33 compares the low processing accuracy region such as a region subjected to bending or drawing processing into the comparative image range. To eliminate. And the control part 33 improves the precision of a matching with a template image by comparing only an image area | region with high processing precision. For example, when the object is a sheet metal part, the control unit 33 performs the bending or drawing processing when the low processing accuracy region information received from the input unit 31 is an image region subjected to bending or drawing processing. The image region is excluded from the region to be compared when the CG image of the CAD model and the captured image obtained by capturing the object are compared.

続いて、制御部33の位置姿勢推定処理について説明する。制御部33は、撮像装置20から入力された撮像画像データを用いて、対象物の位置または姿勢のうち少なくともいずれか一つを検出する。この処理の詳細は後述する。そして、制御部33は、検出した位置または姿勢のうち少なくともいずれか一つの情報を含む位置姿勢情報をロボット制御装置50へ出力する。   Next, the position / orientation estimation process of the control unit 33 will be described. The control unit 33 uses the captured image data input from the imaging device 20 to detect at least one of the position and orientation of the target object. Details of this processing will be described later. Then, the control unit 33 outputs position / orientation information including at least one of the detected positions and orientations to the robot control device 50.

図5は、第1の実施形態における制御部33の論理的な構成を示す概略ブロック図である。制御部33は、比較画像範囲生成部40と、撮影画像取得部338と、比較画像生成部339と、位置姿勢推定部340とを備える。比較画像範囲生成部40は、特徴取得部331と、特徴領域抽出部332と、低加工精度領域取得部333と、比較画像範囲取得部334とを備える。同図において、撮影画像が入力される前に予め実行される事前処理経路が実線の矢印で示され、撮影画像が入力された後に実行される位置姿勢推定処理経路が破線の矢印で示されている。   FIG. 5 is a schematic block diagram showing a logical configuration of the control unit 33 in the first embodiment. The control unit 33 includes a comparison image range generation unit 40, a captured image acquisition unit 338, a comparison image generation unit 339, and a position / orientation estimation unit 340. The comparison image range generation unit 40 includes a feature acquisition unit 331, a feature region extraction unit 332, a low processing accuracy region acquisition unit 333, and a comparison image range acquisition unit 334. In the figure, a pre-processing path that is executed in advance before a captured image is input is indicated by a solid arrow, and a position / orientation estimation processing path that is executed after a captured image is input is indicated by a dashed arrow. Yes.

まず、事前処理において、制御部33の各部が行う処理について説明する。
特徴取得部331は、記憶部32に記憶されている複数のテンプレート画像情報のうち一のテンプレート画像情報を処理の対象となる対象テンプレート画像情報として読み出す。そして、特徴取得部331は、対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさを取得する。具体的には、例えば、特徴取得部331は、SURF(Speeded Up Robust Features)を用いて、特徴点を抽出する。そして、その際に、特徴取得部331は、検出された特徴点がどのスケール(SURFのパラメータの一つ)で検出されたかを示す特徴のサイズ(SURFのパラメータの一つ)を、その特徴点の特徴の大きさとする。特徴取得部331は、抽出した特徴点の位置と該特徴点の特徴の大きさを示すデータを特徴領域抽出部332へ出力する。また、特徴取得部331は、対象テンプレート画像情報を高精度領域画像生成部336へ出力する。
First, processing performed by each unit of the control unit 33 in the preliminary processing will be described.
The feature acquisition unit 331 reads one template image information among a plurality of template image information stored in the storage unit 32 as target template image information to be processed. Then, the feature acquisition unit 331 uses each of a plurality of images that are images of models representing the contour of the object and at least one of the positions or orientations of the models in the images as template images. For the template image, the feature point of the model represented in the template image and the feature size of the feature point are acquired. Specifically, for example, the feature acquisition unit 331 extracts feature points using SURF (Speeded Up Robust Features). At that time, the feature acquisition unit 331 displays the feature size (one of the SURF parameters) indicating the scale (one of the SURF parameters) at which the detected feature point is detected, and the feature point The size of the feature. The feature acquisition unit 331 outputs data indicating the position of the extracted feature point and the feature size of the feature point to the feature region extraction unit 332. In addition, the feature acquisition unit 331 outputs the target template image information to the high-accuracy region image generation unit 336.

なお、特徴取得部331が、例えば、SURFを用いる場合、特徴点を抽出する際の特徴の大きさの閾値であるHessianThresholdを大きくする事で、抽出される特徴点の大きさの閾値を変えてもよい。その場合、例えば、大きな特徴部分のみを抽出したい場合は、特徴取得部331は、HessianThresholdを大きな値に設定すればよい。また、例えば、抽出したい特徴点の数が決まっている場合は、特徴取得部331は、特徴点数が目標の数になるまでHessianThresholdを調整してもよい。   When the feature acquisition unit 331 uses, for example, SURF, the threshold value of the extracted feature point is changed by increasing the value of the HessianThreshold that is the threshold value of the feature size when the feature point is extracted. Also good. In this case, for example, when it is desired to extract only a large feature portion, the feature acquisition unit 331 may set the HessianThreshold to a large value. For example, when the number of feature points to be extracted is determined, the feature acquisition unit 331 may adjust the HessianThreshold until the number of feature points reaches the target number.

特徴領域抽出部332は、テンプレート画像毎に、特徴取得部331が抽出した特徴点の位置に応じた位置に、テンプレート画像の特徴となる画像領域である特徴画像領域を上記特徴の大きさに応じた大きさで抽出する。具体的には、例えば、特徴領域抽出部332は、特徴取得部331から入力されたデータから、特徴点の位置を中心としてその特徴点の特徴の大きさに応じた半径をもつ円領域を、その特徴点の特徴領域とする。特徴領域抽出部332は、例えば、この処理を特徴点の分だけ繰り返す。そして、特徴領域抽出部332は、例えば、全ての特徴領域の和集合を特徴画像領域として設定する。特徴領域抽出部332は、抽出した特徴画像領域を示す特徴画像領域情報を比較画像範囲取得部334の後述する特徴領域画像生成部335へ出力する。   For each template image, the feature region extraction unit 332 sets a feature image region that is a feature of the template image at a position corresponding to the position of the feature point extracted by the feature acquisition unit 331 according to the size of the feature. Extract with a certain size. Specifically, for example, the feature region extraction unit 332 extracts, from the data input from the feature acquisition unit 331, a circular region having a radius corresponding to the feature size of the feature point from the feature point position as a center. The feature area of the feature point is used. For example, the feature region extraction unit 332 repeats this process for the feature points. Then, the feature region extraction unit 332 sets, for example, a union of all feature regions as a feature image region. The feature region extraction unit 332 outputs feature image region information indicating the extracted feature image region to a feature region image generation unit 335 described later of the comparison image range acquisition unit 334.

なお、特徴領域抽出部332は、特徴点の位置を中心に予め決められた画素領域(例えば半径3画素領域)を特徴量領域としてもよい。   Note that the feature region extraction unit 332 may use a pixel region (for example, a three-pixel radius region) that is determined in advance with the position of the feature point as the center.

低加工精度領域取得部333は、記憶部32からテンプレート画像情報を読み出し、読み出したテンプレート画像情報が示すテンプレート画像を表示部34に表示させる。また、低加工精度領域取得部333は、それぞれのテンプレート画像について、対象物の加工精度が予め決められた精度より低い部分の画像領域(以下、低加工精度領域という)を取得する。具体的には、例えば、低加工精度領域取得部333は、入力部31が受け付けた低加工精度領域を取得する。低加工精度領域取得部333は、例えば、記憶部32において、低加工精度領域に含まれる座標データに関連付けられた低加工精度領域フラグを1にする。   The low processing accuracy area acquisition unit 333 reads the template image information from the storage unit 32 and causes the display unit 34 to display the template image indicated by the read template image information. In addition, the low processing accuracy region acquisition unit 333 acquires, for each template image, an image region of a portion where the processing accuracy of the object is lower than a predetermined accuracy (hereinafter referred to as a low processing accuracy region). Specifically, for example, the low machining accuracy region acquisition unit 333 acquires the low machining accuracy region received by the input unit 31. For example, the low machining accuracy region acquisition unit 333 sets the low machining accuracy region flag associated with the coordinate data included in the low machining accuracy region to 1 in the storage unit 32.

なお、記憶部32に加工精度に関する情報が予め記憶され、低加工精度領域取得部333は、その加工精度に関する情報を記憶部32から読み出し、読み出した加工精度に関する情報から、低加工精度領域取得部333が自己で低加工精度領域を特定してもよい。   Information relating to machining accuracy is stored in advance in the storage unit 32, and the low machining accuracy region acquisition unit 333 reads information relating to the machining accuracy from the storage unit 32, and from the read information relating to machining accuracy, the low machining accuracy region acquisition unit 333 may specify the low machining accuracy region by itself.

比較画像範囲取得部334は、それぞれのテンプレート画像について、特徴取得部331により取得されたモデルの特徴点およびその特徴点の特徴の大きさ、ならびに低加工精度領域取得部333により取得された画像領域に基づいて、比較画像範囲を取得する。ここで、比較画像範囲は、テンプレート画像と撮影画像とを比較する際に比較の対象となる画素位置の範囲である。
なお、低加工精度領域がない場合もあるので、比較画像範囲取得部334は、少なくとも特徴領域抽出部332が抽出した特徴画像領域に基づいて、比較画像範囲をテンプレート画像毎に生成すればよい。
The comparison image range acquisition unit 334, for each template image, the model feature point acquired by the feature acquisition unit 331, the size of the feature of the feature point, and the image region acquired by the low processing accuracy region acquisition unit 333 To obtain a comparison image range. Here, the comparison image range is a range of pixel positions to be compared when comparing the template image and the captured image.
Since there may be no low processing accuracy area, the comparison image range acquisition unit 334 may generate a comparison image range for each template image based on at least the feature image area extracted by the feature area extraction unit 332.

ここで、比較画像範囲取得部334は、特徴領域画像生成部335と、高精度領域画像生成部336と、重複範囲抽出部337とを備える。
特徴領域画像生成部335は、特徴領域抽出部332から入力された特徴画像領域情報が示す特徴画像領域を示す特徴領域明示画像を生成する。具体的には、例えば、特徴領域画像生成部335は、特徴画像領域の輝度値を1とし、それ以外の輝度値を0とする特徴領域明示画像を生成する。そして、特徴領域画像生成部335は、特徴領域明示画像を示す特徴領域明示画像情報を重複範囲抽出部337へ出力する。
Here, the comparison image range acquisition unit 334 includes a feature region image generation unit 335, a high-precision region image generation unit 336, and an overlap range extraction unit 337.
The feature region image generation unit 335 generates a feature region explicit image indicating the feature image region indicated by the feature image region information input from the feature region extraction unit 332. Specifically, for example, the feature region image generation unit 335 generates a feature region explicit image in which the brightness value of the feature image region is 1 and the other brightness values are 0. Then, the feature region image generation unit 335 outputs the feature region explicit image information indicating the feature region explicit image to the overlapping range extraction unit 337.

高精度領域画像生成部336は、記憶部32に記憶されている三次元モデルを構成する座標データと低加工精度領域フラグとの組を読み出す。そして、高精度領域画像生成部336は、特徴取得部331から入力された対象テンプレート画像情報が示すテンプレート画像毎に、加工精度が高い部分を抽出した高精度領域明示画像を生成する。具体的には、例えば、高精度領域画像生成部336は、テンプレート画像毎に、そのテンプレート画像において、対象物の三次元モデルを構成する座標のうち、低加工精度領域フラグが0の領域を高精度領域として抽出する。そして、例えば、高精度領域の輝度値を1とし、それ以外の輝度値を0とする高精度領域明示画像を生成する。これにより、対象物の三次元モデルを見る視点を変えたテンプレート画像であっても、高精度領域画像生成部336は、その視点を変えたテンプレート画像に応じて高精度領域を抽出することができる。そして、高精度領域画像生成部336は、抽出した高精度領域に応じて高精度領域マスクを生成することができる。
高精度領域画像生成部336は、生成した高精度領域明示画像を示す高精度領域明示画像情報を重複範囲抽出部337へ出力する。
The high accuracy region image generation unit 336 reads a set of coordinate data and a low processing accuracy region flag that constitute the three-dimensional model stored in the storage unit 32. Then, the high-accuracy region image generation unit 336 generates a high-accuracy region explicit image obtained by extracting a portion with high processing accuracy for each template image indicated by the target template image information input from the feature acquisition unit 331. Specifically, for example, for each template image, the high-accuracy region image generation unit 336 increases, in the template image, an area in which the low processing accuracy area flag is 0 among the coordinates constituting the three-dimensional model of the target object. Extract as a precision region. Then, for example, a high-accuracy region explicit image in which the luminance value of the high-precision region is 1 and the other luminance values are 0 is generated. Thereby, even if it is a template image which changed the viewpoint which sees the three-dimensional model of a target object, the high precision area | region image generation part 336 can extract a high precision area | region according to the template image which changed the viewpoint. . The high-accuracy region image generation unit 336 can generate a high-accuracy region mask according to the extracted high-accuracy region.
The high accuracy area image generation unit 336 outputs high accuracy area explicit image information indicating the generated high accuracy area explicit image to the overlapping range extraction unit 337.

重複範囲抽出部337は、特徴領域画像生成部335から入力された特徴領域明示画像情報と高精度領域画像生成部336から入力された高精度領域明示画像情報に基づいて、比較画像範囲を抽出する。具体的には、重複範囲抽出部337は、特徴画像領域と高精度領域との重複範囲を比較画像範囲として抽出する。例えば、特徴領域明示画像の輝度値が1かつ高精度領域明示画像の輝度値が1である画素の集合を比較画像範囲として抽出する。   The overlapping range extraction unit 337 extracts a comparison image range based on the feature region explicit image information input from the feature region image generation unit 335 and the high accuracy region explicit image information input from the high accuracy region image generation unit 336. . Specifically, the overlapping range extraction unit 337 extracts the overlapping range between the feature image region and the high accuracy region as a comparison image range. For example, a set of pixels whose characteristic region explicit image has a luminance value of 1 and high-precision region explicit image has a luminance value of 1 is extracted as a comparison image range.

そして、重複範囲抽出部337は、例えば、抽出した比較画像範囲から、画像内で比較画像範囲を示す画像領域を有する比較画像範囲明示画像を生成する。例えば、重複範囲抽出部337は、抽出した比較画像範囲の輝度値を1、それ以外の領域の輝度値を0とする比較画像範囲明示画像を生成する。重複範囲抽出部337は、生成した複数の比較画像範囲明示画像毎に、比較画像範囲明示画像情報を生成する。これにより、全体として、複数の比較画像範囲明示画像情報ができる。重複範囲抽出部337は、複数の比較画像範囲明示画像情報を比較画像生成部339へ出力する。また、重複範囲抽出部337は、複数の比較画像範囲明示画像情報を記憶部32に記憶させる。   Then, for example, the overlapping range extraction unit 337 generates a comparative image range explicit image having an image region indicating the comparative image range in the image from the extracted comparative image range. For example, the overlapping range extraction unit 337 generates a comparative image range explicit image in which the luminance value of the extracted comparative image range is 1 and the luminance value of other regions is 0. The overlapping range extraction unit 337 generates comparison image range explicit image information for each of the generated plurality of comparison image range explicit images. As a result, a plurality of comparative image range explicit image information can be obtained as a whole. The overlapping range extraction unit 337 outputs a plurality of comparison image range explicit image information to the comparison image generation unit 339. In addition, the overlapping range extraction unit 337 causes the storage unit 32 to store a plurality of comparison image range explicit image information.

比較画像生成部339は、上述のテンプレート画像から該テンプレート画像に基づいて生成された比較画像範囲に基づいて第1の画像を生成する処理をテンプレート画像毎に行う。具体的には、例えば、比較画像生成部339は、事前に複数のテンプレート画像それぞれから、該テンプレート画像毎に生成された比較画像範囲明示画像が示す比較画像範囲の画像領域を抽出する。そして、比較画像生成部339は、例えば、抽出した比較画像範囲の画像領域と背景のみを含む画像を第1の画像としてテンプレート画像毎に生成する。これにより、比較画像生成部339は、テンプレート画像と同じ数の第1の画像を生成する。そして、比較画像生成部339は、生成した複数の第1の画像を示す第1の画像情報を記憶部32に記憶させる。また、比較画像生成部339は、第1の画像情報と、該第1の画像情報に対応する対象物の三次元モデルの位置情報及び該第1の画像情報に対応する対象物の三次元モデルの姿勢を示す姿勢情報とを関連づけて記憶部32に記憶させる。   The comparison image generation unit 339 performs, for each template image, a process of generating the first image based on the comparison image range generated based on the template image from the template image. Specifically, for example, the comparison image generation unit 339 extracts an image region in the comparison image range indicated by the comparison image range explicit image generated for each template image from each of the plurality of template images in advance. Then, the comparison image generation unit 339 generates, for example, an image including only the image area and background of the extracted comparison image range as the first image for each template image. Thereby, the comparison image generation unit 339 generates the same number of first images as the template image. Then, the comparison image generation unit 339 causes the storage unit 32 to store first image information indicating the plurality of generated first images. The comparison image generation unit 339 also includes first image information, position information of a three-dimensional model of the object corresponding to the first image information, and a three-dimensional model of the object corresponding to the first image information. Is stored in the storage unit 32 in association with the posture information indicating the posture.

続いて、位置姿勢推定処理において、制御部33の各部が行う処理を説明する。
撮影画像取得部338は、対象物が撮影された画像である撮影画像を取得する。そして、撮影画像取得部338は、取得した撮影画像を示す撮影画像情報を比較画像生成部339へ供給する。
Next, a process performed by each unit of the control unit 33 in the position / orientation estimation process will be described.
The captured image acquisition unit 338 acquires a captured image that is an image obtained by capturing an object. Then, the captured image acquisition unit 338 supplies captured image information indicating the acquired captured image to the comparison image generation unit 339.

比較画像生成部339は、複数の比較画像範囲から選択された一の比較画像範囲に基づいて撮影画像から第2の画像を生成する処理を比較画像範囲の分だけ行う。また、例えば、比較画像生成部339は、撮影画像取得部338から撮影画像情報が入力された場合、全ての比較画像範囲明示画像情報を記憶部32から読み出す。そして、比較画像生成部339は、その全ての比較画像範囲明示画像情報から選択された一の比較画像範囲明示画像情報が示す比較画像範囲の画像領域を抽出する。そして、比較画像生成部339は、例えば、この比較画像範囲の画像領域と背景のみを含む画像を第2の画像として生成する。比較画像生成部339は、この第2の画像を生成する処理を比較画像範囲明示画像情報の分だけ行う。これにより、比較画像生成部339は、比較画像範囲明示画像情報と同じ数の第2の画像を生成する。そして、比較画像生成部339は、生成した第2の画像を示す第2の画像情報を第2の画像の数だけ位置姿勢推定部340に出力する。   The comparison image generation unit 339 performs processing for generating the second image from the captured image based on one comparison image range selected from the plurality of comparison image ranges for the comparison image range. Further, for example, when the captured image information is input from the captured image acquisition unit 338, the comparative image generation unit 339 reads all the comparative image range explicit image information from the storage unit 32. Then, the comparison image generation unit 339 extracts the image area of the comparison image range indicated by the one comparison image range explicit image information selected from all the comparison image range explicit image information. Then, the comparison image generation unit 339 generates, for example, an image including only the image area and background of this comparison image range as the second image. The comparison image generation unit 339 performs the process of generating the second image for the comparison image range explicit image information. Thereby, the comparison image generation unit 339 generates the same number of second images as the comparison image range explicit image information. Then, the comparative image generation unit 339 outputs the second image information indicating the generated second image to the position / orientation estimation unit 340 by the number of the second images.

位置姿勢推定部340は、第1の画像と該第1の画像で用いられた比較画像範囲と同じ比較画像範囲を用いて生成された第2の画像とを複数組比較することにより、対象物の位置または姿勢の少なくともいずれかを推定する。
具体的には、位置姿勢推定部340は、第1の画像と該第1の画像で用いられた比較画像範囲と同じ比較画像範囲を用いて生成された第2の画像との間でテンプレートマッチングを行う。例えば、位置姿勢推定部340は、第1の画像と該第1の画像で用いられた比較画像範囲と同じ比較画像範囲を用いて生成された第2の画像との間で、対応する画素の画素値の差の絶対値を全画素に渡って加算することで、差分絶対値和を算出する。そして、位置姿勢推定部340は、例えば、第1の画像と該第1の画像で用いられた比較画像範囲と同じ比較画像範囲を用いて生成された第2の画像との全ての組で、最も差分絶対値和が小さくなる第1の画像を抽出する。そして、位置姿勢推定部340は、例えば、抽出した第1の画像を示す第1の画像情報に関連付けられた位置情報及び姿勢情報を記憶部32から読み出す。そして、位置姿勢推定部340は、例えば、読み出した位置情報及び姿勢情報を含む位置姿勢情報をロボット制御装置50へ出力する。
The position / orientation estimation unit 340 compares the first image and a plurality of sets of second images generated using the same comparison image range as the comparison image range used in the first image. Estimate at least one of the position and orientation of
Specifically, the position / orientation estimation unit 340 performs template matching between the first image and the second image generated using the same comparison image range as the comparison image range used in the first image. I do. For example, the position / orientation estimation unit 340 calculates the corresponding pixel between the first image and the second image generated using the same comparison image range as the comparison image range used in the first image. The sum of absolute differences is calculated by adding the absolute values of the pixel value differences over all the pixels. The position / orientation estimation unit 340 includes, for example, all sets of the first image and the second image generated using the same comparison image range as the comparison image range used in the first image, A first image having the smallest difference absolute value sum is extracted. Then, the position / orientation estimation unit 340 reads position information and orientation information associated with the first image information indicating the extracted first image from the storage unit 32, for example. Then, the position / orientation estimation unit 340 outputs position / orientation information including the read position information and orientation information to the robot controller 50, for example.

図6は、特徴取得部331の処理の概要を説明するための図である。同図において、対象物の三次元モデルを含むテンプレート画像の一例である画像G61と、この画像G61から特徴取得部331による処理により特徴が抽出された後の概念図G62が示されている。概念図G62において、対象物の三次元モデルの上に、特徴点を中心として特徴の大きさに応じた半径の円が複数示されている。このように、特徴取得部331は、テンプレート画像から、特徴点と該特徴点の特徴の大きさを抽出する。   FIG. 6 is a diagram for explaining an outline of processing of the feature acquisition unit 331. In the figure, an image G61 which is an example of a template image including a three-dimensional model of an object, and a conceptual diagram G62 after features are extracted from the image G61 by processing by the feature acquisition unit 331 are shown. In the conceptual diagram G62, a plurality of circles having a radius corresponding to the size of the feature centered on the feature point are shown on the three-dimensional model of the object. In this manner, the feature acquisition unit 331 extracts feature points and the feature sizes of the feature points from the template image.

図7は、特徴領域抽出部332の処理の概要を説明するための図である。同図において、図6に示された概念図G62と、この概念図G62から特徴領域抽出部332による処理により特徴領域が抽出された後の概念図G63が示されている。概念図G63において、概念図G62において示された複数の円を外縁とする領域の和集合である特徴領域が示されている。このように、特徴領域抽出部332は、特徴点と該特徴点の特徴の大きさから、特徴領域を抽出する。   FIG. 7 is a diagram for explaining the outline of the process of the feature region extraction unit 332. In the same figure, the conceptual diagram G62 shown in FIG. 6 and the conceptual diagram G63 after the feature region is extracted from the conceptual diagram G62 by the processing by the feature region extraction unit 332 are shown. In the conceptual diagram G63, a feature region that is a union of regions having the plurality of circles shown in the conceptual diagram G62 as outer edges is shown. Thus, the feature region extraction unit 332 extracts a feature region from the feature points and the feature sizes of the feature points.

図8は、特徴領域画像生成部335の処理の概要を説明するための図である。同図において、図7に示された概念図G63と、この概念図G63から特徴領域画像生成部335による処理により生成された特徴領域明示画像G64が示されている。特徴領域明示画像G64では、概念図G63に示された特徴領域が白(例えば、輝度が1ビットで表される場合、輝度値1に相当)で、それ以外の領域が黒(例えば、輝度が1ビットで表される場合、輝度値0に相当)になっている。このように、特徴領域画像生成部335は、特徴領域から特徴領域明示画像を生成する。   FIG. 8 is a diagram for explaining the outline of the process of the feature region image generation unit 335. In the figure, a conceptual diagram G63 shown in FIG. 7 and a feature region explicit image G64 generated from the conceptual diagram G63 by processing by the feature region image generation unit 335 are shown. In the feature region explicit image G64, the feature region shown in the conceptual diagram G63 is white (for example, when the luminance is represented by 1 bit, it corresponds to a luminance value of 1), and the other regions are black (for example, the luminance is When represented by 1 bit, it corresponds to a luminance value of 0). Thus, the feature region image generation unit 335 generates a feature region explicit image from the feature region.

図9は、高精度領域画像生成部336の処理の概要を説明するための図である。同図において、高精度領域が示された概念図G65と、この概念図G65から高精度領域画像生成部336により生成された高精度領域明示画像G66が示されている。高精度領域明示画像G66では、概念図G65に示された高精度領域が白(例えば、輝度が1ビットで表される場合、輝度値1に相当)で、それ以外の領域が黒(例えば、輝度が1ビットで表される場合、輝度値0に相当)になっている。このように、高精度領域画像生成部336は、高精度領域から高精度領域明示画像を生成する。   FIG. 9 is a diagram for explaining the outline of the processing of the high-accuracy region image generation unit 336. In the drawing, a conceptual diagram G65 showing a high-precision region, and a high-precision region explicit image G66 generated from the conceptual diagram G65 by the high-precision region image generating unit 336 are shown. In the high-precision region explicit image G66, the high-precision region shown in the conceptual diagram G65 is white (for example, when the luminance is represented by 1 bit, it corresponds to a luminance value of 1), and the other regions are black (for example, When the luminance is expressed by 1 bit, it corresponds to a luminance value of 0). As described above, the high accuracy area image generation unit 336 generates a high accuracy area explicit image from the high accuracy area.

図10は、重複範囲抽出部337の処理の概要を説明するための図である。同図において、図8に示された特徴領域明示画像G64と、図9に示された高精度領域明示画像G66と、この特徴領域明示画像G64と高精度領域明示画像G66から重複範囲抽出部337により生成された比較画像範囲明示画像G67とが示されている。ここで特徴領域明示画像G64には、特定領域が白色の領域で示されている。高精度領域明示画像G66には、高精度領域が白色の領域で示されている。比較画像範囲明示画像G67には、この特定領域と高精度領域の積集合である比較画像範囲が白色の領域で示されている。このように、高精度領域画像生成部336は、特徴領域明示画像と高精度領域明示画像から比較画像範囲明示画像を生成する。   FIG. 10 is a diagram for explaining the outline of the processing of the overlapping range extraction unit 337. In the figure, the feature region explicit image G64 shown in FIG. 8, the high-precision region explicit image G66 shown in FIG. 9, and the overlapping range extraction unit 337 from the feature region explicit image G64 and the high-precision region explicit image G66. The comparison image range explicit image G67 generated by the above is shown. Here, in the feature region explicit image G64, the specific region is shown as a white region. In the high-precision area explicit image G66, the high-precision area is shown as a white area. In the comparison image range explicit image G67, a comparison image range which is a product set of the specific region and the high accuracy region is indicated by a white region. As described above, the high-precision area image generation unit 336 generates a comparative image range explicit image from the feature area explicit image and the high-precision area explicit image.

図11は、比較画像生成部339の処理の概要を説明するための図である。同図において、図6に示されたテンプレート画像G61と、比較画像生成部339がテンプレート画像G61から図10に示された比較画像範囲明示画像G67に示された比較画像範囲(比較画像範囲明示画像G67中の白色の領域)を抽出することにより生成された第1画像G68が示されている。このように、比較画像生成部339は、対象物体のモデルの位置または姿勢の少なくともいずれかが互いに異なる複数のテンプレート画像それぞれから、そのテンプレート画像に一対一に関連付けられた比較画像範囲明示画像が示す比較画像範囲を抽出した第1画像を生成する。同様に、比較画像生成部339は、撮影画像から一の比較画像範囲明示画像が示す比較画像範囲を抽出した第2画像を生成する。そして、比較画像生成部339はこの処理を全ての比較画像範囲明示画像について行うことにより、比較画像範囲明示画像の数すなわちテンプレート画像の数だけ第2画像を生成する。これにより、比較画像生成部339は、第1の画像と第2の画像を、同じ数だけ生成する。   FIG. 11 is a diagram for explaining the outline of the processing of the comparison image generation unit 339. In the figure, the template image G61 shown in FIG. 6 and the comparison image generation unit 339 from the template image G61 to the comparison image range (comparison image range explicit image) shown in the comparison image range explicit image G67 shown in FIG. A first image G68 generated by extracting the white area in G67 is shown. As described above, the comparison image generation unit 339 indicates, from each of a plurality of template images in which at least one of the position and orientation of the target object model is different from each other, the comparison image range explicit image associated with the template image in a one-to-one manner. A first image from which the comparison image range is extracted is generated. Similarly, the comparison image generation unit 339 generates a second image obtained by extracting a comparison image range indicated by one comparison image range explicit image from the captured image. Then, the comparison image generation unit 339 generates the second image by the number of comparison image range explicit images, that is, the number of template images, by performing this process for all the comparison image range explicit images. Thereby, the comparison image generation unit 339 generates the same number of first images and second images.

図12は、第1の実施形態の位置姿勢検出装置30が、位置姿勢検出の前に、事前に予め実行する処理の流れの一例を示すフローチャートである。まず、位置姿勢検出装置30は、低加工精度領域を取得する(ステップS101)。次に、特徴取得部331は、記憶部32からテンプレート画像情報を処理の対象となる対象テンプレート画像情報として読み出す(ステップS102)。次に、特徴領域抽出部332は、テンプレート画像に含まれる対象物のモデルにおける特徴点の位置及び該特徴点の特徴の大きさを算出する(ステップS103)。次に、特徴領域抽出部332は、特徴領域抽出部332が算出した特徴の大きさに応じた大きさで特徴画像領域を抽出する(ステップS104)。   FIG. 12 is a flowchart illustrating an example of a flow of processing executed in advance by the position / orientation detection apparatus 30 according to the first embodiment before the position / orientation detection. First, the position / orientation detection apparatus 30 acquires a low machining accuracy region (step S101). Next, the feature acquisition unit 331 reads the template image information from the storage unit 32 as target template image information to be processed (step S102). Next, the feature region extraction unit 332 calculates the position of the feature point and the feature size of the feature point in the model of the object included in the template image (step S103). Next, the feature region extraction unit 332 extracts a feature image region with a size corresponding to the feature size calculated by the feature region extraction unit 332 (step S104).

次に、特徴領域画像生成部335は、抽出した特徴画像領域を用いて、特徴画像領域を示す特徴領域明示画像を生成する(ステップS105)。次に、高精度領域画像生成部336は、記憶部32に記憶された座標データと低加工精度領域フラグを参照して、対象テンプレート画像のうち高加工精度領域を示す高精度領域明示画像を生成する(ステップS106)。   Next, the feature region image generation unit 335 generates a feature region explicit image indicating the feature image region using the extracted feature image region (step S105). Next, the high-accuracy region image generation unit 336 generates a high-accuracy region explicit image indicating a high-processing accuracy region in the target template image with reference to the coordinate data stored in the storage unit 32 and the low-processing accuracy region flag. (Step S106).

次に、重複範囲抽出部337は、特徴領域明示画像と高精度領域明示画像とに基づいて、比較画像範囲明示画像を生成し、生成した比較画像範囲明示画像を記憶部32に記憶させる(ステップS107)。次に、比較画像生成部339は、テンプレート画像から該テンプレート画像に基づいて生成された比較画像範囲に基づいて第1の画像を生成する(ステップS108)。次に、比較画像生成部339は、全てのテンプレート画像から第1の画像を生成したか否か判定する(ステップS109)。全てのテンプレート画像から第1の画像を生成していない場合(ステップS109 NO)、比較画像生成部339は、次のテンプレート画像を読み出し(ステップS110)、ステップS103の処理に戻る。一方、全てのテンプレート画像から第1の画像を生成した場合(ステップS109 YES)、比較画像生成部339は、その処理を終了する。以上で、本フローチャートの処理を終了する。   Next, the overlapping range extraction unit 337 generates a comparative image range explicit image based on the feature region explicit image and the high-precision region explicit image, and stores the generated comparative image range explicit image in the storage unit 32 (Step S <b> 3). S107). Next, the comparison image generation unit 339 generates a first image based on the comparison image range generated based on the template image from the template image (step S108). Next, the comparison image generation unit 339 determines whether or not the first image has been generated from all the template images (step S109). When the first image has not been generated from all the template images (NO in step S109), the comparison image generating unit 339 reads the next template image (step S110) and returns to the process of step S103. On the other hand, when the first image is generated from all the template images (YES in step S109), the comparative image generation unit 339 ends the process. Above, the process of this flowchart is complete | finished.

図13は、第1の実施形態の位置姿勢検出装置30が、実際に対象物の位置または姿勢を検出する位置姿勢検出処理の流れの一例を示すフローチャートである。まず、比較画像生成部339は、1番目の比較画像範囲明示画像を読み出す(ステップS201)。次に、比較画像生成部339は、読み出した1番目の比較画像範囲明示画像を用いて、撮影画像から第2の画像を生成する(ステップS202)。次に、比較画像生成部339は、全ての比較画像範囲明示画像を用いて第2の画像を生成したか否か判定する(ステップS203)。全ての比較画像範囲明示画像を用いて第2の画像を生成していない場合(ステップS203 NO)、比較画像生成部339は、次の比較画像範囲明示画像を記憶部32から読み出し(ステップS204)、ステップS205の処理へ進む。ステップS205において、比較画像生成部339は、次の比較画像範囲明示画像を用いて撮影画像から第2の画像を生成し、ステップS203の処理に戻る。   FIG. 13 is a flowchart illustrating an example of a flow of position and orientation detection processing in which the position and orientation detection apparatus 30 according to the first embodiment actually detects the position or orientation of an object. First, the comparison image generation unit 339 reads the first comparison image range explicit image (step S201). Next, the comparative image generation unit 339 generates a second image from the captured image using the read first comparative image range explicit image (step S202). Next, the comparison image generation unit 339 determines whether or not the second image has been generated using all the comparison image range explicit images (step S203). When the second image is not generated using all the comparison image range explicit images (NO in step S203), the comparison image generation unit 339 reads the next comparison image range explicit image from the storage unit 32 (step S204). The process proceeds to step S205. In step S205, the comparative image generation unit 339 generates a second image from the captured image using the next comparative image range explicit image, and the process returns to step S203.

ステップS203において、全ての比較画像範囲明示画像を用いて第2の画像を生成した場合(ステップS203 YES)、位置姿勢推定部340は、1番目の比較画像範囲明示画像に基づく第1の画像を読み出す(ステップS206)。次に、位置姿勢推定部340は、1番目の比較画像範囲明示画像に基づく第1の画像と1番目の比較画像範囲明示画像に基づく第2の画像との間で、対応する画素の画素値の差の絶対値を全画素に渡って加算することで、画素値の差分絶対値和を算出する(ステップS207)。次に、位置姿勢推定部340は、全ての組み合わせで差分絶対値和を算出したか否か判定する(ステップS208)。   In step S203, when the second image is generated using all the comparative image range explicit images (YES in step S203), the position / orientation estimation unit 340 selects the first image based on the first comparative image range explicit image. Read (step S206). Next, the position / orientation estimation unit 340 includes pixel values of corresponding pixels between the first image based on the first comparative image range explicit image and the second image based on the first comparative image range explicit image. The sum of absolute differences of pixel values is calculated by adding the absolute values of the differences over all the pixels (step S207). Next, the position / orientation estimation unit 340 determines whether or not the sum of absolute differences has been calculated for all combinations (step S208).

全ての組み合わせで差分絶対値和を算出していない場合(ステップS208 NO)、位置姿勢推定部340は、次の比較画像範囲明示画像に基づく第1の画像を読み出し(ステップS209)、ステップS210の処理へ進む。ステップS210において、位置姿勢推定部340は、次の比較画像範囲明示画像に基づく第1の画像と同じ次の比較画像範囲明示画像に基づく第2の画像との間で、対応する画素の画素値の差の絶対値を全画素に渡って加算することで、画素値の差分絶対値和を算出し、ステップS208の処理へ戻る。   If the sum of absolute differences has not been calculated for all combinations (NO in step S208), the position / orientation estimation unit 340 reads the first image based on the next comparative image range explicit image (step S209), and in step S210 Proceed to processing. In step S210, the position / orientation estimation unit 340 determines the pixel value of the corresponding pixel between the first image based on the next comparison image range explicit image and the second image based on the same next comparison image range explicit image. By adding the absolute values of the differences over all pixels, the sum of absolute differences of the pixel values is calculated, and the process returns to step S208.

ステップS208において、全ての組み合わせで差分絶対値和を算出した場合(ステップS208 YES)、位置姿勢推定部340は、対象物の位置及び姿勢が、画素値の差分絶対値和が最も小さい第1の画像を示す第1の画像情報に関連付けられた位置情報及び姿勢情報をそれぞれ対象物の位置情報及び姿勢情報として抽出する(ステップS211)。以上で、本フローチャートの処理を終了する。   In step S208, when the sum of absolute differences is calculated for all combinations (YES in step S208), the position / orientation estimation unit 340 uses the first difference absolute value sum of pixel values for the position and orientation of the object. Position information and posture information associated with first image information indicating an image are extracted as position information and posture information of the object, respectively (step S211). Above, the process of this flowchart is complete | finished.

従来、対象物が板金部品の場合は、実際の対象物に板金加工の加工精度のばらつきがあり、CADモデルに対して対象物毎にマッチングの精度が異なるという問題があった。
それに対し、第1の実施形態における位置姿勢検出装置30において、低加工精度領域取得部333は、それぞれのテンプレート画像について、対象物の加工精度が予め決められた精度より低い部分の画像領域を取得する。
Conventionally, when the object is a sheet metal part, there is a variation in processing accuracy of sheet metal processing in the actual object, and there is a problem that matching accuracy differs for each object with respect to the CAD model.
In contrast, in the position / orientation detection apparatus 30 according to the first embodiment, the low processing accuracy region acquisition unit 333 acquires, for each template image, an image region of a portion where the processing accuracy of the target is lower than a predetermined accuracy. To do.

また、位置姿勢検出装置30において、特徴取得部331は、対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさを取得する。そして、位置姿勢検出装置30において、比較画像範囲取得部334は、それぞれのテンプレート画像について、特徴取得部により取得されたモデルの特徴点およびその特徴点の特徴の大きさ、ならびに低加工精度領域取得部により取得された画像領域に基づいて、比較画像範囲を取得する。   Further, in the position / orientation detection apparatus 30, the feature acquisition unit 331 is an image of a model representing the contour of the object, and each of a plurality of images in which at least one of the position or orientation of the model in the image is different from each other. For each template image, the feature point of the model represented in the template image and the feature size of the feature point are acquired. In the position / orientation detection apparatus 30, the comparative image range acquisition unit 334 acquires, for each template image, the model feature point acquired by the feature acquisition unit, the feature size of the feature point, and the low processing accuracy region acquisition. The comparison image range is acquired based on the image area acquired by the unit.

この構成によれば、位置姿勢検出装置30は、特徴点の特徴が大きいほど、比較画像範囲に含まれるその特徴点周辺の領域の割合を増加させ、モデル及び対象物自体の特徴部分の中でも加工精度の低い部分の情報を除くことができる。これにより、この比較画像範囲に関して、テンプレート画像と対象物が撮影された撮影画像との間で、比較することにより位置または姿勢のうちいずれかを推定するので、対象物に加工精度のばらつきがあったとしても、モデル及び対象物自体の特徴部分の中でも加工精度の高い部分の情報のみを用いてマッチングを行うので、マッチングの精度を向上させることができる。これにより、位置姿勢検出装置30は、テンプレート画像と撮像画像とのマッチングの精度が向上させることができるので、位置または姿勢の推定精度を向上させることができる。   According to this configuration, the position / orientation detection device 30 increases the ratio of the area around the feature point included in the comparison image range as the feature of the feature point is larger, and processes the feature portion of the model and the object itself. Information with low accuracy can be removed. As a result, regarding the comparison image range, either the position or the posture is estimated by comparing between the template image and the photographed image obtained by photographing the object, so that the object has a variation in processing accuracy. Even so, since the matching is performed using only the information of the portion with high processing accuracy among the characteristic portions of the model and the object itself, the accuracy of matching can be improved. As a result, the position / orientation detection apparatus 30 can improve the accuracy of matching between the template image and the captured image, and can therefore improve the estimation accuracy of the position or orientation.

なお、位置姿勢検出装置30は、画素値の差分絶対値和の最小値が、予め決められた閾値よりも大きい場合、位置及び姿勢が得られないと判定してもよい。そして、位置姿勢検出装置30は、比較画像範囲明示画像内のマスク領域の位置を、例えば予め決められた方向に移動させる。そして、位置姿勢検出装置30は、この移動させたマスク領域を用いて、図13のフローチャートの処理を再度実行してもよい。   Note that the position and orientation detection device 30 may determine that the position and orientation cannot be obtained when the minimum value of the sum of absolute differences of pixel values is larger than a predetermined threshold value. Then, the position / orientation detection apparatus 30 moves the position of the mask area in the comparison image range explicit image, for example, in a predetermined direction. Then, the position / orientation detection apparatus 30 may execute the process of the flowchart of FIG. 13 again using the moved mask region.

また、位置姿勢検出装置30は、画素値の差分絶対値和の最小値が、予め決められた閾値よりも大きい場合、位置及び姿勢が得られないと判定し、その後に、ロボット制御装置50がロボット本体10に対象物体の位置及び姿勢を変更させてもよい。その場合、位置姿勢検出装置30は、撮像装置20に対象物体を撮像させる。そして、この撮像により得られた撮像画像を用いて、位置姿勢検出装置30は、図13のフローチャートの処理を再度実行してもよい。
また、低加工精度領域を、対象物の個体のばらつきが大きな領域を含んでもよい。これにより、位置姿勢検出装置30は、対象物の個体のばらつきが大きな領域を、比較画像範囲から除外することができる。
Further, the position / orientation detection device 30 determines that the position and orientation cannot be obtained when the minimum value of the sum of absolute differences of pixel values is larger than a predetermined threshold value, and then the robot control device 50 You may make the robot main body 10 change the position and attitude | position of a target object. In that case, the position / orientation detection apparatus 30 causes the imaging apparatus 20 to image the target object. Then, using the captured image obtained by this imaging, the position / orientation detection apparatus 30 may execute the process of the flowchart of FIG. 13 again.
Further, the low processing accuracy area may include an area where the variation of the individual object is large. Accordingly, the position / orientation detection apparatus 30 can exclude an area where the variation of the individual object is large from the comparison image range.

また、位置姿勢検出装置30は、抽出した特徴画像領域に少なくとも基づいて、比較画像範囲をテンプレート画像毎に生成すればよい。この構成によれば、特徴点の特徴が大きいほど、比較画像範囲に含まれるその特徴点周辺の領域の割合が増加するので、位置姿勢検出装置30は、テンプレート画像と対象物が撮影された撮影画像との間で、特徴の大きい領域について重点をおいて比較し、特徴の小さい領域については重点をおかずに比較する。これにより、位置姿勢検出装置30は、テンプレート画像と撮像画像とのマッチングの精度を向上させることができるので、対象物の位置または姿勢の検出精度を向上させることができる。   Further, the position / orientation detection device 30 may generate a comparison image range for each template image based at least on the extracted feature image region. According to this configuration, since the ratio of the area around the feature point included in the comparison image range increases as the feature point feature increases, the position / orientation detection apparatus 30 captures the template image and the target object. Compared with the image, a region with a large feature is compared with emphasis, and a region with a small feature is compared without emphasis. Thereby, since the position and orientation detection device 30 can improve the accuracy of matching between the template image and the captured image, it is possible to improve the detection accuracy of the position or orientation of the object.

また、第1の実施形態では、制御部33が予め事前処理を行ったが、これに限らず、位置姿勢推定処理の前に、毎回事前処理を行ってもよい。   In the first embodiment, the control unit 33 performs pre-processing in advance. However, the present invention is not limited to this, and the pre-processing may be performed every time before the position and orientation estimation processing.

<第2の実施形態>
続いて、第2の実施形態について説明する。第1の実施形態では、位置姿勢検出装置30が、事前処理と位置姿勢推定処理の両方の処理を行っていた。それに対し、第2の実施形態では、比較画像範囲生成装置41が事前処理を行い、位置姿勢検出装置30bが位置姿勢推定処理を行う。これにより、別々の装置が上記二つの処理を行う。
<Second Embodiment>
Next, the second embodiment will be described. In the first embodiment, the position / orientation detection apparatus 30 performs both the pre-processing and the position / orientation estimation process. On the other hand, in the second embodiment, the comparative image range generation device 41 performs pre-processing, and the position / orientation detection device 30b performs position / orientation estimation processing. Thereby, separate devices perform the above two processes.

図14は、第2の実施形態におけるロボットシステム1bの構成を示す概略ブロック図である。なお、図1と共通する要素には同一の符号を付し、その具体的な説明を省略する。図14のロボットシステム1bの構成は、図1のロボットシステム1の構成に対して、比較画像範囲生成装置41が追加され、位置姿勢検出装置30が位置姿勢検出装置30bに変更された構成になっている。   FIG. 14 is a schematic block diagram showing the configuration of the robot system 1b according to the second embodiment. Elements common to those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted. The configuration of the robot system 1b in FIG. 14 is a configuration in which a comparative image range generation device 41 is added to the configuration of the robot system 1 in FIG. 1 and the position / orientation detection device 30 is changed to a position / orientation detection device 30b. ing.

図15は、第2の実施形態における比較画像範囲生成装置41の構成を示す概略ブロック図である。比較画像範囲生成装置41は、入力部31と、記憶部32と、表示部34と、制御部43と、通信部45とを備える。なお、図4と共通する要素には同一の符号を付し、その具体的な説明を省略する。   FIG. 15 is a schematic block diagram showing the configuration of the comparative image range generation device 41 in the second embodiment. The comparative image range generation device 41 includes an input unit 31, a storage unit 32, a display unit 34, a control unit 43, and a communication unit 45. In addition, the same code | symbol is attached | subjected to the element which is common in FIG. 4, and the specific description is abbreviate | omitted.

制御部43は、例えば、記憶部32からテンプレート画像情報を読み出し、読み出したテンプレート画像情報が示すテンプレート画像に基づいて、比較画像範囲明示画像を生成する。制御部43は、例えば、位置姿勢検出装置30から通信部45を介して受信した比較画像範囲明示画像要求に応じて、生成した比較画像範囲明示画像を示す比較画像範囲明示画像情報を通信部45から位置姿勢検出装置30bへ送信させる。ここで、比較画像範囲明示画像要求は、比較画像範囲明示画像を要求する情報である。   For example, the control unit 43 reads the template image information from the storage unit 32 and generates a comparative image range explicit image based on the template image indicated by the read template image information. For example, in response to the comparison image range explicit image request received from the position / orientation detection device 30 via the communication unit 45, the control unit 43 transmits the comparison image range explicit image information indicating the generated comparison image range explicit image to the communication unit 45. To the position and orientation detection device 30b. Here, the comparison image range explicit image request is information for requesting a comparison image range explicit image.

制御部43は、例えば、位置姿勢検出装置30から通信部45を介して受信した第1画像要求に応じて、第1の画像情報を記憶部32から読み出し、読み出した第1の画像情報を通信部45から位置姿勢検出装置30bへ送信させる。ここで、第1画像要求は、第1の画像情報を要求する情報である。
また、制御部43は、例えば、位置姿勢検出装置30から通信部45を介して第1の画像情報を受信した場合、記憶部32からその第1の画像情報に関連付けられた位置情報及び姿勢を示す姿勢情報を読み出す。そして、制御部43は、例えば、位置情報または姿勢情報のうち少なくともいずれか一つを含む位置姿勢情報を通信部45から位置姿勢検出装置30bへ送信させる。
For example, in response to a first image request received from the position / orientation detection device 30 via the communication unit 45, the control unit 43 reads the first image information from the storage unit 32 and communicates the read first image information. The unit 45 transmits to the position / orientation detection apparatus 30b. Here, the first image request is information for requesting the first image information.
For example, when the control unit 43 receives the first image information from the position / orientation detection device 30 via the communication unit 45, the control unit 43 displays the position information and the posture associated with the first image information from the storage unit 32. Read the attitude information shown. For example, the control unit 43 causes the communication unit 45 to transmit position and orientation information including at least one of position information and orientation information to the position and orientation detection device 30b.

通信部45は、位置姿勢検出装置30から送信された比較画像範囲明示画像要求または第1画像要求を受信し、受信した比較画像範囲明示画像要求または第1画像要求を制御部43へ出力する。通信部45は、比較画像範囲明示画像要求に応じて制御部43が出力した比較画像範囲明示画像情報を位置姿勢検出装置30bへ送信する。また、通信部45は、第1画像要求に応じて制御部43が出力した第1画像情報を位置姿勢検出装置30bへ送信する。
また、通信部45は、位置姿勢検出装置30から送信された第1の画像情報を受信し、受信した第1の画像情報を制御部43へ出力する。通信部45は、制御部43から入力された位置姿勢情報を位置姿勢検出装置30bへ送信する。
The communication unit 45 receives the comparison image range explicit image request or the first image request transmitted from the position / orientation detection apparatus 30, and outputs the received comparison image range explicit image request or first image request to the control unit 43. The communication unit 45 transmits the comparison image range explicit image information output by the control unit 43 in response to the comparison image range explicit image request to the position and orientation detection device 30b. Further, the communication unit 45 transmits the first image information output from the control unit 43 in response to the first image request to the position and orientation detection device 30b.
Further, the communication unit 45 receives the first image information transmitted from the position / orientation detection device 30 and outputs the received first image information to the control unit 43. The communication unit 45 transmits the position / orientation information input from the control unit 43 to the position / orientation detection device 30b.

図16は、第2の実施形態における比較画像範囲生成装置41の制御部43の論理的な構成を示す概略ブロック図である。制御部43は、なお、図5と共通する要素には同一の符号を付し、その具体的な説明を省略する。特徴取得部331と、特徴領域抽出部332と、低加工精度領域取得部333と、比較画像範囲取得部334と、通信制御部431を備える。   FIG. 16 is a schematic block diagram illustrating a logical configuration of the control unit 43 of the comparative image range generation device 41 in the second embodiment. In the control unit 43, elements common to those in FIG. A feature acquisition unit 331, a feature region extraction unit 332, a low processing accuracy region acquisition unit 333, a comparative image range acquisition unit 334, and a communication control unit 431 are provided.

通信制御部431は、例えば、比較画像範囲明示画像要求を受信する毎に、一枚の比較画像範囲明示画像を示す比較画像範囲明示画像情報を順番に読み出し、読み出した比較画像範囲明示画像情報を通信部45へ送信する。例えば、記憶部32に比較画像範囲明示画像がN枚分(Nは正の整数)記憶されている場合、通信制御部431は、合計して比較画像範囲明示画像要求をN回受信して、合計してN個の比較画像範囲明示画像情報を通信部45へ送信する。   For example, each time the communication control unit 431 receives a comparison image range explicit image request, the communication control unit 431 sequentially reads the comparison image range explicit image information indicating one comparison image range explicit image, and the read comparison image range explicit image information is read out. It transmits to the communication part 45. For example, when N comparison image range explicit images (N is a positive integer) are stored in the storage unit 32, the communication control unit 431 receives the comparison image range explicit image request N times in total, In total, N pieces of comparison image range explicit image information are transmitted to the communication unit 45.

また、通信制御部431は、例えば、第1画像要求を受信する毎に、一枚の第1画像を示す第1画像情報を順番に読み出し、読み出した第1画像情報を通信部45へ送信する。例えば、記憶部32に第1画像がN枚分記憶されている場合、通信制御部431は、合計して第1画像要求をN回受信して、合計してN個の第1画像情報を通信部45へ送信する。   In addition, for example, each time the first image request is received, the communication control unit 431 sequentially reads first image information indicating one first image and transmits the read first image information to the communication unit 45. . For example, when N first images are stored in the storage unit 32, the communication control unit 431 receives the first image request N times in total, and receives the N first image information in total. It transmits to the communication part 45.

図17は、第2の実施形態における位置姿勢検出装置30bの構成を示す概略ブロック図である。位置姿勢検出装置30bは、記憶部32bと制御部33bと通信部35とを備える。
記憶部32bには、制御部33bが読み出して実行するプログラムが記憶されている。
通信部35は、制御部33bの制御に従って、比較画像範囲生成装置41と通信する。
FIG. 17 is a schematic block diagram illustrating a configuration of the position and orientation detection device 30b according to the second embodiment. The position / orientation detection apparatus 30b includes a storage unit 32b, a control unit 33b, and a communication unit 35.
The storage unit 32b stores a program that is read and executed by the control unit 33b.
The communication unit 35 communicates with the comparative image range generation device 41 according to the control of the control unit 33b.

制御部33bは、通信部35を制御して、比較画像範囲生成装置41から比較画像範囲明示画像を取得する毎に、第2画像を生成する。また、制御部33bは、通信部35を制御して、比較画像範囲生成装置41から複数の第1画像を取得する。そして、制御部33bは、第1の画像と該第1の画像で用いられた比較画像範囲と同じ比較画像範囲を用いて生成された第2の画像とを複数組比較することにより、対象物の位置または姿勢の少なくともいずれかを推定する。制御部33bは、推定した対象物の位置を示す位置情報または姿勢を示す姿勢情報のうち少なくともいずれか一つを含む位置姿勢情報をロボット制御装置50へ出力する。   The control unit 33 b controls the communication unit 35 to generate a second image every time a comparative image range explicit image is acquired from the comparative image range generation device 41. In addition, the control unit 33 b controls the communication unit 35 to acquire a plurality of first images from the comparative image range generation device 41. Then, the control unit 33b compares the first image and a plurality of sets of second images generated using the same comparison image range as the comparison image range used in the first image. Estimate at least one of the position and orientation of The control unit 33b outputs position and orientation information including at least one of position information indicating the estimated position of the target object and posture information indicating the attitude to the robot control device 50.

図18は、第2の実施形態における位置姿勢検出装置30bの制御部33bの論理的な構成を示す概略ブロック図である。制御部33bは、比較画像生成部339bと、位置姿勢推定部340bと取得部341とを備える。
取得部341は、対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさに基づいて取得される、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲である比較画像範囲を取得する。
FIG. 18 is a schematic block diagram illustrating a logical configuration of the control unit 33b of the position / orientation detection apparatus 30b according to the second embodiment. The control unit 33b includes a comparative image generation unit 339b, a position / orientation estimation unit 340b, and an acquisition unit 341.
The acquisition unit 341 uses, as template images, a plurality of images that are images of models representing the contour of an object and at least one of the positions or orientations of the models in the images is different from each other. An image range that is obtained based on the feature point of the model represented in the template image and the size of the feature of the feature point, and is used in the comparison between the image obtained by photographing the object and the template image. A certain comparison image range is acquired.

具体的には、例えば、通信部35を介して比較画像範囲明示画像要求を比較画像範囲生成装置41へ送信する。そして、比較画像生成部339bは、その比較画像範囲明示画像要求に応じて通信部35が受信した比較画像範囲明示画像情報を通信部35から取得する。取得部341は、取得した比較画像範囲情報を比較画像生成部339bへ出力する。   Specifically, for example, a comparison image range explicit image request is transmitted to the comparison image range generation device 41 via the communication unit 35. Then, the comparison image generation unit 339b acquires the comparison image range explicit image information received by the communication unit 35 in response to the comparison image range explicit image request from the communication unit 35. The acquisition unit 341 outputs the acquired comparison image range information to the comparison image generation unit 339b.

比較画像生成部339bは、第1の実施形態における比較画像生成部339と同様の機能を有するが、以下の点で異なる。比較画像生成部339bは、比較画像範囲明示画像情報を取得部341から取得する毎に、比較画像範囲明示画像に基づいて撮像画像から第2の画像を生成する。比較画像生成部339bは、この一連の処理を、ある対象物の複数のテンプレート画像に対して生成された全ての比較画像範囲明示画像の分だけ繰り返す。   The comparison image generation unit 339b has the same function as the comparison image generation unit 339 in the first embodiment, but differs in the following points. Each time the comparison image generation unit 339b acquires the comparison image range explicit image information from the acquisition unit 341, the comparison image generation unit 339b generates a second image from the captured image based on the comparison image range explicit image. The comparison image generation unit 339b repeats this series of processes for all the comparison image range explicit images generated for a plurality of template images of a certain target object.

位置姿勢推定部340bは、第1の実施形態における位置姿勢推定部340と同様の機能を有するが、以下の点で異なる。位置姿勢推定部340bは、通信部35を介して第1の画像を要求する第1画像要求を比較画像範囲生成装置41へ送信する。そして、位置姿勢推定部340bは、その第1画像要求に応じて通信部35が受信した第1の画像情報を通信部35から取得する。そして、位置姿勢推定部340bは、例えば、第1の画像と該第1の画像で用いられた比較画像範囲と同じ比較画像範囲を用いて生成された第2の画像との間で、画素値の差分絶対値和を算出する。位置姿勢推定部340bは、この一連の処理をある対象物の複数のテンプレート画像に対して生成された全ての第1の画像の分だけ繰り返す。   The position / orientation estimation unit 340b has the same function as the position / orientation estimation unit 340 according to the first embodiment, but differs in the following points. The position / orientation estimation unit 340 b transmits a first image request for requesting a first image to the comparative image range generation device 41 via the communication unit 35. Then, the position / orientation estimation unit 340b acquires the first image information received by the communication unit 35 from the communication unit 35 in response to the first image request. Then, the position / orientation estimation unit 340b, for example, calculates a pixel value between the first image and the second image generated using the same comparison image range as the comparison image range used in the first image. The sum of absolute differences is calculated. The position / orientation estimation unit 340b repeats this series of processes for all the first images generated for a plurality of template images of a certain target object.

そして、位置姿勢推定部340bは、画素値の差分絶対値和が最も小さくなった第1の画像を抽出する。そして、位置姿勢推定部340bは、通信部35を介して抽出した第1の画像を示す第1の画像情報を比較画像範囲生成装置41へ送信する。これにより、比較画像範囲生成装置41は、その第1の画像情報に関連付けられた位置情報又は姿勢情報のうち少なくともいずれか一つを含む位置姿勢情報を位置姿勢検出装置30bへ返信する。位置姿勢推定部340bは、通信部35が受信した位置姿勢情報を取得し、取得した位置姿勢情報をロボット制御装置50へ送信する。   Then, the position / orientation estimation unit 340b extracts the first image having the smallest sum of absolute differences of pixel values. Then, the position / orientation estimation unit 340 b transmits first image information indicating the first image extracted via the communication unit 35 to the comparative image range generation device 41. Accordingly, the comparative image range generation device 41 returns position and orientation information including at least one of the position information and the posture information associated with the first image information to the position and orientation detection device 30b. The position / orientation estimation unit 340b acquires the position / orientation information received by the communication unit 35, and transmits the acquired position / orientation information to the robot controller 50.

以上、第2の実施形態におけるロボットシステム1bでは、比較画像範囲生成装置41が比較画像範囲明示画像の生成処理を行い、位置姿勢検出装置30bが対象物の位置及び姿勢の検出処理を行う。これにより、第2の実施形態におけるロボットシステム1bは、第1の実施形態の効果に加えて、位置姿勢検出装置30bは第1の実施形態における位置姿勢検出装置30から構成要素が削除されているので、第1の実施形態における位置姿勢検出装置30よりも小型化することができる。   As described above, in the robot system 1b according to the second embodiment, the comparison image range generation device 41 performs the comparison image range explicit image generation processing, and the position / orientation detection device 30b performs the position and orientation detection processing of the target object. Thereby, in the robot system 1b according to the second embodiment, in addition to the effects of the first embodiment, the position / orientation detection device 30b has components deleted from the position / orientation detection device 30 according to the first embodiment. Therefore, it can be made smaller than the position and orientation detection device 30 in the first embodiment.

なお、各実施形態において、ロボット本体10は一例としてアームが1本のロボットを示したが、これに限らず、ロボット本体10はアームが複数あってもよい。
図19は、ロボット本体60のアームが2本の場合のロボットシステムの概略の外観図の一例である。同図におけるロボット2には、ロボット本体60と、撮像装置61と、把持部62と、位置姿勢検出装置30と、ロボット制御装置50と、第1のケーブル63と第2のケーブル64とが示されている。位置姿勢検出装置30及びロボット制御装置50は、上述した各実施形態と同様の構成であるため、位置姿勢検出装置30及びロボット制御装置50についての詳細な説明を省略する。
In each embodiment, the robot body 10 is a robot having one arm as an example. However, the present invention is not limited to this, and the robot body 10 may have a plurality of arms.
FIG. 19 is an example of a schematic external view of a robot system when the robot body 60 has two arms. The robot 2 in the figure includes a robot body 60, an imaging device 61, a gripping unit 62, a position / orientation detection device 30, a robot control device 50, a first cable 63, and a second cable 64. Has been. Since the position / orientation detection device 30 and the robot control device 50 have the same configurations as those of the above-described embodiments, detailed descriptions of the position / orientation detection device 30 and the robot control device 50 are omitted.

ロボット本体60は、具体的には、地面に対して可動に設置された本体60aと、旋回可能に本体60aに連結された首部60bと、首部60bに対して固定された頭部60cと、旋回可能および屈伸可能に頭部60cに連結された第1アーム部60dと、旋回可能および屈伸可能に頭部60cに連結された第2アーム部60eと、ロボット本体60の設置面に対してロボット本体60を移動可能に本体60aに取り付けられた搬送部60fとを含んで構成される。   Specifically, the robot main body 60 includes a main body 60a that is movably installed on the ground, a neck portion 60b that is pivotably coupled to the main body 60a, a head portion 60c that is fixed to the neck portion 60b, The first arm part 60d connected to the head part 60c so as to be able to bend and extend, the second arm part 60e connected to the head part 60c so as to be able to turn and bend and extend, and the robot body with respect to the installation surface of the robot body 60 60 includes a transfer section 60f attached to the main body 60a so as to be movable.

第1アーム部60dの開放端であるハンドには、把持部62が取り付けられている。また、第2アーム部60eの開放端であるハンドには、撮像装置61が取り付けられている。搬送部60fは、ロボット本体60の設置面に対して、ロボット本体60を一定方向または方向自在に移動可能に支持する。搬送部60fは、四組の車輪、四組のキャスター、一対の無限軌道等により実現される。   A grip part 62 is attached to the hand that is the open end of the first arm part 60d. An imaging device 61 is attached to the hand that is the open end of the second arm portion 60e. The conveyance unit 60f supports the robot body 60 so that the robot body 60 can move in a certain direction or in a freely movable direction with respect to the installation surface of the robot body 60. The conveyance unit 60f is realized by four sets of wheels, four sets of casters, a pair of endless tracks, and the like.

ロボット本体60は、例えば、2系統のアームを備えた垂直多関節ロボット(双腕ロボット)である。ロボット本体60は、ロボット制御装置50から供給されるロボット制御命令を取り込み、このロボット制御命令による駆動制御によって、撮像装置61および把持部62それぞれの位置および姿勢を三次元空間内で所望に変更し、また把持部62の爪部を開閉させる。   The robot body 60 is, for example, a vertical articulated robot (double arm robot) having two arms. The robot main body 60 takes in the robot control command supplied from the robot control device 50, and changes the position and orientation of the imaging device 61 and the gripper 62 in the three-dimensional space as desired by drive control based on the robot control command. Further, the claw portion of the grip portion 62 is opened and closed.

撮像装置61は、被写体を撮影して静止画像または動画像である撮影画像を取得し、この撮影画像をロボット制御装置50に供給する。撮像装置61は、例えば、デジタルカメラ装置、デジタルビデオカメラ装置により実現される。
把持部62は、物体を挟持可能な爪部を備える。なお、図19では、把持部62を、その機能を示すために模式的に示してある。
The imaging device 61 captures a subject, acquires a captured image that is a still image or a moving image, and supplies the captured image to the robot control device 50. The imaging device 61 is realized by, for example, a digital camera device or a digital video camera device.
The holding part 62 includes a claw part that can hold an object. In FIG. 19, the gripping portion 62 is schematically shown to show its function.

第1のケーブル63は、ロボット制御装置50が出力するロボット制御命令をロボット本体60に供給したり、ロボット本体60が出力するロボット制御応答をロボット制御装置50に供給したりする。ロボット制御命令は、ロボット本体60の各可動部を駆動制御する制御命令である。ロボット制御応答は、例えば、ロボット本体60がロボット制御装置50に対して通知する、ロボット制御命令に対する応答を含む。第1のケーブル63は、例えば、シリアル通信線等のケーブルやコンピューターネットワークである。
第2のケーブル64は、位置姿勢検出装置30が出力する位置姿勢情報をロボット制御装置50へ供給する。第2のケーブル64は、例えば、シリアル通信線等のケーブルやコンピューターネットワークである。
The first cable 63 supplies a robot control command output from the robot control device 50 to the robot main body 60, and supplies a robot control response output from the robot main body 60 to the robot control device 50. The robot control command is a control command for driving and controlling each movable part of the robot body 60. The robot control response includes, for example, a response to a robot control command that the robot body 60 notifies the robot control device 50 of. The first cable 63 is, for example, a cable such as a serial communication line or a computer network.
The second cable 64 supplies the position and orientation information output from the position and orientation detection device 30 to the robot control device 50. The second cable 64 is, for example, a cable such as a serial communication line or a computer network.

ロボット制御装置50は、ロボット本体60の首部60bと頭部60cと第2アーム部60eとの動作を制御し、撮像装置61の位置および姿勢を変更させる。具体的に、ロボット制御装置50は、撮像装置61を、図示しないアセンブリ部品に対して略垂直上方において、撮影方向が略垂直下方となる位置に設置させる。
また、ロボット制御装置50は、ロボット制御装置50は、撮像装置61から供給される、アセンブリ部品の撮影画像を取り込み、この撮影画像に基づいてロボット本体60の首部60bと頭部60cと第1アーム部60dとの動作を制御し、第1の実施形態と同様に、対象物200を把持する。
The robot control device 50 controls the operations of the neck 60b, the head 60c, and the second arm 60e of the robot body 60, and changes the position and posture of the imaging device 61. Specifically, the robot control device 50 causes the imaging device 61 to be installed at a position where the imaging direction is substantially vertically downward and substantially vertically upward with respect to an assembly component (not shown).
Further, the robot control device 50 takes in a photographed image of the assembly part supplied from the imaging device 61, and the neck 60b, the head 60c, and the first arm of the robot main body 60 based on the photographed image. The operation with the unit 60d is controlled, and the object 200 is gripped as in the first embodiment.

以上、第1の実施形態におけるロボットシステム1が、ロボット本体10の代わりに変形例におけるロボット本体60を備える構成とした場合、第1の実施形態と同様に位置姿勢検出装置30を備えており、第1の実施形態と同様の効果を奏する。
また、第2の実施形態におけるロボットシステム1bが、ロボット本体10の代わりに変形例におけるロボット本体60を備える構成とした場合、第2の実施形態と同様に位置姿勢検出装置30bと比較画像範囲生成装置41を備えており、第2の実施形態と同様の効果を奏する。
なお、ロボット制御装置50は、例えば、ロボット本体60の本体60aのキャビネットに収納されていてもよい。
As described above, when the robot system 1 according to the first embodiment is configured to include the robot body 60 according to the modified example instead of the robot body 10, the position and orientation detection device 30 is provided as in the first embodiment. The same effect as the first embodiment is obtained.
When the robot system 1b according to the second embodiment is configured to include the robot body 60 according to the modified example instead of the robot body 10, the position / orientation detection device 30b and the comparison image range generation are performed as in the second embodiment. The apparatus 41 is provided, and there exists an effect similar to 2nd Embodiment.
The robot control device 50 may be housed in a cabinet of the main body 60a of the robot main body 60, for example.

また、第2の実施形態において、ロボット制御装置50が、位置姿勢検出装置30b及び比較画像範囲生成装置41の少なくともいずれかを含む構成であってもよい。
また、第1の実施形態において、ロボット制御装置50が、位置姿勢検出装置30を含む構成であってもよい。
また、複数の装置を備えるシステムが、各実施形態の位置姿勢検出装置(30または30b)または比較画像範囲生成装置41の各処理を、それらの複数の装置で分散して処理してもよい。
また、各実施形態の位置姿勢検出装置(30または30b)または比較画像範囲生成装置41の各処理を実行するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することにより、位置姿勢検出装置(30または30b)または比較画像範囲生成装置41に係る上述した種々の処理を行ってもよい。
In the second embodiment, the robot control device 50 may include at least one of the position and orientation detection device 30b and the comparative image range generation device 41.
In the first embodiment, the robot control device 50 may include the position / orientation detection device 30.
In addition, a system including a plurality of devices may process each process of the position / orientation detection device (30 or 30b) or the comparative image range generation device 41 of each embodiment in a distributed manner by the plurality of devices.
In addition, a program for executing each process of the position / orientation detection device (30 or 30b) or the comparative image range generation device 41 of each embodiment is recorded on a computer-readable recording medium and recorded on the recording medium. The above-described various processes related to the position / orientation detection device (30 or 30b) or the comparative image range generation device 41 may be performed by causing the computer system to read and execute the program.

なお、ここでいう「コンピューターシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピューターシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if the WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピューターシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   Further, the “computer-readable recording medium” refers to a volatile memory (for example, DRAM (Dynamic) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the concrete structure is not restricted to this embodiment, The design etc. of the range which does not deviate from the summary of this invention are included.

1、1b ロボットシステム
2 ロボット
10、60 ロボット本体
11 第1の信号ケーブル
12 第2の信号ケーブル
20、61 撮像装置
30、30b 位置姿勢検出装置
31 入力部
32、32b 記憶部
33、33b 制御部
34 表示部
35 通信部
40 比較画像範囲生成部
41 比較画像範囲生成装置
43 制御部
45 通信部
50 ロボット制御装置
62 把持部
63 第1のケーブル
64 第2のケーブル
331 特徴取得部
332 特徴領域抽出部
333 低加工精度領域取得部
334 比較画像範囲取得部
335 特徴領域画像生成部
336 高精度領域画像生成部
337 重複範囲抽出部
338 撮影画像取得部
339、339b 比較画像生成部
340、340b 位置姿勢推定部
341 取得部
431 通信制御部
DESCRIPTION OF SYMBOLS 1, 1b Robot system 2 Robot 10, 60 Robot main body 11 1st signal cable 12 2nd signal cable 20, 61 Imaging device 30, 30b Position and orientation detection device 31 Input part 32, 32b Storage part 33, 33b Control part 34 Display unit 35 Communication unit 40 Comparison image range generation unit 41 Comparison image range generation device 43 Control unit 45 Communication unit 50 Robot control device 62 Grasping unit 63 First cable 64 Second cable 331 Feature acquisition unit
332 Feature region extraction unit 333 Low processing accuracy region acquisition unit 334 Comparative image range acquisition unit 335 Feature region image generation unit 336 High accuracy region image generation unit 337 Overlapping range extraction unit 338 Captured image acquisition unit
339, 339b Comparison image generation unit 340, 340b Position and orientation estimation unit 341 Acquisition unit 431 Communication control unit

Claims (12)

特徴取得部が、対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさを取得する特徴取得手順と、
比較画像範囲取得部が、前記それぞれのテンプレート画像について、前記特徴取得部により取得されたモデルの特徴点およびその特徴点の特徴の大きさに基づいて、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲を比較画像範囲として取得する比較画像範囲取得手順と、
を有することを特徴とする比較画像範囲生成方法。
For each template image, the feature acquisition unit uses each of a plurality of images, each of which is an image of a model representing the contour of an object, and at least one of the positions or orientations of the model in the image is different from each other. A feature acquisition procedure for acquiring the feature points of the model represented in the template image and the feature size of the feature points;
The comparison image range acquisition unit, for each of the template images, based on the feature point of the model acquired by the feature acquisition unit and the size of the feature of the feature point, and the template A comparative image range acquisition procedure for acquiring an image range used for comparison with an image as a comparative image range;
A comparative image range generation method characterized by comprising:
低加工精度領域取得部が、前記それぞれのテンプレート画像について、前記対象物の加工精度が予め決められた精度より低い部分の画像領域を取得する低加工精度領域取得手順を更に有し、
前記比較画像範囲取得手順において、前記比較画像範囲取得部は、前記それぞれのテンプレート画像について、前記特徴取得部により取得されたモデルの特徴点およびその特徴点の特徴の大きさ、ならびに前記低加工精度領域取得部により取得された画像領域に基づいて、前記比較画像範囲を取得することを特徴とする請求項1に記載の比較画像範囲生成方法。
The low processing accuracy region acquisition unit further includes a low processing accuracy region acquisition procedure for acquiring a part of the image region where the processing accuracy of the object is lower than a predetermined accuracy for each template image,
In the comparative image range acquisition procedure, the comparative image range acquisition unit, for each of the template images, the model feature point acquired by the feature acquisition unit, the feature size of the feature point, and the low processing accuracy The comparative image range generation method according to claim 1, wherein the comparative image range is acquired based on the image region acquired by the region acquisition unit.
取得部が、対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさに基づいて取得される、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲である比較画像範囲を取得する取得手順と、
撮影画像取得部が、前記対象物が撮影された画像を取得する撮影画像取得手順と、
位置姿勢推定部が、前記取得部が取得した前記複数のテンプレート画像のそれぞれについて、前記取得部が取得した該テンプレート画像に対応する前記比較画像範囲に関して、前記撮影画像取得部により取得された画像と比較することにより、前記対象物の位置または姿勢のうち少なくともいずれかを推定する位置姿勢推定手順と、
を有することを特徴とする位置姿勢検出方法。
The acquisition unit is an image of a model representing the contour of an object, and a plurality of images in which at least one of the position or orientation of the model in the image is different from each other as template images, and for each template image, This is an image range used for comparison between the template image and the image obtained by photographing the object, which is acquired based on the feature point of the model represented in the template image and the feature size of the feature point. An acquisition procedure for acquiring a comparison image range;
A captured image acquisition unit for acquiring an image in which the object is captured;
For each of the plurality of template images acquired by the acquisition unit, the position / orientation estimation unit, with respect to the comparison image range corresponding to the template image acquired by the acquisition unit, the image acquired by the captured image acquisition unit A position and orientation estimation procedure for estimating at least one of the position and orientation of the object by comparing;
A position and orientation detection method characterized by comprising:
特徴取得部が、対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさを取得する特徴取得手順と、
比較画像範囲取得部が、前記それぞれのテンプレート画像について、前記特徴取得部により取得されたモデルの特徴点およびその特徴点の特徴の大きさに基づいて、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲を比較画像範囲として取得する比較画像範囲取得手順と、
撮影画像取得部が、前記対象物が撮影された画像を取得する撮影画像取得手順と、
位置姿勢推定部が、前記複数のテンプレート画像のそれぞれについて、前記比較画像範囲取得部が取得した該テンプレート画像に対応する前記比較画像範囲に関して、前記撮影画像取得部により取得された画像と比較することにより、前記対象物の位置または姿勢のうち少なくともいずれかを推定する位置姿勢推定手順と、
を有することを特徴とする位置姿勢検出方法。
For each template image, the feature acquisition unit uses each of a plurality of images, each of which is an image of a model representing the contour of an object, and at least one of the positions or orientations of the model in the image is different from each other. A feature acquisition procedure for acquiring the feature points of the model represented in the template image and the feature size of the feature points;
The comparison image range acquisition unit, for each of the template images, based on the feature point of the model acquired by the feature acquisition unit and the size of the feature of the feature point, and the template A comparative image range acquisition procedure for acquiring an image range used for comparison with an image as a comparative image range;
A captured image acquisition unit for acquiring an image in which the object is captured;
The position / orientation estimation unit compares, for each of the plurality of template images, the image acquired by the captured image acquisition unit with respect to the comparison image range corresponding to the template image acquired by the comparison image range acquisition unit. A position and orientation estimation procedure for estimating at least one of the position and orientation of the object;
A position and orientation detection method characterized by comprising:
対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさを取得する特徴取得部と、
前記それぞれのテンプレート画像について、前記特徴取得部により取得されたモデルの特徴点およびその特徴点の特徴の大きさに基づいて、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲を比較画像範囲として取得する比較画像範囲取得部と、
を備えることを特徴とする比較画像範囲生成装置。
A model image representing the contour of an object, and each of the plurality of images in which at least one of the position or orientation of the model in the image is different from each other is used as a template image. A feature acquisition unit that acquires the feature points of the model represented and the feature size of the feature points;
For each of the template images, based on the feature points of the model acquired by the feature acquisition unit and the size of the features of the feature points, the template images are used for comparison with the template image. A comparative image range acquisition unit that acquires the image range as a comparative image range;
A comparison image range generation apparatus comprising:
対象物のモデルの輪郭を表わす画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさに基づいて取得される、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲である比較画像範囲を取得する取得部と、
前記対象物が撮影された画像を取得する撮影画像取得部と、
前記取得部が取得した前記複数のテンプレート画像のそれぞれについて、前記取得部が取得した該テンプレート画像に対応する前記比較画像範囲に関して、前記撮影画像取得部により取得された画像と比較することにより、前記対象物の位置または姿勢のうち少なくともいずれかを推定する位置姿勢推定部と、
を備えることを特徴とする位置姿勢検出装置。
A plurality of images representing the outline of the model of the object and at least one of the positions or postures of the model in the image is used as a template image, and each template image is defined as the template image. A comparison image range that is an image range that is acquired based on the feature point of the model represented and the size of the feature point of the model and is used for comparison between the image of the object captured and the template image. An acquisition unit to acquire;
A captured image acquisition unit that acquires an image of the object captured;
For each of the plurality of template images acquired by the acquisition unit, the comparison image range corresponding to the template image acquired by the acquisition unit is compared with the image acquired by the captured image acquisition unit, A position and orientation estimation unit that estimates at least one of the position and orientation of the object;
A position and orientation detection device comprising:
対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさを取得する特徴取得部と、
前記それぞれのテンプレート画像について、前記特徴取得部により取得されたモデルの特徴点およびその特徴点の特徴の大きさに基づいて、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲を比較画像範囲として取得する比較画像範囲取得部と、
を備えることを特徴とするロボット。
A model image representing the contour of an object, and each of the plurality of images in which at least one of the position or orientation of the model in the image is different from each other is used as a template image. A feature acquisition unit that acquires the feature points of the model represented and the feature size of the feature points;
For each of the template images, based on the feature points of the model acquired by the feature acquisition unit and the size of the features of the feature points, the template images are used for comparison with the template image. A comparative image range acquisition unit that acquires the image range as a comparative image range;
A robot characterized by comprising:
対象物のモデルの輪郭を表わす画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさに基づいて取得される、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲である比較画像範囲を取得する取得部と、
前記対象物が撮影された画像を取得する撮影画像取得部と、
前記取得部が取得した前記複数のテンプレート画像のそれぞれについて、前記取得部が取得した該テンプレート画像に対応する前記比較画像範囲に関して、前記撮影画像取得部により取得された画像と比較することにより、前記対象物の位置または姿勢のうち少なくともいずれかを推定する位置姿勢推定部と、
を備えることを特徴とするロボット。
A plurality of images representing the outline of the model of the object and at least one of the positions or postures of the model in the image is used as a template image, and each template image is defined as the template image. A comparison image range that is an image range that is acquired based on the feature point of the model represented and the size of the feature point of the model and is used for comparison between the image of the object captured and the template image. An acquisition unit to acquire;
A captured image acquisition unit that acquires an image of the object captured;
For each of the plurality of template images acquired by the acquisition unit, the comparison image range corresponding to the template image acquired by the acquisition unit is compared with the image acquired by the captured image acquisition unit, A position and orientation estimation unit that estimates at least one of the position and orientation of the object;
A robot characterized by comprising:
対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさを取得する特徴取得部と、
前記それぞれのテンプレート画像について、前記特徴取得部により取得されたモデルの特徴点およびその特徴点の特徴の大きさに基づいて、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲を比較画像範囲として取得する比較画像範囲取得部と、
を備えることを特徴とするロボットシステム。
A model image representing the contour of an object, and each of the plurality of images in which at least one of the position or orientation of the model in the image is different from each other is used as a template image. A feature acquisition unit that acquires the feature points of the model represented and the feature size of the feature points;
For each of the template images, based on the feature points of the model acquired by the feature acquisition unit and the size of the features of the feature points, the template images are used for comparison with the template image. A comparative image range acquisition unit that acquires the image range as a comparative image range;
A robot system comprising:
対象物のモデルの輪郭を表わす画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさに基づいて取得される、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲である比較画像範囲を取得する取得部と、
前記対象物が撮影された画像を取得する撮影画像取得部と、
前記取得部が取得した前記複数のテンプレート画像のそれぞれについて、前記取得部が取得した該テンプレート画像に対応する前記比較画像範囲に関して、前記撮影画像取得部により取得された画像と比較することにより、前記対象物の位置または姿勢のうち少なくともいずれかを推定する位置姿勢推定部と、
を備えることを特徴とするロボットシステム。
A plurality of images representing the outline of the model of the object and at least one of the positions or postures of the model in the image is used as a template image, and each template image is defined as the template image. A comparison image range that is an image range that is acquired based on the feature point of the model represented and the size of the feature point of the model and is used for comparison between the image of the object captured and the template image. An acquisition unit to acquire;
A captured image acquisition unit that acquires an image of the object captured;
For each of the plurality of template images acquired by the acquisition unit, the comparison image range corresponding to the template image acquired by the acquisition unit is compared with the image acquired by the captured image acquisition unit, A position and orientation estimation unit that estimates at least one of the position and orientation of the object;
A robot system comprising:
コンピューターに、
対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさを取得する特徴取得ステップと、
前記それぞれのテンプレート画像について、前記特徴取得ステップにより取得されたモデルの特徴点およびその特徴点の特徴の大きさに基づいて、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲を比較画像範囲として取得する比較画像範囲取得ステップと、
を実行させるための比較画像範囲生成プログラム。
On the computer,
A model image representing the contour of an object, and each of the plurality of images in which at least one of the position or orientation of the model in the image is different from each other is used as a template image. A feature acquisition step of acquiring feature points of the model represented and the feature size of the feature points;
For each of the template images, based on the feature points of the model acquired by the feature acquisition step and the feature size of the feature points, the template images are used for comparison with the template image. A comparative image range acquisition step for acquiring the image range as a comparative image range;
The comparison image range generation program for executing
コンピューターに、
対象物の輪郭を表わすモデルの画像であって該画像内における該モデルの位置または姿勢のうちの少なくともいずれかが互いに異なる複数の画像それぞれをテンプレート画像として、それぞれのテンプレート画像について、該テンプレート画像に表されるモデルの特徴点およびその特徴点の特徴の大きさに基づいて取得される、前記対象物が撮影された画像と該テンプレート画像との比較で使用される画像範囲である比較画像範囲を取得する取得ステップと、
前記対象物が撮影された画像を取得する撮影画像取得ステップと、
前記取得ステップにより取得された前記複数のテンプレート画像のそれぞれについて、前記取得ステップにより取得された該テンプレート画像に対応する前記比較画像範囲に関して、前記撮影画像取得ステップにより取得された画像と比較することにより、前記対象物の位置または姿勢のうち少なくともいずれかを推定する位置姿勢推定ステップと、
を実行させるための位置姿勢検出プログラム。
On the computer,
A model image representing the contour of an object, and each of the plurality of images in which at least one of the position or orientation of the model in the image is different from each other is used as a template image. A comparison image range that is an image range that is acquired based on the feature point of the model represented and the size of the feature point of the model and is used for comparison between the image of the object captured and the template image. An acquisition step to acquire;
A captured image acquisition step of acquiring an image in which the object is captured;
By comparing each of the plurality of template images acquired in the acquisition step with the image acquired in the captured image acquisition step with respect to the comparison image range corresponding to the template image acquired in the acquisition step. A position and orientation estimation step for estimating at least one of the position and orientation of the object;
Position and orientation detection program for executing
JP2013030089A 2012-06-28 2013-02-19 Image comparison range generation method, positional orientation detection method, image comparison range generation device, positional orientation detection device, robot, robot system, image comparison range generation program and positional orientation detection program Withdrawn JP2014029664A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013030089A JP2014029664A (en) 2012-06-28 2013-02-19 Image comparison range generation method, positional orientation detection method, image comparison range generation device, positional orientation detection device, robot, robot system, image comparison range generation program and positional orientation detection program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012145528 2012-06-28
JP2012145528 2012-06-28
JP2013030089A JP2014029664A (en) 2012-06-28 2013-02-19 Image comparison range generation method, positional orientation detection method, image comparison range generation device, positional orientation detection device, robot, robot system, image comparison range generation program and positional orientation detection program

Publications (1)

Publication Number Publication Date
JP2014029664A true JP2014029664A (en) 2014-02-13

Family

ID=50202173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013030089A Withdrawn JP2014029664A (en) 2012-06-28 2013-02-19 Image comparison range generation method, positional orientation detection method, image comparison range generation device, positional orientation detection device, robot, robot system, image comparison range generation program and positional orientation detection program

Country Status (1)

Country Link
JP (1) JP2014029664A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016175150A1 (en) * 2015-04-28 2016-11-03 オムロン株式会社 Template creation device and template creation method
CN110542402A (en) * 2019-09-09 2019-12-06 上海中车瑞伯德智能系统股份有限公司 RGB-D vision positioning system and method for complex structure body
WO2020008576A1 (en) * 2018-07-04 2020-01-09 富士通株式会社 Determination method, determination program, and information processing device
JP2021111354A (en) * 2020-01-10 2021-08-02 株式会社Mujin Method and calculation system for object recognition or object registration based on image classification
JP2021137940A (en) * 2020-03-09 2021-09-16 リンクウィズ株式会社 Information processing method, information processing system and program
JP2021137953A (en) * 2020-05-28 2021-09-16 リンクウィズ株式会社 Information processing method, information processing system, and program
US11772271B2 (en) 2020-01-10 2023-10-03 Mujin, Inc. Method and computing system for object recognition or object registration based on image classification
WO2024080155A1 (en) * 2022-10-14 2024-04-18 パナソニックIpマネジメント株式会社 Robot system, robot control device, and robot control method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09311031A (en) * 1996-05-24 1997-12-02 Datsuku Eng Kk Method and apparatus for inspection of quality of punched and worked product
JP2011107878A (en) * 2009-11-16 2011-06-02 Seiko Epson Corp Position detection apparatus and position detection method
JP2011129082A (en) * 2009-11-20 2011-06-30 3D Media Co Ltd Three-dimensional object recognition device and three-dimensional object recognition method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09311031A (en) * 1996-05-24 1997-12-02 Datsuku Eng Kk Method and apparatus for inspection of quality of punched and worked product
JP2011107878A (en) * 2009-11-16 2011-06-02 Seiko Epson Corp Position detection apparatus and position detection method
JP2011129082A (en) * 2009-11-20 2011-06-30 3D Media Co Ltd Three-dimensional object recognition device and three-dimensional object recognition method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山本一貴: "奥行き検出のためのSURFにおける特徴点抽出パラメータの一検討(H-023)", 情報科学技術フォーラム講演論文, vol. ITS・リモートセンシング, JPN6017003843, 2012, pages 167 - 168, ISSN: 0003494362 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10515291B2 (en) 2015-04-28 2019-12-24 Omron Corporation Template creation device and template creation method
JP2016207147A (en) * 2015-04-28 2016-12-08 オムロン株式会社 Template preparation device and template preparation method
EP3258441A4 (en) * 2015-04-28 2018-11-07 Omron Corporation Template creation device and template creation method
WO2016175150A1 (en) * 2015-04-28 2016-11-03 オムロン株式会社 Template creation device and template creation method
JP7099526B2 (en) 2018-07-04 2022-07-12 富士通株式会社 Judgment method, judgment program and information processing device
WO2020008576A1 (en) * 2018-07-04 2020-01-09 富士通株式会社 Determination method, determination program, and information processing device
JPWO2020008576A1 (en) * 2018-07-04 2021-06-24 富士通株式会社 Judgment method, judgment program and information processing device
US11663731B2 (en) 2018-07-04 2023-05-30 Fujitsu Limited Determining method, information processing apparatus, and recording medium
CN110542402A (en) * 2019-09-09 2019-12-06 上海中车瑞伯德智能系统股份有限公司 RGB-D vision positioning system and method for complex structure body
JP2021111354A (en) * 2020-01-10 2021-08-02 株式会社Mujin Method and calculation system for object recognition or object registration based on image classification
US11772271B2 (en) 2020-01-10 2023-10-03 Mujin, Inc. Method and computing system for object recognition or object registration based on image classification
JP2021137940A (en) * 2020-03-09 2021-09-16 リンクウィズ株式会社 Information processing method, information processing system and program
WO2021181929A1 (en) * 2020-03-09 2021-09-16 リンクウィズ株式会社 Information processing method, information processing system, and program
CN113905856A (en) * 2020-03-09 2022-01-07 凌威新科技有限公司 Information processing method, information processing system, and program
JP2021137953A (en) * 2020-05-28 2021-09-16 リンクウィズ株式会社 Information processing method, information processing system, and program
WO2024080155A1 (en) * 2022-10-14 2024-04-18 パナソニックIpマネジメント株式会社 Robot system, robot control device, and robot control method

Similar Documents

Publication Publication Date Title
JP2014029664A (en) Image comparison range generation method, positional orientation detection method, image comparison range generation device, positional orientation detection device, robot, robot system, image comparison range generation program and positional orientation detection program
CN110692082B (en) Learning device, learning method, learning model, estimating device, and clamping system
WO2019114339A1 (en) Method and device for correcting motion of robotic arm
JP6011102B2 (en) Object posture estimation method
JP2019028843A (en) Information processing apparatus for estimating person&#39;s line of sight and estimation method, and learning device and learning method
CN109559341B (en) Method and device for generating mechanical arm grabbing scheme
JP3208953B2 (en) Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
JP5699697B2 (en) Robot device, position and orientation detection device, position and orientation detection program, and position and orientation detection method
CN111627072A (en) Method and device for calibrating multiple sensors and storage medium
CN111151463A (en) Mechanical arm sorting and grabbing system and method based on 3D vision
JP6054831B2 (en) Image processing apparatus, image processing method, and image processing program
JP6885856B2 (en) Robot system and calibration method
JP2018136896A (en) Information processor, system, information processing method, and manufacturing method of article
JP2011085971A (en) Apparatus, method, and program for processing image, recording medium, and image processing system
JP2013146813A (en) Robot apparatus, and position and orientation detecting method
JP2020047049A (en) Image processing device and image processing method
JP4649559B2 (en) 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded
JP6922348B2 (en) Information processing equipment, methods, and programs
CN113393505A (en) Image registration method, visual positioning method, related device and equipment
JP6424432B2 (en) Control device, robot system, robot and robot control method
CN115862074B (en) Human body pointing determination and screen control method and device and related equipment
JP5530391B2 (en) Camera pose estimation apparatus, camera pose estimation method, and camera pose estimation program
JP2018122376A (en) Image processing device, robot control device, and robot
CN112347837A (en) Image processing system
JP2014006852A (en) Recognition processing method, recognition processing device, robot system and recognition processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20170403