JP2015203680A - Information processing device, method, and program - Google Patents

Information processing device, method, and program Download PDF

Info

Publication number
JP2015203680A
JP2015203680A JP2014084715A JP2014084715A JP2015203680A JP 2015203680 A JP2015203680 A JP 2015203680A JP 2014084715 A JP2014084715 A JP 2014084715A JP 2014084715 A JP2014084715 A JP 2014084715A JP 2015203680 A JP2015203680 A JP 2015203680A
Authority
JP
Japan
Prior art keywords
image
target object
performance information
images
orientation estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014084715A
Other languages
Japanese (ja)
Other versions
JP6425405B2 (en
Inventor
その子 宮谷
Sonoko Miyatani
その子 宮谷
藤木 真和
Masakazu Fujiki
真和 藤木
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014084715A priority Critical patent/JP6425405B2/en
Publication of JP2015203680A publication Critical patent/JP2015203680A/en
Application granted granted Critical
Publication of JP6425405B2 publication Critical patent/JP6425405B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a method that selects an image serving as a factor in performance improvement in a position pose estimation using a plurality of images.SOLUTION: An information processing device is configured to: plurally acquire an image having an object body photographed; execute at least one of recognition processing of the object body and position pose estimation processing of the object body on the basis of information on at least one image of the acquired images; execute at least one of the recognition processing of the object body and the position pose estimation processing of the object body on the basis of information on at least two images of the plurality of acquired images; generate first performance information about processing to be executed by first execution means; generate second performance information about processing to be executed by second execution means; and cause display means to display the first performance information and the second performance information.

Description

本発明は、物体を撮像した画像に基づいて画像中の物体の位置姿勢推定を認識して表示する方法に関する。   The present invention relates to a method for recognizing and displaying an estimation of a position and orientation of an object in an image based on an image obtained by imaging the object.

生産現場では、生産効率向上のため、ロボットによる自動化が進められている。ロボットによる部品のピッキングや組み立て作業では、対象部品を認識し、さらに位置姿勢を取得する必要がある。これを実現する方法として、対象部品をカメラで撮影した画像を用いる方法が開発されている。   At production sites, robotic automation is being promoted to improve production efficiency. In picking or assembling parts by a robot, it is necessary to recognize the target part and further acquire the position and orientation. As a method for realizing this, a method using an image obtained by photographing a target part with a camera has been developed.

特許文献1には、複数のカメラで撮影した画像を用いることで認識の正確性を向上させる方法が開示されている。この方法では、複数のカメラで撮影した画像の中から複数のステレオ画像ペアを選択し、ステレオ画像ペアごとに算出した距離値を用いて対象物体の認識を複数行うことで、認識の正確性を向上させている。   Patent Document 1 discloses a method for improving the accuracy of recognition by using images taken by a plurality of cameras. In this method, multiple stereo image pairs are selected from images captured by multiple cameras, and multiple target objects are recognized using distance values calculated for each stereo image pair. It is improving.

特開2000−94374号公報JP 2000-94374 A

しかし、ステレオ画像ペアをつくる複数の画像に、ノイズを多く含む画像が含まれることがある。また、複数の画像を用いることで処理時間が増大してしまい、所定の時間内にタスクを終了できなくなる場合もある。
本発明は、以上の課題を鑑みてなされたものであり、複数の画像を用いた認識または位置姿勢推定において、複数の画像から位置姿勢の導出に好適な画像を選択することを目的とする。
However, a plurality of images forming a stereo image pair may include images containing a lot of noise. Also, the use of a plurality of images increases the processing time, and the task may not be completed within a predetermined time.
The present invention has been made in view of the above problems, and an object of the present invention is to select an image suitable for deriving a position and orientation from a plurality of images in recognition or position and orientation estimation using a plurality of images.

本発明の情報処理装置は、例えば、対象物体を撮影した複数の画像を取得する画像取得手段と、前記取得した画像のうち、少なくとも1つの画像に関する情報にもとづいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、少なくともいずれか1つを実行する第1の実行手段と、前記取得した複数のうち、少なくとも2つの画像に関する情報にもとづいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、少なくともいずれか1つを実行する第2の実行手段と、前記第1の実行手段で実行される処理に関する第1の性能情報を生成する第1の性能情報生成手段と、前記第2の実行手段で実行される処理に関する第2の性能情報を生成する第2の性能情報生成手段と、前記第1の性能情報と第2の性能情報とを表示手段に表示させる表示制御手段とを備える。   The information processing apparatus according to the present invention includes, for example, an image acquisition unit that acquires a plurality of images obtained by capturing a target object, and a recognition process for the target object based on information about at least one of the acquired images. The target object recognition process based on the first execution means for executing at least one of the process of estimating the position and orientation of the target object and information on at least two of the acquired plurality of images. And second execution means for executing at least one of the process for estimating the position and orientation of the target object, and first performance information for generating the first performance information relating to the process executed by the first execution means. Performance information generating means, second performance information generating means for generating second performance information relating to processing executed by the second execution means, the first performance information and the second sex And a display control means for displaying on the display means and information.

複数の画像を用いた認識または位置姿勢推定において、複数の画像から位置姿勢の導出に好適な画像を選択することができる。   In recognition or position / orientation estimation using a plurality of images, an image suitable for deriving the position and orientation can be selected from the plurality of images.

第1の実施形態におけるシステムの構成を示す図である。It is a figure which shows the structure of the system in 1st Embodiment. 本発明の情報処理装置を利用するシステムの構成例を示す図である。It is a figure which shows the structural example of the system using the information processing apparatus of this invention. 第1の実施形態の処理手順を説明する図である。It is a figure explaining the process sequence of 1st Embodiment. 第1の実施形態におけるGUIの例を示す図である。It is a figure which shows the example of GUI in 1st Embodiment. 変形例1におけるGUIの例を示す図である。It is a figure which shows the example of GUI in the modification 1. 第2の実施形態におけるシステムの構成を示す図である。It is a figure which shows the structure of the system in 2nd Embodiment. 第2の実施形態の処理手順を説明する図である。It is a figure explaining the process sequence of 2nd Embodiment. 第2の実施形態におけるGUIの例を示す図である。It is a figure which shows the example of GUI in 2nd Embodiment. 第3の実施形態におけるシステムの構成を示す図である。It is a figure which shows the structure of the system in 3rd Embodiment. 第3の実施形態の処理手順を説明する図である。It is a figure explaining the process sequence of 3rd Embodiment. 第3の実施形態におけるGUIの例を示す図である。It is a figure which shows the example of GUI in 3rd Embodiment. 本発明における情報処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the information processing apparatus in this invention.

本発明にかかる各実施形態を説明するのに先立ち、各実施形態に示す情報処理装置が実装されるハードウェア構成について、図12を用いて説明する。   Prior to describing each embodiment according to the present invention, a hardware configuration in which the information processing apparatus shown in each embodiment is mounted will be described with reference to FIG.

図12は、本実施形態における情報装置のハードウェア構成図である。同図において、CPU1210は、バス1200を介して接続する各デバイスを統括的に制御する。CPU1210は、読み出し専用メモリ(ROM)1220に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM1220に記憶されており、ランダムアクセスメモリ(RAM)1230に一時記憶され、CPU1210によって適宜実行される。また、入力I/F1240は、外部の装置(表示装置や操作装置など)から情報処理装置1で処理可能な形式で入力信号として入力する。また、出力I/F1250は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。   FIG. 12 is a hardware configuration diagram of the information device in the present embodiment. In the figure, a CPU 1210 comprehensively controls devices connected via a bus 1200. The CPU 1210 reads and executes processing steps and programs stored in a read only memory (ROM) 1220. The operating system (OS) and other processing programs, device drivers, and the like according to the present embodiment are stored in the ROM 1220, temporarily stored in a random access memory (RAM) 1230, and executed as appropriate by the CPU 1210. The input I / F 1240 is input as an input signal in a format that can be processed by the information processing apparatus 1 from an external device (display device, operation device, or the like). The output I / F 1250 outputs an output signal to an external device (display device) in a format that can be processed by the display device.

これらの各機能部は、CPU1210が、ROM1220に格納されたプログラムをRAM1230に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU1210を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。   Each of these functional units is realized by the CPU 1210 expanding a program stored in the ROM 1220 in the RAM 1230 and executing processing according to each flowchart described later. Further, for example, when hardware is configured as an alternative to software processing using the CPU 1210, arithmetic units and circuits corresponding to the processing of each functional unit described here may be configured.

(第1の実施形態)
第1の実施形態では、対象物体を複数のカメラで撮影した画像にもとづいて対象物体の位置姿勢推定を実施した時の、該位置姿勢推定に関する性能をユーザに提示する方法について説明する。より具体的には、撮影した各画像及び複数の画像にもとづいてそれぞれ位置姿勢推定を行い、それぞれの位置姿勢推定の性能に関する情報をグラフィックユーザインターフェース(以下、GUIとする)上に表示する。これにより、各画像及び複数の画像を用いて実施した位置姿勢推定の性能の確認や比較を容易に行うことができるようになり、性能低下あるいは向上の要因となっている画像またはカメラの特定が行えるようになる。また、性能低下の要因と特定されたカメラの除去や配置変更を行うことができるようになる。対象物体の形状や置かれ方、環境光の当たり方といった変動する状況に適応した位置姿勢推定を行うことができる。
(First embodiment)
In the first embodiment, a method for presenting the user with performance related to position / orientation estimation when the position / orientation estimation of the target object is performed based on images obtained by capturing the target object with a plurality of cameras will be described. More specifically, position and orientation estimation is performed based on each captured image and a plurality of images, and information regarding the performance of each position and orientation estimation is displayed on a graphic user interface (hereinafter referred to as GUI). This makes it possible to easily check and compare the performance of position and orientation estimation performed using each image and a plurality of images, and to identify the image or camera that is the cause of the performance degradation or improvement. You can do it. In addition, it becomes possible to remove or change the arrangement of the camera identified as the cause of the performance degradation. It is possible to perform position and orientation estimation adapted to changing conditions such as the shape of the target object, how it is placed, and how it hits the ambient light.

図1は、本実施形態におけるシステムの構成を示している。情報処理装置100は、画像取得部101、第1の計測部102、第2の計測部103、第1の性能情報生成部104、第2の性能情報生成部105、第1の出力部106、第2の出力部107とを備える。そして、情報処理装置100はインタフェースを介して、外部の表示装置120に接続されている。   FIG. 1 shows a system configuration in this embodiment. The information processing apparatus 100 includes an image acquisition unit 101, a first measurement unit 102, a second measurement unit 103, a first performance information generation unit 104, a second performance information generation unit 105, a first output unit 106, A second output unit 107. The information processing apparatus 100 is connected to an external display device 120 via an interface.

図2は、画像取得部101が取得する画像の撮影を行うための装置構成及び配置を示す図であり、プロジェクタ1及び複数のカメラ2〜5から構成される。図2では、プロジェクタ1台とカメラ4台で構成される場合を示している。該複数のカメラは、情報処理装置100と画像取得部101を介して接続する。   FIG. 2 is a diagram showing an apparatus configuration and arrangement for taking an image acquired by the image acquisition unit 101, and includes a projector 1 and a plurality of cameras 2 to 5. FIG. 2 shows a case where the projector is composed of one projector and four cameras. The plurality of cameras are connected to the information processing apparatus 100 via the image acquisition unit 101.

画像取得部101は、対象物体を複数のカメラ2〜5で撮影した輝度画像を取得する。しかし、複数の視点で対象物体を撮影した画像が取得できれば他の方法であってもよい。例えば、複数の撮像装置あるいは複数の視点位置で対象物体を撮影した画像を、画像情報処理装置100と接続した外部の記憶装置に一旦保持しておいたものを入力してもよい。また、取得する輝度画像は、カラー画像であってもよいし、モノクロ画像であってもよい。   The image acquisition unit 101 acquires a luminance image obtained by photographing the target object with a plurality of cameras 2 to 5. However, other methods may be used as long as images obtained by capturing the target object from a plurality of viewpoints can be acquired. For example, an image obtained by capturing an image of a target object at a plurality of imaging devices or a plurality of viewpoint positions once held in an external storage device connected to the image information processing device 100 may be input. Further, the acquired luminance image may be a color image or a monochrome image.

第1の計測部102は、画像取得部101が取得した各画像に基づいて、対象物体の位置姿勢推定を行う。具体的な方法については、後述する。   The first measurement unit 102 estimates the position and orientation of the target object based on each image acquired by the image acquisition unit 101. A specific method will be described later.

第2の計測部103は、画像取得部101が取得した複数の画像に基づいて、対象物体の位置姿勢推定を行う。具体的な方法については、後述する。   The second measurement unit 103 estimates the position and orientation of the target object based on the plurality of images acquired by the image acquisition unit 101. A specific method will be described later.

第1の性能情報生成部104は、第1の計測部102で実行された位置姿勢推定処理に関する性能情報(第1の性能情報)を生成する。性能情報は、位置姿勢推定の精度及び位置姿勢推定に要する処理時間とする。第1の性能情報生成部104は、生成した第1の性能情報を第1の出力部106に送出する。   The first performance information generation unit 104 generates performance information (first performance information) related to the position / orientation estimation process executed by the first measurement unit 102. The performance information is the accuracy of position / orientation estimation and the processing time required for position / orientation estimation. The first performance information generation unit 104 sends the generated first performance information to the first output unit 106.

第2の性能情報生成部105は、第2の計測部103で実施した位置姿勢推定に関する性能情報(第2の性能情報)を生成する。性能情報は、第1の性能情報生成部104で生成するものと同様に、位置姿勢推定の精度及び位置姿勢推定に要する処理時間とする。第2の性能情報生成部105は、生成した第2の性能情報を第2の出力部107に送出する。   The second performance information generation unit 105 generates performance information (second performance information) related to position and orientation estimation performed by the second measurement unit 103. The performance information is the position / orientation estimation accuracy and the processing time required for position / orientation estimation, similar to that generated by the first performance information generating unit 104. The second performance information generation unit 105 sends the generated second performance information to the second output unit 107.

第1の出力部106は、第1の性能情報生成部104で生成した性能情報を出力し、表示装置102に表示させる。この点で、第1の出力部106は、表示制御部として機能する。これにより、ユーザは第1の性能情報を表示装置を介して確認(視認)することができる。   The first output unit 106 outputs the performance information generated by the first performance information generation unit 104 and causes the display device 102 to display the performance information. In this respect, the first output unit 106 functions as a display control unit. As a result, the user can confirm (view) the first performance information via the display device.

第2の出力部107は、第2の性能情報生成部105で生成した性能情報を出力し、表示装置120に表示させる。この点で、第2の出力部107は、表示制御部として機能する。これにより、ユーザは第2の性能情報を表示装置120を介して確認(視認)することができる。   The second output unit 107 outputs the performance information generated by the second performance information generation unit 105 and causes the display device 120 to display the performance information. In this respect, the second output unit 107 functions as a display control unit. As a result, the user can check (view) the second performance information via the display device 120.

表示装置120は、例えば、液晶ディスプレイやCRTディスプレイである。表示装置120は、表示画面を有し、その表示画面に第1の出力部106と第2の出力部107から受け取った性能情報を表示する。本実施形態では、表示装置120の表示画面にGUIを表示し、該GUIの領域に、第1の性能情報と第2の性能情報とを表示する例で説明する。これにより、ユーザはより第1の性能情報と第2の性能情報とをより視認しやすくなるという効果がある。   The display device 120 is, for example, a liquid crystal display or a CRT display. The display device 120 has a display screen and displays performance information received from the first output unit 106 and the second output unit 107 on the display screen. In the present embodiment, an example will be described in which a GUI is displayed on the display screen of the display device 120, and first performance information and second performance information are displayed in the GUI area. Accordingly, there is an effect that the user can more easily visually recognize the first performance information and the second performance information.

図3は、本実施形態の処理手順を示すフローチャートである。以下、図3のフローチャートを用いて、本実施形態の処理を詳細に説明する。   FIG. 3 is a flowchart showing a processing procedure of the present embodiment. Hereinafter, the processing of this embodiment will be described in detail with reference to the flowchart of FIG.

(ステップS301)
ステップS301において、画像取得部101は、対象物体を撮影した画像を取得する。画像取得部101が取得する画像は、プロジェクタ1により投影されたパターンを照射された対象物体を撮影した輝度画像とする。画像取得部101は取得した画像を第1の計測部102と第2の計測部103に送出する。
(Step S301)
In step S301, the image acquisition unit 101 acquires an image obtained by capturing a target object. The image acquired by the image acquisition unit 101 is a luminance image obtained by photographing the target object irradiated with the pattern projected by the projector 1. The image acquisition unit 101 sends the acquired image to the first measurement unit 102 and the second measurement unit 103.

(ステップS302)
ステップS302において、第1の計測部102は、ステップS301において画像取得部101で取得した各画像それぞれに基づいて対象物体の位置姿勢推定を行う。具体的には、以下の非特許文献1で開示されている方法を用いて対象物体の位置姿勢を推定する。
(Step S302)
In step S302, the first measurement unit 102 estimates the position and orientation of the target object based on each image acquired by the image acquisition unit 101 in step S301. Specifically, the position and orientation of the target object are estimated using the method disclosed in Non-Patent Document 1 below.

David A. Simon、Martial Hebert、Takeo Kanade、“Real−time 3−D Pose Estimation Using a High−Speed Range Sensor”、Proc.1994 IEEE International Conference on Robotics and Automation(ICRA’94)、pp。2235−2241、1994. David A. Simon, Martial Hebert, Take Kanade, “Real-time 3-D Pose Estimating Using a High-Speed Range Sensor”, Proc. 1994 IEEE International Conference on Robotics and Automation (ICRA'94), pp. 2235-2241, 1994.

具体的には、対象物体を計測して取得した距離値に、面または三次元点の集合で表現される対象物体の三次元モデルを当て嵌めるモデルフィッティングの手法を用いて、対象物体の位置姿勢を推定する。対象物体の距離値は、プロジェクタ1により投影されるパターンと各画像から検出された投影パターンとを対応付けて三角測量の原理を用いることで算出する。すなわち、本ステップで、第1の計測部102は、それぞれの画像ごと(カメラ2〜5とプロジェクタ1のペアごと)に対象物体の位置姿勢推定を行う。第1の計測部102は、推定された対象物体の位置姿勢データを第1の性能情報生成部104に送出する。   Specifically, the position and orientation of the target object using a model fitting technique that fits a 3D model of the target object represented by a surface or a set of 3D points to the distance value obtained by measuring the target object Is estimated. The distance value of the target object is calculated by using the principle of triangulation by associating the pattern projected by the projector 1 with the projection pattern detected from each image. That is, in this step, the first measurement unit 102 estimates the position and orientation of the target object for each image (for each pair of the cameras 2 to 5 and the projector 1). The first measurement unit 102 sends the estimated position / orientation data of the target object to the first performance information generation unit 104.

(ステップS303)
ステップS303において、第1の性能情報生成部104は、ステップS302で実施した位置姿勢推定に関する性能情報を生成する。本実施形態において生成される第1の性能情報は、位置姿勢推定の精度及び位置姿勢推定に要する処理時間とする。なお、本実施形態では、位置姿勢推定に関する性能情報を位置姿勢推定精度及び処理時間としたが、もちろん対象物体の位置姿勢推定の性能に関する情報であれば、他のものであってもよい。例えば、推定した位置姿勢であってもよい。あるいは、位置姿勢推定の計算が破たんしたか否か(位置姿勢推定の成否)の情報であってもよい。
(Step S303)
In step S303, the first performance information generation unit 104 generates performance information related to the position and orientation estimation performed in step S302. The first performance information generated in the present embodiment is assumed to be position / orientation estimation accuracy and processing time required for position / orientation estimation. In the present embodiment, the performance information related to the position / orientation estimation is used as the position / orientation estimation accuracy and processing time. However, other information may be used as long as it is information related to the position / orientation estimation performance of the target object. For example, the estimated position and orientation may be used. Alternatively, it may be information on whether or not the calculation of position and orientation has been broken (success or failure of position and orientation estimation).

位置姿勢推定の精度は、対象物体の距離値と対象物体の三次元モデルとのフィッティング度合いとする。フィッティング度合いは、例えば、対象物体の距離値と対応付く三次元形状モデルが保持する面または三次元点までの距離の最大値とする。この場合、距離の最大値が小さいほど位置姿勢推定の精度が高いことを示す。   The accuracy of position and orientation estimation is the degree of fitting between the distance value of the target object and the three-dimensional model of the target object. The fitting degree is, for example, the maximum value of the distance to the surface or the three-dimensional point held by the three-dimensional shape model associated with the distance value of the target object. In this case, the smaller the maximum distance value, the higher the accuracy of position and orientation estimation.

処理時間は、第1の計測部102における位置姿勢推定の処理に要する時間とする。さらに、対象物体を撮影する時間や、撮影した画像を画像取得部101に入力する時間を処理時間に含めても良い。第1の性能情報生成部104は、生成した性能情報を第1の出力部106に送出する。   The processing time is a time required for the position / orientation estimation process in the first measurement unit 102. Furthermore, the processing time may include the time for capturing the target object and the time for inputting the captured image to the image acquisition unit 101. The first performance information generation unit 104 sends the generated performance information to the first output unit 106.

(ステップS304)
ステップS304において、第1の出力部106は、ステップS303で生成した位置姿勢推定に関する第1の性能情報と画像取得部101が取得した画像とを表示装置120に出力して表示装置120に表示させる。そして、表示装置120は、撮像画像と第1の性能情報とを受け取り、表示領域450に撮像画像と第1の性能情報とを表示する。本実施形態における第1の性能情報は、上述した通り位置姿勢推定の精度や処理時間とする。また、位置姿勢推定の対象となった物体を特定するために、撮影画像上の該物体の位置付近に矩形のテクスチャを描画して重畳した画像を表示する。該テクスチャは、撮影画像上の該物体の位置付近に描画すればよく、その形状は他のものであってもよい。例えば、円形や星型などであってもよい。
(Step S304)
In step S304, the first output unit 106 outputs the first performance information related to the position / orientation estimation generated in step S303 and the image acquired by the image acquisition unit 101 to the display device 120 and causes the display device 120 to display the first performance information. . Then, the display device 120 receives the captured image and the first performance information, and displays the captured image and the first performance information in the display area 450. The first performance information in the present embodiment is the position and orientation estimation accuracy and processing time as described above. Further, in order to identify the object that is the target of position and orientation estimation, an image in which a rectangular texture is drawn and superimposed in the vicinity of the position of the object on the captured image is displayed. The texture may be drawn near the position of the object on the captured image, and the shape may be other. For example, a circular shape or a star shape may be used.

(ステップS305)
ステップS305において、第2の計測部103は、ステップS301で画像取得部101が取得した複数の画像にもとづいて対象物体の位置姿勢推定を行う。複数の画像の選び方としては、全ての画像を選択してもよく、また予め画像の組み合わせを決めておいてもよい。具体的な方法は、次の通りである。まず、ステップS303と同様に画像ごとに対象物体の距離値を算出する。対象物体の距離値は、プロジェクタ1の投影パターンと各画像上から識別した該投影パターンとを対応付けて三角測量の原理を用いることで算出する。次に、算出した距離値を全て用いて、非特許文献1で開示されている方法を用いて対象物体の位置姿勢を推定する。すなわち、複数の視点のカメラから得られる距離値を全て用いて(統合して)、物体の三次元構造を表現し、その三次元構造に対して物体のモデルをフィッティングすることにより、位置姿勢推定を行う。なお、本実施形態では、画像ごと(プロジェクタ1とカメラ2〜5のペアごと)に算出した距離値を全て用いて対象物体の位置姿勢を推定すると説明した。しかし、これに限らず、画像ごとに算出した距離値を統合した距離値にもとづいて位置姿勢を推定する他の方法であってもよい。例えば、全ての距離値に対して三次元空間における密度が均一になるように間引き処理を施したものにもとづいて対象物体の位置姿勢を推定してもよい。また、所定領域内における距離値の平均値から大きく外れているような距離値は位置合わせに使用しないようにすることで、よりロバストな位置姿勢推定を行うことができる。
(Step S305)
In step S305, the second measurement unit 103 estimates the position and orientation of the target object based on the plurality of images acquired by the image acquisition unit 101 in step S301. As a method of selecting a plurality of images, all the images may be selected, or a combination of images may be determined in advance. A specific method is as follows. First, as in step S303, the distance value of the target object is calculated for each image. The distance value of the target object is calculated by using the principle of triangulation by associating the projection pattern of the projector 1 with the projection pattern identified from each image. Next, using all the calculated distance values, the position and orientation of the target object are estimated using the method disclosed in Non-Patent Document 1. In other words, using all the distance values obtained from cameras of multiple viewpoints (integrating), the 3D structure of the object is represented, and the model of the object is fitted to the 3D structure, thereby estimating the position and orientation I do. In the present embodiment, it has been described that the position and orientation of the target object are estimated using all the distance values calculated for each image (for each pair of the projector 1 and the cameras 2 to 5). However, the present invention is not limited to this, and other methods for estimating the position and orientation based on the distance value obtained by integrating the distance values calculated for each image may be used. For example, the position and orientation of the target object may be estimated based on a thinning process performed so that the density in the three-dimensional space is uniform for all distance values. Further, by avoiding the use of the distance value that greatly deviates from the average value of the distance values in the predetermined area for the alignment, more robust position and orientation estimation can be performed.

(ステップS306)
ステップS306において、第2の性能情報生成部105は、ステップS305において、複数の画像にもとづいて実施した対象物体の位置姿勢推定に関する第2の性能情報を生成する。本実施形態における第2の性能情報は、ステップS303で説明したものと同様に、位置姿勢推定の精度及び位置姿勢推定に要する処理時間である。第2の出力部は、第2の性能情報生成部が生成した第2の性能情報を表示装置120に出力する。
(Step S306)
In step S306, the second performance information generation unit 105 generates second performance information related to the position / orientation estimation of the target object performed based on the plurality of images in step S305. The second performance information in the present embodiment is the accuracy of position / orientation estimation and the processing time required for position / orientation estimation, as described in step S303. The second output unit outputs the second performance information generated by the second performance information generation unit to the display device 120.

(ステップS307)
ステップS307において、第2の出力部107は、ステップS306で生成した対象物体の位置姿勢推定に関する性能情報と画像取得部101が取得した画像とを表示装置120に出力する。そして、表示装置120は、撮像画像と第2の性能情報とを受け取り、表示領域460に撮像画像と第2の性能情報を表示する。性能情報は、上述した通り位置姿勢推定の精度や処理時間とする。また、位置姿勢推定の対象となった物体を提示するために、撮影画像上の該物体の位置付近に矩形のテクスチャを描画して重畳した画像を表示する。このテクスチャの形状は矩形に限られず、例えば、円形や星型などであってもよい。
(Step S307)
In step S307, the second output unit 107 outputs the performance information regarding the position / orientation estimation of the target object generated in step S306 and the image acquired by the image acquisition unit 101 to the display device 120. The display device 120 receives the captured image and the second performance information, and displays the captured image and the second performance information in the display area 460. The performance information is the accuracy and processing time of position and orientation estimation as described above. In addition, in order to present the object that is the target of position and orientation estimation, an image in which a rectangular texture is drawn and superimposed in the vicinity of the position of the object on the captured image is displayed. The shape of the texture is not limited to a rectangle, and may be, for example, a circle or a star shape.

図4は、表示装置120の表示画面内のGUI400として表した例を示している。   FIG. 4 shows an example represented as a GUI 400 in the display screen of the display device 120.

表示装置120は、カメラ2、カメラ3、カメラ4及びカメラ5が取得した画像410〜413及び、それぞれの画像にもとづいて実施した位置姿勢推定の精度及び位置姿勢推定に要した処理時間420〜423を表示する。また、位置姿勢推定の対象となった物体401を特定するために、撮影画像上の該物体の位置付近に楕円形状のテクスチャ430〜433を描画して重畳した画像を表示する。   The display device 120 includes images 410 to 413 acquired by the camera 2, the camera 3, the camera 4, and the camera 5, accuracy of position / orientation estimation performed based on each image, and processing time 420 to 423 required for position / orientation estimation. Is displayed. Further, in order to specify the object 401 that is the target of position and orientation estimation, an image in which elliptical textures 430 to 433 are drawn and superimposed is displayed near the position of the object on the captured image.

表示装置120は、カメラ2、カメラ3、カメラ4及びカメラ5が取得した全ての画像にもとづいて実施した位置姿勢推定の精度及び位置姿勢推定に要した時間424を表示する。また、位置姿勢推定の対象となった物体401を特定するために、カメラ2〜5が取得した画像を貼り合わせた画像414上の該物体付近に、楕円形状のテクスチャ434を描画して重畳した画像を表示する。なお、表示する画像は、カメラ2〜5取得したいずれかの画像であってもよいし、画像表示しなくてもよい。   The display device 120 displays the accuracy of the position / orientation estimation performed based on all the images acquired by the camera 2, the camera 3, the camera 4, and the camera 5 and the time 424 required for the position / orientation estimation. Further, in order to specify the object 401 that is the target of position and orientation estimation, an elliptical texture 434 is drawn and superimposed on the vicinity of the object on the image 414 obtained by pasting the images acquired by the cameras 2 to 5. Display an image. The image to be displayed may be any image acquired by the cameras 2 to 5 or may not be displayed.

なお、位置推定の対象となる物体は1つではなく、整列または山積み状態で配置された複数の物体としてもよい。   Note that the number of objects for position estimation is not limited to one, and a plurality of objects arranged in an aligned or stacked state may be used.

以上説明したように、ステップS301〜ステップS307の一連の処理を実行することで、撮影した各画像及び複数の画像にもとづいてそれぞれ実施した位置姿勢推定の性能に関する情報をユーザに提示することが可能になる。これにより、画像ごとに実施した位置姿勢推定の性能と、複数の画像を用いて実施した位置姿勢推定の性能の確認や比較を容易に行うことができる。   As described above, by executing the series of processing from step S301 to step S307, it is possible to present to the user information related to the performance of position and orientation estimation performed based on each captured image and a plurality of images. become. Accordingly, it is possible to easily check and compare the performance of position and orientation estimation performed for each image and the performance of position and orientation estimation performed using a plurality of images.

<位置姿勢推定方法のバリエーション>
本実施形態では、画像にもとづいて算出した距離値を用いて対象物体の位置姿勢推定を行う方法について説明した。しかし、これに限らず、画像にもとづいて対象物体の位置姿勢推定ができれば、他の方法であってもよい。
<Variation of position and orientation estimation method>
In the present embodiment, the method for estimating the position and orientation of the target object using the distance value calculated based on the image has been described. However, the present invention is not limited to this, and other methods may be used as long as the position and orientation of the target object can be estimated based on the image.

例えば、画像上から抽出した特徴を用いて対象物体の位置姿勢推定を行っても良い。例えば、対象物体を複数の視点で撮影した学習画像と、取得した画像から検出される画像特徴とをマッチングすることで、物体の位置姿勢を推定する。   For example, the position and orientation of the target object may be estimated using features extracted from the image. For example, the position and orientation of the object are estimated by matching a learning image obtained by photographing the target object from a plurality of viewpoints and an image feature detected from the acquired image.

あるいは、画像にもとづいて算出した距離値と画像上から抽出した画像特徴を併用して、対象物体の位置姿勢推定を行ってもよい。例えば、複数の面及び線分で表現される対象物体の三次元モデルを、距離値と画像とから抽出したエッジ特徴に対して同時にフィッティングすることで、対象物体の正確な位置姿勢を推定する。   Alternatively, the position / orientation estimation of the target object may be performed using both the distance value calculated based on the image and the image feature extracted from the image. For example, the accurate position and orientation of the target object are estimated by simultaneously fitting a three-dimensional model of the target object represented by a plurality of planes and line segments to the edge features extracted from the distance value and the image.

<画像のバリエーション>
本実施形態では、画像取得部101が取得する画像は、プロジェクタによりパターンが投影された対象物体を撮影した輝度画像として説明した。しかし、画像上から抽出した特徴を用いて位置姿勢推定を行う場合には、パターンが投影されていない対象物体を撮影した輝度画像としてもよい。あるいは、パターンが投影された対象物体を撮影した輝度画像と、パターンが投影されていない対象物体を撮影した輝度画像の両方を入力してもよい。
<Image variations>
In the present embodiment, the image acquired by the image acquisition unit 101 has been described as a luminance image obtained by capturing a target object on which a pattern is projected by a projector. However, when position and orientation estimation is performed using features extracted from the image, a luminance image obtained by capturing a target object on which no pattern is projected may be used. Alternatively, both a luminance image obtained by photographing a target object on which a pattern is projected and a luminance image obtained by photographing a target object on which no pattern is projected may be input.

<位置姿勢推定精度のバリエーション>
本実施形態では、位置姿勢推定精度を対象物体の距離値と対応付く三次元形状モデルが保持する面または三次元点までの距離の最大値とした。しかし、これに限らず、位置姿勢推定の精度を示す指標であれば、他のものであってもよい。例えば、対象物体の距離値と対応付く三次元形状モデルが保持する面または三次元点までの距離の平均値や分散としてもよい。あるいは、距離点と対応付くモデル上の点を推定した位置姿勢にもとづいて画像上に投影し、画像上における距離の平均値や分散としてもよい。あるいは、画像から抽出した特徴と対応付く学習データの特徴との距離の最大値、平均値または分散としてもよい。あるいは、対象物体の位置姿勢推定を複数回実施して算出した複数の位置姿勢の最大値または分散としてもよい。
<Variation of position and orientation estimation accuracy>
In this embodiment, the position / orientation estimation accuracy is set to the maximum value of the distance to the surface or the three-dimensional point held by the three-dimensional shape model associated with the distance value of the target object. However, the present invention is not limited to this, and any other index may be used as long as it indicates the accuracy of position and orientation estimation. For example, the average value or variance of the distance to the surface or the three-dimensional point held by the three-dimensional shape model associated with the distance value of the target object may be used. Or it is good also as an average value and dispersion | distribution of the distance on an image, projecting on an image based on the position and orientation which estimated the point on the model matched with a distance point. Alternatively, it may be the maximum value, average value, or variance of the distance between the feature extracted from the image and the feature of the learning data associated with it. Or it is good also as the maximum value or dispersion | distribution of the some position and orientation calculated by implementing the position and orientation estimation of a target object in multiple times.

<変形例1>
第1の実施形態では、第1の性能情報生成部104及び第2の性能情報生成部105で生成した位置姿勢推定の性能に関する情報として、位置姿勢推定の精度や処理時間をGUI上に表示した。本変形例では、取得画像上にコンピュータグラフィック(以下、CG)を重畳したものをGUI上に表示する。重畳するCGは、点、線分及び面で表現される対象物体の三次元モデルを推定した位置姿勢にもとづいて描画したものとする。これにより、画像上の対象物体と該画像上に重畳した対象物体のCGとの重なり具合を観察することで、ユーザが位置姿勢推定の性能を視覚的に判断することができる。
<Modification 1>
In the first embodiment, the position / orientation estimation accuracy and processing time are displayed on the GUI as information related to the position / orientation estimation performance generated by the first performance information generation unit 104 and the second performance information generation unit 105. . In this modification, a computer graphic (hereinafter, CG) superimposed on the acquired image is displayed on the GUI. It is assumed that the CG to be superimposed is drawn based on a position and orientation obtained by estimating a three-dimensional model of a target object expressed by points, line segments, and surfaces. Accordingly, the user can visually determine the performance of position and orientation estimation by observing the degree of overlap between the target object on the image and the CG of the target object superimposed on the image.

図5は、画像上に対象物体のCGを描画して重畳したものを、表示装置120のGUI400に表示した時の例である。表示装置120は、カメラ1、カメラ2、カメラ3およびカメラ5が撮影した画像上に対象物体のCG434〜437を重畳して描画した画像を表示する。   FIG. 5 is an example when a CG of the target object drawn and superimposed on the image is displayed on the GUI 400 of the display device 120. The display device 120 displays an image drawn by superimposing the CGs 434 to 437 of the target object on the images taken by the camera 1, the camera 2, the camera 3, and the camera 5.

表示装置120は、カメラ2〜5が撮影した画像全てを貼り合わせた画像414上に対象物体のCG438を描画して重畳した画像を表示する。   The display device 120 displays an image in which the CG 438 of the target object is drawn and superimposed on the image 414 obtained by pasting all the images taken by the cameras 2 to 5.

CG434〜437と画像410〜414上の対象物体との重なり具合を観察することで、ユーザは位置姿勢推定の性能を視覚的に判断できる。例えば、CG436は、画像412上の対象物体とそれぞれ一致しているが、CG437は、画像413上の対象物体とずれが発生している。これより、画像412を用いた位置姿勢推定の精度は高いと判断できる。一方、画像413を用いた位置姿勢推定の精度は、画像412を用いた位置姿勢推定の精度に比べて低いと判断できる。   By observing the degree of overlap between the CGs 434 to 437 and the target objects on the images 410 to 414, the user can visually determine the performance of position and orientation estimation. For example, the CG 436 matches the target object on the image 412, but the CG 437 is shifted from the target object on the image 413. From this, it can be determined that the accuracy of position and orientation estimation using the image 412 is high. On the other hand, the accuracy of position and orientation estimation using the image 413 can be determined to be lower than the accuracy of position and orientation estimation using the image 412.

以上説明したように、画像上に対象物体のCGを推定した位置姿勢にもとづいて描画して重畳して表示することで、ユーザは対象物体の位置姿勢推定の精度を視覚的に判断することが可能となる。   As described above, the user can visually determine the accuracy of the position / orientation estimation of the target object by drawing and superimposing and displaying the CG of the target object on the image based on the estimated position / orientation. It becomes possible.

<変形例2>
第1の実施形態では、第1の計測部102及び第2の計測部103において、対象物体の位置姿勢を推定した。本変形例では、第1の計測部および第2の計測部は、位置姿勢の推定ではなく、対象物体の有無や種類を特定する認識処理を行う。
<Modification 2>
In the first embodiment, the first measuring unit 102 and the second measuring unit 103 estimate the position and orientation of the target object. In the present modification, the first measurement unit and the second measurement unit perform recognition processing that specifies the presence or absence and type of the target object, not estimation of the position and orientation.

図3を用いて、本変形例における処理手順を説明する。   A processing procedure in the present modification will be described with reference to FIG.

(ステップS301)
ステップS301において、画像取得部101は、対象物体を撮影した画像を取得する。取得する画像は、対象物体を撮影した輝度画像とする。
(Step S301)
In step S301, the image acquisition unit 101 acquires an image obtained by capturing a target object. The acquired image is a luminance image obtained by photographing the target object.

(ステップS302)
ステップS302において、第1の計測部102は、ステップS301で画像取得部101が取得した各画像にもとづいて対象物体の認識を行う。認識処理は、以下の非特許文献2に記載される方法により行う。
(Step S302)
In step S302, the first measurement unit 102 recognizes the target object based on each image acquired by the image acquisition unit 101 in step S301. The recognition process is performed by the method described in Non-Patent Document 2 below.

”SCHMID、C.; R。 MOHR: ’Local grayvalue invariants for image retrieval’ IEEE PAMI 19 May 1997、 pages 530 − 534”.
具体的には、画像上から抽出した特徴を用いたテンプレートマッチング手法を用いて、対象物体の認識を行う。
"SCHMID, C .; R. MOHR: 'Local grayvalue invariants for image retry' IEEE PAMI 19 May 1997, pages 530-534".
Specifically, the target object is recognized using a template matching method using features extracted from the image.

(ステップS303)
ステップS303において、第1の性能情報生成部104は、ステップS302で実施した認識処理に関する性能情報を生成する。本変形例において、認識に関する性能情報は、認識精度及び認識に要する処理時間とする。認識精度は、入力画像と入力画像と照合されたテンプレート画像間のハウスドルフ距離とする。認識に要する処理時間は、第1の計測部102で実施する認識処理に要する時間である。さらに、対象物体を撮影する時間や、撮影した画像を画像取得部101が取得する時間を処理時間に含めても良い。
(Step S303)
In step S303, the first performance information generation unit 104 generates performance information related to the recognition process performed in step S302. In this modification, the performance information regarding recognition is recognition accuracy and processing time required for recognition. The recognition accuracy is the Hausdorff distance between the input image and the template image collated with the input image. The processing time required for recognition is the time required for recognition processing performed by the first measurement unit 102. Furthermore, the processing time may include the time for capturing the target object and the time for the image acquisition unit 101 to acquire the captured image.

(ステップS304)
ステップS304において、第1の出力部106は、表示装置120に設定したGUI上に、ステップ303で生成した認識に関する第1の性能情報を表示させる。認識に関する性能情報は、上述した通り、認識精度及び認識に要する処理時間とする。また、位置姿勢推定の対象となった物体を提示するために、撮影画像上の該物体の位置付近に矩形のテクスチャを描画して重畳した画像を表示する。該テクスチャは、撮影画像上の該物体の位置付近に描画すればよく、その形状は他のものであってもよい。例えば、円形や星型などであってもよい。もっとも、認識に関する性能を示す情報であれば、他のものであってもよい。例えば、対象物体の有無を性能情報としてもよい。あるいは、同時に複数の物体を認識する場合には、認識した物体数を性能情報としてもよい。
(Step S304)
In step S <b> 304, the first output unit 106 displays the first performance information related to recognition generated in step 303 on the GUI set in the display device 120. As described above, the performance information related to recognition is the recognition accuracy and the processing time required for recognition. In addition, in order to present the object that is the target of position and orientation estimation, an image in which a rectangular texture is drawn and superimposed in the vicinity of the position of the object on the captured image is displayed. The texture may be drawn near the position of the object on the captured image, and the shape may be other. For example, a circular shape or a star shape may be used. However, other information may be used as long as the information indicates the performance related to recognition. For example, the presence / absence of the target object may be used as the performance information. Alternatively, when a plurality of objects are recognized at the same time, the number of recognized objects may be used as performance information.

(ステップS305)
ステップS305において、第2の計測部109は、ステップS301において画像取得部101で取得した複数の画像(2以上選択した画像)に基づいて対象物体の認識を行う。具体的な方法は、次の通りである。まず、画像ごとに対象物体の画像特徴を抽出する。そして、抽出した全ての画像特徴の中から、複数の画像で重複して抽出された特徴を選択する。そして、選択した画像を用いて、非特許文献2で開示される方法で対象物体の認識を行う。もっとも、複数の画像から抽出した画像特徴に基づいて対象物体の認識ができる他の方法であってもよい。例えば、複数の画像から抽出した画像特徴全てを用いて対象物体の認識を行っても良い。
(Step S305)
In step S305, the second measurement unit 109 recognizes the target object based on a plurality of images (two or more selected images) acquired by the image acquisition unit 101 in step S301. A specific method is as follows. First, the image feature of the target object is extracted for each image. Then, from all the extracted image features, a feature extracted by duplication in a plurality of images is selected. Then, the target object is recognized by the method disclosed in Non-Patent Document 2 using the selected image. However, other methods that can recognize a target object based on image features extracted from a plurality of images may be used. For example, the target object may be recognized using all image features extracted from a plurality of images.

(ステップS306)
ステップS306において、第2の性能情報生成部105は、第2の計測部103で実施した認識に関する第2の性能情報を生成する。認識に関する性能情報は、ステップS303で説明した通りである。
(Step S306)
In step S <b> 306, the second performance information generation unit 105 generates second performance information related to recognition performed by the second measurement unit 103. The performance information related to recognition is as described in step S303.

(ステップ307)
ステップS307において、第2の出力部107は、ステップ306で生成した認識に関する性能情報と撮像画像とを表示装置120の表示領域460に表示させる。認識に関する性能情報は、上述した通り、認識精度及び認識に要する処理時間とする。また、認識の対象となった物体を提示するために、撮影画像上の該物体の位置付近に矩形のテクスチャを描画して重畳した画像を表示する。該テクスチャの形状は矩形に限られず、例えば、円形や星型などであってもよい。
(Step 307)
In step S <b> 307, the second output unit 107 displays the performance information related to recognition generated in step 306 and the captured image on the display area 460 of the display device 120. As described above, the performance information related to recognition is the recognition accuracy and the processing time required for recognition. In addition, in order to present an object to be recognized, an image in which a rectangular texture is drawn and superimposed in the vicinity of the position of the object on the captured image is displayed. The shape of the texture is not limited to a rectangle, and may be, for example, a circle or a star shape.

以上説明したように、ステップ301〜ステップ307の一連の処理を実行することで、画像ごとに実施した認識に関する性能情報と、複数の画像を利用して実施した認識に関する性能情報をGUI上に表示することができる。これにより、ユーザは、画像ごと及び複数の画像を用いた時の認識性能の確認や比較を行うことができる。   As described above, by executing the series of processing from step 301 to step 307, performance information related to recognition performed for each image and performance information related to recognition performed using a plurality of images are displayed on the GUI. can do. Thereby, the user can confirm and compare recognition performance when using each image and a plurality of images.

<変形例3>
第1の実施形態、変形例1及び2では、画像ごと及び複数の画像にもとづいて実施した対象物体の認識または位置姿勢推定に関する性能を表示した。さらに、性能低下の要因となるカメラに関して、該カメラの特性や該カメラの配置情報を示すパラメータの校正や、該カメラまたは画像の除去を促すGUIを表示してもよい。性能低下の要因となるカメラは、当該カメラで撮影した画像にもとづいて推定した位置姿勢推定の性能が予め定めた性能を満たさない場合や、性能が最も低くなるカメラとする。
<Modification 3>
In the first embodiment and the first and second modifications, the performance related to the recognition of the target object or the position and orientation estimation performed based on each image and a plurality of images is displayed. Further, for a camera that causes a performance degradation, a GUI that prompts the user to calibrate parameters indicating the characteristics of the camera and the placement information of the camera or to remove the camera or the image may be displayed. The camera that causes the performance degradation is a camera in which the position / orientation estimation performance estimated based on the image captured by the camera does not satisfy a predetermined performance or the camera having the lowest performance.

(第2の実施形態)
第1の実施形態では、各画像にもとづいて実施した位置姿勢推定に関する性能と、複数の画像にもとづいて実施した位置姿勢推定に関する性能を表示する方法について説明した。本実施形態では、位置姿勢推定に関する性能を表示するとともに、入力した複数の画像の中から位置姿勢推定に用いる画像を選択する方法について説明する。これにより、ユーザは、位置姿勢推定に関する性能を確認しながら、位置姿勢推定に利用する画像の選択ができるようになり、精度の高い位置姿勢推定が可能となる。対象物体の形状や置かれ方、環境光の当たり方といった変動する状況に適応した位置姿勢推定を行うことができる。また、位置姿勢推定に要する処理時間を、組み立て作業のタクトタイムで決定される該処理時間内に収めることが可能となる。
(Second Embodiment)
In the first embodiment, the method for displaying the performance related to the position / orientation estimation performed based on each image and the performance related to the position / orientation estimation performed based on a plurality of images has been described. In the present embodiment, a method for displaying performance related to position / orientation estimation and selecting an image used for position / orientation estimation from a plurality of input images will be described. Accordingly, the user can select an image to be used for position / orientation estimation while confirming the performance related to position / orientation estimation, and can perform position / orientation estimation with high accuracy. It is possible to perform position and orientation estimation adapted to changing conditions such as the shape of the target object, how it is placed, and how it hits the ambient light. Further, the processing time required for position and orientation estimation can be kept within the processing time determined by the tact time of the assembly work.

図6は、本実施形態におけるシステムの構成を示している。本実施形態における情報処理装置600の構成は、第1の実施形態で図1を用いて説明した情報処理装置100の構成に加え、画像選択部610を備える。その他の構成である画像取得部601〜第2の出力部607は画像取得部101〜第2の出力部107と同様の機能を有するため、ここでは、画像選択部610についてのみ説明する。また、情報処理装置600に接続される表示装置620は、第1の実施形態で説明した表示装置120と同等の機能を有する。また、情報処理装置600は、外部の操作装置620に接続されている。操作装置620は、マウスやキーボードであり、ユーザはこの操作装置を介して画像選択部610へ指示することができる。また、表示装置620の表示画面がタッチパネル機能を有する場合には、このタッチパネル機能が操作装置として機能する。   FIG. 6 shows a system configuration in the present embodiment. The configuration of the information processing apparatus 600 according to the present embodiment includes an image selection unit 610 in addition to the configuration of the information processing apparatus 100 described with reference to FIG. 1 in the first embodiment. Since the image acquisition unit 601 to the second output unit 607 having other configurations have the same functions as the image acquisition unit 101 to the second output unit 107, only the image selection unit 610 will be described here. In addition, the display device 620 connected to the information processing device 600 has a function equivalent to that of the display device 120 described in the first embodiment. Further, the information processing apparatus 600 is connected to an external operation device 620. The operation device 620 is a mouse or a keyboard, and the user can instruct the image selection unit 610 via the operation device. Further, when the display screen of the display device 620 has a touch panel function, the touch panel function functions as an operation device.

画像選択部610は、画像取得部601が取得した複数の画像の中から第2の計測部での処理に用いる画像を選択する。本実施形態では、第1の実施形態と同様に、第2の計測部では対象物体の位置姿勢推定を行うため、画像選択部610は、位置姿勢推定の処理に用いる画像を選択する。   The image selection unit 610 selects an image used for processing in the second measurement unit from among a plurality of images acquired by the image acquisition unit 601. In the present embodiment, as in the first embodiment, the second measurement unit performs position and orientation estimation of the target object, and thus the image selection unit 610 selects an image to be used for position and orientation estimation processing.

図7は、本実施形態の処理手順を示すフローチャートである。ステップ701〜ステップ704及びステップ706、ステップ707における処理は、第1の実施形態で説明した処理と同様であるため、ここでの説明は省略する。   FIG. 7 is a flowchart showing the processing procedure of this embodiment. The processing in Steps 701 to 704 and Steps 706 and 707 is the same as the processing described in the first embodiment, and thus description thereof is omitted here.

(ステップ708)
ステップS708において、画像選択部610は、画像選択を行うか否かを判断する。この判断は、ユーザが操作装置611で行っても良いし、所定の回数は必ず画像選択を行うというような予め定めたルールに基づいて行っても良い。ステップS708において、画像選択部610が、画像を選択すると判断した場合には、ステップ709に進む。選択しない場合には、本処理を終了する。
(Step 708)
In step S708, the image selection unit 610 determines whether to perform image selection. This determination may be made by the user using the operation device 611 or based on a predetermined rule such that image selection is always performed a predetermined number of times. If the image selection unit 610 determines in step S708 to select an image, the process proceeds to step 709. If not selected, this process is terminated.

(ステップ709)
ステップS709において、画像選択部610は、操作装置を介したユーザからの操作に基づいて、位置姿勢推定に用いる画像を選択する。
(Step 709)
In step S709, the image selection unit 610 selects an image to be used for position and orientation estimation based on an operation from the user via the operation device.

図8は、表示装置620の表示画面に表示される、第2の実施形態におけるGUI800の例である。   FIG. 8 is an example of the GUI 800 according to the second embodiment displayed on the display screen of the display device 620.

表示装置620は、カメラ2、カメラ3、カメラ4及びカメラ5が撮影した画像810〜813それぞれに基づいて実施した位置姿勢推定精度及び位置姿勢推定に要した処理時間820〜823を表示する。   The display device 620 displays the position / orientation estimation accuracy performed based on the images 810 to 813 captured by the camera 2, the camera 3, the camera 4, and the camera 5 and the processing time 820 to 823 required for the position / orientation estimation.

画像選択部610は、GUI800に設定した選択ボタン810〜830を操作装置を介してユーザが選択して、カメラが撮影した画像ごとに位置姿勢推定に使用するか否かの選択を行う。図8の例では、カメラ2及びカメラ5の撮影画像は使用せず、カメラ2及びカメラ3の撮影画像は使用する選択をしている。本実施形態では、画像取得部601に入力した画像ごとに、位置姿勢推定に使用するか否かの設定を行った。しかし、位置姿勢推定に使用する画像が選択できれば、他の設定方法であってもよい。例えば、選択対象となる画像全てに対して、位置姿勢推定に使用するか否かを一括で設定するようにしてもよい。   The image selection unit 610 selects the selection buttons 810 to 830 set in the GUI 800 via the operation device, and selects whether to use the position and orientation estimation for each image captured by the camera. In the example of FIG. 8, the images taken by the camera 2 and the camera 5 are not used, and the images taken by the camera 2 and the camera 3 are selected to be used. In the present embodiment, for each image input to the image acquisition unit 601, a setting is made as to whether to use for position and orientation estimation. However, other setting methods may be used as long as an image used for position and orientation estimation can be selected. For example, whether or not to use for position and orientation estimation may be collectively set for all images to be selected.

表示装置620は、選択ボタン824〜827で、ユーザが使用すると選択したカメラ2及びカメラ3が撮影した画像にもとづいて実施した位置姿勢推定の精度及び位置姿勢推定に要した処理時間824を表示する。   The display device 620 uses the selection buttons 824 to 827 to display the position / orientation estimation accuracy performed based on the images taken by the camera 2 and the camera 3 selected by the user and the processing time 824 required for the position / orientation estimation. .

(ステップ705)
ステップS705において、第2の計測部603は、ステップ701で選択した画像にもとづいて対象物体の位置姿勢推定を行う。
(Step 705)
In step S <b> 705, the second measurement unit 603 estimates the position and orientation of the target object based on the image selected in step 701.

<画像選択のバリエーション(選択方法)>
本実施形態では、画像取得部601で取得した画像ごとに、位置姿勢推定に使用するか否かの設定を行った。これに加えて、画像ごとに位置姿勢推定の処理方法を選択してもよい。例えば、画像特徴を用いた位置姿勢推定方法、距離値を用いた位置姿勢推定方法または画像特徴と距離値との両方を用いた位置姿勢推定方法の中から、処理方法を選択してもよい。こうすることで、対象物体の形状や置かれ方、環境光の当たり方といった変動する状況に適応した位置姿勢推定を行うことができる。また、選択対象となる画像全てに対して、位置姿勢推定の処理方法を一括で設定するようにしてもよい。
<Image selection variation (selection method)>
In the present embodiment, for each image acquired by the image acquisition unit 601, whether to use for position and orientation estimation is set. In addition to this, a position and orientation estimation processing method may be selected for each image. For example, a processing method may be selected from a position / orientation estimation method using image features, a position / orientation estimation method using distance values, or a position / orientation estimation method using both image features and distance values. By doing so, it is possible to perform position and orientation estimation adapted to changing conditions such as the shape of the target object, how it is placed, and how it hits the ambient light. Further, the position / orientation estimation processing method may be set collectively for all the images to be selected.

<変形例2−1>
第1の実施形態、及び変形例1−1〜1−3では、第1の計測部において、各画像にもとづいて位置姿勢推定を実施した。しかし、これに限らず、2つ以上の画像にもとづいて位置姿勢推定を実施してもよい(1以上であればよい)。この場合、第1の性能情報生成部において、2以上の画像にもとづいて実施した位置姿勢に関する性能情報を生成し、表示装置620において、該性能情報を表示する。
<Modification 2-1>
In the first embodiment and Modifications 1-1 to 1-3, the first measurement unit performs position and orientation estimation based on each image. However, the present invention is not limited to this, and position and orientation estimation may be performed based on two or more images (one or more may be used). In this case, the first performance information generation unit generates performance information related to the position and orientation performed based on two or more images, and the display device 620 displays the performance information.

表示装置620は、カメラ2及びカメラ3が撮影した画像に基づいて実施した位置姿勢推定の推定精度及び処理時間820を表示する。また、表示装置620は、カメラ3及びカメラ4が撮影した画像に基づいて実施した位置姿勢推定の推定精度及び処理時間821を表示する。また、表示装置620は、カメラ4が撮影した画像にもとづいて実施した位置姿勢推定の推定精度及び処理時間822を表示する。また、表示装置620は、カメラ4及びカメラ5が撮影した画像にもとづいて実施した位置姿勢推定の推定精度及び処理時間823を表示する。また、これらの撮影画像810〜813を表示する。画像810、811及び813に関しては、撮影した画像を貼り合わせた画像とする。例えば、画像810は、カメラ2及び3で撮影した画像を貼り合わせた画像とする。   The display device 620 displays the estimation accuracy and processing time 820 of position and orientation estimation performed based on images taken by the camera 2 and the camera 3. Further, the display device 620 displays the estimation accuracy and processing time 821 of the position / orientation estimation performed based on the images taken by the camera 3 and the camera 4. Further, the display device 620 displays the estimation accuracy and the processing time 822 of the position / orientation estimation performed based on the image captured by the camera 4. Further, the display device 620 displays the estimation accuracy and processing time 823 of the position / orientation estimation performed based on the images taken by the camera 4 and the camera 5. In addition, these captured images 810 to 813 are displayed. The images 810, 811 and 813 are images obtained by pasting captured images. For example, the image 810 is an image obtained by pasting together images taken by the cameras 2 and 3.

画像選択部610は、選択ボタン824〜827をユーザが選択することで、使用するカメラを選択する。   The image selection unit 610 selects a camera to be used when the user selects the selection buttons 824 to 827.

表示装置620は、カメラ3、カメラ4及びカメラ5が撮影した画像にもとづいて実施した位置姿勢推定の精度及び処理時間824を表示する。また、カメラ3、カメラ4及びカメラ5が撮影した画像を貼り合わせた画像814を表示する。   The display device 620 displays the accuracy and processing time 824 of position and orientation estimation performed based on images taken by the camera 3, the camera 4, and the camera 5. In addition, an image 814 in which images taken by the camera 3, the camera 4, and the camera 5 are combined is displayed.

なお、撮影画像810、811、813及び814は、貼り合わせた画像に代わって、貼り合わせた画像を構成する個々の画像を表示してもよい。例えば、画像810には、カメラ2で撮影した画像または、カメラ3で撮影した画像を表示する。あるいは、画像表示そのものをしなくてもよい。   Note that the captured images 810, 811, 813, and 814 may display individual images constituting the combined images instead of the combined images. For example, the image 810 displays an image taken by the camera 2 or an image taken by the camera 3. Alternatively, the image display itself may not be performed.

(第3の実施形態)
第1の実施形態では、各画像にもとづいて実施した位置姿勢推定に関する性能と、複数の画像にもとづいて実施した位置姿勢推定に関する性能を表示する方法について説明した。第2の実施形態では、入力した複数の画像の中から位置姿勢推定に用いる画像を選択する方法について説明した。第3の実施形態では、位置姿勢推定に関する条件を入力し、入力した条件を満たす時の位置姿勢推定に関する性能を表示する方法について説明する。これにより、ユーザが所望する条件を満たす位置姿勢推定が可能となる。また、対象物体の形状や置かれ方、環境光の当たり方といった変動する状況に適応した位置姿勢推定を行うことができる。
(Third embodiment)
In the first embodiment, the method for displaying the performance related to the position / orientation estimation performed based on each image and the performance related to the position / orientation estimation performed based on a plurality of images has been described. In the second embodiment, the method for selecting an image used for position and orientation estimation from a plurality of input images has been described. In the third embodiment, a method will be described in which conditions related to position and orientation estimation are input, and the performance related to position and orientation estimation when the input conditions are satisfied is displayed. This makes it possible to estimate the position and orientation that satisfy the conditions desired by the user. Further, it is possible to perform position and orientation estimation adapted to changing conditions such as the shape of the target object, how it is placed, and how it hits the ambient light.

図9は、本実施形態における情報処理装置900の構成を示している。情報処理装置900は、第1の実施形態で図1を用いて説明した構成に加え、条件取得部910を保持する。条件取得部910、第2の計測部903、第2の性能情報生成部905、第2の出力部以外は第1の実施形態で説明したものと同様であるため、ここでの説明は省略する。   FIG. 9 shows the configuration of the information processing apparatus 900 in this embodiment. The information processing apparatus 900 holds a condition acquisition unit 910 in addition to the configuration described with reference to FIG. 1 in the first embodiment. Other than the condition acquisition unit 910, the second measurement unit 903, the second performance information generation unit 905, and the second output unit are the same as those described in the first embodiment, and a description thereof is omitted here. .

条件取得部910は、位置姿勢推定に関する条件を取得する。本実施形態では、取得する位置姿勢推定に関する条件は、位置姿勢推定精度の下限値とする。   The condition acquisition unit 910 acquires conditions related to position and orientation estimation. In the present embodiment, the condition regarding the position / orientation estimation to be acquired is the lower limit value of the position / orientation estimation accuracy.

第2の計測部903は、入力した複数の画像の中から位置姿勢推定に使用する画像の組み合わせを複数生成し、生成した画像の組み合わせごとに位置姿勢推定を行う。位置姿勢推定方法は、第1の実施形態で説明した通りである。   The second measurement unit 903 generates a plurality of image combinations used for position and orientation estimation from the plurality of input images, and performs position and orientation estimation for each generated image combination. The position and orientation estimation method is as described in the first embodiment.

第2の性能情報生成部905は、第2の計測部903で実施した複数の位置姿勢推定の結果に対して、位置姿勢推定に関する性能情報を生成する。さらに、生成した性能情報が条件取得部910で取得した条件を満たすか否かを判定する。具体的には、位置姿勢推定の精度が、取得した推定精度の閾値に収まっているかどうかを判定する。判定された結果、取得した閾値に収まっていると判定された精度の位置姿勢計測結果のみを第2の出力部907に送出する。   The second performance information generation unit 905 generates performance information related to position / orientation estimation for the results of the plurality of position / orientation estimations performed by the second measurement unit 903. Furthermore, it is determined whether the generated performance information satisfies the condition acquired by the condition acquisition unit 910. Specifically, it is determined whether the accuracy of position / orientation estimation falls within the acquired estimation accuracy threshold. As a result of the determination, only the position / orientation measurement result with the accuracy determined to be within the acquired threshold value is sent to the second output unit 907.

第2の出力部907は、第2の性能情報生成部905で生成した性能情報のうち、性能情報生成部905において入力した条件を満たすと判定された位置姿勢推定に関する性能のみを出力する。   The second output unit 907 outputs only the performance related to the position / orientation estimation determined to satisfy the condition input in the performance information generation unit 905 among the performance information generated by the second performance information generation unit 905.

図10は、本実施形態における処理手順を示すフローチャートである。ステップ1001〜1006は、第1の実施形態で説明したステップS301〜306と同様であるため、ここでの説明は省略する。   FIG. 10 is a flowchart showing a processing procedure in the present embodiment. Steps 1001 to 1006 are the same as steps S301 to S306 described in the first embodiment, and thus description thereof is omitted here.

(ステップ1007)
ステップS1007において、条件取得部910は、設定したGUIを介して、位置姿勢推定精度の閾値を取得する。本実施形態においては、ユーザが操作装置を介して入力したものを取得する。条件取得部910は、取得した条件を第2の出力部909へ送出する。
(Step 1007)
In step S <b> 1007, the condition acquisition unit 910 acquires a position / orientation estimation accuracy threshold value via the set GUI. In this embodiment, what the user inputs via the operation device is acquired. The condition acquisition unit 910 sends the acquired condition to the second output unit 909.

(ステップ1008)
ステップS1008において、第2の出力部907は、ステップS1006において生成された位置姿勢計測の精度を取得し、該取得した精度がステップS1007で取得した閾値内におさまっているかを判定する。そして、閾値以内に収まっていると判定された位置姿勢推定に関する性能情報を選択して表示装置920に出力する。
(Step 1008)
In step S1008, the second output unit 907 acquires the accuracy of the position / orientation measurement generated in step S1006 and determines whether the acquired accuracy is within the threshold acquired in step S1007. Then, performance information related to position / orientation estimation determined to be within the threshold is selected and output to the display device 920.

図11は、表示装置920及び条件取得部910に設定したGUI1100を示す例である。表示装置920は、条件を満たすと判定した複数の位置姿勢推定に関する性能情報の中から、性能情報表示切り替えボタン1128で指定した性能情報を表示する。また、表示装置920に表示した性能情報の対象となった位置姿勢推定に使用した画像を特定するために、各画像を使用したか否かを示す情報1124〜1127を表示する。この例では、カメラB及びCを使用した位置姿勢推定の性能情報を表示領域907に表示している。   FIG. 11 is an example showing the GUI 1100 set in the display device 920 and the condition acquisition unit 910. The display device 920 displays the performance information specified by the performance information display switching button 1128 from among a plurality of performance information related to position and orientation estimation determined to satisfy the condition. Further, information 1124 to 1127 indicating whether or not each image is used is displayed in order to specify the image used for the position and orientation estimation that is the target of the performance information displayed on the display device 920. In this example, performance information of position and orientation estimation using the cameras B and C is displayed in the display area 907.

条件取得部910は、GUI1100に設定された入力ボックス1129に、ユーザが操作装置を介して入力した推定精度の条件を取得する。   The condition acquisition unit 910 acquires an estimation accuracy condition input by the user via the operation device in the input box 1129 set in the GUI 1100.

表示装置920は、カメラ2、カメラ3、カメラ4及びカメラ5が撮影した画像1110〜1113それぞれにもとづいて実施した位置姿勢推定精度及び位置姿勢推定に要した処理時間1120〜1123を表示する。   The display device 920 displays position / orientation estimation accuracy and processing times 1120 to 1123 required for position / orientation estimation performed based on the images 1110 to 1113 captured by the camera 2, the camera 3, the camera 4, and the camera 5, respectively.

表示装置920は、表示領域1107に、カメラ3及び4が撮影した画像にもとづいて位置姿勢推定精度及び位置姿勢推定に要した処理時間を表示する。   The display device 920 displays the position / orientation estimation accuracy and the processing time required for the position / orientation estimation based on the images taken by the cameras 3 and 4 in the display area 1107.

<入力条件のバリエーション>
本実施形態では、入力する条件を推定精度の下限値とした。しかし、位置姿勢推定に関する条件であれば、他のものであってもよい。例えば、位置姿勢推定に要する処理時間の上限値を指定してもよい。この場合、位置姿勢推定に要する処理時間が、指定した処理時間の上限値を下回る場合に、該条件を満たすと判断する。あるいは、推定精度の下限値と処理時間の上限値の両方を条件として入力してもよい。
<Variations of input conditions>
In the present embodiment, the input condition is the lower limit value of the estimation accuracy. However, other conditions may be used as long as they are conditions related to position and orientation estimation. For example, an upper limit value of processing time required for position and orientation estimation may be specified. In this case, when the processing time required for position / orientation estimation falls below the upper limit value of the designated processing time, it is determined that the condition is satisfied. Alternatively, both the lower limit value of the estimation accuracy and the upper limit value of the processing time may be input as conditions.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

<各実施形態の効果>
第1の実施形態では、撮影した各画像または複数の画像にもとづいてそれぞれ位置姿勢推定を行い、それぞれの位置姿勢推定の性能に関する情報をGUI上に表示する方法について説明した。これにより、各画像及び複数の画像を用いて実施した位置姿勢推定の性能の確認や比較を容易に行うことができるようになり、性能低下あるいは向上の要因となっている画像またはカメラの特定が行えるようになる。また、性能低下の要因と特定されたカメラの除去や配置変更を行うことができるようになる。
<Effect of each embodiment>
In the first embodiment, a method has been described in which position and orientation estimation is performed based on each captured image or a plurality of images, and information on the performance of each position and orientation estimation is displayed on the GUI. This makes it possible to easily check and compare the performance of position and orientation estimation performed using each image and a plurality of images, and to identify the image or camera that is the cause of the performance degradation or improvement. You can do it. In addition, it becomes possible to remove or change the arrangement of the camera identified as the cause of the performance degradation.

第2の実施形態では、撮影した各画像または複数の画像にもとづいて実施した位置姿勢推定の性能をそれぞれ表示するとともに、入力した複数の画像の中から位置姿勢推定に用いる画像を選択する方法について説明した。これにより、ユーザは、性能を確認しながら、位置姿勢推定に利用する画像の選択を実施できるようになるため、性能の高い位置姿勢推定を実施することが可能となる。また、位置姿勢推定に要する処理時間を、組み立て作業のタクトタイムで決定される該処理時間内に収めることが可能となる。   In the second embodiment, a method of displaying the performance of position / orientation estimation based on each captured image or a plurality of images and selecting an image to be used for position / orientation estimation from a plurality of input images. explained. Accordingly, the user can select an image to be used for position / orientation estimation while confirming the performance, and thus can perform position / orientation estimation with high performance. Further, the processing time required for position and orientation estimation can be kept within the processing time determined by the tact time of the assembly work.

第3の実施形態では、位置姿勢推定に関する条件を取得し、取得した条件を満たす際の位置姿勢推定に関する性能を表示する方法について説明する。これにより、ユーザが所望する条件を満たす位置姿勢推定が可能となる。   In the third embodiment, a method for acquiring conditions related to position / orientation estimation and acquiring performance related to position / orientation estimation when the acquired conditions are satisfied will be described. This makes it possible to estimate the position and orientation that satisfy the conditions desired by the user.

<定義>
本発明の画像取得手段は、情報処理装置100と接続した対象物体を撮影したカメラから画像を入力してもよいし、複数の視点で対象物体を撮影した画像を、情報処理装置100と接続した外部の記憶装置に一旦保持しておいたものを入力してもよい。
<Definition>
The image acquisition unit of the present invention may input an image from a camera that has captured a target object connected to the information processing apparatus 100, or connected to the information processing apparatus 100 are images of the target object captured from a plurality of viewpoints. You may input what was once held in an external storage device.

本発明における第1及び第2の計測部では、画像にもとづいて算出した距離値にもとづいて認識または位置姿勢推定を実施してもよい。あるいは、画像から抽出した画像特徴にもとづいて認識または位置姿勢推定を実施してもよい。あるいは、画像にもとづいて算出した距離値と画像から抽出した画像特徴の両方にもとづいて認識または位置姿勢推定を実施してもよい。   In the first and second measurement units of the present invention, recognition or position / orientation estimation may be performed based on a distance value calculated based on an image. Alternatively, recognition or position / orientation estimation may be performed based on image features extracted from the image. Alternatively, recognition or position / orientation estimation may be performed based on both the distance value calculated based on the image and the image feature extracted from the image.

本発明における第1及び第2の性能情報生成部では、第1及び第2の計測部で実施した位置姿勢推定に関する性能情報を生成する。位置姿勢推定に関する性能情報は、位置姿勢の性能を示す情報であれば何でもよい。例えば、位置姿勢推定の精度または処理時間とする。あるいは、推定した位置姿勢、対象物体の有無、位置姿勢推定または認識の計算が破たんしたか否かの情報であってもよい。   In the 1st and 2nd performance information generation part in this invention, the performance information regarding the position and orientation estimation implemented in the 1st and 2nd measurement part is produced | generated. The performance information related to the position / orientation estimation may be anything as long as it is information indicating the position / orientation performance. For example, the position / orientation estimation accuracy or processing time is used. Alternatively, it may be information on the estimated position and orientation, the presence or absence of the target object, and whether or not the calculation of position and orientation estimation or recognition has broken.

本発明における第1及び第2の出力部は、第1及び第2の性能情報生成部で生成した性能情報を表示装置の表示領域にそれぞれ表示する。表示方法は、位置姿勢推定の精度または処理時間の数値をGUI上に表示してもよいし、対象物体の形状を示す三次元モデルを推定した位置姿勢にもとづいて描画し入力画像上に重畳して表示してもよい。   The first and second output units in the present invention display the performance information generated by the first and second performance information generation units in the display area of the display device, respectively. The display method may display the accuracy of position / orientation estimation or the numerical value of the processing time on the GUI, or draw based on the estimated position / orientation of the 3D model indicating the shape of the target object and superimpose it on the input image. May be displayed.

101 画像取得部
102 第1の計測部
103 第2の計測部
104 第1の性能情報生成部
105 第2の性能情報生成部
106 第1の出力部
107 第2の出力部
DESCRIPTION OF SYMBOLS 101 Image acquisition part 102 1st measurement part 103 2nd measurement part 104 1st performance information generation part 105 2nd performance information generation part 106 1st output part 107 2nd output part

Claims (14)

対象物体を撮像した複数の画像を取得する画像取得手段と、
前記取得した画像のうち、少なくとも1以上の画像に基づいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、少なくともいずれか1つを実行する第1の実行手段と、
前記取得した複数のうち、少なくとも2以上の画像に基づいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、少なくともいずれか1つを実行する第2の実行手段と、
前記第1の実行手段で実行される処理に関する第1の性能情報を生成する第1の性能情報生成手段と、
前記第2の実行手段で実行される処理に関する第2の性能情報を生成する第2の性能情報生成手段と、
前記第1の性能情報と第2の性能情報とを表示手段に表示させる表示制御手段と、
を備えることを特徴とする情報処理装置。
Image acquisition means for acquiring a plurality of images obtained by imaging a target object;
First execution means for executing at least one of recognition processing of the target object and position / orientation estimation processing of the target object based on at least one of the acquired images;
Second execution means for executing at least one of the target object recognition process and the position / posture estimation process of the target object based on at least two or more images of the plurality obtained.
First performance information generation means for generating first performance information relating to processing executed by the first execution means;
Second performance information generation means for generating second performance information relating to processing executed by the second execution means;
Display control means for causing the display means to display the first performance information and the second performance information;
An information processing apparatus comprising:
さらに、前記画像取得部が取得する複数の画像から、前記第2の実行手段による処理に用いる画像を少なくとも2つ以上選択する画像選択手段を備え、
前記第2の位置姿勢推定手段は、前記画像選択手段で選択した画像に基づいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、少なくともいずれか1つを実行することを特徴とする請求項1に記載の情報処理装置。
Furthermore, the image acquisition unit includes an image selection unit that selects at least two images to be used for processing by the second execution unit from a plurality of images acquired by the image acquisition unit,
The second position / orientation estimation unit executes at least one of the target object recognition process and the target object position / orientation estimation process based on the image selected by the image selection unit. The information processing apparatus according to claim 1.
さらに、前記画像取得手段で取得した画像に、前記第2の位置姿勢推定手段における処理方法を選択する手段を有し、
前記第2の計測手段は、前記選択された処理方法に基づいて前記処理を実施することを特徴とする請求項1または2に記載の情報処理装置。
Furthermore, the image acquired by the image acquisition means has means for selecting a processing method in the second position and orientation estimation means,
The information processing apparatus according to claim 1, wherein the second measurement unit performs the process based on the selected processing method.
前記第1の性能情報は、前記第1の実行手段が実行する処理の精度、処理時間、処理の成否のうち、少なくともいずれか1つを含むことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。   4. The method according to claim 1, wherein the first performance information includes at least one of accuracy of processing executed by the first execution unit, processing time, and success / failure of the processing. The information processing apparatus according to item 1. 前記第2の性能情報は、前記第2の実行手段が実行する処理の精度、処理時間、処理の成否のうち、少なくともいずれか1つを含むことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。   5. The method according to claim 1, wherein the second performance information includes at least one of accuracy, processing time, and success / failure of processing executed by the second execution unit. The information processing apparatus according to item 1. さらに、前記第1の実行手段と前記第2の実行手段のうち、少なくともいずれかの手段が実行する処理に関する条件を取得する条件取得手段を備え、
前記表示制御手段は、前記取得した条件を満たす性能情報を前記表示手段に表示させることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
Furthermore, it comprises a condition acquisition means for acquiring a condition relating to processing executed by at least one of the first execution means and the second execution means,
The information processing apparatus according to claim 1, wherein the display control unit causes the display unit to display performance information that satisfies the acquired condition.
前記条件取得手段は、前記第1の実行手段と前記第2の実行手段のうち、少なくともいずれかの手段が実行する処理の精度または処理時間のうち少なくともいずれか1つを含むことを特徴とする請求項6に記載の情報処理装置。   The condition acquisition means includes at least one of processing accuracy and processing time executed by at least one of the first execution means and the second execution means. The information processing apparatus according to claim 6. 前記画像取得手段は、それぞれ異なる位置に配置された複数の撮像装置により撮影された画像を取得することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the image acquisition unit acquires images captured by a plurality of imaging apparatuses that are arranged at different positions. 前記画像取得手段は、投影装置によって投影されたパターンを含む画像を取得することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the image acquisition unit acquires an image including a pattern projected by a projection apparatus. 更に、前記表示手段を更に備える請求項1乃至9のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising the display unit. 前記表示制御手段は、更に、前記第1の実行手段または前記第2の実行手段による処理の結果に基づいて前記対象物体の三次元モデルを描画した画像を前記表示手段に表示させることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置   The display control means further causes the display means to display an image in which a three-dimensional model of the target object is drawn based on a result of processing by the first execution means or the second execution means. The information processing apparatus according to any one of claims 1 to 9 さらに、パターンを投影する投影装置と、前記パターンが投影された画像を撮像する複数の撮像装置を備え、
前記画像取得手段は、前記撮像装置により撮像された前記パターンが投影された複数の画像を取得することを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。
Furthermore, a projection device that projects a pattern, and a plurality of imaging devices that capture an image on which the pattern is projected,
The information processing apparatus according to claim 1, wherein the image acquisition unit acquires a plurality of images on which the pattern imaged by the imaging apparatus is projected.
対象物体を撮影した複数の画像を取得する画像取得工程と、
前記取得した画像のうち、少なくとも1つの画像に関する情報にもとづいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、少なくともいずれか1つを実行する第1の実行工程と、
前記取得した複数のうち、少なくとも2つの画像に関する情報にもとづいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、少なくともいずれか1つを実行する第2の実行工程と、
前記第1の実行工程で実行される処理に関する第1の性能情報を生成する第1の性能情報生成工程と、
前記第2の実行工程で実行される処理に関する第2の性能情報を生成する第2の性能情報生成工程と、
前記第1の性能情報と第2の性能情報とを表示手段に表示させる表示制御工程と、
を備えることを特徴とする情報処理装置。
An image acquisition process for acquiring a plurality of images of the target object;
A first execution step of executing at least one of the target object recognition process and the target object position and orientation estimation process based on information about at least one of the acquired images; ,
A second execution step of executing at least one of the target object recognition process and the target object position and orientation estimation process based on information about at least two images of the plurality obtained ,
A first performance information generation step for generating first performance information related to the processing executed in the first execution step;
A second performance information generation step for generating second performance information relating to the processing executed in the second execution step;
A display control step of causing the display means to display the first performance information and the second performance information;
An information processing apparatus comprising:
コンピュータで実行されることにより、該コンピュータ装置を請求項1乃至12のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。   A program for causing a computer device to function as each unit of the information processing device according to any one of claims 1 to 12, when the computer device is executed.
JP2014084715A 2014-04-16 2014-04-16 INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM Active JP6425405B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014084715A JP6425405B2 (en) 2014-04-16 2014-04-16 INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014084715A JP6425405B2 (en) 2014-04-16 2014-04-16 INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2015203680A true JP2015203680A (en) 2015-11-16
JP6425405B2 JP6425405B2 (en) 2018-11-21

Family

ID=54597189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014084715A Active JP6425405B2 (en) 2014-04-16 2014-04-16 INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6425405B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018116589A1 (en) * 2016-12-19 2018-06-28 株式会社安川電機 Industrial device image recognition processor and controller
JP2019049121A (en) * 2017-09-08 2019-03-28 株式会社小松製作所 Construction management device and construction management method
WO2019138677A1 (en) * 2018-01-15 2019-07-18 キヤノン株式会社 Information processing device, control method therefor, computer-readable storage medium, and driving control system
WO2020049766A1 (en) * 2018-09-07 2020-03-12 オムロン株式会社 Target object recognition device, manipulator, and mobile robot
US11964399B2 (en) 2018-09-07 2024-04-23 Omron Corporation Target object recognition device, manipulator, and mobile robot

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259642A (en) * 1998-03-12 1999-09-24 Omron Corp Recognition processing method, recognition processor using the same, and license number plate reader
JP2002365747A (en) * 2001-06-07 2002-12-18 Olympus Optical Co Ltd Camera
WO2006082928A1 (en) * 2005-02-04 2006-08-10 Canon Kabushiki Kaisha Position posture measuring method and device
JP2011022084A (en) * 2009-07-17 2011-02-03 Fuji Electric Holdings Co Ltd Device and method for measuring three-dimensional pose
JP2011107083A (en) * 2009-11-20 2011-06-02 Omron Corp Posture recognition method and 3d vision sensor using the same
JP2012021958A (en) * 2010-07-16 2012-02-02 Canon Inc Position/posture measuring apparatus, measurement processing method for the same, and program
JP2013130426A (en) * 2011-12-20 2013-07-04 Canon Inc Information processing apparatus, control method of information processing apparatus and program
JP2014055815A (en) * 2012-09-11 2014-03-27 Keyence Corp Shape measuring device, shape measuring method, and shape measuring program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259642A (en) * 1998-03-12 1999-09-24 Omron Corp Recognition processing method, recognition processor using the same, and license number plate reader
JP2002365747A (en) * 2001-06-07 2002-12-18 Olympus Optical Co Ltd Camera
WO2006082928A1 (en) * 2005-02-04 2006-08-10 Canon Kabushiki Kaisha Position posture measuring method and device
JP2006242943A (en) * 2005-02-04 2006-09-14 Canon Inc Position attitude measuring method and device
JP2011022084A (en) * 2009-07-17 2011-02-03 Fuji Electric Holdings Co Ltd Device and method for measuring three-dimensional pose
JP2011107083A (en) * 2009-11-20 2011-06-02 Omron Corp Posture recognition method and 3d vision sensor using the same
JP2012021958A (en) * 2010-07-16 2012-02-02 Canon Inc Position/posture measuring apparatus, measurement processing method for the same, and program
JP2013130426A (en) * 2011-12-20 2013-07-04 Canon Inc Information processing apparatus, control method of information processing apparatus and program
JP2014055815A (en) * 2012-09-11 2014-03-27 Keyence Corp Shape measuring device, shape measuring method, and shape measuring program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018116589A1 (en) * 2016-12-19 2019-06-24 株式会社安川電機 Image recognition processor and controller for industrial equipment
WO2018116589A1 (en) * 2016-12-19 2018-06-28 株式会社安川電機 Industrial device image recognition processor and controller
US11004191B2 (en) 2016-12-19 2021-05-11 Kabushiki Kaisha Yaskawa Denki Industrial device image recognition processor and controller
JP7022076B2 (en) 2016-12-19 2022-02-17 株式会社安川電機 Image recognition processors and controllers for industrial equipment
JP2019049121A (en) * 2017-09-08 2019-03-28 株式会社小松製作所 Construction management device and construction management method
US11393123B2 (en) 2018-01-15 2022-07-19 Canon Kabushiki Kaisha Information processing device, control method therefor, non-transitory computer-readable storage medium, and driving control system
WO2019138677A1 (en) * 2018-01-15 2019-07-18 キヤノン株式会社 Information processing device, control method therefor, computer-readable storage medium, and driving control system
JP2019125112A (en) * 2018-01-15 2019-07-25 キヤノン株式会社 Information processor, method for controlling the same, program, and operation control system
JP7149707B2 (en) 2018-01-15 2022-10-07 キヤノン株式会社 Information processing device, its control method and program, and operation control system
JP2020042421A (en) * 2018-09-07 2020-03-19 オムロン株式会社 Object recognition device and manipulator and mobile robot
JP7031540B2 (en) 2018-09-07 2022-03-08 オムロン株式会社 Object recognition devices, manipulators, and mobile robots
WO2020049766A1 (en) * 2018-09-07 2020-03-12 オムロン株式会社 Target object recognition device, manipulator, and mobile robot
US11964399B2 (en) 2018-09-07 2024-04-23 Omron Corporation Target object recognition device, manipulator, and mobile robot

Also Published As

Publication number Publication date
JP6425405B2 (en) 2018-11-21

Similar Documents

Publication Publication Date Title
US9852358B2 (en) Information processing device, information processing method, and information processing system
US10456918B2 (en) Information processing apparatus, information processing method, and program
US10762386B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
JP2014199584A5 (en)
JP6193195B2 (en) Movement support apparatus, method and program
JP2012022411A (en) Information processing apparatus and control method thereof, and program
US20150339859A1 (en) Apparatus and method for navigating through volume image
JP2018091656A (en) Information processing apparatus, measuring apparatus, system, calculating method, program, and article manufacturing method
JP2018026064A (en) Image processor, image processing method, system
JP6425405B2 (en) INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM
JP2015049776A (en) Image processor, image processing method and image processing program
KR101256046B1 (en) Method and system for body tracking for spatial gesture recognition
JP2017123087A (en) Program, device and method for calculating normal vector of planar object reflected in continuous photographic images
JP2018120283A (en) Information processing device, information processing method and program
JP2018010599A (en) Information processor, panoramic image display method, panoramic image display program
JP2017037426A (en) Information processor, information processing method, and program
JP5762099B2 (en) Posture recognition apparatus, work robot, posture recognition method, program, and recording medium
KR20120020711A (en) Object recognition system and method the same
JP2019211981A (en) Information processor, information processor controlling method and program
US20210042576A1 (en) Image processing system
KR101868520B1 (en) Method for hand-gesture recognition and apparatus thereof
JP7179633B2 (en) Measuring method, measuring device and program
JP6641313B2 (en) Region extraction device and program
JP2016139396A (en) User interface device, method and program
JPWO2015141214A1 (en) Label information processing apparatus for multi-viewpoint image and label information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181023

R151 Written notification of patent or utility model registration

Ref document number: 6425405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151