JP6425405B2 - INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM - Google Patents

INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM Download PDF

Info

Publication number
JP6425405B2
JP6425405B2 JP2014084715A JP2014084715A JP6425405B2 JP 6425405 B2 JP6425405 B2 JP 6425405B2 JP 2014084715 A JP2014084715 A JP 2014084715A JP 2014084715 A JP2014084715 A JP 2014084715A JP 6425405 B2 JP6425405 B2 JP 6425405B2
Authority
JP
Japan
Prior art keywords
image
performance information
target object
orientation estimation
imaging devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014084715A
Other languages
Japanese (ja)
Other versions
JP2015203680A (en
Inventor
その子 宮谷
その子 宮谷
藤木 真和
真和 藤木
鈴木 雅博
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014084715A priority Critical patent/JP6425405B2/en
Publication of JP2015203680A publication Critical patent/JP2015203680A/en
Application granted granted Critical
Publication of JP6425405B2 publication Critical patent/JP6425405B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、物体を撮像した画像に基づいて画像中の物体の位置姿勢推定を認識して表示する方法に関する。   The present invention relates to a method of recognizing and displaying position and orientation estimation of an object in an image based on an image obtained by capturing the object.

生産現場では、生産効率向上のため、ロボットによる自動化が進められている。ロボットによる部品のピッキングや組み立て作業では、対象部品を認識し、さらに位置姿勢を取得する必要がある。これを実現する方法として、対象部品をカメラで撮影した画像を用いる方法が開発されている。   At production sites, automation by robots is in progress to improve production efficiency. In picking and assembling a part by a robot, it is necessary to recognize a target part and to acquire the position and orientation. As a method of realizing this, a method using an image obtained by photographing a target part with a camera has been developed.

特許文献1には、複数のカメラで撮影した画像を用いることで認識の正確性を向上させる方法が開示されている。この方法では、複数のカメラで撮影した画像の中から複数のステレオ画像ペアを選択し、ステレオ画像ペアごとに算出した距離値を用いて対象物体の認識を複数行うことで、認識の正確性を向上させている。   Patent Document 1 discloses a method of improving the accuracy of recognition by using images captured by a plurality of cameras. In this method, a plurality of stereo image pairs are selected from images captured by a plurality of cameras, and recognition accuracy is improved by performing multiple recognitions of the target object using distance values calculated for each stereo image pair. I am improving.

特開2000−94374号公報Unexamined-Japanese-Patent No. 2000-94374

しかし、ステレオ画像ペアをつくる複数の画像に、ノイズを多く含む画像が含まれることがある。また、複数の画像を用いることで処理時間が増大してしまい、所定の時間内にタスクを終了できなくなる場合もある。
本発明は、以上の課題を鑑みてなされたものであり、複数の画像を用いた認識または位置姿勢推定において、複数の画像から位置姿勢の導出に好適な画像を選択することを目的とする。
However, a plurality of images forming a stereo image pair may include an image that is rich in noise. Further, using a plurality of images may increase the processing time, making it impossible to finish the task within a predetermined time.
The present invention has been made in view of the above problems, and it is an object of the present invention to select an image suitable for deriving a position and orientation from a plurality of images in recognition or position and orientation estimation using a plurality of images.

本発明の一態様によれば、情報処理装置に、対象物体を複数の撮像装置のそれぞれで撮像した複数の画像を取得する画像取得手段と、前記取得した複数の画像の各画像に基づいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、いずれか1つの処理を実行する第1の実行手段と、前記複数の撮像装置のそれぞれに対して、前記第1の実行手段で実行される処理に関する第1の性能情報を生成する第1の性能情報生成手段と、前記複数の撮像装置のそれぞれと対応付けて、前記第1の性能情報を表示手段に表示させる第1の表示制御手段と、前記第1の性能情報がそれぞれと対応付けて表示された前記複数の撮像装置から、ユーザの指示に基づいて2以上の撮像装置を選択する選択手段と、前記選択した2以上の撮像装置で撮像した画像に基づいて、前記1つの処理を実行する第2の実行手段と、前記第2の実行手段で実行される処理に関する第2の性能情報を生成する第2の性能情報生成手段と、前記第2の性能情報を前記表示手段に表示させる第2の表示制御手段とを備える。   According to one aspect of the present invention, based on an image acquisition unit for acquiring a plurality of images obtained by imaging a target object with each of a plurality of imaging devices in an information processing apparatus, and based on each image of the plurality of acquired images First execution means for executing any one of the target object recognition process and the target object position and orientation estimation process, and the first execution for each of the plurality of imaging devices A first performance information generation unit configured to generate first performance information related to processing executed by the unit; and the first performance information displayed on the display unit in association with each of the plurality of imaging devices Display control means, selection means for selecting two or more imaging devices based on a user's instruction from the plurality of imaging devices in which the first performance information is displayed in association with each, and the selected two More imaging equipment And a second performance information generation unit configured to generate second performance information related to the processing to be executed by the second execution unit, based on the image captured in step And second display control means for displaying the second performance information on the display means.

複数の画像を用いた認識または位置姿勢推定において、複数の画像から位置姿勢の導出に好適な画像を選択することができる。   In recognition or position and orientation estimation using a plurality of images, an image suitable for deriving a position and orientation can be selected from the plurality of images.

第1の実施形態におけるシステムの構成を示す図である。It is a figure showing composition of a system in a 1st embodiment. 本発明の情報処理装置を利用するシステムの構成例を示す図である。It is a figure which shows the structural example of the system using the information processing apparatus of this invention. 第1の実施形態の処理手順を説明する図である。It is a figure explaining the process sequence of 1st Embodiment. 第1の実施形態におけるGUIの例を示す図である。It is a figure which shows the example of GUI in 1st Embodiment. 変形例1におけるGUIの例を示す図である。It is a figure which shows the example of GUI in the modification 1. FIG. 第2の実施形態におけるシステムの構成を示す図である。It is a figure which shows the structure of the system in 2nd Embodiment. 第2の実施形態の処理手順を説明する図である。It is a figure explaining the process sequence of 2nd Embodiment. 第2の実施形態におけるGUIの例を示す図である。It is a figure which shows the example of GUI in 2nd Embodiment. 第3の実施形態におけるシステムの構成を示す図である。It is a figure which shows the structure of the system in 3rd Embodiment. 第3の実施形態の処理手順を説明する図である。It is a figure explaining the process sequence of 3rd Embodiment. 第3の実施形態におけるGUIの例を示す図である。It is a figure which shows the example of GUI in 3rd Embodiment. 本発明における情報処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the information processing apparatus in this invention.

本発明にかかる各実施形態を説明するのに先立ち、各実施形態に示す情報処理装置が実装されるハードウェア構成について、図12を用いて説明する。   Prior to describing each embodiment according to the present invention, a hardware configuration on which the information processing apparatus shown in each embodiment is mounted will be described with reference to FIG.

図12は、本実施形態における情報装置のハードウェア構成図である。同図において、CPU1210は、バス1200を介して接続する各デバイスを統括的に制御する。CPU1210は、読み出し専用メモリ(ROM)1220に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM1220に記憶されており、ランダムアクセスメモリ(RAM)1230に一時記憶され、CPU1210によって適宜実行される。また、入力I/F1240は、外部の装置(表示装置や操作装置など)から情報処理装置1で処理可能な形式で入力信号として入力する。また、出力I/F1250は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。   FIG. 12 is a hardware configuration diagram of the information device in the present embodiment. In the same figure, a CPU 1210 centrally controls each device connected via a bus 1200. The CPU 1210 reads out and executes processing steps and programs stored in a read only memory (ROM) 1220. An operating system (OS), processing programs according to this embodiment, device drivers and the like according to the present embodiment are stored in the ROM 1220, temporarily stored in a random access memory (RAM) 1230, and appropriately executed by the CPU 1210. Also, the input I / F 1240 is input as an input signal in a format that can be processed by the information processing apparatus 1 from an external device (display device, operation device, etc.). The output I / F 1250 outputs an output signal to an external device (display device) in a format that can be processed by the display device.

これらの各機能部は、CPU1210が、ROM1220に格納されたプログラムをRAM1230に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU1210を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。   These functional units are realized by the CPU 1210 developing a program stored in the ROM 1220 in the RAM 1230 and executing processing according to each flowchart to be described later. Further, for example, when hardware is configured as a substitute for software processing using the CPU 1210, an arithmetic unit or a circuit corresponding to the processing of each functional unit described here may be configured.

(第1の実施形態)
第1の実施形態では、対象物体を複数のカメラで撮影した画像にもとづいて対象物体の位置姿勢推定を実施した時の、該位置姿勢推定に関する性能をユーザに提示する方法について説明する。より具体的には、撮影した各画像及び複数の画像にもとづいてそれぞれ位置姿勢推定を行い、それぞれの位置姿勢推定の性能に関する情報をグラフィックユーザインターフェース(以下、GUIとする)上に表示する。これにより、各画像及び複数の画像を用いて実施した位置姿勢推定の性能の確認や比較を容易に行うことができるようになり、性能低下あるいは向上の要因となっている画像またはカメラの特定が行えるようになる。また、性能低下の要因と特定されたカメラの除去や配置変更を行うことができるようになる。対象物体の形状や置かれ方、環境光の当たり方といった変動する状況に適応した位置姿勢推定を行うことができる。
First Embodiment
In the first embodiment, a method for presenting the performance related to position and orientation estimation to the user when position and orientation estimation of the target object is performed based on images obtained by capturing the target object with a plurality of cameras will be described. More specifically, position and orientation estimation is performed based on each captured image and a plurality of images, and information regarding the performance of each position and orientation estimation is displayed on a graphic user interface (hereinafter referred to as a GUI). This makes it possible to easily confirm and compare the performance of position and orientation estimation performed using each image and a plurality of images, and the identification of the image or camera that is the cause of the performance degradation or improvement is You will be able to do it. In addition, it becomes possible to remove or change the camera specified as the cause of the performance degradation. It is possible to perform position and orientation estimation adapted to changing conditions such as the shape and placement of the target object, and how the ambient light strikes.

図1は、本実施形態におけるシステムの構成を示している。情報処理装置100は、画像取得部101、第1の計測部102、第2の計測部103、第1の性能情報生成部104、第2の性能情報生成部105、第1の出力部106、第2の出力部107とを備える。そして、情報処理装置100はインタフェースを介して、外部の表示装置120に接続されている。   FIG. 1 shows the configuration of a system in the present embodiment. The information processing apparatus 100 includes an image acquisition unit 101, a first measurement unit 102, a second measurement unit 103, a first performance information generation unit 104, a second performance information generation unit 105, and a first output unit 106. And a second output unit 107. The information processing apparatus 100 is connected to an external display device 120 via an interface.

図2は、画像取得部101が取得する画像の撮影を行うための装置構成及び配置を示す図であり、プロジェクタ1及び複数のカメラ2〜5から構成される。図2では、プロジェクタ1台とカメラ4台で構成される場合を示している。該複数のカメラは、情報処理装置100と画像取得部101を介して接続する。   FIG. 2 is a diagram showing an apparatus configuration and arrangement for capturing an image acquired by the image acquisition unit 101, which includes a projector 1 and a plurality of cameras 2-5. FIG. 2 shows a case where one projector and four cameras are provided. The plurality of cameras are connected to the information processing apparatus 100 via the image acquisition unit 101.

画像取得部101は、対象物体を複数のカメラ2〜5で撮影した輝度画像を取得する。しかし、複数の視点で対象物体を撮影した画像が取得できれば他の方法であってもよい。例えば、複数の撮像装置あるいは複数の視点位置で対象物体を撮影した画像を、画像情報処理装置100と接続した外部の記憶装置に一旦保持しておいたものを入力してもよい。また、取得する輝度画像は、カラー画像であってもよいし、モノクロ画像であってもよい。   The image acquisition unit 101 acquires a luminance image obtained by photographing a target object with a plurality of cameras 2 to 5. However, any other method may be used as long as an image obtained by photographing the target object from a plurality of viewpoints can be acquired. For example, an image obtained by photographing a target object at a plurality of imaging devices or a plurality of viewpoints may be input once stored in an external storage device connected to the image information processing apparatus 100. Further, the luminance image to be acquired may be a color image or a monochrome image.

第1の計測部102は、画像取得部101が取得した各画像に基づいて、対象物体の位置姿勢推定を行う。具体的な方法については、後述する。   The first measurement unit 102 estimates the position and orientation of the target object based on the images acquired by the image acquisition unit 101. The specific method will be described later.

第2の計測部103は、画像取得部101が取得した複数の画像に基づいて、対象物体の位置姿勢推定を行う。具体的な方法については、後述する。   The second measurement unit 103 estimates the position and orientation of the target object based on the plurality of images acquired by the image acquisition unit 101. The specific method will be described later.

第1の性能情報生成部104は、第1の計測部102で実行された位置姿勢推定処理に関する性能情報(第1の性能情報)を生成する。性能情報は、位置姿勢推定の精度及び位置姿勢推定に要する処理時間とする。第1の性能情報生成部104は、生成した第1の性能情報を第1の出力部106に送出する。   The first performance information generation unit 104 generates performance information (first performance information) related to the position and orientation estimation process performed by the first measurement unit 102. The performance information is the accuracy of position and orientation estimation and the processing time required for position and orientation estimation. The first performance information generation unit 104 sends the generated first performance information to the first output unit 106.

第2の性能情報生成部105は、第2の計測部103で実施した位置姿勢推定に関する性能情報(第2の性能情報)を生成する。性能情報は、第1の性能情報生成部104で生成するものと同様に、位置姿勢推定の精度及び位置姿勢推定に要する処理時間とする。第2の性能情報生成部105は、生成した第2の性能情報を第2の出力部107に送出する。   The second performance information generation unit 105 generates performance information (second performance information) related to position and orientation estimation performed by the second measurement unit 103. The performance information is, like the one generated by the first performance information generation unit 104, the accuracy of the position and orientation estimation and the processing time required for the position and orientation estimation. The second performance information generation unit 105 sends the generated second performance information to the second output unit 107.

第1の出力部106は、第1の性能情報生成部104で生成した性能情報を出力し、表示装置102に表示させる。この点で、第1の出力部106は、表示制御部として機能する。これにより、ユーザは第1の性能情報を表示装置を介して確認(視認)することができる。   The first output unit 106 outputs the performance information generated by the first performance information generation unit 104 and causes the display device 102 to display the information. In this regard, the first output unit 106 functions as a display control unit. Thereby, the user can confirm (view) the first performance information via the display device.

第2の出力部107は、第2の性能情報生成部105で生成した性能情報を出力し、表示装置120に表示させる。この点で、第2の出力部107は、表示制御部として機能する。これにより、ユーザは第2の性能情報を表示装置120を介して確認(視認)することができる。   The second output unit 107 outputs the performance information generated by the second performance information generation unit 105 and causes the display device 120 to display the same. In this regard, the second output unit 107 functions as a display control unit. Thus, the user can confirm (view) the second performance information via the display device 120.

表示装置120は、例えば、液晶ディスプレイやCRTディスプレイである。表示装置120は、表示画面を有し、その表示画面に第1の出力部106と第2の出力部107から受け取った性能情報を表示する。本実施形態では、表示装置120の表示画面にGUIを表示し、該GUIの領域に、第1の性能情報と第2の性能情報とを表示する例で説明する。これにより、ユーザはより第1の性能情報と第2の性能情報とをより視認しやすくなるという効果がある。   The display device 120 is, for example, a liquid crystal display or a CRT display. The display device 120 has a display screen, and displays the performance information received from the first output unit 106 and the second output unit 107 on the display screen. In the present embodiment, a GUI is displayed on the display screen of the display device 120, and the first performance information and the second performance information are displayed in the area of the GUI. This has the effect that the user can more easily view the first performance information and the second performance information.

図3は、本実施形態の処理手順を示すフローチャートである。以下、図3のフローチャートを用いて、本実施形態の処理を詳細に説明する。   FIG. 3 is a flowchart showing the processing procedure of this embodiment. The process of the present embodiment will be described in detail below with reference to the flowchart of FIG.

(ステップS301)
ステップS301において、画像取得部101は、対象物体を撮影した画像を取得する。画像取得部101が取得する画像は、プロジェクタ1により投影されたパターンを照射された対象物体を撮影した輝度画像とする。画像取得部101は取得した画像を第1の計測部102と第2の計測部103に送出する。
(Step S301)
In step S301, the image acquisition unit 101 acquires an image obtained by photographing a target object. The image acquired by the image acquisition unit 101 is a luminance image obtained by photographing the target object irradiated with the pattern projected by the projector 1. The image acquisition unit 101 sends the acquired image to the first measurement unit 102 and the second measurement unit 103.

(ステップS302)
ステップS302において、第1の計測部102は、ステップS301において画像取得部101で取得した各画像それぞれに基づいて対象物体の位置姿勢推定を行う。具体的には、以下の非特許文献1で開示されている方法を用いて対象物体の位置姿勢を推定する。
(Step S302)
In step S302, the first measurement unit 102 estimates the position and orientation of the target object based on each of the images acquired by the image acquisition unit 101 in step S301. Specifically, the position and orientation of the target object are estimated using the method disclosed in Non-Patent Document 1 below.

David A. Simon、Martial Hebert、Takeo Kanade、“Real−time 3−D Pose Estimation Using a High−Speed Range Sensor”、Proc.1994 IEEE International Conference on Robotics and Automation(ICRA’94)、pp。2235−2241、1994. David A. Simon, Martial Hebert, Takeo Kanade, "Real-time 3-D Pose Estimation Using a High-Speed Range Sensor", Proc. 1994 IEEE International Conference on Robotics and Automation (ICRA '94), pp. 2235-2241, 1994.

具体的には、対象物体を計測して取得した距離値に、面または三次元点の集合で表現される対象物体の三次元モデルを当て嵌めるモデルフィッティングの手法を用いて、対象物体の位置姿勢を推定する。対象物体の距離値は、プロジェクタ1により投影されるパターンと各画像から検出された投影パターンとを対応付けて三角測量の原理を用いることで算出する。すなわち、本ステップで、第1の計測部102は、それぞれの画像ごと(カメラ2〜5とプロジェクタ1のペアごと)に対象物体の位置姿勢推定を行う。第1の計測部102は、推定された対象物体の位置姿勢データを第1の性能情報生成部104に送出する。   Specifically, the position and orientation of the target object are obtained using a method of model fitting in which a three-dimensional model of the target object represented by a plane or a set of three-dimensional points is fitted to the distance value obtained by measuring the target object. Estimate The distance value of the target object is calculated by using the principle of triangulation in association with the pattern projected by the projector 1 and the projection pattern detected from each image. That is, in this step, the first measurement unit 102 estimates the position and orientation of the target object for each image (for each pair of the cameras 2 to 5 and the projector 1). The first measurement unit 102 sends the estimated position and orientation data of the target object to the first performance information generation unit 104.

(ステップS303)
ステップS303において、第1の性能情報生成部104は、ステップS302で実施した位置姿勢推定に関する性能情報を生成する。本実施形態において生成される第1の性能情報は、位置姿勢推定の精度及び位置姿勢推定に要する処理時間とする。なお、本実施形態では、位置姿勢推定に関する性能情報を位置姿勢推定精度及び処理時間としたが、もちろん対象物体の位置姿勢推定の性能に関する情報であれば、他のものであってもよい。例えば、推定した位置姿勢であってもよい。あるいは、位置姿勢推定の計算が破たんしたか否か(位置姿勢推定の成否)の情報であってもよい。
(Step S303)
In step S303, the first performance information generation unit 104 generates performance information related to the position and orientation estimation performed in step S302. The first performance information generated in this embodiment is the accuracy of position and orientation estimation and the processing time required for position and orientation estimation. In the present embodiment, the performance information on position and orientation estimation is the position and orientation estimation accuracy and the processing time, but other information may be used as long as it is information on the performance of position and orientation estimation of the target object. For example, the estimated position and orientation may be used. Alternatively, it may be information on whether or not calculation of position and orientation estimation has failed (success or failure of position and orientation estimation).

位置姿勢推定の精度は、対象物体の距離値と対象物体の三次元モデルとのフィッティング度合いとする。フィッティング度合いは、例えば、対象物体の距離値と対応付く三次元形状モデルが保持する面または三次元点までの距離の最大値とする。この場合、距離の最大値が小さいほど位置姿勢推定の精度が高いことを示す。   The accuracy of position and orientation estimation is the degree of fitting between the distance value of the target object and the three-dimensional model of the target object. The degree of fitting is, for example, the maximum value of the distance to the plane or three-dimensional point held by the three-dimensional shape model corresponding to the distance value of the target object. In this case, the smaller the maximum value of the distance is, the higher the accuracy of position and orientation estimation is.

処理時間は、第1の計測部102における位置姿勢推定の処理に要する時間とする。さらに、対象物体を撮影する時間や、撮影した画像を画像取得部101に入力する時間を処理時間に含めても良い。第1の性能情報生成部104は、生成した性能情報を第1の出力部106に送出する。   The processing time is the time required for the process of position and orientation estimation in the first measurement unit 102. Furthermore, the processing time may include the time for photographing the target object and the time for inputting the photographed image to the image acquisition unit 101. The first performance information generation unit 104 sends the generated performance information to the first output unit 106.

(ステップS304)
ステップS304において、第1の出力部106は、ステップS303で生成した位置姿勢推定に関する第1の性能情報と画像取得部101が取得した画像とを表示装置120に出力して表示装置120に表示させる。そして、表示装置120は、撮像画像と第1の性能情報とを受け取り、表示領域450に撮像画像と第1の性能情報とを表示する。本実施形態における第1の性能情報は、上述した通り位置姿勢推定の精度や処理時間とする。また、位置姿勢推定の対象となった物体を特定するために、撮影画像上の該物体の位置付近に矩形のテクスチャを描画して重畳した画像を表示する。該テクスチャは、撮影画像上の該物体の位置付近に描画すればよく、その形状は他のものであってもよい。例えば、円形や星型などであってもよい。
(Step S304)
In step S304, the first output unit 106 causes the display device 120 to display the first performance information on position and orientation estimation generated in step S303 and the image acquired by the image acquisition unit 101 on the display device 120. . Then, the display device 120 receives the captured image and the first performance information, and displays the captured image and the first performance information in the display area 450. The first performance information in the present embodiment is the accuracy and processing time of position and orientation estimation as described above. Further, in order to specify an object which has been subjected to position and orientation estimation, a rectangular texture is drawn near the position of the object on the photographed image, and the superimposed image is displayed. The texture may be drawn near the position of the object on the photographed image, and the shape may be other. For example, it may be circular or star-shaped.

(ステップS305)
ステップS305において、第2の計測部103は、ステップS301で画像取得部101が取得した複数の画像にもとづいて対象物体の位置姿勢推定を行う。複数の画像の選び方としては、全ての画像を選択してもよく、また予め画像の組み合わせを決めておいてもよい。具体的な方法は、次の通りである。まず、ステップS303と同様に画像ごとに対象物体の距離値を算出する。対象物体の距離値は、プロジェクタ1の投影パターンと各画像上から識別した該投影パターンとを対応付けて三角測量の原理を用いることで算出する。次に、算出した距離値を全て用いて、非特許文献1で開示されている方法を用いて対象物体の位置姿勢を推定する。すなわち、複数の視点のカメラから得られる距離値を全て用いて(統合して)、物体の三次元構造を表現し、その三次元構造に対して物体のモデルをフィッティングすることにより、位置姿勢推定を行う。なお、本実施形態では、画像ごと(プロジェクタ1とカメラ2〜5のペアごと)に算出した距離値を全て用いて対象物体の位置姿勢を推定すると説明した。しかし、これに限らず、画像ごとに算出した距離値を統合した距離値にもとづいて位置姿勢を推定する他の方法であってもよい。例えば、全ての距離値に対して三次元空間における密度が均一になるように間引き処理を施したものにもとづいて対象物体の位置姿勢を推定してもよい。また、所定領域内における距離値の平均値から大きく外れているような距離値は位置合わせに使用しないようにすることで、よりロバストな位置姿勢推定を行うことができる。
(Step S305)
In step S305, the second measurement unit 103 estimates the position and orientation of the target object based on the plurality of images acquired by the image acquisition unit 101 in step S301. As a method of selecting a plurality of images, all images may be selected, or a combination of images may be determined in advance. The specific method is as follows. First, as in step S303, the distance value of the target object is calculated for each image. The distance value of the target object is calculated by using the principle of triangulation in association with the projection pattern of the projector 1 and the projection pattern identified from each image. Next, using the calculated distance values, the position and orientation of the target object are estimated using the method disclosed in Non-Patent Document 1. That is, by using (integrating) all distance values obtained from cameras of a plurality of viewpoints to express the three-dimensional structure of the object and fitting the model of the object to the three-dimensional structure, position and orientation estimation is performed. I do. In the present embodiment, it has been described that the position and orientation of the target object are estimated using all the distance values calculated for each image (for each pair of the projector 1 and the cameras 2 to 5). However, the present invention is not limited to this, and another method of estimating the position and orientation based on a distance value obtained by integrating the distance values calculated for each image may be used. For example, the position and orientation of the target object may be estimated on the basis of one in which thinning processing is performed such that the density in three-dimensional space is uniform for all distance values. In addition, more robust position and orientation estimation can be performed by not using a distance value that largely deviates from the average value of the distance values in the predetermined area for alignment.

(ステップS306)
ステップS306において、第2の性能情報生成部105は、ステップS305において、複数の画像にもとづいて実施した対象物体の位置姿勢推定に関する第2の性能情報を生成する。本実施形態における第2の性能情報は、ステップS303で説明したものと同様に、位置姿勢推定の精度及び位置姿勢推定に要する処理時間である。第2の出力部は、第2の性能情報生成部が生成した第2の性能情報を表示装置120に出力する。
(Step S306)
In step S306, the second performance information generation unit 105 generates, in step S305, second performance information on position and orientation estimation of the target object performed based on the plurality of images. The second performance information in this embodiment is the accuracy of the position and orientation estimation and the processing time required for the position and orientation estimation, as in the case described in step S303. The second output unit outputs the second performance information generated by the second performance information generation unit to the display device 120.

(ステップS307)
ステップS307において、第2の出力部107は、ステップS306で生成した対象物体の位置姿勢推定に関する性能情報と画像取得部101が取得した画像とを表示装置120に出力する。そして、表示装置120は、撮像画像と第2の性能情報とを受け取り、表示領域460に撮像画像と第2の性能情報を表示する。性能情報は、上述した通り位置姿勢推定の精度や処理時間とする。また、位置姿勢推定の対象となった物体を提示するために、撮影画像上の該物体の位置付近に矩形のテクスチャを描画して重畳した画像を表示する。このテクスチャの形状は矩形に限られず、例えば、円形や星型などであってもよい。
(Step S307)
In step S307, the second output unit 107 outputs, to the display device 120, the performance information on the position and orientation estimation of the target object generated in step S306 and the image acquired by the image acquisition unit 101. Then, the display device 120 receives the captured image and the second performance information, and displays the captured image and the second performance information in the display area 460. The performance information is the accuracy and processing time of position and orientation estimation as described above. Further, in order to present an object which has been subjected to position and orientation estimation, a rectangular texture is drawn near the position of the object on the photographed image, and the superimposed image is displayed. The shape of the texture is not limited to a rectangle, and may be, for example, a circle or a star.

図4は、表示装置120の表示画面内のGUI400として表した例を示している。   FIG. 4 shows an example represented as a GUI 400 in the display screen of the display device 120.

表示装置120は、カメラ2、カメラ3、カメラ4及びカメラ5が取得した画像410〜413及び、それぞれの画像にもとづいて実施した位置姿勢推定の精度及び位置姿勢推定に要した処理時間420〜423を表示する。また、位置姿勢推定の対象となった物体401を特定するために、撮影画像上の該物体の位置付近に楕円形状のテクスチャ430〜433を描画して重畳した画像を表示する。   The display device 120 includes images 410 to 413 acquired by the camera 2, the camera 3, the camera 4 and the camera 5, and processing time 420 to 423 required for position and orientation estimation accuracy and position and orientation estimation performed based on the respective images. Display Further, in order to specify the object 401 which is the target of position and orientation estimation, an elliptical shaped texture 430 to 433 is drawn near the position of the object on the photographed image, and the superimposed image is displayed.

表示装置120は、カメラ2、カメラ3、カメラ4及びカメラ5が取得した全ての画像にもとづいて実施した位置姿勢推定の精度及び位置姿勢推定に要した時間424を表示する。また、位置姿勢推定の対象となった物体401を特定するために、カメラ2〜5が取得した画像を貼り合わせた画像414上の該物体付近に、楕円形状のテクスチャ434を描画して重畳した画像を表示する。なお、表示する画像は、カメラ2〜5取得したいずれかの画像であってもよいし、画像表示しなくてもよい。   The display device 120 displays the accuracy of the position and orientation estimation performed based on all the images acquired by the camera 2, the camera 3, the camera 4 and the camera 5 and the time 424 required for the position and orientation estimation. In addition, in order to specify the object 401 which is the target of position and orientation estimation, an elliptical texture 434 is drawn and superimposed in the vicinity of the object 414 on the image 414 obtained by combining the images acquired by the cameras 2 to 5. Display an image. The image to be displayed may be any of the images acquired by the cameras 2 to 5 or may not be displayed.

なお、位置推定の対象となる物体は1つではなく、整列または山積み状態で配置された複数の物体としてもよい。   The object to be subjected to position estimation may not be one, but may be a plurality of objects arranged in an aligned or stacked state.

以上説明したように、ステップS301〜ステップS307の一連の処理を実行することで、撮影した各画像及び複数の画像にもとづいてそれぞれ実施した位置姿勢推定の性能に関する情報をユーザに提示することが可能になる。これにより、画像ごとに実施した位置姿勢推定の性能と、複数の画像を用いて実施した位置姿勢推定の性能の確認や比較を容易に行うことができる。   As described above, by executing the series of processes in steps S301 to S307, it is possible to present the user with information on the performance of position and orientation estimation performed based on each captured image and a plurality of images. become. As a result, the performance of position and orientation estimation performed for each image and the performance of position and orientation estimation performed using a plurality of images can be easily confirmed and compared.

<位置姿勢推定方法のバリエーション>
本実施形態では、画像にもとづいて算出した距離値を用いて対象物体の位置姿勢推定を行う方法について説明した。しかし、これに限らず、画像にもとづいて対象物体の位置姿勢推定ができれば、他の方法であってもよい。
<Variation of position and orientation estimation method>
In the present embodiment, the method of estimating the position and orientation of the target object using the distance value calculated based on the image has been described. However, the present invention is not limited to this, and another method may be used as long as the position and orientation of the target object can be estimated based on the image.

例えば、画像上から抽出した特徴を用いて対象物体の位置姿勢推定を行っても良い。例えば、対象物体を複数の視点で撮影した学習画像と、取得した画像から検出される画像特徴とをマッチングすることで、物体の位置姿勢を推定する。   For example, position and orientation of a target object may be estimated using features extracted from an image. For example, the position and orientation of an object is estimated by matching a learning image obtained by photographing a target object at a plurality of viewpoints and an image feature detected from the acquired image.

あるいは、画像にもとづいて算出した距離値と画像上から抽出した画像特徴を併用して、対象物体の位置姿勢推定を行ってもよい。例えば、複数の面及び線分で表現される対象物体の三次元モデルを、距離値と画像とから抽出したエッジ特徴に対して同時にフィッティングすることで、対象物体の正確な位置姿勢を推定する。   Alternatively, the position and orientation of the target object may be estimated using the distance value calculated based on the image and the image feature extracted from the image in combination. For example, by simultaneously fitting a three-dimensional model of a target object represented by a plurality of planes and line segments to edge features extracted from distance values and images, the accurate position and orientation of the target object are estimated.

<画像のバリエーション>
本実施形態では、画像取得部101が取得する画像は、プロジェクタによりパターンが投影された対象物体を撮影した輝度画像として説明した。しかし、画像上から抽出した特徴を用いて位置姿勢推定を行う場合には、パターンが投影されていない対象物体を撮影した輝度画像としてもよい。あるいは、パターンが投影された対象物体を撮影した輝度画像と、パターンが投影されていない対象物体を撮影した輝度画像の両方を入力してもよい。
<Variation of image>
In the present embodiment, the image acquired by the image acquisition unit 101 has been described as a luminance image obtained by photographing a target object on which a pattern is projected by the projector. However, in the case of performing position and orientation estimation using features extracted from an image, a luminance image obtained by capturing an object on which a pattern is not projected may be used. Alternatively, both a luminance image obtained by photographing a target object on which a pattern is projected and a luminance image obtained by photographing a target object on which a pattern is not projected may be input.

<位置姿勢推定精度のバリエーション>
本実施形態では、位置姿勢推定精度を対象物体の距離値と対応付く三次元形状モデルが保持する面または三次元点までの距離の最大値とした。しかし、これに限らず、位置姿勢推定の精度を示す指標であれば、他のものであってもよい。例えば、対象物体の距離値と対応付く三次元形状モデルが保持する面または三次元点までの距離の平均値や分散としてもよい。あるいは、距離点と対応付くモデル上の点を推定した位置姿勢にもとづいて画像上に投影し、画像上における距離の平均値や分散としてもよい。あるいは、画像から抽出した特徴と対応付く学習データの特徴との距離の最大値、平均値または分散としてもよい。あるいは、対象物体の位置姿勢推定を複数回実施して算出した複数の位置姿勢の最大値または分散としてもよい。
<Variation of position and attitude estimation accuracy>
In the present embodiment, the position and orientation estimation accuracy is set to the maximum value of the distance to a plane or a three-dimensional point held by the three-dimensional shape model corresponding to the distance value of the target object. However, the present invention is not limited to this, and any index indicating the accuracy of position and orientation estimation may be used. For example, the average value or the variance of the distances to the plane or three-dimensional point held by the three-dimensional shape model corresponding to the distance value of the target object may be used. Alternatively, the point on the model corresponding to the distance point may be projected on the image based on the estimated position and orientation, and the average value or the variance of the distance on the image may be used. Alternatively, the maximum value, the average value, or the variance of the distance between the feature extracted from the image and the feature of the corresponding learning data may be used. Alternatively, the maximum value or the variance of the plurality of positions and orientations calculated by performing the position and orientation estimation of the target object a plurality of times may be used.

<変形例1>
第1の実施形態では、第1の性能情報生成部104及び第2の性能情報生成部105で生成した位置姿勢推定の性能に関する情報として、位置姿勢推定の精度や処理時間をGUI上に表示した。本変形例では、取得画像上にコンピュータグラフィック(以下、CG)を重畳したものをGUI上に表示する。重畳するCGは、点、線分及び面で表現される対象物体の三次元モデルを推定した位置姿勢にもとづいて描画したものとする。これにより、画像上の対象物体と該画像上に重畳した対象物体のCGとの重なり具合を観察することで、ユーザが位置姿勢推定の性能を視覚的に判断することができる。
<Modification 1>
In the first embodiment, as information on position / posture estimation performance generated by the first performance information generation unit 104 and the second performance information generation unit 105, the accuracy of position / posture estimation and processing time are displayed on the GUI . In the present modification, an image obtained by superimposing a computer graphic (hereinafter, CG) on the acquired image is displayed on the GUI. CG to be superimposed is assumed to be drawn based on the estimated position and orientation of a three-dimensional model of a target object represented by points, line segments and planes. Thus, the user can visually judge the performance of position and orientation estimation by observing the degree of overlap between the target object on the image and the CG of the target object superimposed on the image.

図5は、画像上に対象物体のCGを描画して重畳したものを、表示装置120のGUI400に表示した時の例である。表示装置120は、カメラ1、カメラ2、カメラ3およびカメラ5が撮影した画像上に対象物体のCG434〜437を重畳して描画した画像を表示する。   FIG. 5 is an example when the CG of the target object is drawn and superimposed on the image and displayed on the GUI 400 of the display device 120. The display device 120 displays an image drawn by superimposing CG 434 to 437 of the target object on the images captured by the camera 1, the camera 2, the camera 3 and the camera 5.

表示装置120は、カメラ2〜5が撮影した画像全てを貼り合わせた画像414上に対象物体のCG438を描画して重畳した画像を表示する。   The display device 120 displays the CG 438 of the target object on the image 414 obtained by combining all the images captured by the cameras 2 to 5 and superimposing the image.

CG434〜437と画像410〜414上の対象物体との重なり具合を観察することで、ユーザは位置姿勢推定の性能を視覚的に判断できる。例えば、CG436は、画像412上の対象物体とそれぞれ一致しているが、CG437は、画像413上の対象物体とずれが発生している。これより、画像412を用いた位置姿勢推定の精度は高いと判断できる。一方、画像413を用いた位置姿勢推定の精度は、画像412を用いた位置姿勢推定の精度に比べて低いと判断できる。   By observing the degree of overlap between the CG 434 to 437 and the target object on the images 410 to 414, the user can visually judge the performance of position and orientation estimation. For example, the CG 436 matches the target object on the image 412, but the CG 437 deviates from the target object on the image 413. From this, it can be determined that the accuracy of position and orientation estimation using the image 412 is high. On the other hand, it can be determined that the accuracy of the position and orientation estimation using the image 413 is lower than the accuracy of the position and orientation estimation using the image 412.

以上説明したように、画像上に対象物体のCGを推定した位置姿勢にもとづいて描画して重畳して表示することで、ユーザは対象物体の位置姿勢推定の精度を視覚的に判断することが可能となる。   As described above, the user can visually determine the accuracy of the position and orientation estimation of the target object by drawing and superimposing the CG of the target object on the image based on the estimated position and orientation. It becomes possible.

<変形例2>
第1の実施形態では、第1の計測部102及び第2の計測部103において、対象物体の位置姿勢を推定した。本変形例では、第1の計測部および第2の計測部は、位置姿勢の推定ではなく、対象物体の有無や種類を特定する認識処理を行う。
<Modification 2>
In the first embodiment, in the first measurement unit 102 and the second measurement unit 103, the position and orientation of the target object are estimated. In the present modification, the first measurement unit and the second measurement unit do not estimate the position and orientation, but perform recognition processing for specifying the presence or absence and the type of the target object.

図3を用いて、本変形例における処理手順を説明する。   The processing procedure in this modification will be described using FIG.

(ステップS301)
ステップS301において、画像取得部101は、対象物体を撮影した画像を取得する。取得する画像は、対象物体を撮影した輝度画像とする。
(Step S301)
In step S301, the image acquisition unit 101 acquires an image obtained by photographing a target object. The image to be acquired is a luminance image obtained by photographing the target object.

(ステップS302)
ステップS302において、第1の計測部102は、ステップS301で画像取得部101が取得した各画像にもとづいて対象物体の認識を行う。認識処理は、以下の非特許文献2に記載される方法により行う。
(Step S302)
In step S302, the first measurement unit 102 recognizes a target object based on each image acquired by the image acquisition unit 101 in step S301. The recognition process is performed by the method described in Non-Patent Document 2 below.

”SCHMID、C.; R。 MOHR: ’Local grayvalue invariants for image retrieval’ IEEE PAMI 19 May 1997、 pages 530 − 534”.
具体的には、画像上から抽出した特徴を用いたテンプレートマッチング手法を用いて、対象物体の認識を行う。
"SCHMID, C. R. MOHR: 'Local gray value invariants for image retrieval' IEEE PAMI 19 May 1997, pages 530-534".
Specifically, the target object is recognized using a template matching method using features extracted from the image.

(ステップS303)
ステップS303において、第1の性能情報生成部104は、ステップS302で実施した認識処理に関する性能情報を生成する。本変形例において、認識に関する性能情報は、認識精度及び認識に要する処理時間とする。認識精度は、入力画像と入力画像と照合されたテンプレート画像間のハウスドルフ距離とする。認識に要する処理時間は、第1の計測部102で実施する認識処理に要する時間である。さらに、対象物体を撮影する時間や、撮影した画像を画像取得部101が取得する時間を処理時間に含めても良い。
(Step S303)
In step S303, the first performance information generation unit 104 generates performance information related to the recognition process performed in step S302. In the present modification, performance information related to recognition is recognition accuracy and processing time required for recognition. The recognition accuracy is the Hausdorff distance between the input image and the template image collated with the input image. The processing time required for recognition is the time required for the recognition processing performed by the first measurement unit 102. Furthermore, the processing time may include the time for photographing the target object and the time for the image acquisition unit 101 to acquire the photographed image.

(ステップS304)
ステップS304において、第1の出力部106は、表示装置120に設定したGUI上に、ステップ303で生成した認識に関する第1の性能情報を表示させる。認識に関する性能情報は、上述した通り、認識精度及び認識に要する処理時間とする。また、位置姿勢推定の対象となった物体を提示するために、撮影画像上の該物体の位置付近に矩形のテクスチャを描画して重畳した画像を表示する。該テクスチャは、撮影画像上の該物体の位置付近に描画すればよく、その形状は他のものであってもよい。例えば、円形や星型などであってもよい。もっとも、認識に関する性能を示す情報であれば、他のものであってもよい。例えば、対象物体の有無を性能情報としてもよい。あるいは、同時に複数の物体を認識する場合には、認識した物体数を性能情報としてもよい。
(Step S304)
In step S304, the first output unit 106 causes the GUI set in the display device 120 to display the first performance information related to the recognition generated in step S303. The performance information related to recognition is, as described above, the recognition accuracy and the processing time required for recognition. Further, in order to present an object which has been subjected to position and orientation estimation, a rectangular texture is drawn near the position of the object on the photographed image, and the superimposed image is displayed. The texture may be drawn near the position of the object on the photographed image, and the shape may be other. For example, it may be circular or star-shaped. However, other information may be used as long as the information indicates the performance related to recognition. For example, the presence or absence of a target object may be used as the performance information. Alternatively, when recognizing a plurality of objects at the same time, the number of recognized objects may be used as the performance information.

(ステップS305)
ステップS305において、第2の計測部109は、ステップS301において画像取得部101で取得した複数の画像(2以上選択した画像)に基づいて対象物体の認識を行う。具体的な方法は、次の通りである。まず、画像ごとに対象物体の画像特徴を抽出する。そして、抽出した全ての画像特徴の中から、複数の画像で重複して抽出された特徴を選択する。そして、選択した画像を用いて、非特許文献2で開示される方法で対象物体の認識を行う。もっとも、複数の画像から抽出した画像特徴に基づいて対象物体の認識ができる他の方法であってもよい。例えば、複数の画像から抽出した画像特徴全てを用いて対象物体の認識を行っても良い。
(Step S305)
In step S305, the second measurement unit 109 recognizes the target object based on the plurality of images (two or more selected images) acquired by the image acquisition unit 101 in step S301. The specific method is as follows. First, image features of the target object are extracted for each image. Then, among all of the extracted image features, features extracted redundantly in a plurality of images are selected. Then, using the selected image, the target object is recognized by the method disclosed in Non-Patent Document 2. However, it may be another method capable of recognizing a target object based on image features extracted from a plurality of images. For example, recognition of a target object may be performed using all image features extracted from a plurality of images.

(ステップS306)
ステップS306において、第2の性能情報生成部105は、第2の計測部103で実施した認識に関する第2の性能情報を生成する。認識に関する性能情報は、ステップS303で説明した通りである。
(Step S306)
In step S306, the second performance information generation unit 105 generates second performance information related to the recognition performed by the second measurement unit 103. The performance information related to recognition is as described in step S303.

(ステップ307)
ステップS307において、第2の出力部107は、ステップ306で生成した認識に関する性能情報と撮像画像とを表示装置120の表示領域460に表示させる。認識に関する性能情報は、上述した通り、認識精度及び認識に要する処理時間とする。また、認識の対象となった物体を提示するために、撮影画像上の該物体の位置付近に矩形のテクスチャを描画して重畳した画像を表示する。該テクスチャの形状は矩形に限られず、例えば、円形や星型などであってもよい。
(Step 307)
In step S307, the second output unit 107 causes the display area 460 of the display device 120 to display the performance information on the recognition generated in step 306 and the captured image. The performance information related to recognition is, as described above, the recognition accuracy and the processing time required for recognition. Also, in order to present an object that has been the object of recognition, a rectangular texture is drawn near the position of the object on the captured image, and the superimposed image is displayed. The shape of the texture is not limited to a rectangle, and may be, for example, a circle or a star.

以上説明したように、ステップ301〜ステップ307の一連の処理を実行することで、画像ごとに実施した認識に関する性能情報と、複数の画像を利用して実施した認識に関する性能情報をGUI上に表示することができる。これにより、ユーザは、画像ごと及び複数の画像を用いた時の認識性能の確認や比較を行うことができる。   As described above, by executing the series of processes of step 301 to step 307, performance information on recognition performed for each image and performance information on recognition performed using a plurality of images are displayed on the GUI can do. Thereby, the user can confirm and compare the recognition performance when using each image and a plurality of images.

<変形例3>
第1の実施形態、変形例1及び2では、画像ごと及び複数の画像にもとづいて実施した対象物体の認識または位置姿勢推定に関する性能を表示した。さらに、性能低下の要因となるカメラに関して、該カメラの特性や該カメラの配置情報を示すパラメータの校正や、該カメラまたは画像の除去を促すGUIを表示してもよい。性能低下の要因となるカメラは、当該カメラで撮影した画像にもとづいて推定した位置姿勢推定の性能が予め定めた性能を満たさない場合や、性能が最も低くなるカメラとする。
<Modification 3>
In the first embodiment and the first and second modifications, the performance regarding recognition or position / orientation estimation of a target object performed based on each image and a plurality of images is displayed. Furthermore, with regard to a camera that causes performance degradation, calibration of parameters indicating the camera characteristics and arrangement information of the camera, and a GUI prompting removal of the camera or an image may be displayed. The camera that causes the performance degradation is a camera in which the performance of the position and orientation estimation estimated based on the image captured by the camera does not meet the predetermined performance, or the camera with the lowest performance.

(第2の実施形態)
第1の実施形態では、各画像にもとづいて実施した位置姿勢推定に関する性能と、複数の画像にもとづいて実施した位置姿勢推定に関する性能を表示する方法について説明した。本実施形態では、位置姿勢推定に関する性能を表示するとともに、入力した複数の画像の中から位置姿勢推定に用いる画像を選択する方法について説明する。これにより、ユーザは、位置姿勢推定に関する性能を確認しながら、位置姿勢推定に利用する画像の選択ができるようになり、精度の高い位置姿勢推定が可能となる。対象物体の形状や置かれ方、環境光の当たり方といった変動する状況に適応した位置姿勢推定を行うことができる。また、位置姿勢推定に要する処理時間を、組み立て作業のタクトタイムで決定される該処理時間内に収めることが可能となる。
Second Embodiment
In the first embodiment, the method for displaying the performance related to position and orientation estimation performed based on each image and the performance related to position and orientation estimation performed based on a plurality of images has been described. In this embodiment, a method of displaying the performance regarding position and orientation estimation and selecting an image to be used for position and orientation estimation from among a plurality of input images will be described. As a result, the user can select an image to be used for position and orientation estimation while confirming the performance related to position and orientation estimation, and highly accurate position and orientation estimation can be performed. It is possible to perform position and orientation estimation adapted to changing conditions such as the shape and placement of the target object, and how the ambient light strikes. Further, the processing time required for position and orientation estimation can be kept within the processing time determined by the tact time of the assembling operation.

図6は、本実施形態におけるシステムの構成を示している。本実施形態における情報処理装置600の構成は、第1の実施形態で図1を用いて説明した情報処理装置100の構成に加え、画像選択部610を備える。その他の構成である画像取得部601〜第2の出力部607は画像取得部101〜第2の出力部107と同様の機能を有するため、ここでは、画像選択部610についてのみ説明する。また、情報処理装置600に接続される表示装置620は、第1の実施形態で説明した表示装置120と同等の機能を有する。また、情報処理装置600は、外部の操作装置620に接続されている。操作装置620は、マウスやキーボードであり、ユーザはこの操作装置を介して画像選択部610へ指示することができる。また、表示装置620の表示画面がタッチパネル機能を有する場合には、このタッチパネル機能が操作装置として機能する。   FIG. 6 shows the configuration of a system in the present embodiment. The configuration of the information processing apparatus 600 in the present embodiment includes an image selection unit 610 in addition to the configuration of the information processing apparatus 100 described with reference to FIG. 1 in the first embodiment. The image acquisition unit 601 to the second output unit 607, which have other configurations, have the same functions as the image acquisition unit 101 to the second output unit 107, so only the image selection unit 610 will be described here. The display device 620 connected to the information processing device 600 has the same function as the display device 120 described in the first embodiment. Further, the information processing apparatus 600 is connected to an external operating device 620. The operation device 620 is a mouse or a keyboard, and the user can instruct the image selection unit 610 via the operation device. When the display screen of the display device 620 has a touch panel function, the touch panel function functions as an operating device.

画像選択部610は、画像取得部601が取得した複数の画像の中から第2の計測部での処理に用いる画像を選択する。本実施形態では、第1の実施形態と同様に、第2の計測部では対象物体の位置姿勢推定を行うため、画像選択部610は、位置姿勢推定の処理に用いる画像を選択する。   The image selection unit 610 selects an image to be used for processing in the second measurement unit from among the plurality of images acquired by the image acquisition unit 601. In the present embodiment, as in the first embodiment, since the second measurement unit estimates the position and orientation of the target object, the image selection unit 610 selects an image used for the process of position and orientation estimation.

図7は、本実施形態の処理手順を示すフローチャートである。ステップ701〜ステップ704及びステップ706、ステップ707における処理は、第1の実施形態で説明した処理と同様であるため、ここでの説明は省略する。   FIG. 7 is a flowchart showing the processing procedure of the present embodiment. The processes in steps 701 to 704 and steps 706 and 707 are the same as the processes described in the first embodiment, and thus the description thereof is omitted here.

(ステップ708)
ステップS708において、画像選択部610は、画像選択を行うか否かを判断する。この判断は、ユーザが操作装置611で行っても良いし、所定の回数は必ず画像選択を行うというような予め定めたルールに基づいて行っても良い。ステップS708において、画像選択部610が、画像を選択すると判断した場合には、ステップ709に進む。選択しない場合には、本処理を終了する。
(Step 708)
In step S708, the image selection unit 610 determines whether to perform image selection. This determination may be performed by the user using the operation device 611, or may be performed a predetermined number of times based on a predetermined rule such as image selection. If it is determined in step S 708 that the image selection unit 610 selects an image, the process proceeds to step 709. If not selected, this processing ends.

(ステップ709)
ステップS709において、画像選択部610は、操作装置を介したユーザからの操作に基づいて、位置姿勢推定に用いる画像を選択する。
(Step 709)
In step S709, the image selection unit 610 selects an image to be used for position and orientation estimation based on an operation from the user via the operation device.

図8は、表示装置620の表示画面に表示される、第2の実施形態におけるGUI800の例である。   FIG. 8 is an example of the GUI 800 in the second embodiment displayed on the display screen of the display device 620.

表示装置620は、カメラ2、カメラ3、カメラ4及びカメラ5が撮影した画像810〜813それぞれに基づいて実施した位置姿勢推定精度及び位置姿勢推定に要した処理時間820〜823を表示する。   The display device 620 displays the position and orientation estimation accuracy and the processing time 820 to 823 required for the position and orientation estimation performed based on the images 810 to 813 captured by the cameras 2, 3, 4 and 5 respectively.

画像選択部610は、GUI800に設定した選択ボタン810〜830を操作装置を介してユーザが選択して、カメラが撮影した画像ごとに位置姿勢推定に使用するか否かの選択を行う。図8の例では、カメラ2及びカメラ5の撮影画像は使用せず、カメラ2及びカメラ3の撮影画像は使用する選択をしている。本実施形態では、画像取得部601に入力した画像ごとに、位置姿勢推定に使用するか否かの設定を行った。しかし、位置姿勢推定に使用する画像が選択できれば、他の設定方法であってもよい。例えば、選択対象となる画像全てに対して、位置姿勢推定に使用するか否かを一括で設定するようにしてもよい。   The image selection unit 610 selects the selection buttons 810 to 830 set in the GUI 800 via the operation device, and selects whether to use for position and orientation estimation for each image captured by the camera. In the example of FIG. 8, the photographed images of the cameras 2 and 5 are not used, and the photographed images of the cameras 2 and 3 are selected for use. In the present embodiment, whether or not to use for position and orientation estimation is set for each image input to the image acquisition unit 601. However, another setting method may be used as long as an image used for position and orientation estimation can be selected. For example, whether or not to use for position and orientation estimation may be set collectively for all images to be selected.

表示装置620は、選択ボタン824〜827で、ユーザが使用すると選択したカメラ2及びカメラ3が撮影した画像にもとづいて実施した位置姿勢推定の精度及び位置姿勢推定に要した処理時間824を表示する。   The display device 620 displays the accuracy of the position and orientation estimation and the processing time 824 required for the position and orientation estimation performed based on the images captured by the camera 2 and the camera 3 selected by the user using the selection buttons 824 to 827. .

(ステップ705)
ステップS705において、第2の計測部603は、ステップ701で選択した画像にもとづいて対象物体の位置姿勢推定を行う。
(Step 705)
In step S705, the second measuring unit 603 estimates the position and orientation of the target object based on the image selected in step S701.

<画像選択のバリエーション(選択方法)>
本実施形態では、画像取得部601で取得した画像ごとに、位置姿勢推定に使用するか否かの設定を行った。これに加えて、画像ごとに位置姿勢推定の処理方法を選択してもよい。例えば、画像特徴を用いた位置姿勢推定方法、距離値を用いた位置姿勢推定方法または画像特徴と距離値との両方を用いた位置姿勢推定方法の中から、処理方法を選択してもよい。こうすることで、対象物体の形状や置かれ方、環境光の当たり方といった変動する状況に適応した位置姿勢推定を行うことができる。また、選択対象となる画像全てに対して、位置姿勢推定の処理方法を一括で設定するようにしてもよい。
<Variation of image selection (selection method)>
In the present embodiment, for each image acquired by the image acquisition unit 601, it is set whether to use for position and orientation estimation. In addition to this, the processing method of position and orientation estimation may be selected for each image. For example, the processing method may be selected from a position and orientation estimation method using an image feature, a position and orientation estimation method using a distance value, or a position and orientation estimation method using both an image feature and a distance value. In this way, it is possible to perform position and orientation estimation adapted to changing conditions such as the shape and placement of the target object and the way in which ambient light strikes. Further, the processing method of position and orientation estimation may be set collectively for all images to be selected.

<変形例2−1>
第1の実施形態、及び変形例1−1〜1−3では、第1の計測部において、各画像にもとづいて位置姿勢推定を実施した。しかし、これに限らず、2つ以上の画像にもとづいて位置姿勢推定を実施してもよい(1以上であればよい)。この場合、第1の性能情報生成部において、2以上の画像にもとづいて実施した位置姿勢に関する性能情報を生成し、表示装置620において、該性能情報を表示する。
<Modification 2-1>
In the first embodiment and the modified examples 1-1 to 1-3, in the first measurement unit, position and orientation estimation is performed based on each image. However, the present invention is not limited to this, and position and orientation estimation may be performed based on two or more images (one or more may be sufficient). In this case, the first performance information generation unit generates performance information related to the position and orientation performed based on the two or more images, and the display device 620 displays the performance information.

表示装置620は、カメラ2及びカメラ3が撮影した画像に基づいて実施した位置姿勢推定の推定精度及び処理時間820を表示する。また、表示装置620は、カメラ3及びカメラ4が撮影した画像に基づいて実施した位置姿勢推定の推定精度及び処理時間821を表示する。また、表示装置620は、カメラ4が撮影した画像にもとづいて実施した位置姿勢推定の推定精度及び処理時間822を表示する。また、表示装置620は、カメラ4及びカメラ5が撮影した画像にもとづいて実施した位置姿勢推定の推定精度及び処理時間823を表示する。また、これらの撮影画像810〜813を表示する。画像810、811及び813に関しては、撮影した画像を貼り合わせた画像とする。例えば、画像810は、カメラ2及び3で撮影した画像を貼り合わせた画像とする。   The display device 620 displays the estimation accuracy of the position and orientation estimation and the processing time 820 performed based on the images captured by the camera 2 and the camera 3. The display device 620 also displays the estimation accuracy of the position and orientation estimation and the processing time 821 performed based on the images captured by the camera 3 and the camera 4. The display device 620 also displays the estimation accuracy of the position and orientation estimation and the processing time 822 performed based on the image captured by the camera 4. The display device 620 also displays the estimation accuracy of the position and orientation estimation and the processing time 823 performed based on the images captured by the camera 4 and the camera 5. Also, these photographed images 810 to 813 are displayed. Regarding the images 810, 811 and 813, taken images are combined. For example, the image 810 is an image obtained by combining the images captured by the cameras 2 and 3.

画像選択部610は、選択ボタン824〜827をユーザが選択することで、使用するカメラを選択する。   The image selection unit 610 selects a camera to be used by the user selecting the selection buttons 824 to 827.

表示装置620は、カメラ3、カメラ4及びカメラ5が撮影した画像にもとづいて実施した位置姿勢推定の精度及び処理時間824を表示する。また、カメラ3、カメラ4及びカメラ5が撮影した画像を貼り合わせた画像814を表示する。   The display device 620 displays the accuracy of position and orientation estimation and the processing time 824 performed based on the images captured by the camera 3, the camera 4 and the camera 5. Further, an image 814 obtained by combining the images captured by the camera 3, the camera 4 and the camera 5 is displayed.

なお、撮影画像810、811、813及び814は、貼り合わせた画像に代わって、貼り合わせた画像を構成する個々の画像を表示してもよい。例えば、画像810には、カメラ2で撮影した画像または、カメラ3で撮影した画像を表示する。あるいは、画像表示そのものをしなくてもよい。   The photographed images 810, 811, 813, and 814 may display individual images constituting the pasted image instead of the pasted image. For example, in the image 810, an image captured by the camera 2 or an image captured by the camera 3 is displayed. Alternatively, the image display itself may not be performed.

(第3の実施形態)
第1の実施形態では、各画像にもとづいて実施した位置姿勢推定に関する性能と、複数の画像にもとづいて実施した位置姿勢推定に関する性能を表示する方法について説明した。第2の実施形態では、入力した複数の画像の中から位置姿勢推定に用いる画像を選択する方法について説明した。第3の実施形態では、位置姿勢推定に関する条件を入力し、入力した条件を満たす時の位置姿勢推定に関する性能を表示する方法について説明する。これにより、ユーザが所望する条件を満たす位置姿勢推定が可能となる。また、対象物体の形状や置かれ方、環境光の当たり方といった変動する状況に適応した位置姿勢推定を行うことができる。
Third Embodiment
In the first embodiment, the method for displaying the performance related to position and orientation estimation performed based on each image and the performance related to position and orientation estimation performed based on a plurality of images has been described. In the second embodiment, the method of selecting an image used for position and orientation estimation from among a plurality of input images has been described. In the third embodiment, a method for inputting a condition regarding position and orientation estimation and displaying performance regarding position and orientation estimation when the input condition is satisfied will be described. This enables position and orientation estimation to meet the conditions desired by the user. In addition, it is possible to perform position and orientation estimation adapted to changing conditions such as the shape and placement of the target object and the way in which ambient light strikes.

図9は、本実施形態における情報処理装置900の構成を示している。情報処理装置900は、第1の実施形態で図1を用いて説明した構成に加え、条件取得部910を保持する。条件取得部910、第2の計測部903、第2の性能情報生成部905、第2の出力部以外は第1の実施形態で説明したものと同様であるため、ここでの説明は省略する。   FIG. 9 shows the configuration of the information processing apparatus 900 in the present embodiment. The information processing apparatus 900 holds a condition acquisition unit 910 in addition to the configuration described using FIG. 1 in the first embodiment. The components other than the condition acquisition unit 910, the second measurement unit 903, the second performance information generation unit 905, and the second output unit are the same as those described in the first embodiment, and thus the description thereof is omitted here. .

条件取得部910は、位置姿勢推定に関する条件を取得する。本実施形態では、取得する位置姿勢推定に関する条件は、位置姿勢推定精度の下限値とする。   The condition acquisition unit 910 acquires conditions regarding position and orientation estimation. In the present embodiment, the condition regarding position and orientation estimation to be acquired is the lower limit value of the position and orientation estimation accuracy.

第2の計測部903は、入力した複数の画像の中から位置姿勢推定に使用する画像の組み合わせを複数生成し、生成した画像の組み合わせごとに位置姿勢推定を行う。位置姿勢推定方法は、第1の実施形態で説明した通りである。   The second measurement unit 903 generates a plurality of combinations of images to be used for position and orientation estimation from a plurality of input images, and performs position and orientation estimation for each combination of the generated images. The position and orientation estimation method is as described in the first embodiment.

第2の性能情報生成部905は、第2の計測部903で実施した複数の位置姿勢推定の結果に対して、位置姿勢推定に関する性能情報を生成する。さらに、生成した性能情報が条件取得部910で取得した条件を満たすか否かを判定する。具体的には、位置姿勢推定の精度が、取得した推定精度の閾値に収まっているかどうかを判定する。判定された結果、取得した閾値に収まっていると判定された精度の位置姿勢計測結果のみを第2の出力部907に送出する。   The second performance information generation unit 905 generates performance information on position and orientation estimation with respect to the results of the plurality of position and orientation estimations performed by the second measurement unit 903. Furthermore, it is determined whether the generated performance information satisfies the condition acquired by the condition acquisition unit 910. Specifically, it is determined whether the accuracy of the position and orientation estimation falls within the obtained estimation accuracy threshold. As a result of the determination, only the position and orientation measurement result of the accuracy determined to be within the acquired threshold value is sent to the second output unit 907.

第2の出力部907は、第2の性能情報生成部905で生成した性能情報のうち、性能情報生成部905において入力した条件を満たすと判定された位置姿勢推定に関する性能のみを出力する。   The second output unit 907 outputs, of the performance information generated by the second performance information generation unit 905, only the performance related to position and orientation estimation that is determined to satisfy the condition input by the performance information generation unit 905.

図10は、本実施形態における処理手順を示すフローチャートである。ステップ1001〜1006は、第1の実施形態で説明したステップS301〜306と同様であるため、ここでの説明は省略する。   FIG. 10 is a flowchart showing the processing procedure in the present embodiment. Steps 1001 to 1006 are the same as steps S301 to S306 described in the first embodiment, and thus the description thereof is omitted here.

(ステップ1007)
ステップS1007において、条件取得部910は、設定したGUIを介して、位置姿勢推定精度の閾値を取得する。本実施形態においては、ユーザが操作装置を介して入力したものを取得する。条件取得部910は、取得した条件を第2の出力部909へ送出する。
(Step 1007)
In step S1007, the condition acquisition unit 910 acquires the threshold of the position and orientation estimation accuracy through the set GUI. In the present embodiment, the input by the user via the operation device is acquired. The condition acquisition unit 910 sends the acquired condition to the second output unit 909.

(ステップ1008)
ステップS1008において、第2の出力部907は、ステップS1006において生成された位置姿勢計測の精度を取得し、該取得した精度がステップS1007で取得した閾値内におさまっているかを判定する。そして、閾値以内に収まっていると判定された位置姿勢推定に関する性能情報を選択して表示装置920に出力する。
(Step 1008)
In step S1008, the second output unit 907 acquires the accuracy of the position and orientation measurement generated in step S1006, and determines whether the acquired accuracy falls within the threshold acquired in step S1007. Then, performance information on position and orientation estimation that is determined to be within the threshold is selected and output to the display device 920.

図11は、表示装置920及び条件取得部910に設定したGUI1100を示す例である。表示装置920は、条件を満たすと判定した複数の位置姿勢推定に関する性能情報の中から、性能情報表示切り替えボタン1128で指定した性能情報を表示する。また、表示装置920に表示した性能情報の対象となった位置姿勢推定に使用した画像を特定するために、各画像を使用したか否かを示す情報1124〜1127を表示する。この例では、カメラB及びCを使用した位置姿勢推定の性能情報を表示領域907に表示している。   FIG. 11 is an example showing the GUI 1100 set in the display device 920 and the condition acquisition unit 910. The display device 920 displays the performance information specified by the performance information display switching button 1128 among the performance information on the plurality of position and orientation estimations determined to satisfy the condition. Further, information 1124 to 1127 indicating whether or not each image has been used is displayed in order to specify the image used for position and orientation estimation that is the target of the performance information displayed on the display device 920. In this example, performance information of position and orientation estimation using the cameras B and C is displayed in the display area 907.

条件取得部910は、GUI1100に設定された入力ボックス1129に、ユーザが操作装置を介して入力した推定精度の条件を取得する。   The condition acquisition unit 910 acquires the condition of the estimation accuracy input by the user via the operation device in the input box 1129 set in the GUI 1100.

表示装置920は、カメラ2、カメラ3、カメラ4及びカメラ5が撮影した画像1110〜1113それぞれにもとづいて実施した位置姿勢推定精度及び位置姿勢推定に要した処理時間1120〜1123を表示する。   The display device 920 displays the position and orientation estimation accuracy and the processing time 1120 to 1123 required for the position and orientation estimation performed based on each of the camera 2, the camera 3, the camera 4 and the images 1110 to 1113 captured by the camera 5.

表示装置920は、表示領域1107に、カメラ3及び4が撮影した画像にもとづいて位置姿勢推定精度及び位置姿勢推定に要した処理時間を表示する。   The display device 920 displays the position and orientation estimation accuracy and the processing time required for the position and orientation estimation on the display area 1107 based on the images captured by the cameras 3 and 4.

<入力条件のバリエーション>
本実施形態では、入力する条件を推定精度の下限値とした。しかし、位置姿勢推定に関する条件であれば、他のものであってもよい。例えば、位置姿勢推定に要する処理時間の上限値を指定してもよい。この場合、位置姿勢推定に要する処理時間が、指定した処理時間の上限値を下回る場合に、該条件を満たすと判断する。あるいは、推定精度の下限値と処理時間の上限値の両方を条件として入力してもよい。
<Variation of input condition>
In the present embodiment, the input condition is the lower limit value of the estimation accuracy. However, other conditions may be used as long as the conditions are related to position and orientation estimation. For example, the upper limit value of the processing time required for position and orientation estimation may be designated. In this case, when the processing time required for position and orientation estimation falls below the specified upper limit of the processing time, it is determined that the condition is satisfied. Alternatively, both the lower limit value of the estimation accuracy and the upper limit value of the processing time may be input as a condition.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU or the like) of the system or apparatus reads the program. It is a process to execute.

<各実施形態の効果>
第1の実施形態では、撮影した各画像または複数の画像にもとづいてそれぞれ位置姿勢推定を行い、それぞれの位置姿勢推定の性能に関する情報をGUI上に表示する方法について説明した。これにより、各画像及び複数の画像を用いて実施した位置姿勢推定の性能の確認や比較を容易に行うことができるようになり、性能低下あるいは向上の要因となっている画像またはカメラの特定が行えるようになる。また、性能低下の要因と特定されたカメラの除去や配置変更を行うことができるようになる。
<Effect of each embodiment>
In the first embodiment, the method of performing position and orientation estimation based on each captured image or a plurality of images and displaying information on the performance of each position and orientation estimation on the GUI has been described. This makes it possible to easily confirm and compare the performance of position and orientation estimation performed using each image and a plurality of images, and the identification of the image or camera that is the cause of the performance degradation or improvement is You will be able to do it. In addition, it becomes possible to remove or change the camera specified as the cause of the performance degradation.

第2の実施形態では、撮影した各画像または複数の画像にもとづいて実施した位置姿勢推定の性能をそれぞれ表示するとともに、入力した複数の画像の中から位置姿勢推定に用いる画像を選択する方法について説明した。これにより、ユーザは、性能を確認しながら、位置姿勢推定に利用する画像の選択を実施できるようになるため、性能の高い位置姿勢推定を実施することが可能となる。また、位置姿勢推定に要する処理時間を、組み立て作業のタクトタイムで決定される該処理時間内に収めることが可能となる。   In the second embodiment, a method of displaying the performance of position and orientation estimation performed based on each captured image or a plurality of images, and selecting an image to be used for position and orientation estimation from among a plurality of input images explained. As a result, the user can select an image to be used for position and orientation estimation while confirming the performance, so that high-performance position and orientation estimation can be performed. Further, the processing time required for position and orientation estimation can be kept within the processing time determined by the tact time of the assembling operation.

第3の実施形態では、位置姿勢推定に関する条件を取得し、取得した条件を満たす際の位置姿勢推定に関する性能を表示する方法について説明する。これにより、ユーザが所望する条件を満たす位置姿勢推定が可能となる。   In the third embodiment, a method for acquiring conditions for position and orientation estimation and displaying performance for position and orientation estimation when the acquired conditions are satisfied will be described. This enables position and orientation estimation to meet the conditions desired by the user.

<定義>
本発明の画像取得手段は、情報処理装置100と接続した対象物体を撮影したカメラから画像を入力してもよいし、複数の視点で対象物体を撮影した画像を、情報処理装置100と接続した外部の記憶装置に一旦保持しておいたものを入力してもよい。
<Definition>
The image acquisition means of the present invention may input an image from a camera that has photographed the target object connected to the information processing apparatus 100, or has connected to the information processing apparatus 100 an image that has photographed the target object from a plurality of viewpoints. You may input what was once hold | maintained to the external storage device.

本発明における第1及び第2の計測部では、画像にもとづいて算出した距離値にもとづいて認識または位置姿勢推定を実施してもよい。あるいは、画像から抽出した画像特徴にもとづいて認識または位置姿勢推定を実施してもよい。あるいは、画像にもとづいて算出した距離値と画像から抽出した画像特徴の両方にもとづいて認識または位置姿勢推定を実施してもよい。   The first and second measurement units in the present invention may perform recognition or position and orientation estimation based on the distance value calculated based on the image. Alternatively, recognition or position and orientation estimation may be performed based on image features extracted from an image. Alternatively, recognition or position and orientation estimation may be performed based on both of the distance value calculated based on the image and the image feature extracted from the image.

本発明における第1及び第2の性能情報生成部では、第1及び第2の計測部で実施した位置姿勢推定に関する性能情報を生成する。位置姿勢推定に関する性能情報は、位置姿勢の性能を示す情報であれば何でもよい。例えば、位置姿勢推定の精度または処理時間とする。あるいは、推定した位置姿勢、対象物体の有無、位置姿勢推定または認識の計算が破たんしたか否かの情報であってもよい。   The first and second performance information generation units in the present invention generate performance information on position and orientation estimation performed by the first and second measurement units. The performance information related to position and orientation estimation may be any information that indicates the performance of the position and orientation. For example, the accuracy or processing time of position and orientation estimation is used. Alternatively, it may be information on the estimated position and orientation, the presence or absence of the target object, and whether or not the calculation of position and orientation estimation or recognition is broken.

本発明における第1及び第2の出力部は、第1及び第2の性能情報生成部で生成した性能情報を表示装置の表示領域にそれぞれ表示する。表示方法は、位置姿勢推定の精度または処理時間の数値をGUI上に表示してもよいし、対象物体の形状を示す三次元モデルを推定した位置姿勢にもとづいて描画し入力画像上に重畳して表示してもよい。   The first and second output units in the present invention respectively display the performance information generated by the first and second performance information generation units in the display area of the display device. The display method may display the accuracy of the position and orientation estimation or the numerical value of the processing time on the GUI, or draw the three-dimensional model indicating the shape of the target object based on the estimated position and orientation and superimpose it on the input image. May be displayed.

101 画像取得部
102 第1の計測部
103 第2の計測部
104 第1の性能情報生成部
105 第2の性能情報生成部
106 第1の出力部
107 第2の出力部
101 image acquisition unit 102 first measurement unit 103 second measurement unit 104 first performance information generation unit 105 second performance information generation unit 106 first output unit 107 second output unit

Claims (12)

対象物体を複数の撮像装置のそれぞれで撮像した複数の画像を取得する画像取得手段と、
前記取得した複数の画像の画像に基づいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、いずれか1つの処理を実行する第1の実行手段と、
前記複数の撮像装置のそれぞれに対して、前記第1の実行手段で実行される処理に関する第1の性能情報を生成する第1の性能情報生成手段と、
前記複数の撮像装置のそれぞれと対応付けて、前記第1の性能情報表示手段に表示させる第1の表示制御手段と、
前記第1の性能情報がそれぞれと対応付けて表示された前記複数の撮像装置から、ユーザの指示に基づいて2以上の撮像装置を選択する選択手段と、
前記選択した2以上の撮像装置で撮像した画像に基づいて、前記1つの処理を実行する第2の実行手段と、
前記第2の実行手段で実行される処理に関する第2の性能情報を生成する第2の性能情報生成手段と、
前記第2の性能情報を前記表示手段に表示させる第2の表示制御手段と
を備えることを特徴とする情報処理装置。
An image acquisition unit that acquires a plurality of images obtained by imaging a target object with each of a plurality of imaging devices ;
A first execution unit that executes any one of the target object recognition process and the target object position and orientation estimation process based on each of the plurality of acquired images;
First performance information generation means for generating first performance information related to processing executed by the first execution means for each of the plurality of imaging devices ;
First display control means for causing the display means to display the first performance information in association with each of the plurality of imaging devices ;
A selection unit configured to select two or more imaging devices based on a user's instruction from the plurality of imaging devices in which the first performance information is displayed in association with each other;
A second execution unit that executes the one process based on the images captured by the two or more selected imaging devices;
Second performance information generation means for generating second performance information related to processing executed by the second execution means;
An information processing apparatus comprising: second display control means for causing the display means to display the second performance information .
前記第2の表示制御手段は、前記第2の性能情報とともに、前記複数の撮像装置のそれぞれに対して、前記第1の性能情報と前記選択手段により選択されたか否かとを、前記表示手段に表示させることを特徴とする請求項1に記載の情報処理装置。 The second display control means, together with the second performance information, displays, for the display means, whether or not the first performance information and the selection means are selected for each of the plurality of imaging devices. The information processing apparatus according to claim 1, wherein the information is displayed . さらに、前記画像取得手段で取得した画像に、前記第2の実行手段における処理方法を選択する手段を有し、
前記第2の実行手段は、前記選択された処理方法に基づいて前記1つの処理を実施することを特徴とする請求項1または2に記載の情報処理装置。
The image processing apparatus further comprises means for selecting a processing method in the second execution means for the image acquired by the image acquisition means.
The information processing apparatus according to claim 1, wherein the second execution unit executes the one process based on the selected processing method.
前記第1の性能情報は、前記第1の実行手段が実行する処理の精度、処理時間、処理の成否のうち、少なくとも1つを含むことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 The method according to any one of claims 1 to 3, wherein the first performance information includes at least one of accuracy of processing executed by the first execution unit, processing time, and success or failure of processing. The information processing apparatus according to claim 1. 前記第2の性能情報は、前記第2の実行手段が実行する処理の精度、処理時間、処理の成否のうち、少なくとも1つを含むことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 The said 2nd performance information contains at least one among the precision of the process which said 2nd execution means performs, processing time, and success or failure of a process, The any one of the Claims 1 to 4 characterized by the above-mentioned. The information processing apparatus according to claim 1. 前記画像取得手段は、それぞれ異なる位置に配置された複数の撮像装置により撮影された画像を取得することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 5 , wherein the image acquisition unit acquires images captured by a plurality of imaging devices arranged at different positions. 前記画像取得手段は、投影装置によって投影されたパターンを含む画像を取得することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 6 , wherein the image acquisition unit acquires an image including a pattern projected by a projection device. 更に、前記表示手段を更に備える請求項1乃至のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 7 , further comprising the display unit. 前記第1の表示制御手段または前記第2の表示制御手段は、更に、前記第1の実行手段または前記第2の実行手段による処理の結果に基づいて前記対象物体の三次元モデルを描画した画像を前記表示手段に表示させることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置 The first display control means or the second display control means further includes an image in which a three-dimensional model of the target object is drawn based on a result of processing by the first execution means or the second execution means. The information processing apparatus according to any one of claims 1 to 8 , characterized in that: さらに、パターンを投影する投影装置と、前記パターンが投影された画像を撮像する複数の撮像装置を備え、
前記画像取得手段は、前記撮像装置により撮像された前記パターンが投影された複数の画像を取得することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
And a plurality of imaging devices for capturing an image on which the pattern is projected, and a projection device for projecting a pattern, and
The information processing apparatus according to any one of claims 1 to 9 , wherein the image acquisition unit acquires a plurality of images on which the pattern captured by the imaging device is projected.
対象物体を複数の撮像装置のそれぞれで撮像した複数の画像を取得する画像取得工程と、
前記取得した複数の画像の画像に基づいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、いずれか1つの処理を実行する第1の実行工程と、
前記複数の撮像装置のそれぞれに対して、前記第1の実行工程で実行される処理に関する第1の性能情報を生成する第1の性能情報生成工程と、
前記複数の撮像装置のそれぞれと対応付けて、前記第1の性能情報表示手段に表示させる第1の表示制御工程と、
前記第1の性能情報がそれぞれと対応付けて表示された前記複数の撮像装置から、ユーザの指示に基づいて2以上の撮像装置を選択する選択工程と、
前記選択した2以上の撮像装置で撮像した画像に基づいて、前記1つの処理を実行する第2の実行工程と、
前記第2の実行手段で実行される処理に関する第2の性能情報を生成する第2の性能情報生成工程と、
前記第2の性能情報を前記表示手段に表示させる第2の表示制御工程と
を備えることを特徴とする情報処理方法
An image acquisition step of acquiring a plurality of images obtained by imaging a target object with each of a plurality of imaging devices ;
A first execution step of executing any one of the target object recognition processing and the target object position and orientation estimation processing based on each of the plurality of acquired images;
A first performance information generation step of generating first performance information related to processing executed in the first execution step for each of the plurality of imaging devices ;
A first display control step of causing the display unit to display the first performance information in association with each of the plurality of imaging devices ;
A selection step of selecting two or more imaging devices based on a user's instruction from the plurality of imaging devices in which the first performance information is displayed in association with each other;
A second execution step of executing the one process based on the images captured by the two or more selected imaging devices;
A second performance information generation step of generating second performance information related to processing executed by the second execution means;
The information processing method characterized by comprising a <br/> a second display control step of displaying the second performance information to said display means.
コンピュータで実行されることにより、該コンピュータ装置を請求項1乃至10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 The program for functioning this computer apparatus as each means of the information processing apparatus of any one of Claim 1 thru | or 10 by being performed by computer.
JP2014084715A 2014-04-16 2014-04-16 INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM Active JP6425405B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014084715A JP6425405B2 (en) 2014-04-16 2014-04-16 INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014084715A JP6425405B2 (en) 2014-04-16 2014-04-16 INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2015203680A JP2015203680A (en) 2015-11-16
JP6425405B2 true JP6425405B2 (en) 2018-11-21

Family

ID=54597189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014084715A Active JP6425405B2 (en) 2014-04-16 2014-04-16 INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6425405B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3557521A4 (en) 2016-12-19 2020-08-05 Kabushiki Kaisha Yaskawa Denki Industrial device image recognition processor and controller
JP6840645B2 (en) * 2017-09-08 2021-03-10 株式会社小松製作所 Construction management equipment and construction management method
JP7149707B2 (en) * 2018-01-15 2022-10-07 キヤノン株式会社 Information processing device, its control method and program, and operation control system
JP7031540B2 (en) 2018-09-07 2022-03-08 オムロン株式会社 Object recognition devices, manipulators, and mobile robots

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259642A (en) * 1998-03-12 1999-09-24 Omron Corp Recognition processing method, recognition processor using the same, and license number plate reader
JP2002365747A (en) * 2001-06-07 2002-12-18 Olympus Optical Co Ltd Camera
JP4859205B2 (en) * 2005-02-04 2012-01-25 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2011022084A (en) * 2009-07-17 2011-02-03 Fuji Electric Holdings Co Ltd Device and method for measuring three-dimensional pose
JP5476943B2 (en) * 2009-11-20 2014-04-23 オムロン株式会社 Posture recognition method and three-dimensional visual sensor using this method
JP5624394B2 (en) * 2010-07-16 2014-11-12 キヤノン株式会社 Position / orientation measurement apparatus, measurement processing method thereof, and program
JP5854815B2 (en) * 2011-12-20 2016-02-09 キヤノン株式会社 Information processing apparatus, information processing apparatus control method, and program
JP6004851B2 (en) * 2012-09-11 2016-10-12 株式会社キーエンス Shape measuring device, shape measuring method, and shape measuring program

Also Published As

Publication number Publication date
JP2015203680A (en) 2015-11-16

Similar Documents

Publication Publication Date Title
US9852358B2 (en) Information processing device, information processing method, and information processing system
JP6892286B2 (en) Image processing equipment, image processing methods, and computer programs
JP5631086B2 (en) Information processing apparatus, control method therefor, and program
JP6632208B2 (en) Information processing apparatus, information processing method, and program
JP2014199584A5 (en)
JP6425405B2 (en) INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM
US9916512B2 (en) Information processing apparatus, processing system, object moving system, and object moving method
JP6584208B2 (en) Information processing apparatus, information processing method, and program
JP2018091656A (en) Information processing apparatus, measuring apparatus, system, calculating method, program, and article manufacturing method
EP2947549A1 (en) Apparartus and method for navigating through volume image
JP2018510419A (en) Method for reconstructing a 3D scene as a 3D model
Brunetto et al. Fusion of inertial and visual measurements for rgb-d slam on mobile devices
CN105426901A (en) Method For Classifying A Known Object In A Field Of View Of A Camera
KR101256046B1 (en) Method and system for body tracking for spatial gesture recognition
US20160110840A1 (en) Image processing method, image processing device, and robot system
US11989928B2 (en) Image processing system
JP5762099B2 (en) Posture recognition apparatus, work robot, posture recognition method, program, and recording medium
US20210224537A1 (en) Identification system, model re-learning method and program
JP2019211981A (en) Information processor, information processor controlling method and program
JP2012125878A (en) Information processing apparatus, information processing method, and program
JP6760656B2 (en) Object identification method
JP2019159470A (en) Estimation device, estimation method and estimation program
CN115471863A (en) Three-dimensional posture acquisition method, model training method and related equipment
JP6405539B2 (en) Label information processing apparatus for multi-viewpoint image and label information processing method
Jung et al. 3D map building using the kinect mounted on a mobile robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181023

R151 Written notification of patent or utility model registration

Ref document number: 6425405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151