JP2015203680A - Information processing device, method, and program - Google Patents
Information processing device, method, and program Download PDFInfo
- Publication number
- JP2015203680A JP2015203680A JP2014084715A JP2014084715A JP2015203680A JP 2015203680 A JP2015203680 A JP 2015203680A JP 2014084715 A JP2014084715 A JP 2014084715A JP 2014084715 A JP2014084715 A JP 2014084715A JP 2015203680 A JP2015203680 A JP 2015203680A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target object
- performance information
- images
- orientation estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、物体を撮像した画像に基づいて画像中の物体の位置姿勢推定を認識して表示する方法に関する。 The present invention relates to a method for recognizing and displaying an estimation of a position and orientation of an object in an image based on an image obtained by imaging the object.
生産現場では、生産効率向上のため、ロボットによる自動化が進められている。ロボットによる部品のピッキングや組み立て作業では、対象部品を認識し、さらに位置姿勢を取得する必要がある。これを実現する方法として、対象部品をカメラで撮影した画像を用いる方法が開発されている。 At production sites, robotic automation is being promoted to improve production efficiency. In picking or assembling parts by a robot, it is necessary to recognize the target part and further acquire the position and orientation. As a method for realizing this, a method using an image obtained by photographing a target part with a camera has been developed.
特許文献1には、複数のカメラで撮影した画像を用いることで認識の正確性を向上させる方法が開示されている。この方法では、複数のカメラで撮影した画像の中から複数のステレオ画像ペアを選択し、ステレオ画像ペアごとに算出した距離値を用いて対象物体の認識を複数行うことで、認識の正確性を向上させている。 Patent Document 1 discloses a method for improving the accuracy of recognition by using images taken by a plurality of cameras. In this method, multiple stereo image pairs are selected from images captured by multiple cameras, and multiple target objects are recognized using distance values calculated for each stereo image pair. It is improving.
しかし、ステレオ画像ペアをつくる複数の画像に、ノイズを多く含む画像が含まれることがある。また、複数の画像を用いることで処理時間が増大してしまい、所定の時間内にタスクを終了できなくなる場合もある。
本発明は、以上の課題を鑑みてなされたものであり、複数の画像を用いた認識または位置姿勢推定において、複数の画像から位置姿勢の導出に好適な画像を選択することを目的とする。
However, a plurality of images forming a stereo image pair may include images containing a lot of noise. Also, the use of a plurality of images increases the processing time, and the task may not be completed within a predetermined time.
The present invention has been made in view of the above problems, and an object of the present invention is to select an image suitable for deriving a position and orientation from a plurality of images in recognition or position and orientation estimation using a plurality of images.
本発明の情報処理装置は、例えば、対象物体を撮影した複数の画像を取得する画像取得手段と、前記取得した画像のうち、少なくとも1つの画像に関する情報にもとづいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、少なくともいずれか1つを実行する第1の実行手段と、前記取得した複数のうち、少なくとも2つの画像に関する情報にもとづいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、少なくともいずれか1つを実行する第2の実行手段と、前記第1の実行手段で実行される処理に関する第1の性能情報を生成する第1の性能情報生成手段と、前記第2の実行手段で実行される処理に関する第2の性能情報を生成する第2の性能情報生成手段と、前記第1の性能情報と第2の性能情報とを表示手段に表示させる表示制御手段とを備える。 The information processing apparatus according to the present invention includes, for example, an image acquisition unit that acquires a plurality of images obtained by capturing a target object, and a recognition process for the target object based on information about at least one of the acquired images. The target object recognition process based on the first execution means for executing at least one of the process of estimating the position and orientation of the target object and information on at least two of the acquired plurality of images. And second execution means for executing at least one of the process for estimating the position and orientation of the target object, and first performance information for generating the first performance information relating to the process executed by the first execution means. Performance information generating means, second performance information generating means for generating second performance information relating to processing executed by the second execution means, the first performance information and the second sex And a display control means for displaying on the display means and information.
複数の画像を用いた認識または位置姿勢推定において、複数の画像から位置姿勢の導出に好適な画像を選択することができる。 In recognition or position / orientation estimation using a plurality of images, an image suitable for deriving the position and orientation can be selected from the plurality of images.
本発明にかかる各実施形態を説明するのに先立ち、各実施形態に示す情報処理装置が実装されるハードウェア構成について、図12を用いて説明する。 Prior to describing each embodiment according to the present invention, a hardware configuration in which the information processing apparatus shown in each embodiment is mounted will be described with reference to FIG.
図12は、本実施形態における情報装置のハードウェア構成図である。同図において、CPU1210は、バス1200を介して接続する各デバイスを統括的に制御する。CPU1210は、読み出し専用メモリ(ROM)1220に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM1220に記憶されており、ランダムアクセスメモリ(RAM)1230に一時記憶され、CPU1210によって適宜実行される。また、入力I/F1240は、外部の装置(表示装置や操作装置など)から情報処理装置1で処理可能な形式で入力信号として入力する。また、出力I/F1250は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。
FIG. 12 is a hardware configuration diagram of the information device in the present embodiment. In the figure, a
これらの各機能部は、CPU1210が、ROM1220に格納されたプログラムをRAM1230に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU1210を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
Each of these functional units is realized by the
(第1の実施形態)
第1の実施形態では、対象物体を複数のカメラで撮影した画像にもとづいて対象物体の位置姿勢推定を実施した時の、該位置姿勢推定に関する性能をユーザに提示する方法について説明する。より具体的には、撮影した各画像及び複数の画像にもとづいてそれぞれ位置姿勢推定を行い、それぞれの位置姿勢推定の性能に関する情報をグラフィックユーザインターフェース(以下、GUIとする)上に表示する。これにより、各画像及び複数の画像を用いて実施した位置姿勢推定の性能の確認や比較を容易に行うことができるようになり、性能低下あるいは向上の要因となっている画像またはカメラの特定が行えるようになる。また、性能低下の要因と特定されたカメラの除去や配置変更を行うことができるようになる。対象物体の形状や置かれ方、環境光の当たり方といった変動する状況に適応した位置姿勢推定を行うことができる。
(First embodiment)
In the first embodiment, a method for presenting the user with performance related to position / orientation estimation when the position / orientation estimation of the target object is performed based on images obtained by capturing the target object with a plurality of cameras will be described. More specifically, position and orientation estimation is performed based on each captured image and a plurality of images, and information regarding the performance of each position and orientation estimation is displayed on a graphic user interface (hereinafter referred to as GUI). This makes it possible to easily check and compare the performance of position and orientation estimation performed using each image and a plurality of images, and to identify the image or camera that is the cause of the performance degradation or improvement. You can do it. In addition, it becomes possible to remove or change the arrangement of the camera identified as the cause of the performance degradation. It is possible to perform position and orientation estimation adapted to changing conditions such as the shape of the target object, how it is placed, and how it hits the ambient light.
図1は、本実施形態におけるシステムの構成を示している。情報処理装置100は、画像取得部101、第1の計測部102、第2の計測部103、第1の性能情報生成部104、第2の性能情報生成部105、第1の出力部106、第2の出力部107とを備える。そして、情報処理装置100はインタフェースを介して、外部の表示装置120に接続されている。
FIG. 1 shows a system configuration in this embodiment. The
図2は、画像取得部101が取得する画像の撮影を行うための装置構成及び配置を示す図であり、プロジェクタ1及び複数のカメラ2〜5から構成される。図2では、プロジェクタ1台とカメラ4台で構成される場合を示している。該複数のカメラは、情報処理装置100と画像取得部101を介して接続する。
FIG. 2 is a diagram showing an apparatus configuration and arrangement for taking an image acquired by the
画像取得部101は、対象物体を複数のカメラ2〜5で撮影した輝度画像を取得する。しかし、複数の視点で対象物体を撮影した画像が取得できれば他の方法であってもよい。例えば、複数の撮像装置あるいは複数の視点位置で対象物体を撮影した画像を、画像情報処理装置100と接続した外部の記憶装置に一旦保持しておいたものを入力してもよい。また、取得する輝度画像は、カラー画像であってもよいし、モノクロ画像であってもよい。
The
第1の計測部102は、画像取得部101が取得した各画像に基づいて、対象物体の位置姿勢推定を行う。具体的な方法については、後述する。
The
第2の計測部103は、画像取得部101が取得した複数の画像に基づいて、対象物体の位置姿勢推定を行う。具体的な方法については、後述する。
The
第1の性能情報生成部104は、第1の計測部102で実行された位置姿勢推定処理に関する性能情報(第1の性能情報)を生成する。性能情報は、位置姿勢推定の精度及び位置姿勢推定に要する処理時間とする。第1の性能情報生成部104は、生成した第1の性能情報を第1の出力部106に送出する。
The first performance information generation unit 104 generates performance information (first performance information) related to the position / orientation estimation process executed by the
第2の性能情報生成部105は、第2の計測部103で実施した位置姿勢推定に関する性能情報(第2の性能情報)を生成する。性能情報は、第1の性能情報生成部104で生成するものと同様に、位置姿勢推定の精度及び位置姿勢推定に要する処理時間とする。第2の性能情報生成部105は、生成した第2の性能情報を第2の出力部107に送出する。
The second performance
第1の出力部106は、第1の性能情報生成部104で生成した性能情報を出力し、表示装置102に表示させる。この点で、第1の出力部106は、表示制御部として機能する。これにより、ユーザは第1の性能情報を表示装置を介して確認(視認)することができる。
The
第2の出力部107は、第2の性能情報生成部105で生成した性能情報を出力し、表示装置120に表示させる。この点で、第2の出力部107は、表示制御部として機能する。これにより、ユーザは第2の性能情報を表示装置120を介して確認(視認)することができる。
The
表示装置120は、例えば、液晶ディスプレイやCRTディスプレイである。表示装置120は、表示画面を有し、その表示画面に第1の出力部106と第2の出力部107から受け取った性能情報を表示する。本実施形態では、表示装置120の表示画面にGUIを表示し、該GUIの領域に、第1の性能情報と第2の性能情報とを表示する例で説明する。これにより、ユーザはより第1の性能情報と第2の性能情報とをより視認しやすくなるという効果がある。
The
図3は、本実施形態の処理手順を示すフローチャートである。以下、図3のフローチャートを用いて、本実施形態の処理を詳細に説明する。 FIG. 3 is a flowchart showing a processing procedure of the present embodiment. Hereinafter, the processing of this embodiment will be described in detail with reference to the flowchart of FIG.
(ステップS301)
ステップS301において、画像取得部101は、対象物体を撮影した画像を取得する。画像取得部101が取得する画像は、プロジェクタ1により投影されたパターンを照射された対象物体を撮影した輝度画像とする。画像取得部101は取得した画像を第1の計測部102と第2の計測部103に送出する。
(Step S301)
In step S301, the
(ステップS302)
ステップS302において、第1の計測部102は、ステップS301において画像取得部101で取得した各画像それぞれに基づいて対象物体の位置姿勢推定を行う。具体的には、以下の非特許文献1で開示されている方法を用いて対象物体の位置姿勢を推定する。
(Step S302)
In step S302, the
David A. Simon、Martial Hebert、Takeo Kanade、“Real−time 3−D Pose Estimation Using a High−Speed Range Sensor”、Proc.1994 IEEE International Conference on Robotics and Automation(ICRA’94)、pp。2235−2241、1994. David A. Simon, Martial Hebert, Take Kanade, “Real-time 3-D Pose Estimating Using a High-Speed Range Sensor”, Proc. 1994 IEEE International Conference on Robotics and Automation (ICRA'94), pp. 2235-2241, 1994.
具体的には、対象物体を計測して取得した距離値に、面または三次元点の集合で表現される対象物体の三次元モデルを当て嵌めるモデルフィッティングの手法を用いて、対象物体の位置姿勢を推定する。対象物体の距離値は、プロジェクタ1により投影されるパターンと各画像から検出された投影パターンとを対応付けて三角測量の原理を用いることで算出する。すなわち、本ステップで、第1の計測部102は、それぞれの画像ごと(カメラ2〜5とプロジェクタ1のペアごと)に対象物体の位置姿勢推定を行う。第1の計測部102は、推定された対象物体の位置姿勢データを第1の性能情報生成部104に送出する。
Specifically, the position and orientation of the target object using a model fitting technique that fits a 3D model of the target object represented by a surface or a set of 3D points to the distance value obtained by measuring the target object Is estimated. The distance value of the target object is calculated by using the principle of triangulation by associating the pattern projected by the projector 1 with the projection pattern detected from each image. That is, in this step, the
(ステップS303)
ステップS303において、第1の性能情報生成部104は、ステップS302で実施した位置姿勢推定に関する性能情報を生成する。本実施形態において生成される第1の性能情報は、位置姿勢推定の精度及び位置姿勢推定に要する処理時間とする。なお、本実施形態では、位置姿勢推定に関する性能情報を位置姿勢推定精度及び処理時間としたが、もちろん対象物体の位置姿勢推定の性能に関する情報であれば、他のものであってもよい。例えば、推定した位置姿勢であってもよい。あるいは、位置姿勢推定の計算が破たんしたか否か(位置姿勢推定の成否)の情報であってもよい。
(Step S303)
In step S303, the first performance information generation unit 104 generates performance information related to the position and orientation estimation performed in step S302. The first performance information generated in the present embodiment is assumed to be position / orientation estimation accuracy and processing time required for position / orientation estimation. In the present embodiment, the performance information related to the position / orientation estimation is used as the position / orientation estimation accuracy and processing time. However, other information may be used as long as it is information related to the position / orientation estimation performance of the target object. For example, the estimated position and orientation may be used. Alternatively, it may be information on whether or not the calculation of position and orientation has been broken (success or failure of position and orientation estimation).
位置姿勢推定の精度は、対象物体の距離値と対象物体の三次元モデルとのフィッティング度合いとする。フィッティング度合いは、例えば、対象物体の距離値と対応付く三次元形状モデルが保持する面または三次元点までの距離の最大値とする。この場合、距離の最大値が小さいほど位置姿勢推定の精度が高いことを示す。 The accuracy of position and orientation estimation is the degree of fitting between the distance value of the target object and the three-dimensional model of the target object. The fitting degree is, for example, the maximum value of the distance to the surface or the three-dimensional point held by the three-dimensional shape model associated with the distance value of the target object. In this case, the smaller the maximum distance value, the higher the accuracy of position and orientation estimation.
処理時間は、第1の計測部102における位置姿勢推定の処理に要する時間とする。さらに、対象物体を撮影する時間や、撮影した画像を画像取得部101に入力する時間を処理時間に含めても良い。第1の性能情報生成部104は、生成した性能情報を第1の出力部106に送出する。
The processing time is a time required for the position / orientation estimation process in the
(ステップS304)
ステップS304において、第1の出力部106は、ステップS303で生成した位置姿勢推定に関する第1の性能情報と画像取得部101が取得した画像とを表示装置120に出力して表示装置120に表示させる。そして、表示装置120は、撮像画像と第1の性能情報とを受け取り、表示領域450に撮像画像と第1の性能情報とを表示する。本実施形態における第1の性能情報は、上述した通り位置姿勢推定の精度や処理時間とする。また、位置姿勢推定の対象となった物体を特定するために、撮影画像上の該物体の位置付近に矩形のテクスチャを描画して重畳した画像を表示する。該テクスチャは、撮影画像上の該物体の位置付近に描画すればよく、その形状は他のものであってもよい。例えば、円形や星型などであってもよい。
(Step S304)
In step S304, the
(ステップS305)
ステップS305において、第2の計測部103は、ステップS301で画像取得部101が取得した複数の画像にもとづいて対象物体の位置姿勢推定を行う。複数の画像の選び方としては、全ての画像を選択してもよく、また予め画像の組み合わせを決めておいてもよい。具体的な方法は、次の通りである。まず、ステップS303と同様に画像ごとに対象物体の距離値を算出する。対象物体の距離値は、プロジェクタ1の投影パターンと各画像上から識別した該投影パターンとを対応付けて三角測量の原理を用いることで算出する。次に、算出した距離値を全て用いて、非特許文献1で開示されている方法を用いて対象物体の位置姿勢を推定する。すなわち、複数の視点のカメラから得られる距離値を全て用いて(統合して)、物体の三次元構造を表現し、その三次元構造に対して物体のモデルをフィッティングすることにより、位置姿勢推定を行う。なお、本実施形態では、画像ごと(プロジェクタ1とカメラ2〜5のペアごと)に算出した距離値を全て用いて対象物体の位置姿勢を推定すると説明した。しかし、これに限らず、画像ごとに算出した距離値を統合した距離値にもとづいて位置姿勢を推定する他の方法であってもよい。例えば、全ての距離値に対して三次元空間における密度が均一になるように間引き処理を施したものにもとづいて対象物体の位置姿勢を推定してもよい。また、所定領域内における距離値の平均値から大きく外れているような距離値は位置合わせに使用しないようにすることで、よりロバストな位置姿勢推定を行うことができる。
(Step S305)
In step S305, the
(ステップS306)
ステップS306において、第2の性能情報生成部105は、ステップS305において、複数の画像にもとづいて実施した対象物体の位置姿勢推定に関する第2の性能情報を生成する。本実施形態における第2の性能情報は、ステップS303で説明したものと同様に、位置姿勢推定の精度及び位置姿勢推定に要する処理時間である。第2の出力部は、第2の性能情報生成部が生成した第2の性能情報を表示装置120に出力する。
(Step S306)
In step S306, the second performance
(ステップS307)
ステップS307において、第2の出力部107は、ステップS306で生成した対象物体の位置姿勢推定に関する性能情報と画像取得部101が取得した画像とを表示装置120に出力する。そして、表示装置120は、撮像画像と第2の性能情報とを受け取り、表示領域460に撮像画像と第2の性能情報を表示する。性能情報は、上述した通り位置姿勢推定の精度や処理時間とする。また、位置姿勢推定の対象となった物体を提示するために、撮影画像上の該物体の位置付近に矩形のテクスチャを描画して重畳した画像を表示する。このテクスチャの形状は矩形に限られず、例えば、円形や星型などであってもよい。
(Step S307)
In step S307, the
図4は、表示装置120の表示画面内のGUI400として表した例を示している。
FIG. 4 shows an example represented as a
表示装置120は、カメラ2、カメラ3、カメラ4及びカメラ5が取得した画像410〜413及び、それぞれの画像にもとづいて実施した位置姿勢推定の精度及び位置姿勢推定に要した処理時間420〜423を表示する。また、位置姿勢推定の対象となった物体401を特定するために、撮影画像上の該物体の位置付近に楕円形状のテクスチャ430〜433を描画して重畳した画像を表示する。
The
表示装置120は、カメラ2、カメラ3、カメラ4及びカメラ5が取得した全ての画像にもとづいて実施した位置姿勢推定の精度及び位置姿勢推定に要した時間424を表示する。また、位置姿勢推定の対象となった物体401を特定するために、カメラ2〜5が取得した画像を貼り合わせた画像414上の該物体付近に、楕円形状のテクスチャ434を描画して重畳した画像を表示する。なお、表示する画像は、カメラ2〜5取得したいずれかの画像であってもよいし、画像表示しなくてもよい。
The
なお、位置推定の対象となる物体は1つではなく、整列または山積み状態で配置された複数の物体としてもよい。 Note that the number of objects for position estimation is not limited to one, and a plurality of objects arranged in an aligned or stacked state may be used.
以上説明したように、ステップS301〜ステップS307の一連の処理を実行することで、撮影した各画像及び複数の画像にもとづいてそれぞれ実施した位置姿勢推定の性能に関する情報をユーザに提示することが可能になる。これにより、画像ごとに実施した位置姿勢推定の性能と、複数の画像を用いて実施した位置姿勢推定の性能の確認や比較を容易に行うことができる。 As described above, by executing the series of processing from step S301 to step S307, it is possible to present to the user information related to the performance of position and orientation estimation performed based on each captured image and a plurality of images. become. Accordingly, it is possible to easily check and compare the performance of position and orientation estimation performed for each image and the performance of position and orientation estimation performed using a plurality of images.
<位置姿勢推定方法のバリエーション>
本実施形態では、画像にもとづいて算出した距離値を用いて対象物体の位置姿勢推定を行う方法について説明した。しかし、これに限らず、画像にもとづいて対象物体の位置姿勢推定ができれば、他の方法であってもよい。
<Variation of position and orientation estimation method>
In the present embodiment, the method for estimating the position and orientation of the target object using the distance value calculated based on the image has been described. However, the present invention is not limited to this, and other methods may be used as long as the position and orientation of the target object can be estimated based on the image.
例えば、画像上から抽出した特徴を用いて対象物体の位置姿勢推定を行っても良い。例えば、対象物体を複数の視点で撮影した学習画像と、取得した画像から検出される画像特徴とをマッチングすることで、物体の位置姿勢を推定する。 For example, the position and orientation of the target object may be estimated using features extracted from the image. For example, the position and orientation of the object are estimated by matching a learning image obtained by photographing the target object from a plurality of viewpoints and an image feature detected from the acquired image.
あるいは、画像にもとづいて算出した距離値と画像上から抽出した画像特徴を併用して、対象物体の位置姿勢推定を行ってもよい。例えば、複数の面及び線分で表現される対象物体の三次元モデルを、距離値と画像とから抽出したエッジ特徴に対して同時にフィッティングすることで、対象物体の正確な位置姿勢を推定する。 Alternatively, the position / orientation estimation of the target object may be performed using both the distance value calculated based on the image and the image feature extracted from the image. For example, the accurate position and orientation of the target object are estimated by simultaneously fitting a three-dimensional model of the target object represented by a plurality of planes and line segments to the edge features extracted from the distance value and the image.
<画像のバリエーション>
本実施形態では、画像取得部101が取得する画像は、プロジェクタによりパターンが投影された対象物体を撮影した輝度画像として説明した。しかし、画像上から抽出した特徴を用いて位置姿勢推定を行う場合には、パターンが投影されていない対象物体を撮影した輝度画像としてもよい。あるいは、パターンが投影された対象物体を撮影した輝度画像と、パターンが投影されていない対象物体を撮影した輝度画像の両方を入力してもよい。
<Image variations>
In the present embodiment, the image acquired by the
<位置姿勢推定精度のバリエーション>
本実施形態では、位置姿勢推定精度を対象物体の距離値と対応付く三次元形状モデルが保持する面または三次元点までの距離の最大値とした。しかし、これに限らず、位置姿勢推定の精度を示す指標であれば、他のものであってもよい。例えば、対象物体の距離値と対応付く三次元形状モデルが保持する面または三次元点までの距離の平均値や分散としてもよい。あるいは、距離点と対応付くモデル上の点を推定した位置姿勢にもとづいて画像上に投影し、画像上における距離の平均値や分散としてもよい。あるいは、画像から抽出した特徴と対応付く学習データの特徴との距離の最大値、平均値または分散としてもよい。あるいは、対象物体の位置姿勢推定を複数回実施して算出した複数の位置姿勢の最大値または分散としてもよい。
<Variation of position and orientation estimation accuracy>
In this embodiment, the position / orientation estimation accuracy is set to the maximum value of the distance to the surface or the three-dimensional point held by the three-dimensional shape model associated with the distance value of the target object. However, the present invention is not limited to this, and any other index may be used as long as it indicates the accuracy of position and orientation estimation. For example, the average value or variance of the distance to the surface or the three-dimensional point held by the three-dimensional shape model associated with the distance value of the target object may be used. Or it is good also as an average value and dispersion | distribution of the distance on an image, projecting on an image based on the position and orientation which estimated the point on the model matched with a distance point. Alternatively, it may be the maximum value, average value, or variance of the distance between the feature extracted from the image and the feature of the learning data associated with it. Or it is good also as the maximum value or dispersion | distribution of the some position and orientation calculated by implementing the position and orientation estimation of a target object in multiple times.
<変形例1>
第1の実施形態では、第1の性能情報生成部104及び第2の性能情報生成部105で生成した位置姿勢推定の性能に関する情報として、位置姿勢推定の精度や処理時間をGUI上に表示した。本変形例では、取得画像上にコンピュータグラフィック(以下、CG)を重畳したものをGUI上に表示する。重畳するCGは、点、線分及び面で表現される対象物体の三次元モデルを推定した位置姿勢にもとづいて描画したものとする。これにより、画像上の対象物体と該画像上に重畳した対象物体のCGとの重なり具合を観察することで、ユーザが位置姿勢推定の性能を視覚的に判断することができる。
<Modification 1>
In the first embodiment, the position / orientation estimation accuracy and processing time are displayed on the GUI as information related to the position / orientation estimation performance generated by the first performance information generation unit 104 and the second performance
図5は、画像上に対象物体のCGを描画して重畳したものを、表示装置120のGUI400に表示した時の例である。表示装置120は、カメラ1、カメラ2、カメラ3およびカメラ5が撮影した画像上に対象物体のCG434〜437を重畳して描画した画像を表示する。
FIG. 5 is an example when a CG of the target object drawn and superimposed on the image is displayed on the
表示装置120は、カメラ2〜5が撮影した画像全てを貼り合わせた画像414上に対象物体のCG438を描画して重畳した画像を表示する。
The
CG434〜437と画像410〜414上の対象物体との重なり具合を観察することで、ユーザは位置姿勢推定の性能を視覚的に判断できる。例えば、CG436は、画像412上の対象物体とそれぞれ一致しているが、CG437は、画像413上の対象物体とずれが発生している。これより、画像412を用いた位置姿勢推定の精度は高いと判断できる。一方、画像413を用いた位置姿勢推定の精度は、画像412を用いた位置姿勢推定の精度に比べて低いと判断できる。
By observing the degree of overlap between the
以上説明したように、画像上に対象物体のCGを推定した位置姿勢にもとづいて描画して重畳して表示することで、ユーザは対象物体の位置姿勢推定の精度を視覚的に判断することが可能となる。 As described above, the user can visually determine the accuracy of the position / orientation estimation of the target object by drawing and superimposing and displaying the CG of the target object on the image based on the estimated position / orientation. It becomes possible.
<変形例2>
第1の実施形態では、第1の計測部102及び第2の計測部103において、対象物体の位置姿勢を推定した。本変形例では、第1の計測部および第2の計測部は、位置姿勢の推定ではなく、対象物体の有無や種類を特定する認識処理を行う。
<Modification 2>
In the first embodiment, the
図3を用いて、本変形例における処理手順を説明する。 A processing procedure in the present modification will be described with reference to FIG.
(ステップS301)
ステップS301において、画像取得部101は、対象物体を撮影した画像を取得する。取得する画像は、対象物体を撮影した輝度画像とする。
(Step S301)
In step S301, the
(ステップS302)
ステップS302において、第1の計測部102は、ステップS301で画像取得部101が取得した各画像にもとづいて対象物体の認識を行う。認識処理は、以下の非特許文献2に記載される方法により行う。
(Step S302)
In step S302, the
”SCHMID、C.; R。 MOHR: ’Local grayvalue invariants for image retrieval’ IEEE PAMI 19 May 1997、 pages 530 − 534”.
具体的には、画像上から抽出した特徴を用いたテンプレートマッチング手法を用いて、対象物体の認識を行う。
"SCHMID, C .; R. MOHR: 'Local grayvalue invariants for image retry' IEEE PAMI 19 May 1997, pages 530-534".
Specifically, the target object is recognized using a template matching method using features extracted from the image.
(ステップS303)
ステップS303において、第1の性能情報生成部104は、ステップS302で実施した認識処理に関する性能情報を生成する。本変形例において、認識に関する性能情報は、認識精度及び認識に要する処理時間とする。認識精度は、入力画像と入力画像と照合されたテンプレート画像間のハウスドルフ距離とする。認識に要する処理時間は、第1の計測部102で実施する認識処理に要する時間である。さらに、対象物体を撮影する時間や、撮影した画像を画像取得部101が取得する時間を処理時間に含めても良い。
(Step S303)
In step S303, the first performance information generation unit 104 generates performance information related to the recognition process performed in step S302. In this modification, the performance information regarding recognition is recognition accuracy and processing time required for recognition. The recognition accuracy is the Hausdorff distance between the input image and the template image collated with the input image. The processing time required for recognition is the time required for recognition processing performed by the
(ステップS304)
ステップS304において、第1の出力部106は、表示装置120に設定したGUI上に、ステップ303で生成した認識に関する第1の性能情報を表示させる。認識に関する性能情報は、上述した通り、認識精度及び認識に要する処理時間とする。また、位置姿勢推定の対象となった物体を提示するために、撮影画像上の該物体の位置付近に矩形のテクスチャを描画して重畳した画像を表示する。該テクスチャは、撮影画像上の該物体の位置付近に描画すればよく、その形状は他のものであってもよい。例えば、円形や星型などであってもよい。もっとも、認識に関する性能を示す情報であれば、他のものであってもよい。例えば、対象物体の有無を性能情報としてもよい。あるいは、同時に複数の物体を認識する場合には、認識した物体数を性能情報としてもよい。
(Step S304)
In step S <b> 304, the
(ステップS305)
ステップS305において、第2の計測部109は、ステップS301において画像取得部101で取得した複数の画像(2以上選択した画像)に基づいて対象物体の認識を行う。具体的な方法は、次の通りである。まず、画像ごとに対象物体の画像特徴を抽出する。そして、抽出した全ての画像特徴の中から、複数の画像で重複して抽出された特徴を選択する。そして、選択した画像を用いて、非特許文献2で開示される方法で対象物体の認識を行う。もっとも、複数の画像から抽出した画像特徴に基づいて対象物体の認識ができる他の方法であってもよい。例えば、複数の画像から抽出した画像特徴全てを用いて対象物体の認識を行っても良い。
(Step S305)
In step S305, the second measurement unit 109 recognizes the target object based on a plurality of images (two or more selected images) acquired by the
(ステップS306)
ステップS306において、第2の性能情報生成部105は、第2の計測部103で実施した認識に関する第2の性能情報を生成する。認識に関する性能情報は、ステップS303で説明した通りである。
(Step S306)
In step S <b> 306, the second performance
(ステップ307)
ステップS307において、第2の出力部107は、ステップ306で生成した認識に関する性能情報と撮像画像とを表示装置120の表示領域460に表示させる。認識に関する性能情報は、上述した通り、認識精度及び認識に要する処理時間とする。また、認識の対象となった物体を提示するために、撮影画像上の該物体の位置付近に矩形のテクスチャを描画して重畳した画像を表示する。該テクスチャの形状は矩形に限られず、例えば、円形や星型などであってもよい。
(Step 307)
In step S <b> 307, the
以上説明したように、ステップ301〜ステップ307の一連の処理を実行することで、画像ごとに実施した認識に関する性能情報と、複数の画像を利用して実施した認識に関する性能情報をGUI上に表示することができる。これにより、ユーザは、画像ごと及び複数の画像を用いた時の認識性能の確認や比較を行うことができる。 As described above, by executing the series of processing from step 301 to step 307, performance information related to recognition performed for each image and performance information related to recognition performed using a plurality of images are displayed on the GUI. can do. Thereby, the user can confirm and compare recognition performance when using each image and a plurality of images.
<変形例3>
第1の実施形態、変形例1及び2では、画像ごと及び複数の画像にもとづいて実施した対象物体の認識または位置姿勢推定に関する性能を表示した。さらに、性能低下の要因となるカメラに関して、該カメラの特性や該カメラの配置情報を示すパラメータの校正や、該カメラまたは画像の除去を促すGUIを表示してもよい。性能低下の要因となるカメラは、当該カメラで撮影した画像にもとづいて推定した位置姿勢推定の性能が予め定めた性能を満たさない場合や、性能が最も低くなるカメラとする。
<Modification 3>
In the first embodiment and the first and second modifications, the performance related to the recognition of the target object or the position and orientation estimation performed based on each image and a plurality of images is displayed. Further, for a camera that causes a performance degradation, a GUI that prompts the user to calibrate parameters indicating the characteristics of the camera and the placement information of the camera or to remove the camera or the image may be displayed. The camera that causes the performance degradation is a camera in which the position / orientation estimation performance estimated based on the image captured by the camera does not satisfy a predetermined performance or the camera having the lowest performance.
(第2の実施形態)
第1の実施形態では、各画像にもとづいて実施した位置姿勢推定に関する性能と、複数の画像にもとづいて実施した位置姿勢推定に関する性能を表示する方法について説明した。本実施形態では、位置姿勢推定に関する性能を表示するとともに、入力した複数の画像の中から位置姿勢推定に用いる画像を選択する方法について説明する。これにより、ユーザは、位置姿勢推定に関する性能を確認しながら、位置姿勢推定に利用する画像の選択ができるようになり、精度の高い位置姿勢推定が可能となる。対象物体の形状や置かれ方、環境光の当たり方といった変動する状況に適応した位置姿勢推定を行うことができる。また、位置姿勢推定に要する処理時間を、組み立て作業のタクトタイムで決定される該処理時間内に収めることが可能となる。
(Second Embodiment)
In the first embodiment, the method for displaying the performance related to the position / orientation estimation performed based on each image and the performance related to the position / orientation estimation performed based on a plurality of images has been described. In the present embodiment, a method for displaying performance related to position / orientation estimation and selecting an image used for position / orientation estimation from a plurality of input images will be described. Accordingly, the user can select an image to be used for position / orientation estimation while confirming the performance related to position / orientation estimation, and can perform position / orientation estimation with high accuracy. It is possible to perform position and orientation estimation adapted to changing conditions such as the shape of the target object, how it is placed, and how it hits the ambient light. Further, the processing time required for position and orientation estimation can be kept within the processing time determined by the tact time of the assembly work.
図6は、本実施形態におけるシステムの構成を示している。本実施形態における情報処理装置600の構成は、第1の実施形態で図1を用いて説明した情報処理装置100の構成に加え、画像選択部610を備える。その他の構成である画像取得部601〜第2の出力部607は画像取得部101〜第2の出力部107と同様の機能を有するため、ここでは、画像選択部610についてのみ説明する。また、情報処理装置600に接続される表示装置620は、第1の実施形態で説明した表示装置120と同等の機能を有する。また、情報処理装置600は、外部の操作装置620に接続されている。操作装置620は、マウスやキーボードであり、ユーザはこの操作装置を介して画像選択部610へ指示することができる。また、表示装置620の表示画面がタッチパネル機能を有する場合には、このタッチパネル機能が操作装置として機能する。
FIG. 6 shows a system configuration in the present embodiment. The configuration of the
画像選択部610は、画像取得部601が取得した複数の画像の中から第2の計測部での処理に用いる画像を選択する。本実施形態では、第1の実施形態と同様に、第2の計測部では対象物体の位置姿勢推定を行うため、画像選択部610は、位置姿勢推定の処理に用いる画像を選択する。
The image selection unit 610 selects an image used for processing in the second measurement unit from among a plurality of images acquired by the
図7は、本実施形態の処理手順を示すフローチャートである。ステップ701〜ステップ704及びステップ706、ステップ707における処理は、第1の実施形態で説明した処理と同様であるため、ここでの説明は省略する。 FIG. 7 is a flowchart showing the processing procedure of this embodiment. The processing in Steps 701 to 704 and Steps 706 and 707 is the same as the processing described in the first embodiment, and thus description thereof is omitted here.
(ステップ708)
ステップS708において、画像選択部610は、画像選択を行うか否かを判断する。この判断は、ユーザが操作装置611で行っても良いし、所定の回数は必ず画像選択を行うというような予め定めたルールに基づいて行っても良い。ステップS708において、画像選択部610が、画像を選択すると判断した場合には、ステップ709に進む。選択しない場合には、本処理を終了する。
(Step 708)
In step S708, the image selection unit 610 determines whether to perform image selection. This determination may be made by the user using the
(ステップ709)
ステップS709において、画像選択部610は、操作装置を介したユーザからの操作に基づいて、位置姿勢推定に用いる画像を選択する。
(Step 709)
In step S709, the image selection unit 610 selects an image to be used for position and orientation estimation based on an operation from the user via the operation device.
図8は、表示装置620の表示画面に表示される、第2の実施形態におけるGUI800の例である。
FIG. 8 is an example of the
表示装置620は、カメラ2、カメラ3、カメラ4及びカメラ5が撮影した画像810〜813それぞれに基づいて実施した位置姿勢推定精度及び位置姿勢推定に要した処理時間820〜823を表示する。
The
画像選択部610は、GUI800に設定した選択ボタン810〜830を操作装置を介してユーザが選択して、カメラが撮影した画像ごとに位置姿勢推定に使用するか否かの選択を行う。図8の例では、カメラ2及びカメラ5の撮影画像は使用せず、カメラ2及びカメラ3の撮影画像は使用する選択をしている。本実施形態では、画像取得部601に入力した画像ごとに、位置姿勢推定に使用するか否かの設定を行った。しかし、位置姿勢推定に使用する画像が選択できれば、他の設定方法であってもよい。例えば、選択対象となる画像全てに対して、位置姿勢推定に使用するか否かを一括で設定するようにしてもよい。
The image selection unit 610 selects the selection buttons 810 to 830 set in the
表示装置620は、選択ボタン824〜827で、ユーザが使用すると選択したカメラ2及びカメラ3が撮影した画像にもとづいて実施した位置姿勢推定の精度及び位置姿勢推定に要した処理時間824を表示する。
The
(ステップ705)
ステップS705において、第2の計測部603は、ステップ701で選択した画像にもとづいて対象物体の位置姿勢推定を行う。
(Step 705)
In step S <b> 705, the
<画像選択のバリエーション(選択方法)>
本実施形態では、画像取得部601で取得した画像ごとに、位置姿勢推定に使用するか否かの設定を行った。これに加えて、画像ごとに位置姿勢推定の処理方法を選択してもよい。例えば、画像特徴を用いた位置姿勢推定方法、距離値を用いた位置姿勢推定方法または画像特徴と距離値との両方を用いた位置姿勢推定方法の中から、処理方法を選択してもよい。こうすることで、対象物体の形状や置かれ方、環境光の当たり方といった変動する状況に適応した位置姿勢推定を行うことができる。また、選択対象となる画像全てに対して、位置姿勢推定の処理方法を一括で設定するようにしてもよい。
<Image selection variation (selection method)>
In the present embodiment, for each image acquired by the
<変形例2−1>
第1の実施形態、及び変形例1−1〜1−3では、第1の計測部において、各画像にもとづいて位置姿勢推定を実施した。しかし、これに限らず、2つ以上の画像にもとづいて位置姿勢推定を実施してもよい(1以上であればよい)。この場合、第1の性能情報生成部において、2以上の画像にもとづいて実施した位置姿勢に関する性能情報を生成し、表示装置620において、該性能情報を表示する。
<Modification 2-1>
In the first embodiment and Modifications 1-1 to 1-3, the first measurement unit performs position and orientation estimation based on each image. However, the present invention is not limited to this, and position and orientation estimation may be performed based on two or more images (one or more may be used). In this case, the first performance information generation unit generates performance information related to the position and orientation performed based on two or more images, and the
表示装置620は、カメラ2及びカメラ3が撮影した画像に基づいて実施した位置姿勢推定の推定精度及び処理時間820を表示する。また、表示装置620は、カメラ3及びカメラ4が撮影した画像に基づいて実施した位置姿勢推定の推定精度及び処理時間821を表示する。また、表示装置620は、カメラ4が撮影した画像にもとづいて実施した位置姿勢推定の推定精度及び処理時間822を表示する。また、表示装置620は、カメラ4及びカメラ5が撮影した画像にもとづいて実施した位置姿勢推定の推定精度及び処理時間823を表示する。また、これらの撮影画像810〜813を表示する。画像810、811及び813に関しては、撮影した画像を貼り合わせた画像とする。例えば、画像810は、カメラ2及び3で撮影した画像を貼り合わせた画像とする。
The
画像選択部610は、選択ボタン824〜827をユーザが選択することで、使用するカメラを選択する。
The image selection unit 610 selects a camera to be used when the user selects the
表示装置620は、カメラ3、カメラ4及びカメラ5が撮影した画像にもとづいて実施した位置姿勢推定の精度及び処理時間824を表示する。また、カメラ3、カメラ4及びカメラ5が撮影した画像を貼り合わせた画像814を表示する。
The
なお、撮影画像810、811、813及び814は、貼り合わせた画像に代わって、貼り合わせた画像を構成する個々の画像を表示してもよい。例えば、画像810には、カメラ2で撮影した画像または、カメラ3で撮影した画像を表示する。あるいは、画像表示そのものをしなくてもよい。
Note that the captured
(第3の実施形態)
第1の実施形態では、各画像にもとづいて実施した位置姿勢推定に関する性能と、複数の画像にもとづいて実施した位置姿勢推定に関する性能を表示する方法について説明した。第2の実施形態では、入力した複数の画像の中から位置姿勢推定に用いる画像を選択する方法について説明した。第3の実施形態では、位置姿勢推定に関する条件を入力し、入力した条件を満たす時の位置姿勢推定に関する性能を表示する方法について説明する。これにより、ユーザが所望する条件を満たす位置姿勢推定が可能となる。また、対象物体の形状や置かれ方、環境光の当たり方といった変動する状況に適応した位置姿勢推定を行うことができる。
(Third embodiment)
In the first embodiment, the method for displaying the performance related to the position / orientation estimation performed based on each image and the performance related to the position / orientation estimation performed based on a plurality of images has been described. In the second embodiment, the method for selecting an image used for position and orientation estimation from a plurality of input images has been described. In the third embodiment, a method will be described in which conditions related to position and orientation estimation are input, and the performance related to position and orientation estimation when the input conditions are satisfied is displayed. This makes it possible to estimate the position and orientation that satisfy the conditions desired by the user. Further, it is possible to perform position and orientation estimation adapted to changing conditions such as the shape of the target object, how it is placed, and how it hits the ambient light.
図9は、本実施形態における情報処理装置900の構成を示している。情報処理装置900は、第1の実施形態で図1を用いて説明した構成に加え、条件取得部910を保持する。条件取得部910、第2の計測部903、第2の性能情報生成部905、第2の出力部以外は第1の実施形態で説明したものと同様であるため、ここでの説明は省略する。
FIG. 9 shows the configuration of the
条件取得部910は、位置姿勢推定に関する条件を取得する。本実施形態では、取得する位置姿勢推定に関する条件は、位置姿勢推定精度の下限値とする。
The
第2の計測部903は、入力した複数の画像の中から位置姿勢推定に使用する画像の組み合わせを複数生成し、生成した画像の組み合わせごとに位置姿勢推定を行う。位置姿勢推定方法は、第1の実施形態で説明した通りである。
The
第2の性能情報生成部905は、第2の計測部903で実施した複数の位置姿勢推定の結果に対して、位置姿勢推定に関する性能情報を生成する。さらに、生成した性能情報が条件取得部910で取得した条件を満たすか否かを判定する。具体的には、位置姿勢推定の精度が、取得した推定精度の閾値に収まっているかどうかを判定する。判定された結果、取得した閾値に収まっていると判定された精度の位置姿勢計測結果のみを第2の出力部907に送出する。
The second performance
第2の出力部907は、第2の性能情報生成部905で生成した性能情報のうち、性能情報生成部905において入力した条件を満たすと判定された位置姿勢推定に関する性能のみを出力する。
The
図10は、本実施形態における処理手順を示すフローチャートである。ステップ1001〜1006は、第1の実施形態で説明したステップS301〜306と同様であるため、ここでの説明は省略する。
FIG. 10 is a flowchart showing a processing procedure in the present embodiment.
(ステップ1007)
ステップS1007において、条件取得部910は、設定したGUIを介して、位置姿勢推定精度の閾値を取得する。本実施形態においては、ユーザが操作装置を介して入力したものを取得する。条件取得部910は、取得した条件を第2の出力部909へ送出する。
(Step 1007)
In step S <b> 1007, the
(ステップ1008)
ステップS1008において、第2の出力部907は、ステップS1006において生成された位置姿勢計測の精度を取得し、該取得した精度がステップS1007で取得した閾値内におさまっているかを判定する。そして、閾値以内に収まっていると判定された位置姿勢推定に関する性能情報を選択して表示装置920に出力する。
(Step 1008)
In step S1008, the
図11は、表示装置920及び条件取得部910に設定したGUI1100を示す例である。表示装置920は、条件を満たすと判定した複数の位置姿勢推定に関する性能情報の中から、性能情報表示切り替えボタン1128で指定した性能情報を表示する。また、表示装置920に表示した性能情報の対象となった位置姿勢推定に使用した画像を特定するために、各画像を使用したか否かを示す情報1124〜1127を表示する。この例では、カメラB及びCを使用した位置姿勢推定の性能情報を表示領域907に表示している。
FIG. 11 is an example showing the
条件取得部910は、GUI1100に設定された入力ボックス1129に、ユーザが操作装置を介して入力した推定精度の条件を取得する。
The
表示装置920は、カメラ2、カメラ3、カメラ4及びカメラ5が撮影した画像1110〜1113それぞれにもとづいて実施した位置姿勢推定精度及び位置姿勢推定に要した処理時間1120〜1123を表示する。
The
表示装置920は、表示領域1107に、カメラ3及び4が撮影した画像にもとづいて位置姿勢推定精度及び位置姿勢推定に要した処理時間を表示する。
The
<入力条件のバリエーション>
本実施形態では、入力する条件を推定精度の下限値とした。しかし、位置姿勢推定に関する条件であれば、他のものであってもよい。例えば、位置姿勢推定に要する処理時間の上限値を指定してもよい。この場合、位置姿勢推定に要する処理時間が、指定した処理時間の上限値を下回る場合に、該条件を満たすと判断する。あるいは、推定精度の下限値と処理時間の上限値の両方を条件として入力してもよい。
<Variations of input conditions>
In the present embodiment, the input condition is the lower limit value of the estimation accuracy. However, other conditions may be used as long as they are conditions related to position and orientation estimation. For example, an upper limit value of processing time required for position and orientation estimation may be specified. In this case, when the processing time required for position / orientation estimation falls below the upper limit value of the designated processing time, it is determined that the condition is satisfied. Alternatively, both the lower limit value of the estimation accuracy and the upper limit value of the processing time may be input as conditions.
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
<各実施形態の効果>
第1の実施形態では、撮影した各画像または複数の画像にもとづいてそれぞれ位置姿勢推定を行い、それぞれの位置姿勢推定の性能に関する情報をGUI上に表示する方法について説明した。これにより、各画像及び複数の画像を用いて実施した位置姿勢推定の性能の確認や比較を容易に行うことができるようになり、性能低下あるいは向上の要因となっている画像またはカメラの特定が行えるようになる。また、性能低下の要因と特定されたカメラの除去や配置変更を行うことができるようになる。
<Effect of each embodiment>
In the first embodiment, a method has been described in which position and orientation estimation is performed based on each captured image or a plurality of images, and information on the performance of each position and orientation estimation is displayed on the GUI. This makes it possible to easily check and compare the performance of position and orientation estimation performed using each image and a plurality of images, and to identify the image or camera that is the cause of the performance degradation or improvement. You can do it. In addition, it becomes possible to remove or change the arrangement of the camera identified as the cause of the performance degradation.
第2の実施形態では、撮影した各画像または複数の画像にもとづいて実施した位置姿勢推定の性能をそれぞれ表示するとともに、入力した複数の画像の中から位置姿勢推定に用いる画像を選択する方法について説明した。これにより、ユーザは、性能を確認しながら、位置姿勢推定に利用する画像の選択を実施できるようになるため、性能の高い位置姿勢推定を実施することが可能となる。また、位置姿勢推定に要する処理時間を、組み立て作業のタクトタイムで決定される該処理時間内に収めることが可能となる。 In the second embodiment, a method of displaying the performance of position / orientation estimation based on each captured image or a plurality of images and selecting an image to be used for position / orientation estimation from a plurality of input images. explained. Accordingly, the user can select an image to be used for position / orientation estimation while confirming the performance, and thus can perform position / orientation estimation with high performance. Further, the processing time required for position and orientation estimation can be kept within the processing time determined by the tact time of the assembly work.
第3の実施形態では、位置姿勢推定に関する条件を取得し、取得した条件を満たす際の位置姿勢推定に関する性能を表示する方法について説明する。これにより、ユーザが所望する条件を満たす位置姿勢推定が可能となる。 In the third embodiment, a method for acquiring conditions related to position / orientation estimation and acquiring performance related to position / orientation estimation when the acquired conditions are satisfied will be described. This makes it possible to estimate the position and orientation that satisfy the conditions desired by the user.
<定義>
本発明の画像取得手段は、情報処理装置100と接続した対象物体を撮影したカメラから画像を入力してもよいし、複数の視点で対象物体を撮影した画像を、情報処理装置100と接続した外部の記憶装置に一旦保持しておいたものを入力してもよい。
<Definition>
The image acquisition unit of the present invention may input an image from a camera that has captured a target object connected to the
本発明における第1及び第2の計測部では、画像にもとづいて算出した距離値にもとづいて認識または位置姿勢推定を実施してもよい。あるいは、画像から抽出した画像特徴にもとづいて認識または位置姿勢推定を実施してもよい。あるいは、画像にもとづいて算出した距離値と画像から抽出した画像特徴の両方にもとづいて認識または位置姿勢推定を実施してもよい。 In the first and second measurement units of the present invention, recognition or position / orientation estimation may be performed based on a distance value calculated based on an image. Alternatively, recognition or position / orientation estimation may be performed based on image features extracted from the image. Alternatively, recognition or position / orientation estimation may be performed based on both the distance value calculated based on the image and the image feature extracted from the image.
本発明における第1及び第2の性能情報生成部では、第1及び第2の計測部で実施した位置姿勢推定に関する性能情報を生成する。位置姿勢推定に関する性能情報は、位置姿勢の性能を示す情報であれば何でもよい。例えば、位置姿勢推定の精度または処理時間とする。あるいは、推定した位置姿勢、対象物体の有無、位置姿勢推定または認識の計算が破たんしたか否かの情報であってもよい。 In the 1st and 2nd performance information generation part in this invention, the performance information regarding the position and orientation estimation implemented in the 1st and 2nd measurement part is produced | generated. The performance information related to the position / orientation estimation may be anything as long as it is information indicating the position / orientation performance. For example, the position / orientation estimation accuracy or processing time is used. Alternatively, it may be information on the estimated position and orientation, the presence or absence of the target object, and whether or not the calculation of position and orientation estimation or recognition has broken.
本発明における第1及び第2の出力部は、第1及び第2の性能情報生成部で生成した性能情報を表示装置の表示領域にそれぞれ表示する。表示方法は、位置姿勢推定の精度または処理時間の数値をGUI上に表示してもよいし、対象物体の形状を示す三次元モデルを推定した位置姿勢にもとづいて描画し入力画像上に重畳して表示してもよい。 The first and second output units in the present invention display the performance information generated by the first and second performance information generation units in the display area of the display device, respectively. The display method may display the accuracy of position / orientation estimation or the numerical value of the processing time on the GUI, or draw based on the estimated position / orientation of the 3D model indicating the shape of the target object and superimpose it on the input image. May be displayed.
101 画像取得部
102 第1の計測部
103 第2の計測部
104 第1の性能情報生成部
105 第2の性能情報生成部
106 第1の出力部
107 第2の出力部
DESCRIPTION OF
Claims (14)
前記取得した画像のうち、少なくとも1以上の画像に基づいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、少なくともいずれか1つを実行する第1の実行手段と、
前記取得した複数のうち、少なくとも2以上の画像に基づいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、少なくともいずれか1つを実行する第2の実行手段と、
前記第1の実行手段で実行される処理に関する第1の性能情報を生成する第1の性能情報生成手段と、
前記第2の実行手段で実行される処理に関する第2の性能情報を生成する第2の性能情報生成手段と、
前記第1の性能情報と第2の性能情報とを表示手段に表示させる表示制御手段と、
を備えることを特徴とする情報処理装置。 Image acquisition means for acquiring a plurality of images obtained by imaging a target object;
First execution means for executing at least one of recognition processing of the target object and position / orientation estimation processing of the target object based on at least one of the acquired images;
Second execution means for executing at least one of the target object recognition process and the position / posture estimation process of the target object based on at least two or more images of the plurality obtained.
First performance information generation means for generating first performance information relating to processing executed by the first execution means;
Second performance information generation means for generating second performance information relating to processing executed by the second execution means;
Display control means for causing the display means to display the first performance information and the second performance information;
An information processing apparatus comprising:
前記第2の位置姿勢推定手段は、前記画像選択手段で選択した画像に基づいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、少なくともいずれか1つを実行することを特徴とする請求項1に記載の情報処理装置。 Furthermore, the image acquisition unit includes an image selection unit that selects at least two images to be used for processing by the second execution unit from a plurality of images acquired by the image acquisition unit,
The second position / orientation estimation unit executes at least one of the target object recognition process and the target object position / orientation estimation process based on the image selected by the image selection unit. The information processing apparatus according to claim 1.
前記第2の計測手段は、前記選択された処理方法に基づいて前記処理を実施することを特徴とする請求項1または2に記載の情報処理装置。 Furthermore, the image acquired by the image acquisition means has means for selecting a processing method in the second position and orientation estimation means,
The information processing apparatus according to claim 1, wherein the second measurement unit performs the process based on the selected processing method.
前記表示制御手段は、前記取得した条件を満たす性能情報を前記表示手段に表示させることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 Furthermore, it comprises a condition acquisition means for acquiring a condition relating to processing executed by at least one of the first execution means and the second execution means,
The information processing apparatus according to claim 1, wherein the display control unit causes the display unit to display performance information that satisfies the acquired condition.
前記画像取得手段は、前記撮像装置により撮像された前記パターンが投影された複数の画像を取得することを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。 Furthermore, a projection device that projects a pattern, and a plurality of imaging devices that capture an image on which the pattern is projected,
The information processing apparatus according to claim 1, wherein the image acquisition unit acquires a plurality of images on which the pattern imaged by the imaging apparatus is projected.
前記取得した画像のうち、少なくとも1つの画像に関する情報にもとづいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、少なくともいずれか1つを実行する第1の実行工程と、
前記取得した複数のうち、少なくとも2つの画像に関する情報にもとづいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、少なくともいずれか1つを実行する第2の実行工程と、
前記第1の実行工程で実行される処理に関する第1の性能情報を生成する第1の性能情報生成工程と、
前記第2の実行工程で実行される処理に関する第2の性能情報を生成する第2の性能情報生成工程と、
前記第1の性能情報と第2の性能情報とを表示手段に表示させる表示制御工程と、
を備えることを特徴とする情報処理装置。 An image acquisition process for acquiring a plurality of images of the target object;
A first execution step of executing at least one of the target object recognition process and the target object position and orientation estimation process based on information about at least one of the acquired images; ,
A second execution step of executing at least one of the target object recognition process and the target object position and orientation estimation process based on information about at least two images of the plurality obtained ,
A first performance information generation step for generating first performance information related to the processing executed in the first execution step;
A second performance information generation step for generating second performance information relating to the processing executed in the second execution step;
A display control step of causing the display means to display the first performance information and the second performance information;
An information processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014084715A JP6425405B2 (en) | 2014-04-16 | 2014-04-16 | INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014084715A JP6425405B2 (en) | 2014-04-16 | 2014-04-16 | INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015203680A true JP2015203680A (en) | 2015-11-16 |
JP6425405B2 JP6425405B2 (en) | 2018-11-21 |
Family
ID=54597189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014084715A Active JP6425405B2 (en) | 2014-04-16 | 2014-04-16 | INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6425405B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018116589A1 (en) * | 2016-12-19 | 2018-06-28 | 株式会社安川電機 | Industrial device image recognition processor and controller |
JP2019049121A (en) * | 2017-09-08 | 2019-03-28 | 株式会社小松製作所 | Construction management device and construction management method |
WO2019138677A1 (en) * | 2018-01-15 | 2019-07-18 | キヤノン株式会社 | Information processing device, control method therefor, computer-readable storage medium, and driving control system |
WO2020049766A1 (en) * | 2018-09-07 | 2020-03-12 | オムロン株式会社 | Target object recognition device, manipulator, and mobile robot |
US11964399B2 (en) | 2018-09-07 | 2024-04-23 | Omron Corporation | Target object recognition device, manipulator, and mobile robot |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11259642A (en) * | 1998-03-12 | 1999-09-24 | Omron Corp | Recognition processing method, recognition processor using the same, and license number plate reader |
JP2002365747A (en) * | 2001-06-07 | 2002-12-18 | Olympus Optical Co Ltd | Camera |
WO2006082928A1 (en) * | 2005-02-04 | 2006-08-10 | Canon Kabushiki Kaisha | Position posture measuring method and device |
JP2011022084A (en) * | 2009-07-17 | 2011-02-03 | Fuji Electric Holdings Co Ltd | Device and method for measuring three-dimensional pose |
JP2011107083A (en) * | 2009-11-20 | 2011-06-02 | Omron Corp | Posture recognition method and 3d vision sensor using the same |
JP2012021958A (en) * | 2010-07-16 | 2012-02-02 | Canon Inc | Position/posture measuring apparatus, measurement processing method for the same, and program |
JP2013130426A (en) * | 2011-12-20 | 2013-07-04 | Canon Inc | Information processing apparatus, control method of information processing apparatus and program |
JP2014055815A (en) * | 2012-09-11 | 2014-03-27 | Keyence Corp | Shape measuring device, shape measuring method, and shape measuring program |
-
2014
- 2014-04-16 JP JP2014084715A patent/JP6425405B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11259642A (en) * | 1998-03-12 | 1999-09-24 | Omron Corp | Recognition processing method, recognition processor using the same, and license number plate reader |
JP2002365747A (en) * | 2001-06-07 | 2002-12-18 | Olympus Optical Co Ltd | Camera |
WO2006082928A1 (en) * | 2005-02-04 | 2006-08-10 | Canon Kabushiki Kaisha | Position posture measuring method and device |
JP2006242943A (en) * | 2005-02-04 | 2006-09-14 | Canon Inc | Position attitude measuring method and device |
JP2011022084A (en) * | 2009-07-17 | 2011-02-03 | Fuji Electric Holdings Co Ltd | Device and method for measuring three-dimensional pose |
JP2011107083A (en) * | 2009-11-20 | 2011-06-02 | Omron Corp | Posture recognition method and 3d vision sensor using the same |
JP2012021958A (en) * | 2010-07-16 | 2012-02-02 | Canon Inc | Position/posture measuring apparatus, measurement processing method for the same, and program |
JP2013130426A (en) * | 2011-12-20 | 2013-07-04 | Canon Inc | Information processing apparatus, control method of information processing apparatus and program |
JP2014055815A (en) * | 2012-09-11 | 2014-03-27 | Keyence Corp | Shape measuring device, shape measuring method, and shape measuring program |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2018116589A1 (en) * | 2016-12-19 | 2019-06-24 | 株式会社安川電機 | Image recognition processor and controller for industrial equipment |
WO2018116589A1 (en) * | 2016-12-19 | 2018-06-28 | 株式会社安川電機 | Industrial device image recognition processor and controller |
US11004191B2 (en) | 2016-12-19 | 2021-05-11 | Kabushiki Kaisha Yaskawa Denki | Industrial device image recognition processor and controller |
JP7022076B2 (en) | 2016-12-19 | 2022-02-17 | 株式会社安川電機 | Image recognition processors and controllers for industrial equipment |
JP2019049121A (en) * | 2017-09-08 | 2019-03-28 | 株式会社小松製作所 | Construction management device and construction management method |
US11393123B2 (en) | 2018-01-15 | 2022-07-19 | Canon Kabushiki Kaisha | Information processing device, control method therefor, non-transitory computer-readable storage medium, and driving control system |
WO2019138677A1 (en) * | 2018-01-15 | 2019-07-18 | キヤノン株式会社 | Information processing device, control method therefor, computer-readable storage medium, and driving control system |
JP2019125112A (en) * | 2018-01-15 | 2019-07-25 | キヤノン株式会社 | Information processor, method for controlling the same, program, and operation control system |
JP7149707B2 (en) | 2018-01-15 | 2022-10-07 | キヤノン株式会社 | Information processing device, its control method and program, and operation control system |
JP2020042421A (en) * | 2018-09-07 | 2020-03-19 | オムロン株式会社 | Object recognition device and manipulator and mobile robot |
JP7031540B2 (en) | 2018-09-07 | 2022-03-08 | オムロン株式会社 | Object recognition devices, manipulators, and mobile robots |
WO2020049766A1 (en) * | 2018-09-07 | 2020-03-12 | オムロン株式会社 | Target object recognition device, manipulator, and mobile robot |
US11964399B2 (en) | 2018-09-07 | 2024-04-23 | Omron Corporation | Target object recognition device, manipulator, and mobile robot |
Also Published As
Publication number | Publication date |
---|---|
JP6425405B2 (en) | 2018-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9852358B2 (en) | Information processing device, information processing method, and information processing system | |
US10456918B2 (en) | Information processing apparatus, information processing method, and program | |
US10762386B2 (en) | Method of determining a similarity transformation between first and second coordinates of 3D features | |
JP2014199584A5 (en) | ||
JP6193195B2 (en) | Movement support apparatus, method and program | |
JP2012022411A (en) | Information processing apparatus and control method thereof, and program | |
US20150339859A1 (en) | Apparatus and method for navigating through volume image | |
JP2018091656A (en) | Information processing apparatus, measuring apparatus, system, calculating method, program, and article manufacturing method | |
JP2018026064A (en) | Image processor, image processing method, system | |
JP6425405B2 (en) | INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM | |
JP2015049776A (en) | Image processor, image processing method and image processing program | |
KR101256046B1 (en) | Method and system for body tracking for spatial gesture recognition | |
JP2017123087A (en) | Program, device and method for calculating normal vector of planar object reflected in continuous photographic images | |
JP2018120283A (en) | Information processing device, information processing method and program | |
JP2018010599A (en) | Information processor, panoramic image display method, panoramic image display program | |
JP2017037426A (en) | Information processor, information processing method, and program | |
JP5762099B2 (en) | Posture recognition apparatus, work robot, posture recognition method, program, and recording medium | |
KR20120020711A (en) | Object recognition system and method the same | |
JP2019211981A (en) | Information processor, information processor controlling method and program | |
US20210042576A1 (en) | Image processing system | |
KR101868520B1 (en) | Method for hand-gesture recognition and apparatus thereof | |
JP7179633B2 (en) | Measuring method, measuring device and program | |
JP6641313B2 (en) | Region extraction device and program | |
JP2016139396A (en) | User interface device, method and program | |
JPWO2015141214A1 (en) | Label information processing apparatus for multi-viewpoint image and label information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180925 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181023 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6425405 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |