JP6740033B2 - 情報処理装置、計測システム、情報処理方法及びプログラム - Google Patents

情報処理装置、計測システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JP6740033B2
JP6740033B2 JP2016127780A JP2016127780A JP6740033B2 JP 6740033 B2 JP6740033 B2 JP 6740033B2 JP 2016127780 A JP2016127780 A JP 2016127780A JP 2016127780 A JP2016127780 A JP 2016127780A JP 6740033 B2 JP6740033 B2 JP 6740033B2
Authority
JP
Japan
Prior art keywords
viewpoint
feature
model
information processing
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016127780A
Other languages
English (en)
Other versions
JP2018004310A5 (ja
JP2018004310A (ja
Inventor
祐一郎 廣田
祐一郎 廣田
藤木 真和
真和 藤木
小林 一彦
一彦 小林
鈴木 雅博
雅博 鈴木
圭祐 立野
圭祐 立野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016127780A priority Critical patent/JP6740033B2/ja
Priority to US15/634,301 priority patent/US10497111B2/en
Publication of JP2018004310A publication Critical patent/JP2018004310A/ja
Publication of JP2018004310A5 publication Critical patent/JP2018004310A5/ja
Application granted granted Critical
Publication of JP6740033B2 publication Critical patent/JP6740033B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/02Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/02Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
    • H04W84/04Large scale networks; Deep hierarchical networks
    • H04W84/06Airborne or Satellite Networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Description

本発明は、情報処理装置、計測システム、情報処理方法及びプログラムに関する。
近年のコンピュータビジョンの発展に伴い、オブジェクトの2次元画像や距離画像を撮影し、得られた画像にモデルフィッティングすることでオブジェクトの実空間における位置姿勢を計測する技術が実用化されている。モデルフィッティングとは、撮影画像から得られる測定対象物の特徴部分と測定対象物を模したモデルの特徴部分とを一致させることにより、測定対象物の位置、姿勢等を取得する手法である。このような計測方法の計測精度は、オブジェクトの画像を撮影する視点に大きく依存する。そこで高精度に計測可能な視点を求める技術が研究されてきた。
非特許文献1では、オブジェクトの形状をレーザーレンジセンサーで計測する際のセンサーの計測点バラつきが物体の位置姿勢計測結果に与える影響を計算し、最も精度良く計測できる視点を求める方法が開示されている。
三浦淳、池内克史、"作業の目的を考慮した視覚認識戦略の生成"、日本ロボット学会誌Vol.14 No. 4、 pp.574 〜 585、 1996 立野圭祐、小竹大輔、内山晋二、"ビンピッキングのための距離・濃淡画像を最尤に統合する高精度高安定なモデルフィッティング手法"、資料名:電子情報通信学会論文誌 D、 巻:J94−D、 号:8、 ページ:1410−1422. W. Hoff and T. Vincent、 "Analysis of head pose accuracy in augmented reality、"IEEE Trans. Visualization and Computer Graphics、 Vol 6.、 No. 4、 2000.
しかしながら、非特許文献1に開示されている方法は、オブジェクトの位置姿勢計測の誤差要因としてセンサーの計測点バラつき以外の要因も存在する。したがってこの要因によって、高精度に計測可能な視点を必ずしも正確に求められないという課題がある。
本発明は、高精度にオブジェクトを計測可能な視点をより正確に求めることを目的とする。
本発明の情報処理装置は、オブジェクトの特徴を含むモデル情報に基づいて、前記オブジェクトを複数の候補視点のそれぞれから観測して得られるべき前記オブジェクトの特徴を表すモデル特徴を生成する生成手段と、前記オブジェクトを前記複数の候補視点のそれぞれから撮影した画像から得られる特徴を表す画像特徴を取得する取得手段と、前記モデル特徴と前記画像特徴との対応関係に基づいて、前記複数の候補視点のそれぞれを評価する評価手段と、前記複数の候補視点のそれぞれ対する前記評価手段による評価の結果に基づいて、前記複数の候補視点から前記オブジェクトを計測すべき1つ以上の計測視点を選択する選択手段と、を有する。
本発明によれば、高精度にオブジェクトを計測可能な視点をより正確に求めることができる。
情報処理装置のハードウェア構成の一例を示す図である。 情報処理装置の機能構成の一例を示す図である。 モデル情報の一例を示す図である。 視点選択処理の一例を示すフローチャートである。 計測候補視点の生成方法の一例を説明する図である。 計測視点の表示画面の一例を示す図である。 視点選択処理の一例を示すフローチャートである。 計測システムのシステム構成の一例を示す図である。 情報処理装置の機能構成等の一例を示す図である。 情報処理装置の機能構成等の一例を示す図である。
以下、本発明の実施形態について図面に基づいて説明する。
<実施形態1>
図1は、本実施形態の情報処理装置100のハードウェア構成の一例を示す図である。情報処理装置100は、CPU110、読み出し専用メモリ(ROM)120、ランダムアクセスメモリ(RAM)130、入力I/F140、出力I/F150を含む。CPU110、読み出し専用メモリ(ROM)120、ランダムアクセスメモリ(RAM)130、入力I/F140、出力I/F150は、システムバス160を介して、相互に接続されている。
CPU110は、システムバス160を介して接続される各デバイスを統括的に制御する中央演算装置である。CPU110は、ROM120に記憶された各種プログラムを読み出して実行する。ROM120は、オペレーティングシステム(OS)のプログラムをはじめ、本実施形態に係る各処理のプログラム、デバイスドライバのプログラム、各種設定情報、各種閾値の情報、対象オブジェクトのモデル情報等を記憶する記憶装置である。対象オブジェクトとは、計測対象のオブジェクトである。また、RAM130は、CPU110のワークエリアやデータの一時記憶領域として利用される記憶装置である。CPU110は、ROM120から取得した各種プログラムを、RAM130に一時記憶し、適宜実行する。
また、入力I/F140は、外部の装置(表示装置や操作装置、計測装置、ロボット等)からの入力信号の入力に利用されるインターフェースである。また、出力I/F150は、外部の装置(表示装置、計測装置、ロボット等)への出力信号の出力に利用されるインターフェースである。
本実施形態においては、CPU110が、ROM120等に記憶されたプログラムに基づき処理を実行することによって、図2で後述する情報処理装置100の機能及び図4で後述するフローチャートの処理が実現される。また例えば、情報処理装置100は、CPU110が実行するプログラムの処理の代替としてハードウェアを有することとしてもよい。その場合には、情報処理装置100は、CPU110が実行するプログラムの処理に対応する演算部や回路を有することとしてもよい。
本実施形態では、情報処理装置100は、実際に対象オブジェクトの計測を行う計測システムに対して、対象オブジェクトを観測するのに好適な視点の情報を提供するパーソナルコンピュータ(PC)、タブレット装置等の情報処理装置である。情報処理装置100は、観測視点を取得し、取得した観測視点の情報を、計測システムに対して提供する。計測システムは、撮像装置、撮像装置の位置や姿勢を制御する位置姿勢制御装置、対象オブジェクトの位置や姿勢を制御する位置姿勢制御装置等を含むシステムである。計測システムは、撮像装置及び対象オブジェクトの位置、姿勢を、情報処理装置100から提供された観測視点の情報に対応するように調整し、対象オブジェクトを計測することになる。
本実施形態では、情報処理装置100が距離画像と濃淡画像とを併用し、高い計測精度で計測対象のオブジェクトを計測可能な好適な計測視点を選択する処理を説明する。本実施形態では、情報処理装置100は、対象オブジェクトの距離画像と濃淡画像とを取得する。本実施形態では、情報処理装置100は、モデルエッジ上でサンプリングされた点を2次元画像上に投影されたモデル特徴と濃淡画像上の特徴との対応付けを行う。また、情報処理装置100は、対象オブジェクトのモデルの面上でサンプリングされたモデル特徴と距離画像上の特徴との対応付けを行う。情報処理装置100は、モデル特徴と対応付けられた特徴の分布に基づいて、対象オブジェクトのモデルの位置姿勢を求める最適化計算を行うものである。距離画像と濃淡画像とを併用してモデルフィッティングを行う方法の詳細については、例えば非特許文献2に開示されている。
以下では、対象オブジェクトのモデル上に設定された特徴を、モデル特徴とする。モデル特徴とは、対象オブジェクトに対して設定される特徴である。また、以下では、モデル特徴が2次元画像上に投影された特徴を、2次元モデル特徴とする。また、以下では、モデル特徴が3次元画像上に投影された特徴を、3次元モデル特徴とする。また、以下では、対象オブジェクトが撮影された画像中から抽出される対象オブジェクトの特徴を、観測特徴とする。また、対象オブジェクトが撮影された2次元画像中から抽出される対象オブジェクトの特徴を、2次元観測特徴とする。また、対象オブジェクトが撮影された3次元画像中から抽出される対象オブジェクトの特徴を、3次元観測特徴とする。また、以下では、計測システムが対象オブジェクトを観測する際の視点を、観測視点とする。また、以下では、観測視点の候補である視点を候補視点とする。
情報処理装置100は、各候補視点においてモデル特徴と観測特徴との対応付けがどの程度信頼できるものかを示す信頼度を算出する。信頼度の算出は、モデル特徴に対応付けられ得る候補となる観測特徴候補群の空間的な分布に基づいて行う。観測特徴候補とは、観測特徴のうち、モデル特徴に対応付けられ得る候補である特徴である。本実施形態では、観測特徴群の空間的分布の性質として、観測特徴群の密集度が小さい程、モデル特徴との対応付けの信頼度が高いとする。これは、密集度が小さいことは、対応付けで間違い得る観測特徴の数が少ないことを表すため、誤って対応付けられる可能性が低くなるからである。
更に、情報処理装置100は、各候補視点における各モデル特徴の対応付け信頼度の統計量に基づいて候補視点の優劣を示す視点評価値を算出する。本実施形態では、情報処理装置100は、信頼度の統計量として平均値を用いる。ある候補視点での複数のモデル特徴の対応付け信頼度の平均値が高ければ、その候補視点では、モデル特徴と観測特徴とが概して正しく対応付けることが可能であるため、その視点で行う計測の精度は、相対的に高い。このようにして、情報処理装置100は、計測精度が好適な観測視点を選択することができる。
図2は、情報処理装置100の機能構成の一例を示す図である。情報処理装置100は、モデル情報保持部201、候補視点生成部202、観測特徴群取得部203、信頼度算出部204、視点評価値算出部205、計測視点選択部206を含む。
モデル情報保持部201は、ROM120等に記憶されている対象オブジェクトのモデル情報を管理する。モデル情報とは、対象オブジェクトの形状に関する情報である。本実施形態では、モデル情報は、対象オブジェクトの形状を特定するための情報、対象オブジェクトに設定されているモデル特徴の情報を含む。
候補視点生成部202は、複数の候補視点を生成する。候補視点生成部202により生成された候補視点は、視点評価値算出部205が視点の優劣を表す視点評価値を計算する対象である。
観測特徴群取得部203は、設定された視点でオブジェクトを撮影したときに得られる画像から得られる観測特徴のうち、任意のモデル特徴と対応付けられ得る観測特徴群を取得する。
信頼度算出部204は、モデル特徴と観測特徴群との対応付けの信頼度を算出する。本実施形態では、信頼度算出部204は、モデル情報に含まれる各モデル特徴と観測特徴群取得部203により取得された観測特徴との対応付けの信頼度を算出する。対応付けの信頼度が高いほど、そのモデル特徴に対応付けられる観測特徴が正しい可能性が高いことを表す。一方対応付け信頼度が低いほど、そのモデル特徴に対応付けられる観測特徴が誤っている可能性が高いことを表す。
視点評価値算出部205は、ある視点で各モデル特徴と観測特徴の対応付けをしたときに得られる対応の対応付け信頼度に基づいて、その視点から実際に対象オブジェクトを計測した場合に発揮する計測精度の良否を表す視点評価値を算出する。
計測視点選択部206は、候補視点の中から、視点評価値算出部205により算出された視点評価値に基づいて、計測視点を一つ以上選択する。
ROM120等に予め記憶されている対象オブジェクトのモデル情報の一例について、図3を用いて説明する。図3(a)〜(c)は、同一対象オブジェクトのモデルの点、線、面をそれぞれ示す図である。図3(d)は、図3(a)に対応するモデルの各頂点情報を示す図である。図3(e)は、図3(b)に対応するモデルの各辺となる線情報を示す図である。図3(f)は、図3(c)に対応するモデルの各面情報を示す図である。更に、モデル情報には図3(f)に示すようにモデルを構成する面の法線の情報が含まれている。
図4は、本実施形態の情報処理装置100が実施する視点選択処理の一例を示すフローチャートである。図4のフローチャートに沿って処理内容を説明する。
S401において、モデル情報保持部201は、対象オブジェクトのモデル情報をROM120等から取得する。
S402において、候補視点生成部202は、対象オブジェクトを計測する候補視点を複数生成する。本実施形態では、候補視点生成部202は、図5に示すように適当な半径(例えば、実際の計測が行われる場合の計測システムの撮像装置から対象オブジェクト501までの距離)の球面を三角形の多面体で近似したジオデシックドーム502を生成する。そして、候補視点生成部202は、その各三角面の位置と方向とで視点を定義する。候補視点生成部202は、定義した視点から、候補視点となる視点を生成する。例えば、候補視点生成部202は、定義した視点全てを候補視点として生成してもよいし、定義した視点からランダムに設定された数の視点を選択し、選択した視点を候補視点として生成してもよい。視点503〜506は、候補視点生成部202により生成された視点の一部を示している。
S403において、視点評価値算出部205は、S402で生成された候補視点それぞれ毎に、S404〜S407の処理を行うよう制御する。以下では、ループ内の処理(S404〜S407)で処理対象となる候補視点を、対象候補視点とする。
S404において、信頼度算出部204は、S401で取得された対象オブジェクトのモデル情報からモデル特徴を取得し、取得したモデル特徴それぞれについて、S405〜S406の処理を行うよう制御する。情報処理装置100が選択する計測視点を利用して実際の対象オブジェクトの計測を行う計測システムが距離画像・濃淡画像併用方式のモデルフィッティングを採用する場合、計測システムは、以下の処理を行う。即ち、計測システムは、濃淡画像にモデルフィッティングするモデル特徴と距離画像にモデルフィッティングするモデル特徴とをそれぞれ取得する。
濃淡画像にモデルフィッティングするモデル特徴は、図3の(e)で示した線分上に設定された間隔で均等に設定された複数のサンプル点のうち、モデルをその視点から観測して得られる画像において観測可能なものである。距離画像にモデルフィッティングするモデル特徴は、図3の(f)で示した面上に設定された間隔で均等に設定された複数のサンプル点のうち、モデルをその視点から観測して得られる画像において観測可能なものである。そのため、本実施形態では、情報処理装置100は、計測システムがモデルフィッティングに利用し得るモデル特徴について、観測特徴群との対応付けの信頼度を算出し、算出した信頼度に基づいて、候補視点の評価値を求める。そして、情報処理装置100は、求めた評価値に基づいて、候補視点の中から観測視点を選択する。こうすることで、情報処理装置100は、実際に対象オブジェクトの計測を行う計測システムに対して、好適な観測視点を提供できる。
以下では、ループ内の処理(S405〜S406)で処理対象となるモデル特徴を、対象モデル特徴とする。
S405において、観測特徴群取得部203は、対象モデル特徴と対応付けられ得る観測特徴群を取得する。以下では、対象モデル特徴が濃淡画像へのモデルフィッティングに利用されるモデル特徴である場合と距離画像へのモデルフィッティングに利用されるモデル特徴である場合と、に分けて観測特徴群の取得処理を説明する。
(対象モデル特徴と濃淡画像の観測特徴群とを対応付ける場合)
本実施形態では、観測特徴群取得部203は、対象候補視点から対象オブジェクトを撮影して得られる濃淡画像を、実際の撮影ではなく、以下の処理により取得する。即ち、観測特徴群取得部203は、仮想空間に配置した対象オブジェクトのモデルを、その仮想空間内の対象候補視点に設置されたカメラで撮影するシミュレーション処理により、濃淡画像を取得する。観測特徴群取得部203は、仮想空間内に設置したカメラのカメラパラメータを、予め設定された計測システムが実際に計測で利用するカメラのパラメータに合わせて決定する。計測システムが利用するカメラのカメラパラメータは予め、計測システムによるキャリブレーション処理で取得されているものとする。
次に、観測特徴群取得部203は、生成した濃淡画像から対象モデル特徴に対応付けられ得る観測特徴群を算出する。本実施形態では、計測システムは、計測の際に、対象モデル特徴と、対象オブジェクトを撮影して得る濃淡画像のエッジ(画素の輝度の極値)とを対応付けるものとする。そこで、本実施形態では、観測特徴群取得部203は、観測特徴として、濃淡画像のエッジを取得する。
例えば、観測特徴群取得部203は、まず、シミュレーション処理で取得した濃淡画像上に対象モデル特徴を投影する。次に、観測特徴群取得部203は、対象モデル特徴が属するエッジの方向と直交する方向に設定された範囲(設定された画素数)、濃淡画像のエッジ(画素の輝度の極値)を探索して、設定された閾値よりも大きい輝度で極値を示す画素(エッジ)を全て抽出する。ここで抽出されたエッジは、対象モデル特徴が属するエッジの方向の軸と直交する方向に設定された軸とで構成される2次元座標における点の一例である。観測特徴群取得部203は、その2次元座標上における抽出した画素の座標情報を観測特徴とする。観測特徴群取得部203は、抽出した画素全てを対象モデル特徴に対応付けられ得る観測画像特徴群とする。エッジを探索する範囲として設定された範囲は、例えば、計測システムが対象オブジェクトの計測を行う実環境で対象オブジェクトがずれ得る範囲を画像上の領域に換算した範囲である。即ち、エッジを探索する範囲として設定された範囲は、対象モデル特徴を中心に、実環境で対象オブジェクトがずれ得る範囲に対応する領域である。この領域は、対象モデル特徴の周辺に設定される周辺領域の一例である。
(対象モデル特徴と距離画像の観測特徴群とを対応付ける場合)
本実施形態では、観測特徴群取得部203は、対象候補視点から対象オブジェクトを撮影して得られる距離画像を、実際の撮影ではなく、以下の処理により取得する。即ち、観測特徴群取得部203は、仮想空間に配置した対象オブジェクトのモデルを対象候補視点に設置されたカメラで撮影するシミュレーション処理により、距離画像を取得する。観測特徴群取得部203は、仮想空間内に設置したカメラのカメラパラメータを、予め設定された計測システムが実際に計測で利用するカメラのパラメータに合わせて決定する。計測システムが利用するカメラのカメラパラメータは予め、計測システムによるキャリブレーション処理で取得されているものとする。
次に、観測特徴群取得部203は、取得した距離画像から3次元モデル特徴である対象モデル特徴に対応付けられ得る観測特徴群を算出する。本実施形態では、計測システムは、計測の際に、対象モデル特徴と、対象オブジェクトを撮影して得る距離画像の画素が示す3次元座標上の点とを対応付けるものとする。そこで、本実施形態では、観測特徴群取得部203は、観測特徴として、3次元座標上の点を取得する。以下では、3次元座標上の点を、3次元点とする。
観測特徴群取得部203は、例えば、シミュレーション処理で取得した距離画像上に対象モデル特徴を投影し、投影した対象モデル特徴の周辺に設定された矩形領域に含まれる距離画像画素が示す3次元点群を取得する。この対象モデル特徴の周辺に設定された矩形領域は、周辺領域の一例である。次に、観測特徴群取得部203は、対象モデル特徴が属する面の法線方向に設定された距離間隔で区切って複数のbinを設定する。そして、観測特徴群取得部203は、対象モデル特徴の近傍の矩形領域に基づいて取得した3次元点群を、面からの法線方向距離に基づいてbinに振り分ける。そして、観測特徴群取得部203は、要素が一つ以上含まれるすべてのbinについて、含まれる要素の3次元点の座標の平均を取った3次元点を、対象モデル特徴に対応付けられ得る観測特徴群とする。3次元点群を取得する際に利用される矩形の範囲は、例えば、計測システムが実際に対象オブジェクトを計測する場合に、対象オブジェクトがずれ得る範囲に基づいて決定される範囲である。また、binを区切る距離は、例えば、距離画像の分解能と同等の値である。
S406において、信頼度算出部204は、対象モデル特徴とS405で取得された観測特徴群との対応付けの信頼度を、観測特徴群の空間的な分布に基づいて算出する。
本実施形態では、対象モデル特徴に対応付けられ得る観測特徴群の密集度が小さいほど、対象モデル特徴と観測特徴群との対応付けは信頼度が高くなるとする。また、対象モデル特徴に対応付けられ得る観測特徴群の密集度が大きいほど、対象モデル特徴と観測特徴群との対応付けの信頼度は低くなるとする。これは、密集度が小さくなることは対応付けで間違い得る観測特徴が少なくなることを表すため、誤って対応付けられる可能性が低くなるからである。本実施形態では、信頼度算出部204は、例えば、S405で取得された観測特徴群の要素の個数を密集度として、対応付けの信頼度を密集度の逆数として算出する。
S407において、視点評価値算出部205は、S406で算出された各モデル特徴の対応付けの信頼度の統計量に基づいて、対象候補視点が実際の対象オブジェクトの計測にどの程度好適であるかを示す視点評価値を求める。統計量とは、ある集団(データ)全体の特徴や傾向を示す値であり、例えば、平均値、分散値、偏差値、中央値、最頻値、設定された閾値よりも高い値の数、設定された閾値よりも低い値の数等の値である。対応付け信頼度が高いモデル特徴が多いほど、その候補視点の評価が上がり、評価値が高くなる。視点評価値算出部205は、例えば、モデル特徴の対応付け信頼度の平均値を視点評価値とする。
S408において、計測視点選択部206は、S407で取得された視点評価値の中から最も高い視点評価値を特定し、特定した視点評価値に対応する候補視点を、観測視点として選択する。また、計測視点選択部206は、S407で取得された視点評価値の中から視点評価値が最も高いものから順に複数個を特定し、特定した視点評価値に対応する複数の候補視点を、観測視点として選択することとしてもよい。
本実施形態では、対象オブジェクトのモデル情報は、ROM120に記憶されることとした。しかし、例えば、情報処理装置100がネットワークを介して通信可能な外部のサーバ装置や記憶装置が、対象オブジェクトのモデル情報を記憶することとしてもよい。その場合、情報処理装置100は、ネットワークを介して、これらの外部の装置から対象オブジェクトのモデル情報を取得する。
本実施形態では、候補視点生成部202は、S402で、対象オブジェクトを中心においた球面を三角形の多面体で近似したジオデシックドームの各面の位置と方向を用いて候補視点を生成した。しかし、候補視点生成部202は、対象オブジェクトを中心においた球面上でランダムに、候補視点を生成してもよい。また、候補視点生成部202は、S402で、対象オブジェクトを中心においた球面を任意の多角形の多面体で近似したジオデシックドームの各面の位置と方向を用いて候補視点を生成してもよい。また、候補視点生成部202は、計測システムによる実際の計測が行われる視点が複数の既知の固定点であれば、それら複数の固定点に対応する視点を候補視点として生成してもよい。
本実施形態では、観測特徴群取得部203は、各モデル特徴と対応付けられ得る観測特徴群の取得に利用される画像を、対象オブジェクトのモデル情報と候補視点に対応するモデルとカメラの相対位置姿勢とに基づいたシミュレーション処理により取得した。しかし、観測特徴群取得部203は、計測システムが実際に計測を行う現場の環境の情報をより忠実に再現したシミュレーション処理を行ってもよい。観測特徴群取得部203は、例えば、計測が行われる現場の照明の種類や位置に関する情報も反映させたより忠実なシミュレーション処理を行うことで、対象オブジェクトの画像を生成してもよい。これにより、観測特徴群取得部203は、より実際の環境に近い観測特徴群を取得することができる。
本実施形態では、観測特徴群取得部203は、シミュレーション処理により取得された対象オブジェクトの画像から観測特徴を取得することとした。しかし、観測特徴を取得する方法に制限はない。観測特徴群取得部203は、例えば、シミュレーション処理により、対象オブジェクト全体の画像ではなく、対象オブジェクトの観測特徴を探索したい範囲のみが撮影された部分画像を生成し、生成した部分画像から観測特徴群を抽出してもよい。また、観測特徴群取得部203は、画像というデータ構造を介さないで、直接観測特徴を算出してもよい。例えば、観測特徴群取得部203は、対象オブジェクトが観測された場合にエッジになる位置を、対象オブジェクトのモデルの幾何形状から直接算出してもよい。
本実施形態では、信頼度算出部204は、モデル特徴の近傍の設定された領域内の観測特徴群の密集度、即ち、設定された領域内の観測特徴の数に基づいて、モデル特徴と観測特徴群との対応付けの信頼度を算出した。しかし、信頼度算出部204が行うモデル特徴と観測特徴群との対応付けの信頼度を算出する方法は、観測特徴群の空間的分布に基づく算出方法であれば、任意である。例えば、信頼度算出部204は、対応付けの失敗要因となる観測特徴がモデル特徴の近くにあるか否かを判断できる方法により、対応付けの信頼度を算出してもよい。信頼度算出部204は、例えば、モデル特徴の位置から二番目に近い観測特徴までの距離を、最近傍の観測特徴までの距離で除した値が大きいほど対応付けの信頼度が高くなるように、対応付けの信頼度を算出してもよい。
本実施形態では、計測システムは、情報処理装置100による本実施形態の処理により決定された観測視点を利用して、対象オブジェクトの位置姿勢の計測として、モデルフィッティングを行うこととした。しかし、計測システムは、情報処理装置100により決定された観測視点を利用して、モデルフィッティング以外の方法で、対象オブジェクトの位置姿勢を計測してもよい。計測システムは、モデルを設定された視点から対象オブジェクトを観測して得られる観測特徴に対応付けることで、対象オブジェクトの位置又は姿勢を計算する処理を行う場合、本実施形態の処理により決定された観測視点を利用できる。
例えば、計測システムが、画像中からテンプレートマッチングやSIFT特徴量、エッジの線分全体の特徴量等を用いてモデル特徴と観測特徴群との対応付けを行い、対象オブジェクトの位置姿勢を計測するとする。この場合でも、計測システムは、モデル特徴と対応付ける候補の観測特徴の空間的な位置の分布とに基づいて、本実施形態の処理により選択された観測視点を利用することができる。
モデル情報は、対象オブジェクトの位置姿勢を照合する際のモデル特徴となり得るものであれば任意である。本実施形態では、モデル情報は、頂点とエッジ、面の情報を含む情報であるとした。しかし、ROM120は、モデル情報として、複数の候補視点から撮影した対象オブジェクトの画像から得たテンプレート画像の情報やSIFT特徴量の情報を記憶することとしてもよい。
本実施形態では、視点評価値算出部205は、候補視点の視点評価値を求める方法としてモデル特徴の対応付け信頼度の平均値を、視点評価値として算出することとした。しかし、視点評価値算出部205は、平均値以外の統計量を用いてもよい。例えば、視点評価値算出部205は、対応付け信頼度が設定された閾値よりも高いモデル特徴が多くなるほど望ましいとして、設定された閾値以上の対応付け信頼度を持つモデル特徴の総数を視点評価値として算出してもよい。
本実施形態では、情報処理装置100は、距離画像及び濃淡画像を用いて、好適な計測視点を取得する処理を行った。しかし、情報処理装置100は、距離画像、濃淡画像の何れか一方を用いて、好適な計測視点を取得する処理を行ってもよい。例えば、計測システムが濃淡画像のみで対象オブジェクトを計測する処理を行う場合、情報処理装置100は、対象オブジェクトの濃淡画像に基づいて、好適な計測視点を取得する処理を行うこととしてもよい。即ち、情報処理装置100は、S406〜S407において、(対象モデル特徴と濃淡画像の観測特徴群とを対応付ける場合)で説明した処理を実行すればよい。また、計測システムが距離画像のみを用いて対象オブジェクトを計測する処理を行う場合、情報処理装置100は、S406〜S407において、(対象モデル特徴と距離画像の観測特徴群とを対応付ける場合)で説明した処理を実行すればよい。また、計測システムが濃淡画像、距離画像の他に例えば赤外線画像を加えて三種の画像を用いて、対象オブジェクトを計測する処理を行う場合、情報処理装置100は、以下のような処理を行えばよい。即ち、情報処理装置100は、S405、S406において、赤外線画像内のモデル特徴と観測特徴とを取得し、各モデル特徴と対応付けられ得る観測特徴群の空間的分布に基づいてモデル特徴の対応付け信頼度を計算する。そして、情報処理装置100は、濃淡画像、距離画像、赤外線画像について取得した全てのモデル特徴の対応付け信頼度に基づいて、視点評価値を求める処理を行えばよい。
以上、本実施形態の処理により、情報処理装置100は、対象オブジェクトを計測する際に利用される視点の中から、計測システムによる対象オブジェクトの計測に好適な視点を選択することができる。即ち、情報処理装置100は、より高い計測精度で対象オブジェクトを計測可能な好適な計測視点を選択することができる。
(変形例1−1)
視点評価値算出部205は、候補視点の視点評価値を求める方法として、モデル特徴の対応付け信頼度だけではなく、モデル特徴の空間的分布も加味した方法を実行することとしてもよい。例えば、観測特徴群との対応付け信頼度が好適なモデル特徴が空間的に均等に分布している視点が望ましい視点であるとする。視点評価値算出部205は、視点に対応するモデル特徴を一定の閾値以上の対応付け信頼度を持つモデル特徴に絞り込んだ上で、絞り込んだモデル特徴の位置に対して主成分分析を行う。そして、視点評価値算出部205は、主成分分析により得た固有値の値に基づいて、対応付けの信頼度が設定された閾値以上であるモデル特徴が空間に偏りなく分布している程、良好な値になるよう視点評価値を算出してもよい。視点評価値算出部205は、例えば、2次元のモデル特徴については第2主成分の固有値を第1主成分の固有値で除した値を視点評価値として算出してもよい。視点評価値算出部205は、このように対応付け信頼度の高いモデル特徴の空間的分布も加味することで、より正確に、高精度に対象オブジェクトを計測可能な観測視点を選択することができる。
(変形例1−2)
観測視点における計測システムの計測精度は、モデル特徴の対応付け信頼度だけではなく、対象オブジェクトを計測したときに発生し得る計測点のバラつきも影響する。対象オブジェクトの位置姿勢を決定するのに重要な特徴について、計測バラつきが大きいほど、求められる対象オブジェクトの位置姿勢のバラつきも大きくなる。そこで、モデル特徴と観測特徴群との対応付け信頼度だけではなく観測特徴の計測バラつきも加味した視点評価値の算出方法について説明する。
モデル特徴と画像上の観測特徴の対応点間の距離を最小化するフィッティングで求まる6パラメータの位置姿勢の共分散行列Sは、モデル特徴の対応付け信頼度、モデル特徴の空間的分布、観測特徴の計測バラつきによって定まる。視点評価値算出部205は、計測視点の視点評価値を、共分散行列Sの値が小さいほど、評価の高い値となるように、算出する。位置姿勢の共分散行列Sは、次の式1で求めることができる。
Figure 0006740033
Figure 0006740033
Figure 0006740033
式1、2のJは、モデル特徴位置のヤコビ行列であり、各モデル特徴の画像空間における位置の変化量を位置姿勢を表す並進移動と回転の6パラメータとで偏微分した係数行列である。式1、3のNは、モデル特徴の総数を表す。式1のσ_1、σ_2、・・・、σ_Nは、各モデル特徴に対応付けられる観測特徴の位置の分散で計測システムのノイズ特性等で決まる計測点バラつきを表す。式3のw_1、w_2、・・・、w_Nは、S406で算出された各モデル特徴の対応付け信頼度である。この観測特徴の位置のバラつきがモデルフィッティングの計測精度に伝播する式の詳細については非特許文献3に詳しく解説されている。
式1〜3で求められた位置姿勢の共分散行列Sには、並進成分と回転成分が含まれているので、このままでは他の候補視点で得られた共分散行列と大小関係を比較するのは難しい。そこで、視点評価値算出部205は、式1〜3を用いて算出した位置姿勢の共分散行列Sを、更にモデル上の最遠点(モデル上の点のうちモデル座標系において原点から最も離れた点)の3次元位置の共分散行列に換算する。そして、視点評価値算出部205は、換算した共分散行列の最大固有値の二乗根を視点評価値として算出する。このようにすることで、情報処理装置100は、対応付け信頼度だけでなく計測点バラつきによる計測精度への影響も同時に加味して、より正確に、高精度に対象オブジェクトを計測可能な計測視点を選択することができる。
(変形例1−3)
計測システムが計測する対象オブジェクトの一部が他のオブジェクト(以下では、遮蔽オブジェクト)に常に同じように遮蔽されている場合がある。例えば、計測システムが対象オブジェクトを把持するロボットによって所定の方法で把持された部品を計測する場合は、ロボットによって対象オブジェクトの一部がいつも同じように遮蔽される。このような場合、情報処理装置100は、計測システムにおける遮蔽の取り扱いに基づいて、計測視点の選択処理においても遮蔽の影響を加味することができる。
例えば、計測システムが遮蔽を伴う対象オブジェクトを計測する際に遮蔽される領域をマスキングして計測処理を行うこととする。この場合、ROM120は、予め、遮蔽オブジェクトに関する形状情報、及び遮蔽オブジェクトと対象オブジェクトの相対位置姿勢の情報を記憶する。そして、モデル情報保持部201は、対象オブジェクトのモデル情報と共に遮蔽オブジェクトに関する形状情報、及び遮蔽オブジェクトと対象オブジェクトの相対位置姿勢の情報も管理する。そして、観測特徴群取得部203は、S405で、以下のような処理を行う。即ち、観測特徴群取得部203は、モデル情報保持部201から遮蔽オブジェクトに関する形状情報、及び遮蔽オブジェクトと対象オブジェクトの相対位置姿勢の情報を取得する。観測特徴群取得部203は、取得した情報に基づいて、候補視点から撮影された対象オブジェクトの画像上で、対象オブジェクトを遮蔽オブジェクトが遮蔽している領域の情報を取得する。観測特徴群取得部203は、モデル特徴近傍の観測特徴群を取得する際に、遮蔽オブジェクトが遮蔽している領域をマスキングして残りの領域から観測特徴を取得する。
以上のような処理により、情報処理装置100は、計測システムが遮蔽を伴う対象オブジェクトを計測する場合においても計測精度のより高い計測視点を選択することができる。
(変形例1−4)
計測視点選択部206は、S408で選択した視点評価値の好適な計測視点をユーザに提示してもよい。
計測視点選択部206は、例えば、S408で選択した複数の計測視点の位置と方向を画面上に対象オブジェクトと一緒に仮想3次元空間に配置して、情報処理装置100の表示部等に表示してもよい。更に、計測視点選択部206は、任意の計測視点から観測した場合の対象オブジェクトの画像も表示することとしてもよい。図6(i)は、S408で選択された好適な計測視点をユーザに提示する画面の一例を示す図である。対象オブジェクト601に対する複数の好適な視点の位置関係を視点評価値の大小の降順に推奨視点1(視点602a)、推奨視点2(視点603a)として表示されている。計測視点選択部206は、この対象オブジェクト601を、情報処理装置100のマウスのドラッグ操作等に基づいて、任意の方向に回転させることができ、対象オブジェクトを回転させると推奨視点も追従して回転させる。また、計測視点選択部206は、別欄602b、603bで、それぞれの好適な視点からの部品の見え方を示す画像を表示している。
計測視点選択部206は、更に、選択された複数の計測視点の視点評価値も視点の位置、方向と一緒に表示することとしてもよい。図6(ii)は、S408で選択された好適な計測視点とその視点評価値をユーザに提示する画面の一例を示す図である。図6(ii)の例では、計測視点選択部206は、各候補視点と視点評価値の大小関係が一目で分かるように、以下のような処理を行う。即ち、計測視点選択部206は、対象オブジェクト604の計測視点を示すジオデシックドーム605の面上にそれぞれの視点評価値を、値が高いほど面の濃度が濃くなるようにグレースケールで表示している。計測視点選択部206は、対象オブジェクト604やジオデシックドーム605を、情報処理装置100のマウスのドラッグ操作等に基づいて、任意の方向に回転させることが可能であり、対象オブジェクトとジオデシックドームとを連動して回転させる。そして、計測視点選択部206は、任意の視点(例えば、視点603aにおいては面606)にマウスのポインタ607がマウスオーバーすると対応する視点の見え方や視点評価値、視点の位置情報等の属性情報を別欄608に表示する。
以上、説明したような好適な視点の表示方法は、あくまで一例にすぎず説明した方法に限定されない。計測視点選択部206は、例えば、視点の位置、方向の表示方法として、ジオデシックドームの面を指し示す方法の他に、ジオデシックドームを伴わずに単に視点を表すカメラオブジェクトを表示する方法で表示してもよい。また、計測視点選択部206は、視点評価値の表示方法として、ジオデシックドームの面上に濃度で表示する方法の他に視点評価値の高低を色で表してもよい。また、計測視点選択部206は、視点評価値を、ジオデシックドームを表示せずにカメラオブジェクトに色を付けたり、サイズを変えたりすることで表すようにしてもよい。
以上のように、情報処理装置100は、選択された複数の好適な視点の位置と方向、及びその視点評価値、及びその視点から観測される画像を表示することで、ユーザに提示することができる。ユーザは、表示された画面を視認することで、選択された視点から見た対象オブジェクトがどのように見えるかを容易に確認することができる。
<実施形態2>
実施形態1では、情報処理装置100は、好適な視点を求めるために候補視点におけるモデル特徴と観測特徴群との対応付けの信頼度に基づいて候補視点における視点評価値を算出した。しかし、本実施形態では、情報処理装置100は、候補視点における観測特徴の対応付けの信頼度に加えて、候補視点の周囲に設定される近傍視点におけるモデル特徴の対応付け信頼度も加味して、視点評価値を算出する。近傍視点とは、候補視点を中心に設定された微小領域に含まれる視点であり、候補視点自体も含む。
情報処理装置100は、例えば、候補視点の優劣を表す視点評価値を算出する際に、複数の候補視点それぞれの近傍視点におけるモデル特徴の対応付け信頼度を算出し、算出した信頼度の統計値、例えば信頼度の最小値に基づいて視点評価値を算出する。そして、情報処理装置100は、視点評価値が相対的に高い候補視点を、観測視点として選択する。こうすることで、情報処理装置100は、計測システムが対象オブジェクトの計測を行う際に、観測視点の近傍で微小量ずれ得ることを考慮して、高精度に計測可能な視点を選択することができる。
本実施形態の情報処理装置100のハードウェア構成は、図1と同様である。また、本実施形態の情報処理装置100の機能構成は、図2と同様である。しかし、本実施形態の候補視点生成部202、視点評価値算出部205の処理が実施形態1と異なる。本実施形態では、実施形態1と異なる点について説明する。本実施形態においては、CPU110が、ROM120等に記憶されたプログラムに基づき処理を実行することによって、図2における情報処理装置100の機能及び図7で後述するフローチャートの処理が実現される。
図7は、情報処理装置100による視点選択処理の一例を示すフローチャートである。
S701〜S703の処理は、S401〜S403の処理と同様である。
S704において、候補視点生成部202は、候補視点の周囲に複数の近傍視点を生成する。候補視点生成部202は、例えば、各候補視点を生成するのに使用したジオデシックドームで、候補視点近傍においてのみ多面体の分割粒度を細かくする。そして、候補視点生成部202は、分割粒度を細かくした部分の分割面それぞれに対応する視点を、近傍視点として生成する。
S705において、信頼度算出部204は、S704で生成された近傍視点毎にS706〜S708の処理を繰り返すよう制御する。以下では、S706〜S708の処理対象となっている近傍視点を、対象近傍視点とする。
S706において、信頼度算出部204は、S701で取得された対象オブジェクトのモデル情報からモデル特徴を取得し、取得したモデル特徴毎に、S707〜S708の処理を行うよう制御する。以下では、S707〜S708の処理の対象となっているモデル特徴を、対象モデル特徴とする。
S707において、観測特徴群取得部203は、S405と同様に、対象近傍視点に基づいて得られた画像から対象モデル特徴と対応付けられ得る観測特徴群を取得する。
S708において、信頼度算出部204は、S406と同様に観測特徴群の空間的な分布に基づいて、対象モデル特徴の対応付け信頼度を算出する。
S709において、視点評価値算出部205は、対象候補視点の視点評価値を計算する。視点評価値算出部205は、例えば、対象候補視点の各近傍視点においてS407と同様の処理で、各近傍視点の視点評価値を計算する。更に、視点評価値算出部205は、各近傍視点で求めた視点評価値の中から最も低い評価値を対象候補視点の評価値とする。即ち、計測視点選択部206は、各候補視点において条件が好適でない場合の評価値に基づいて、計測視点を選択することになる。これにより、計測視点選択部206は、最も条件が劣化した場合に備えて、計測視点を選択できるようになる。
S710において、計測視点選択部206は、S408と同様に、候補視点の中で視点評価値が相対的に高い候補視点を選択する。例えば、計測視点選択部206は、候補視点の中から視点評価値が最も高い1つの視点を計測視点として選択する。また、計測視点選択部206は、候補視点の中から視点評価値が最も高い2つ、3つ等の複数の視点を計測視点として選択することとしてもよい。
本実施形態における各候補視点のまわりの近傍視点を生成する手段は、計測システムが計測できるよう対象オブジェクトを設置するときにずれ得る視点の範囲で近傍視点を複数生成できるものであればその方法に制限はない。S704で説明した各候補視点を生成するのに使用したジオデシックドームで当該候補視点近傍においてのみ多面体の分割粒度を細かくして複数の視点を生成する方法はその一例である。しかし、候補視点生成部202は、他にも例えば対象オブジェクトを中心においた球面上でランダムに、近傍視点を生成してもよい。また、候補視点生成部202は、計測システムがロボットで把持した対象オブジェクトを計測する場合には、把持ずれが生じうる方向の所定の範囲内の領域で、近傍視点を生成してもよい。
以上、本実施形態の処理により、情報処理装置100は、計測システムが計測を行う際に視点の近傍で微小量ずれた場合においてもより高精度に計測可能な計測視点を選択することができる。
<実施形態3>
実施形態1では、情報処理装置100は、候補視点の視点評価値をシミュレーション処理により生成された濃淡画像及び距離画像に基づいて算出することとした。しかし、本実施形態では、情報処理装置100は、候補視点で実際に計測システムが対象オブジェクトを観測して得られた観測情報に基づいて視点評価値を計算する。こうすることで、情報処理装置100は、シミュレーションで再現することが困難な観測情報に及ぼす要因、例えば、モデル化されていない照明の影響や対象オブジェクトの表面の反射ムラ等も加味した対象オブジェクトの濃淡画像及び距離画像を取得できる。これにより、情報処理装置100は、より正確に、好適な計測視点を選択することができる。
本実施形態の計測システムの外観を図8に示す。計測システムは、ロボット制御装置802、ロボット803、計測装置805、情報処理装置100を含む。ロボット制御装置802は、情報処理装置801から受け取る命令に基づいてロボット803を動作させる。ロボット803は、対象オブジェクト804を把持し、対象オブジェクトの位置、姿勢を制御する。計測装置805は、情報処理装置100によって選択された候補視点で対象オブジェクトの計測を行うカメラ等の計測装置である。ロボット803、計測装置805、情報処理装置は、ネットワーク等を介して、相互に接続されている。情報処理装置100のハードウェア構成は、実施形態1と同様である。本実施形態においては、CPU110が、ROM120等に記憶されたプログラムに基づき処理を実行することによって、図9で後述する情報処理装置100の機能及び図4のフローチャートの処理が実現される。
図9は、本実施形態の情報処理装置100の機能構成等の一例を示す図である。情報処理装置100は、モデル情報保持部901、候補視点生成部902、観測特徴群取得部903、信頼度算出部904、計測視点選択部906を含む。モデル情報保持部901、候補視点生成部902、信頼度算出部904、計測視点選択部906は、実施形態1のモデル情報保持部201、候補視点生成部202、信頼度算出部204、計測視点選択部206と同様の機能構成要素である。観測特徴群取得部903は観測特徴群取得部203と異なる。実施形態1と異なる要素について説明する。
観測特徴群取得部903は、計測装置805と通信を行い、計測装置805から取得した対象オブジェクトの撮影画像等の観測情報に基づいて、観測特徴群を取得する。視点評価値算出部905は、ロボット制御装置802と通信を行い、計測装置805が対象オブジェクトを計測する視点が各候補視点と同じ視点になるように、ロボット803に対象オブジェクトの位置、姿勢を制御させるよう命令を出す。そして、観測特徴群取得部903は、計測装置805から、対象オブジェクトの撮影画像を取得し、取得した撮影画像から更に濃淡画像と距離画像とを取得し、各候補視点における観測特徴群を取得する。また、観測特徴群取得部903は、計測装置805がモノクロカメラ等を含む場合、計測装置805が撮影した濃淡画像を、計測装置805から取得してもよい。また、観測特徴群取得部903は、計測装置805が距離画像カメラ等を含む場合、計測装置805が直接撮影した距離画像を、計測装置805から取得してもよい。
次に、本実施形態の情報処理装置100が実施する処理を説明する。基本的な処理の流れは図4の手順と同様であるが、実施形態1との差異について説明する。ロボット803と計測装置805間の相対位置姿勢、及び計測システムのカメラパラメータは、予めキャリブレーション済みであるとする。また、ロボット803の対象オブジェクト804の把持の仕方は、予め決定されており、このときの対象オブジェクト804とロボット803との相対位置、姿勢も既知であるとする。したがって、計測システムが任意の視点で計測する際の計測装置805と対象オブジェクト804との相対位置、姿勢も既知であるとする。
この場合、S403において各候補視点における視点評価値を算出するループを実行する際に、視点評価値算出部905は、対象候補視点を実現する相対位置姿勢になるよう対象オブジェクト804を、ロボットを介して移動させる。そして、観測特徴群取得部903は、S405では対象候補視点において計測装置805から取得した観測情報に対して、観測特徴群を取得する。その他の処理は、実施形態1と同様である。
本実施形態では、計測システムは、所望の視点になるようにロボット803を介して対象オブジェクト804を把持して移動させたが、任意の視点を実現する方法は必ずしもこの方法でなくてもよい。計測システムは、静的に配置されている対象オブジェクト804に対して、計測装置805を動かして候補視点を実現してもよい。また、計測システムは、双腕ロボットや複数のロボットを使って対象オブジェクト804と計測装置805とを共に動かすことで所望の視点を実現することとしてもよい。
以上、本実施形態の処理により、情報処理装置100は、実際の対象オブジェクト804の撮影画像から観測特徴群を取得し、取得した観測特徴群に基づいて、各モデル特徴との対応付けの信頼度、各候補視点の視点評価値を算出することができる。これにより、情報処理装置100は、シミュレーションで再現することが困難な事象、例えば、モデル化されていない照明の影響や対象オブジェクトの表面の反射ムラ等も加味した上で、より正確に、好適な計測視点を選択することができる。
(変形例3−1)
本実施形態のロボット803は、対象オブジェクトの位置、姿勢を制御することで、計測装置805が対象オブジェクトを計測する視点が各候補視点となるように制御することを目的とする。そのため、計測システムは、対象オブジェクトの位置、姿勢を制御するために、必ずしもロボットを用いる必要はない。計測システムは、対象オブジェクトを、ある軸上を並進移動させたり、ある軸のまわりに回転をさせたりするステージを用いて候補視点を再現することとしてもよい。これにより、計測システムは、ロボットよりも簡素な装置を用いて、対象オブジェクト804の実際の撮影画像を取得することができる。
<実施形態4>
実施形態1〜3では、高精度に位置姿勢を計測できる好適な視点を選択する方法を説明したが、本実施形態では実施形態1〜3で説明した方法で得た好適な視点を利用して、計測を行う計測システムについて説明する。計測システムは、情報処理装置100を含み、情報処理装置100が選択した視点の情報に基づいて、実際に対象オブジェクトを計測する。こうすることで、ユーザが計測システムに対して、情報処理装置100が選択した視点の情報を入力等する手間を省くことができる。
以降、本実施形態の処理について説明する。なお、計測システムが有するロボット803と計測装置805との相対位置姿勢、及び計測装置805のカメラパラメータは、予めキャリブレーション済みであるとする。また、対象オブジェクト804の把持の仕方は予め決定されており、このときの対象オブジェクト804とロボットの相対位置姿勢も既知であるとする。したがって、任意の視点で計測する際の計測装置805と対象オブジェクト804との相対位置姿勢は既知であるとする。
本実施形態の計測システムのシステム構成は、実施形態3と同様であり、図8に示した通りである。本実施形態においては、CPU110が、ROM120等に記憶されたプログラムに基づき処理を実行することによって、図2及び後述する図10の情報処理装置100の機能及び図4のフローチャートの処理が実現される。
図10は、本実施形態の情報処理装置100において、オブジェクトの位置姿勢を計測するための機能構成等の一例を示す図である。情報処理装置100は、計測視点決定部1001、位置姿勢計測部1002、モデル情報保持部1003を含む。計測視点決定部1001は、S408において最も視点評価値の高い候補視点を出力する機能構成要素であり、図2の各機能構成要素を含む。位置姿勢計測部1002は、計測視点決定部1001によって決定された計測視点を実現するようロボット制御装置802に命令を送る。そして、ロボット制御装置802は、送られた命令に応じて、ロボット803の位置、姿勢を制御して、対象オブジェクト804と計測装置805との相対位置姿勢を調整する。モデル情報保持部1003は、対象オブジェクト804のモデル情報を管理する。そして、情報処理装置100は、計測装置1004から取得した観測情報とモデル情報保持部1003から取得したモデル情報を照合することで対象オブジェクト804の位置姿勢計測を行う。
本実施形態では、計測視点決定部1001は、実施形態1と同様に、最も視点評価値の高い計測視点を、最終的な計測視点として決定するとしたが、実施形態2、3と同様の方法で、最終的な計測視点を決定することとしてもよい。
以上、本実施形態の処理により、計測システムは、ユーザによる計測システムに対しての情報処理装置100が選択した計測視点の情報の入力等の手間を省くことができる。これにより、計測システムは、ユーザの判断を介さずに、好適な計測視点を用いて対象オブジェクト804の位置姿勢を計測することができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
例えば、上述した計測システムの機能構成の一部又は全てをハードウェアとして情報処理装置100に実装してもよい。
100 情報処理装置
110 CPU

Claims (20)

  1. オブジェクトの特徴を含むモデル情報に基づいて、前記オブジェクトを複数の候補視点のそれぞれから観測して得られるべき前記オブジェクトの特徴を表すモデル特徴を生成する生成手段と、
    前記オブジェクトを前記複数の候補視点のそれぞれから撮影した画像から得られる特徴を表す画像特徴を取得する取得手段と、
    前記モデル特徴と前記画像特徴との対応関係に基づいて、前記複数の候補視点のそれぞれを評価する評価手段と、
    前記複数の候補視点のそれぞれ対する前記評価手段による評価の結果に基づいて、前記複数の候補視点から前記オブジェクトを計測すべき1つ以上の計測視点を選択する選択手段と、
    を有する情報処理装置。
  2. 前記複数の候補視点のそれぞれに対して、前記モデル特徴ごとに前記画像特徴との対応関係の信頼度を導出する導出手段をさらに備え、
    前記評価手段は、1つの候補視点に対する前記モデル特徴ごとの信頼度に基づいて、前記候補視点を評価する請求項1記載の情報処理装置。
  3. 前記取得手段は、前記複数の候補視点のそれぞれに対して、前記モデル特徴の周辺領域に含まれる特徴群を、前記モデル特徴に対応付けられる画像特徴として取得し、
    前記導出手段は、前記特徴群の密集度に基づいて前記信頼度を導出する請求項2記載の情報処理装置。
  4. 前記評価手段は、前記複数の候補視点のそれぞれ毎に、前記導出手段により導出された信頼度の統計量に基づいて、前記複数の候補視点それぞれについて、計測精度の評価値を取得する請求項記載の情報処理装置。
  5. 前記評価手段は、前記信頼度の平均値を前記信頼度の統計量として取得する請求項記載の情報処理装置。
  6. 前記評価手段は、前記導出手段により導出された信頼度のうち、設定された閾値よりも高い信頼度の数を前記統計量として取得する請求項記載の情報処理装置。
  7. 前記評価手段は、前記導出手段により導出された信頼度と、前記モデル特徴の分布とに基づいて、前記複数の候補視点それぞれについて、計測精度の評価値を取得する請求項記載の情報処理装置。
  8. 前記導出手段は、前記信頼度を前記モデル特徴ごとに導出し、
    前記評価手段は、前記信頼度の値が設定された閾値以上であるモデル特徴の分布の偏りが小さい程、計測精度の評価が高くなるように、前記複数の候補視点それぞれの計測精度の評価値を取得する請求項記載の情報処理装置。
  9. 前記取得手段は、前記複数の画像それぞれから、前記モデル特徴に対応付けられる次元座標上の特徴群を取得する請求項1記載の情報処理装置。
  10. 前記取得手段は、前記複数の画像それぞれから、前記モデル特徴に対応付けられる3次元座標上の特徴群を取得する請求項1記載の情報処理装置。
  11. 前記モデル特徴は、前記オブジェクトのエッジ上に設定されている特徴であり、
    前記取得手段は、前記複数の候補視点のそれぞれから撮影した濃淡画像から取得されるエッジを示す画像特徴と、前記モデル特徴に対応付けられて取得する請求項1記載の情報処理装置。
  12. 前記モデル特徴は、前記オブジェクトの面上に設定されている特徴であり、
    前記取得手段は、前記複数の候補視点のそれぞれから撮影した距離画像から取得された特徴である画像特徴と、前記モデル特徴に対応付けられて取得する請求項1記載の情報処理装置。
  13. 前記取得手段は、前記複数の候補視点のそれぞれから撮影した画像に対して、前記モデル特徴に対応付けられるそれぞれが設定された2次元座標上の点、又は設定された3次元座標上の点である特徴群を取得する請求項1記載の情報処理装置。
  14. 前記モデル特徴は、前記オブジェクトのエッジ上の点、及び面上の点であり、
    前記取得手段は、前記複数の候補視点のそれぞれから撮影した画像に対して、前記モデル特徴に対応付けられるそれぞれが2次元座標上の点、及び3次元座標上の点である特徴群を抽出する請求項1記載の情報処理装置。
  15. 前記取得手段は、前記複数の候補視点それぞれの周囲に複数の近傍視点を設定して、更に前記近傍視点に係る前記オブジェクトが撮影された画像の画像特徴を取得し、
    前記評価手段は、更に、前記導出手段により導出された前記近傍視点に係る信頼度に基づいて、前記複数の候補視点それぞれの計測精度の評価値を取得する請求項記載の情報処理装置。
  16. 前記評価手段は、前記候補視点の周囲の複数の近傍視点の前記評価値を取得し、前記近傍視点の前記評価値のうち最も低い評価値を当該候補視点の評価値として取得する請求項15記載の情報処理装置。
  17. 前記選択手段により前記計測視点として選択された視点の情報を、表示部に表示する表示手段を更に有する請求項1記載の情報処理装置。
  18. 請求項1乃至17何れか1項記載の情報処理装置と、
    前記選択手段により選択された前記計測視点に基づいて、前記オブジェクトを計測する計測手段と、
    を有する計測システム。
  19. 情報処理装置が実行する情報処理方法であって、
    オブジェクトの特徴を含むモデル情報に基づいて、前記オブジェクトを複数の候補視点のそれぞれから観測して得られるべき前記オブジェクトの特徴を表すモデル特徴を生成する生成工程と、
    前記オブジェクトを前記複数の候補視点のそれぞれから撮影した画像から得られる特徴を表す画像特徴を取得する取得工程と、
    前記モデル特徴と前記画像特徴との対応関係に基づいて、前記複数の候補視点のそれぞれを評価する評価工程と、
    前記複数の候補視点のそれぞれ対する前記評価工程での評価の結果に基づいて、前記複数の候補視点から前記オブジェクトを計測すべき1つ以上の計測視点を選択する選択工程と、
    含む情報処理方法
  20. コンピュータを、
    オブジェクトの特徴を含むモデル情報に基づいて、前記オブジェクトを複数の候補視点のそれぞれから観測して得られるべき前記オブジェクトの特徴を表すモデル特徴を生成する生成手段と、
    前記オブジェクトを前記複数の候補視点のそれぞれから撮影した画像から得られる特徴を表す画像特徴を取得する取得手段と、
    前記モデル特徴と前記画像特徴との対応関係に基づいて、前記複数の候補視点のそれぞれを評価する評価手段と、
    前記複数の候補視点のそれぞれ対する前記評価手段による評価の結果に基づいて、前記複数の候補視点から前記オブジェクトを計測すべき1つ以上の計測視点を選択する選択手段と、
    として機能させるためのプログラム。
JP2016127780A 2016-06-28 2016-06-28 情報処理装置、計測システム、情報処理方法及びプログラム Active JP6740033B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016127780A JP6740033B2 (ja) 2016-06-28 2016-06-28 情報処理装置、計測システム、情報処理方法及びプログラム
US15/634,301 US10497111B2 (en) 2016-06-28 2017-06-27 Information processing apparatus and method of selecting viewpoint for measuring object, and measuring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016127780A JP6740033B2 (ja) 2016-06-28 2016-06-28 情報処理装置、計測システム、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2018004310A JP2018004310A (ja) 2018-01-11
JP2018004310A5 JP2018004310A5 (ja) 2019-07-25
JP6740033B2 true JP6740033B2 (ja) 2020-08-12

Family

ID=60677804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016127780A Active JP6740033B2 (ja) 2016-06-28 2016-06-28 情報処理装置、計測システム、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US10497111B2 (ja)
JP (1) JP6740033B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016046642A (ja) * 2014-08-21 2016-04-04 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム
US9868212B1 (en) * 2016-02-18 2018-01-16 X Development Llc Methods and apparatus for determining the pose of an object based on point cloud data
JP6684475B2 (ja) * 2017-03-13 2020-04-22 オムロン株式会社 画像処理装置、画像処理方法及びプログラム
JP2019063984A (ja) * 2017-10-02 2019-04-25 キヤノン株式会社 情報処理装置、方法及びロボットシステム
US11144786B2 (en) 2017-11-02 2021-10-12 Canon Kabushiki Kaisha Information processing apparatus, method for controlling information processing apparatus, and storage medium
EP3764635A4 (en) * 2018-03-06 2021-07-14 FUJIFILM Corporation PHOTOGRAPHING DEVICE, PHOTOGRAPHING METHOD, PHOTOGRAPHING PROGRAM, AND PHOTOGRAPHING SYSTEM
EP3764634A4 (en) 2018-03-06 2021-04-28 FUJIFILM Corporation PHOTOGRAPHIC EVALUATION CARD, DEVICE FOR CREATING A PHOTOGRAPHIC EVALUATION CARD, PROCESS FOR CREATING A PHOTOGRAPHIC EVALUATION CARD AND PROGRAM FOR CREATING A PHOTOGRAPHIC EVALUATION CARD
JP6929241B2 (ja) * 2018-04-16 2021-09-01 Kddi株式会社 選択装置、選択方法及び選択プログラム
JP7178803B2 (ja) 2018-06-04 2022-11-28 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
JP7010778B2 (ja) * 2018-06-29 2022-01-26 国立大学法人東海国立大学機構 観測位置推定装置、その推定方法、及びプログラム
US11003939B2 (en) 2018-07-06 2021-05-11 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP2020134242A (ja) * 2019-02-15 2020-08-31 オリンパス株式会社 計測方法、計測装置、およびプログラム
WO2021010181A1 (ja) * 2019-07-17 2021-01-21 日立金属株式会社 検査装置、検査方法、位置決め方法、およびプログラム
JP2022056085A (ja) 2020-09-29 2022-04-08 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5746477B2 (ja) * 2010-02-26 2015-07-08 キヤノン株式会社 モデル生成装置、3次元計測装置、それらの制御方法及びプログラム
JP5854815B2 (ja) * 2011-12-20 2016-02-09 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6004809B2 (ja) * 2012-03-13 2016-10-12 キヤノン株式会社 位置姿勢推定装置、情報処理装置、情報処理方法
JP6363863B2 (ja) 2014-04-15 2018-07-25 キヤノン株式会社 情報処理装置および情報処理方法
JP6317618B2 (ja) 2014-05-01 2018-04-25 キヤノン株式会社 情報処理装置およびその方法、計測装置、並びに、作業装置
JP6397226B2 (ja) 2014-06-05 2018-09-26 キヤノン株式会社 装置、装置の制御方法およびプログラム
JP6426968B2 (ja) 2014-10-08 2018-11-21 キヤノン株式会社 情報処理装置およびその方法
JP6573354B2 (ja) 2014-11-28 2019-09-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6494331B2 (ja) 2015-03-03 2019-04-03 キヤノン株式会社 ロボット制御装置およびロボット制御方法
US9877012B2 (en) * 2015-04-01 2018-01-23 Canon Kabushiki Kaisha Image processing apparatus for estimating three-dimensional position of object and method therefor
US10171730B2 (en) 2016-02-15 2019-01-01 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and storage medium

Also Published As

Publication number Publication date
JP2018004310A (ja) 2018-01-11
US20170372466A1 (en) 2017-12-28
US10497111B2 (en) 2019-12-03

Similar Documents

Publication Publication Date Title
JP6740033B2 (ja) 情報処理装置、計測システム、情報処理方法及びプログラム
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
JP6681729B2 (ja) オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム
JP6594129B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6635690B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10189162B2 (en) Model generation apparatus, information processing apparatus, model generation method, and information processing method
JP6573354B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP4976756B2 (ja) 情報処理方法および装置
JP5746477B2 (ja) モデル生成装置、3次元計測装置、それらの制御方法及びプログラム
JP6688088B2 (ja) 情報処理装置およびその制御方法
CN105818167A (zh) 采用远距数字摄像头校准铰接的末端执行器的方法
JP6487642B2 (ja) 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
US20180290300A1 (en) Information processing apparatus, information processing method, storage medium, system, and article manufacturing method
JP7057971B2 (ja) 動物体の体重推定装置及び体重推定方法
JP2003269913A (ja) センサ較正装置、センサ較正方法、プログラム、記憶媒体
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP5726024B2 (ja) 情報処理方法および装置
JP6109213B2 (ja) 情報処理装置および方法、プログラム
JP6643416B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN115862124A (zh) 视线估计方法、装置、可读存储介质及电子设备
CN115049744A (zh) 机器人手眼坐标转换方法、装置、计算机设备和存储介质
CN112347837A (zh) 图像处理系统
JP7376201B1 (ja) 情報処理システム、情報処理方法及びプログラム
US20240083038A1 (en) Assistance system, image processing device, assistance method and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190620

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200722

R151 Written notification of patent or utility model registration

Ref document number: 6740033

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151