JP6740033B2 - 情報処理装置、計測システム、情報処理方法及びプログラム - Google Patents
情報処理装置、計測システム、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP6740033B2 JP6740033B2 JP2016127780A JP2016127780A JP6740033B2 JP 6740033 B2 JP6740033 B2 JP 6740033B2 JP 2016127780 A JP2016127780 A JP 2016127780A JP 2016127780 A JP2016127780 A JP 2016127780A JP 6740033 B2 JP6740033 B2 JP 6740033B2
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint
- feature
- model
- information processing
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W84/00—Network topologies
- H04W84/02—Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W84/00—Network topologies
- H04W84/02—Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
- H04W84/04—Large scale networks; Deep hierarchical networks
- H04W84/06—Airborne or Satellite Networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Description
非特許文献1では、オブジェクトの形状をレーザーレンジセンサーで計測する際のセンサーの計測点バラつきが物体の位置姿勢計測結果に与える影響を計算し、最も精度良く計測できる視点を求める方法が開示されている。
本発明は、高精度にオブジェクトを計測可能な視点をより正確に求めることを目的とする。
図1は、本実施形態の情報処理装置100のハードウェア構成の一例を示す図である。情報処理装置100は、CPU110、読み出し専用メモリ(ROM)120、ランダムアクセスメモリ(RAM)130、入力I/F140、出力I/F150を含む。CPU110、読み出し専用メモリ(ROM)120、ランダムアクセスメモリ(RAM)130、入力I/F140、出力I/F150は、システムバス160を介して、相互に接続されている。
CPU110は、システムバス160を介して接続される各デバイスを統括的に制御する中央演算装置である。CPU110は、ROM120に記憶された各種プログラムを読み出して実行する。ROM120は、オペレーティングシステム(OS)のプログラムをはじめ、本実施形態に係る各処理のプログラム、デバイスドライバのプログラム、各種設定情報、各種閾値の情報、対象オブジェクトのモデル情報等を記憶する記憶装置である。対象オブジェクトとは、計測対象のオブジェクトである。また、RAM130は、CPU110のワークエリアやデータの一時記憶領域として利用される記憶装置である。CPU110は、ROM120から取得した各種プログラムを、RAM130に一時記憶し、適宜実行する。
本実施形態においては、CPU110が、ROM120等に記憶されたプログラムに基づき処理を実行することによって、図2で後述する情報処理装置100の機能及び図4で後述するフローチャートの処理が実現される。また例えば、情報処理装置100は、CPU110が実行するプログラムの処理の代替としてハードウェアを有することとしてもよい。その場合には、情報処理装置100は、CPU110が実行するプログラムの処理に対応する演算部や回路を有することとしてもよい。
本実施形態では、情報処理装置100が距離画像と濃淡画像とを併用し、高い計測精度で計測対象のオブジェクトを計測可能な好適な計測視点を選択する処理を説明する。本実施形態では、情報処理装置100は、対象オブジェクトの距離画像と濃淡画像とを取得する。本実施形態では、情報処理装置100は、モデルエッジ上でサンプリングされた点を2次元画像上に投影されたモデル特徴と濃淡画像上の特徴との対応付けを行う。また、情報処理装置100は、対象オブジェクトのモデルの面上でサンプリングされたモデル特徴と距離画像上の特徴との対応付けを行う。情報処理装置100は、モデル特徴と対応付けられた特徴の分布に基づいて、対象オブジェクトのモデルの位置姿勢を求める最適化計算を行うものである。距離画像と濃淡画像とを併用してモデルフィッティングを行う方法の詳細については、例えば非特許文献2に開示されている。
以下では、対象オブジェクトのモデル上に設定された特徴を、モデル特徴とする。モデル特徴とは、対象オブジェクトに対して設定される特徴である。また、以下では、モデル特徴が2次元画像上に投影された特徴を、2次元モデル特徴とする。また、以下では、モデル特徴が3次元画像上に投影された特徴を、3次元モデル特徴とする。また、以下では、対象オブジェクトが撮影された画像中から抽出される対象オブジェクトの特徴を、観測特徴とする。また、対象オブジェクトが撮影された2次元画像中から抽出される対象オブジェクトの特徴を、2次元観測特徴とする。また、対象オブジェクトが撮影された3次元画像中から抽出される対象オブジェクトの特徴を、3次元観測特徴とする。また、以下では、計測システムが対象オブジェクトを観測する際の視点を、観測視点とする。また、以下では、観測視点の候補である視点を候補視点とする。
更に、情報処理装置100は、各候補視点における各モデル特徴の対応付け信頼度の統計量に基づいて候補視点の優劣を示す視点評価値を算出する。本実施形態では、情報処理装置100は、信頼度の統計量として平均値を用いる。ある候補視点での複数のモデル特徴の対応付け信頼度の平均値が高ければ、その候補視点では、モデル特徴と観測特徴とが概して正しく対応付けることが可能であるため、その視点で行う計測の精度は、相対的に高い。このようにして、情報処理装置100は、計測精度が好適な観測視点を選択することができる。
モデル情報保持部201は、ROM120等に記憶されている対象オブジェクトのモデル情報を管理する。モデル情報とは、対象オブジェクトの形状に関する情報である。本実施形態では、モデル情報は、対象オブジェクトの形状を特定するための情報、対象オブジェクトに設定されているモデル特徴の情報を含む。
候補視点生成部202は、複数の候補視点を生成する。候補視点生成部202により生成された候補視点は、視点評価値算出部205が視点の優劣を表す視点評価値を計算する対象である。
観測特徴群取得部203は、設定された視点でオブジェクトを撮影したときに得られる画像から得られる観測特徴のうち、任意のモデル特徴と対応付けられ得る観測特徴群を取得する。
信頼度算出部204は、モデル特徴と観測特徴群との対応付けの信頼度を算出する。本実施形態では、信頼度算出部204は、モデル情報に含まれる各モデル特徴と観測特徴群取得部203により取得された観測特徴との対応付けの信頼度を算出する。対応付けの信頼度が高いほど、そのモデル特徴に対応付けられる観測特徴が正しい可能性が高いことを表す。一方対応付け信頼度が低いほど、そのモデル特徴に対応付けられる観測特徴が誤っている可能性が高いことを表す。
計測視点選択部206は、候補視点の中から、視点評価値算出部205により算出された視点評価値に基づいて、計測視点を一つ以上選択する。
ROM120等に予め記憶されている対象オブジェクトのモデル情報の一例について、図3を用いて説明する。図3(a)〜(c)は、同一対象オブジェクトのモデルの点、線、面をそれぞれ示す図である。図3(d)は、図3(a)に対応するモデルの各頂点情報を示す図である。図3(e)は、図3(b)に対応するモデルの各辺となる線情報を示す図である。図3(f)は、図3(c)に対応するモデルの各面情報を示す図である。更に、モデル情報には図3(f)に示すようにモデルを構成する面の法線の情報が含まれている。
S401において、モデル情報保持部201は、対象オブジェクトのモデル情報をROM120等から取得する。
S402において、候補視点生成部202は、対象オブジェクトを計測する候補視点を複数生成する。本実施形態では、候補視点生成部202は、図5に示すように適当な半径(例えば、実際の計測が行われる場合の計測システムの撮像装置から対象オブジェクト501までの距離)の球面を三角形の多面体で近似したジオデシックドーム502を生成する。そして、候補視点生成部202は、その各三角面の位置と方向とで視点を定義する。候補視点生成部202は、定義した視点から、候補視点となる視点を生成する。例えば、候補視点生成部202は、定義した視点全てを候補視点として生成してもよいし、定義した視点からランダムに設定された数の視点を選択し、選択した視点を候補視点として生成してもよい。視点503〜506は、候補視点生成部202により生成された視点の一部を示している。
S404において、信頼度算出部204は、S401で取得された対象オブジェクトのモデル情報からモデル特徴を取得し、取得したモデル特徴それぞれについて、S405〜S406の処理を行うよう制御する。情報処理装置100が選択する計測視点を利用して実際の対象オブジェクトの計測を行う計測システムが距離画像・濃淡画像併用方式のモデルフィッティングを採用する場合、計測システムは、以下の処理を行う。即ち、計測システムは、濃淡画像にモデルフィッティングするモデル特徴と距離画像にモデルフィッティングするモデル特徴とをそれぞれ取得する。
以下では、ループ内の処理(S405〜S406)で処理対象となるモデル特徴を、対象モデル特徴とする。
本実施形態では、観測特徴群取得部203は、対象候補視点から対象オブジェクトを撮影して得られる濃淡画像を、実際の撮影ではなく、以下の処理により取得する。即ち、観測特徴群取得部203は、仮想空間に配置した対象オブジェクトのモデルを、その仮想空間内の対象候補視点に設置されたカメラで撮影するシミュレーション処理により、濃淡画像を取得する。観測特徴群取得部203は、仮想空間内に設置したカメラのカメラパラメータを、予め設定された計測システムが実際に計測で利用するカメラのパラメータに合わせて決定する。計測システムが利用するカメラのカメラパラメータは予め、計測システムによるキャリブレーション処理で取得されているものとする。
例えば、観測特徴群取得部203は、まず、シミュレーション処理で取得した濃淡画像上に対象モデル特徴を投影する。次に、観測特徴群取得部203は、対象モデル特徴が属するエッジの方向と直交する方向に設定された範囲(設定された画素数)、濃淡画像のエッジ(画素の輝度の極値)を探索して、設定された閾値よりも大きい輝度で極値を示す画素(エッジ)を全て抽出する。ここで抽出されたエッジは、対象モデル特徴が属するエッジの方向の軸と直交する方向に設定された軸とで構成される2次元座標における点の一例である。観測特徴群取得部203は、その2次元座標上における抽出した画素の座標情報を観測特徴とする。観測特徴群取得部203は、抽出した画素全てを対象モデル特徴に対応付けられ得る観測画像特徴群とする。エッジを探索する範囲として設定された範囲は、例えば、計測システムが対象オブジェクトの計測を行う実環境で対象オブジェクトがずれ得る範囲を画像上の領域に換算した範囲である。即ち、エッジを探索する範囲として設定された範囲は、対象モデル特徴を中心に、実環境で対象オブジェクトがずれ得る範囲に対応する領域である。この領域は、対象モデル特徴の周辺に設定される周辺領域の一例である。
本実施形態では、観測特徴群取得部203は、対象候補視点から対象オブジェクトを撮影して得られる距離画像を、実際の撮影ではなく、以下の処理により取得する。即ち、観測特徴群取得部203は、仮想空間に配置した対象オブジェクトのモデルを対象候補視点に設置されたカメラで撮影するシミュレーション処理により、距離画像を取得する。観測特徴群取得部203は、仮想空間内に設置したカメラのカメラパラメータを、予め設定された計測システムが実際に計測で利用するカメラのパラメータに合わせて決定する。計測システムが利用するカメラのカメラパラメータは予め、計測システムによるキャリブレーション処理で取得されているものとする。
次に、観測特徴群取得部203は、取得した距離画像から3次元モデル特徴である対象モデル特徴に対応付けられ得る観測特徴群を算出する。本実施形態では、計測システムは、計測の際に、対象モデル特徴と、対象オブジェクトを撮影して得る距離画像の画素が示す3次元座標上の点とを対応付けるものとする。そこで、本実施形態では、観測特徴群取得部203は、観測特徴として、3次元座標上の点を取得する。以下では、3次元座標上の点を、3次元点とする。
観測特徴群取得部203は、例えば、シミュレーション処理で取得した距離画像上に対象モデル特徴を投影し、投影した対象モデル特徴の周辺に設定された矩形領域に含まれる距離画像画素が示す3次元点群を取得する。この対象モデル特徴の周辺に設定された矩形領域は、周辺領域の一例である。次に、観測特徴群取得部203は、対象モデル特徴が属する面の法線方向に設定された距離間隔で区切って複数のbinを設定する。そして、観測特徴群取得部203は、対象モデル特徴の近傍の矩形領域に基づいて取得した3次元点群を、面からの法線方向距離に基づいてbinに振り分ける。そして、観測特徴群取得部203は、要素が一つ以上含まれるすべてのbinについて、含まれる要素の3次元点の座標の平均を取った3次元点を、対象モデル特徴に対応付けられ得る観測特徴群とする。3次元点群を取得する際に利用される矩形の範囲は、例えば、計測システムが実際に対象オブジェクトを計測する場合に、対象オブジェクトがずれ得る範囲に基づいて決定される範囲である。また、binを区切る距離は、例えば、距離画像の分解能と同等の値である。
本実施形態では、対象モデル特徴に対応付けられ得る観測特徴群の密集度が小さいほど、対象モデル特徴と観測特徴群との対応付けは信頼度が高くなるとする。また、対象モデル特徴に対応付けられ得る観測特徴群の密集度が大きいほど、対象モデル特徴と観測特徴群との対応付けの信頼度は低くなるとする。これは、密集度が小さくなることは対応付けで間違い得る観測特徴が少なくなることを表すため、誤って対応付けられる可能性が低くなるからである。本実施形態では、信頼度算出部204は、例えば、S405で取得された観測特徴群の要素の個数を密集度として、対応付けの信頼度を密集度の逆数として算出する。
S408において、計測視点選択部206は、S407で取得された視点評価値の中から最も高い視点評価値を特定し、特定した視点評価値に対応する候補視点を、観測視点として選択する。また、計測視点選択部206は、S407で取得された視点評価値の中から視点評価値が最も高いものから順に複数個を特定し、特定した視点評価値に対応する複数の候補視点を、観測視点として選択することとしてもよい。
本実施形態では、候補視点生成部202は、S402で、対象オブジェクトを中心においた球面を三角形の多面体で近似したジオデシックドームの各面の位置と方向を用いて候補視点を生成した。しかし、候補視点生成部202は、対象オブジェクトを中心においた球面上でランダムに、候補視点を生成してもよい。また、候補視点生成部202は、S402で、対象オブジェクトを中心においた球面を任意の多角形の多面体で近似したジオデシックドームの各面の位置と方向を用いて候補視点を生成してもよい。また、候補視点生成部202は、計測システムによる実際の計測が行われる視点が複数の既知の固定点であれば、それら複数の固定点に対応する視点を候補視点として生成してもよい。
本実施形態では、観測特徴群取得部203は、各モデル特徴と対応付けられ得る観測特徴群の取得に利用される画像を、対象オブジェクトのモデル情報と候補視点に対応するモデルとカメラの相対位置姿勢とに基づいたシミュレーション処理により取得した。しかし、観測特徴群取得部203は、計測システムが実際に計測を行う現場の環境の情報をより忠実に再現したシミュレーション処理を行ってもよい。観測特徴群取得部203は、例えば、計測が行われる現場の照明の種類や位置に関する情報も反映させたより忠実なシミュレーション処理を行うことで、対象オブジェクトの画像を生成してもよい。これにより、観測特徴群取得部203は、より実際の環境に近い観測特徴群を取得することができる。
本実施形態では、信頼度算出部204は、モデル特徴の近傍の設定された領域内の観測特徴群の密集度、即ち、設定された領域内の観測特徴の数に基づいて、モデル特徴と観測特徴群との対応付けの信頼度を算出した。しかし、信頼度算出部204が行うモデル特徴と観測特徴群との対応付けの信頼度を算出する方法は、観測特徴群の空間的分布に基づく算出方法であれば、任意である。例えば、信頼度算出部204は、対応付けの失敗要因となる観測特徴がモデル特徴の近くにあるか否かを判断できる方法により、対応付けの信頼度を算出してもよい。信頼度算出部204は、例えば、モデル特徴の位置から二番目に近い観測特徴までの距離を、最近傍の観測特徴までの距離で除した値が大きいほど対応付けの信頼度が高くなるように、対応付けの信頼度を算出してもよい。
例えば、計測システムが、画像中からテンプレートマッチングやSIFT特徴量、エッジの線分全体の特徴量等を用いてモデル特徴と観測特徴群との対応付けを行い、対象オブジェクトの位置姿勢を計測するとする。この場合でも、計測システムは、モデル特徴と対応付ける候補の観測特徴の空間的な位置の分布とに基づいて、本実施形態の処理により選択された観測視点を利用することができる。
モデル情報は、対象オブジェクトの位置姿勢を照合する際のモデル特徴となり得るものであれば任意である。本実施形態では、モデル情報は、頂点とエッジ、面の情報を含む情報であるとした。しかし、ROM120は、モデル情報として、複数の候補視点から撮影した対象オブジェクトの画像から得たテンプレート画像の情報やSIFT特徴量の情報を記憶することとしてもよい。
本実施形態では、情報処理装置100は、距離画像及び濃淡画像を用いて、好適な計測視点を取得する処理を行った。しかし、情報処理装置100は、距離画像、濃淡画像の何れか一方を用いて、好適な計測視点を取得する処理を行ってもよい。例えば、計測システムが濃淡画像のみで対象オブジェクトを計測する処理を行う場合、情報処理装置100は、対象オブジェクトの濃淡画像に基づいて、好適な計測視点を取得する処理を行うこととしてもよい。即ち、情報処理装置100は、S406〜S407において、(対象モデル特徴と濃淡画像の観測特徴群とを対応付ける場合)で説明した処理を実行すればよい。また、計測システムが距離画像のみを用いて対象オブジェクトを計測する処理を行う場合、情報処理装置100は、S406〜S407において、(対象モデル特徴と距離画像の観測特徴群とを対応付ける場合)で説明した処理を実行すればよい。また、計測システムが濃淡画像、距離画像の他に例えば赤外線画像を加えて三種の画像を用いて、対象オブジェクトを計測する処理を行う場合、情報処理装置100は、以下のような処理を行えばよい。即ち、情報処理装置100は、S405、S406において、赤外線画像内のモデル特徴と観測特徴とを取得し、各モデル特徴と対応付けられ得る観測特徴群の空間的分布に基づいてモデル特徴の対応付け信頼度を計算する。そして、情報処理装置100は、濃淡画像、距離画像、赤外線画像について取得した全てのモデル特徴の対応付け信頼度に基づいて、視点評価値を求める処理を行えばよい。
視点評価値算出部205は、候補視点の視点評価値を求める方法として、モデル特徴の対応付け信頼度だけではなく、モデル特徴の空間的分布も加味した方法を実行することとしてもよい。例えば、観測特徴群との対応付け信頼度が好適なモデル特徴が空間的に均等に分布している視点が望ましい視点であるとする。視点評価値算出部205は、視点に対応するモデル特徴を一定の閾値以上の対応付け信頼度を持つモデル特徴に絞り込んだ上で、絞り込んだモデル特徴の位置に対して主成分分析を行う。そして、視点評価値算出部205は、主成分分析により得た固有値の値に基づいて、対応付けの信頼度が設定された閾値以上であるモデル特徴が空間に偏りなく分布している程、良好な値になるよう視点評価値を算出してもよい。視点評価値算出部205は、例えば、2次元のモデル特徴については第2主成分の固有値を第1主成分の固有値で除した値を視点評価値として算出してもよい。視点評価値算出部205は、このように対応付け信頼度の高いモデル特徴の空間的分布も加味することで、より正確に、高精度に対象オブジェクトを計測可能な観測視点を選択することができる。
観測視点における計測システムの計測精度は、モデル特徴の対応付け信頼度だけではなく、対象オブジェクトを計測したときに発生し得る計測点のバラつきも影響する。対象オブジェクトの位置姿勢を決定するのに重要な特徴について、計測バラつきが大きいほど、求められる対象オブジェクトの位置姿勢のバラつきも大きくなる。そこで、モデル特徴と観測特徴群との対応付け信頼度だけではなく観測特徴の計測バラつきも加味した視点評価値の算出方法について説明する。
モデル特徴と画像上の観測特徴の対応点間の距離を最小化するフィッティングで求まる6パラメータの位置姿勢の共分散行列Sは、モデル特徴の対応付け信頼度、モデル特徴の空間的分布、観測特徴の計測バラつきによって定まる。視点評価値算出部205は、計測視点の視点評価値を、共分散行列Sの値が小さいほど、評価の高い値となるように、算出する。位置姿勢の共分散行列Sは、次の式1で求めることができる。
式1〜3で求められた位置姿勢の共分散行列Sには、並進成分と回転成分が含まれているので、このままでは他の候補視点で得られた共分散行列と大小関係を比較するのは難しい。そこで、視点評価値算出部205は、式1〜3を用いて算出した位置姿勢の共分散行列Sを、更にモデル上の最遠点(モデル上の点のうちモデル座標系において原点から最も離れた点)の3次元位置の共分散行列に換算する。そして、視点評価値算出部205は、換算した共分散行列の最大固有値の二乗根を視点評価値として算出する。このようにすることで、情報処理装置100は、対応付け信頼度だけでなく計測点バラつきによる計測精度への影響も同時に加味して、より正確に、高精度に対象オブジェクトを計測可能な計測視点を選択することができる。
計測システムが計測する対象オブジェクトの一部が他のオブジェクト(以下では、遮蔽オブジェクト)に常に同じように遮蔽されている場合がある。例えば、計測システムが対象オブジェクトを把持するロボットによって所定の方法で把持された部品を計測する場合は、ロボットによって対象オブジェクトの一部がいつも同じように遮蔽される。このような場合、情報処理装置100は、計測システムにおける遮蔽の取り扱いに基づいて、計測視点の選択処理においても遮蔽の影響を加味することができる。
例えば、計測システムが遮蔽を伴う対象オブジェクトを計測する際に遮蔽される領域をマスキングして計測処理を行うこととする。この場合、ROM120は、予め、遮蔽オブジェクトに関する形状情報、及び遮蔽オブジェクトと対象オブジェクトの相対位置姿勢の情報を記憶する。そして、モデル情報保持部201は、対象オブジェクトのモデル情報と共に遮蔽オブジェクトに関する形状情報、及び遮蔽オブジェクトと対象オブジェクトの相対位置姿勢の情報も管理する。そして、観測特徴群取得部203は、S405で、以下のような処理を行う。即ち、観測特徴群取得部203は、モデル情報保持部201から遮蔽オブジェクトに関する形状情報、及び遮蔽オブジェクトと対象オブジェクトの相対位置姿勢の情報を取得する。観測特徴群取得部203は、取得した情報に基づいて、候補視点から撮影された対象オブジェクトの画像上で、対象オブジェクトを遮蔽オブジェクトが遮蔽している領域の情報を取得する。観測特徴群取得部203は、モデル特徴近傍の観測特徴群を取得する際に、遮蔽オブジェクトが遮蔽している領域をマスキングして残りの領域から観測特徴を取得する。
以上のような処理により、情報処理装置100は、計測システムが遮蔽を伴う対象オブジェクトを計測する場合においても計測精度のより高い計測視点を選択することができる。
計測視点選択部206は、S408で選択した視点評価値の好適な計測視点をユーザに提示してもよい。
計測視点選択部206は、例えば、S408で選択した複数の計測視点の位置と方向を画面上に対象オブジェクトと一緒に仮想3次元空間に配置して、情報処理装置100の表示部等に表示してもよい。更に、計測視点選択部206は、任意の計測視点から観測した場合の対象オブジェクトの画像も表示することとしてもよい。図6(i)は、S408で選択された好適な計測視点をユーザに提示する画面の一例を示す図である。対象オブジェクト601に対する複数の好適な視点の位置関係を視点評価値の大小の降順に推奨視点1(視点602a)、推奨視点2(視点603a)として表示されている。計測視点選択部206は、この対象オブジェクト601を、情報処理装置100のマウスのドラッグ操作等に基づいて、任意の方向に回転させることができ、対象オブジェクトを回転させると推奨視点も追従して回転させる。また、計測視点選択部206は、別欄602b、603bで、それぞれの好適な視点からの部品の見え方を示す画像を表示している。
以上、説明したような好適な視点の表示方法は、あくまで一例にすぎず説明した方法に限定されない。計測視点選択部206は、例えば、視点の位置、方向の表示方法として、ジオデシックドームの面を指し示す方法の他に、ジオデシックドームを伴わずに単に視点を表すカメラオブジェクトを表示する方法で表示してもよい。また、計測視点選択部206は、視点評価値の表示方法として、ジオデシックドームの面上に濃度で表示する方法の他に視点評価値の高低を色で表してもよい。また、計測視点選択部206は、視点評価値を、ジオデシックドームを表示せずにカメラオブジェクトに色を付けたり、サイズを変えたりすることで表すようにしてもよい。
以上のように、情報処理装置100は、選択された複数の好適な視点の位置と方向、及びその視点評価値、及びその視点から観測される画像を表示することで、ユーザに提示することができる。ユーザは、表示された画面を視認することで、選択された視点から見た対象オブジェクトがどのように見えるかを容易に確認することができる。
実施形態1では、情報処理装置100は、好適な視点を求めるために候補視点におけるモデル特徴と観測特徴群との対応付けの信頼度に基づいて候補視点における視点評価値を算出した。しかし、本実施形態では、情報処理装置100は、候補視点における観測特徴の対応付けの信頼度に加えて、候補視点の周囲に設定される近傍視点におけるモデル特徴の対応付け信頼度も加味して、視点評価値を算出する。近傍視点とは、候補視点を中心に設定された微小領域に含まれる視点であり、候補視点自体も含む。
情報処理装置100は、例えば、候補視点の優劣を表す視点評価値を算出する際に、複数の候補視点それぞれの近傍視点におけるモデル特徴の対応付け信頼度を算出し、算出した信頼度の統計値、例えば信頼度の最小値に基づいて視点評価値を算出する。そして、情報処理装置100は、視点評価値が相対的に高い候補視点を、観測視点として選択する。こうすることで、情報処理装置100は、計測システムが対象オブジェクトの計測を行う際に、観測視点の近傍で微小量ずれ得ることを考慮して、高精度に計測可能な視点を選択することができる。
本実施形態の情報処理装置100のハードウェア構成は、図1と同様である。また、本実施形態の情報処理装置100の機能構成は、図2と同様である。しかし、本実施形態の候補視点生成部202、視点評価値算出部205の処理が実施形態1と異なる。本実施形態では、実施形態1と異なる点について説明する。本実施形態においては、CPU110が、ROM120等に記憶されたプログラムに基づき処理を実行することによって、図2における情報処理装置100の機能及び図7で後述するフローチャートの処理が実現される。
S701〜S703の処理は、S401〜S403の処理と同様である。
S704において、候補視点生成部202は、候補視点の周囲に複数の近傍視点を生成する。候補視点生成部202は、例えば、各候補視点を生成するのに使用したジオデシックドームで、候補視点近傍においてのみ多面体の分割粒度を細かくする。そして、候補視点生成部202は、分割粒度を細かくした部分の分割面それぞれに対応する視点を、近傍視点として生成する。
S705において、信頼度算出部204は、S704で生成された近傍視点毎にS706〜S708の処理を繰り返すよう制御する。以下では、S706〜S708の処理対象となっている近傍視点を、対象近傍視点とする。
S706において、信頼度算出部204は、S701で取得された対象オブジェクトのモデル情報からモデル特徴を取得し、取得したモデル特徴毎に、S707〜S708の処理を行うよう制御する。以下では、S707〜S708の処理の対象となっているモデル特徴を、対象モデル特徴とする。
S707において、観測特徴群取得部203は、S405と同様に、対象近傍視点に基づいて得られた画像から対象モデル特徴と対応付けられ得る観測特徴群を取得する。
S708において、信頼度算出部204は、S406と同様に観測特徴群の空間的な分布に基づいて、対象モデル特徴の対応付け信頼度を算出する。
S709において、視点評価値算出部205は、対象候補視点の視点評価値を計算する。視点評価値算出部205は、例えば、対象候補視点の各近傍視点においてS407と同様の処理で、各近傍視点の視点評価値を計算する。更に、視点評価値算出部205は、各近傍視点で求めた視点評価値の中から最も低い評価値を対象候補視点の評価値とする。即ち、計測視点選択部206は、各候補視点において条件が好適でない場合の評価値に基づいて、計測視点を選択することになる。これにより、計測視点選択部206は、最も条件が劣化した場合に備えて、計測視点を選択できるようになる。
S710において、計測視点選択部206は、S408と同様に、候補視点の中で視点評価値が相対的に高い候補視点を選択する。例えば、計測視点選択部206は、候補視点の中から視点評価値が最も高い1つの視点を計測視点として選択する。また、計測視点選択部206は、候補視点の中から視点評価値が最も高い2つ、3つ等の複数の視点を計測視点として選択することとしてもよい。
実施形態1では、情報処理装置100は、候補視点の視点評価値をシミュレーション処理により生成された濃淡画像及び距離画像に基づいて算出することとした。しかし、本実施形態では、情報処理装置100は、候補視点で実際に計測システムが対象オブジェクトを観測して得られた観測情報に基づいて視点評価値を計算する。こうすることで、情報処理装置100は、シミュレーションで再現することが困難な観測情報に及ぼす要因、例えば、モデル化されていない照明の影響や対象オブジェクトの表面の反射ムラ等も加味した対象オブジェクトの濃淡画像及び距離画像を取得できる。これにより、情報処理装置100は、より正確に、好適な計測視点を選択することができる。
本実施形態の計測システムの外観を図8に示す。計測システムは、ロボット制御装置802、ロボット803、計測装置805、情報処理装置100を含む。ロボット制御装置802は、情報処理装置801から受け取る命令に基づいてロボット803を動作させる。ロボット803は、対象オブジェクト804を把持し、対象オブジェクトの位置、姿勢を制御する。計測装置805は、情報処理装置100によって選択された候補視点で対象オブジェクトの計測を行うカメラ等の計測装置である。ロボット803、計測装置805、情報処理装置は、ネットワーク等を介して、相互に接続されている。情報処理装置100のハードウェア構成は、実施形態1と同様である。本実施形態においては、CPU110が、ROM120等に記憶されたプログラムに基づき処理を実行することによって、図9で後述する情報処理装置100の機能及び図4のフローチャートの処理が実現される。
観測特徴群取得部903は、計測装置805と通信を行い、計測装置805から取得した対象オブジェクトの撮影画像等の観測情報に基づいて、観測特徴群を取得する。視点評価値算出部905は、ロボット制御装置802と通信を行い、計測装置805が対象オブジェクトを計測する視点が各候補視点と同じ視点になるように、ロボット803に対象オブジェクトの位置、姿勢を制御させるよう命令を出す。そして、観測特徴群取得部903は、計測装置805から、対象オブジェクトの撮影画像を取得し、取得した撮影画像から更に濃淡画像と距離画像とを取得し、各候補視点における観測特徴群を取得する。また、観測特徴群取得部903は、計測装置805がモノクロカメラ等を含む場合、計測装置805が撮影した濃淡画像を、計測装置805から取得してもよい。また、観測特徴群取得部903は、計測装置805が距離画像カメラ等を含む場合、計測装置805が直接撮影した距離画像を、計測装置805から取得してもよい。
この場合、S403において各候補視点における視点評価値を算出するループを実行する際に、視点評価値算出部905は、対象候補視点を実現する相対位置姿勢になるよう対象オブジェクト804を、ロボットを介して移動させる。そして、観測特徴群取得部903は、S405では対象候補視点において計測装置805から取得した観測情報に対して、観測特徴群を取得する。その他の処理は、実施形態1と同様である。
本実施形態では、計測システムは、所望の視点になるようにロボット803を介して対象オブジェクト804を把持して移動させたが、任意の視点を実現する方法は必ずしもこの方法でなくてもよい。計測システムは、静的に配置されている対象オブジェクト804に対して、計測装置805を動かして候補視点を実現してもよい。また、計測システムは、双腕ロボットや複数のロボットを使って対象オブジェクト804と計測装置805とを共に動かすことで所望の視点を実現することとしてもよい。
(変形例3−1)
本実施形態のロボット803は、対象オブジェクトの位置、姿勢を制御することで、計測装置805が対象オブジェクトを計測する視点が各候補視点となるように制御することを目的とする。そのため、計測システムは、対象オブジェクトの位置、姿勢を制御するために、必ずしもロボットを用いる必要はない。計測システムは、対象オブジェクトを、ある軸上を並進移動させたり、ある軸のまわりに回転をさせたりするステージを用いて候補視点を再現することとしてもよい。これにより、計測システムは、ロボットよりも簡素な装置を用いて、対象オブジェクト804の実際の撮影画像を取得することができる。
実施形態1〜3では、高精度に位置姿勢を計測できる好適な視点を選択する方法を説明したが、本実施形態では実施形態1〜3で説明した方法で得た好適な視点を利用して、計測を行う計測システムについて説明する。計測システムは、情報処理装置100を含み、情報処理装置100が選択した視点の情報に基づいて、実際に対象オブジェクトを計測する。こうすることで、ユーザが計測システムに対して、情報処理装置100が選択した視点の情報を入力等する手間を省くことができる。
以降、本実施形態の処理について説明する。なお、計測システムが有するロボット803と計測装置805との相対位置姿勢、及び計測装置805のカメラパラメータは、予めキャリブレーション済みであるとする。また、対象オブジェクト804の把持の仕方は予め決定されており、このときの対象オブジェクト804とロボットの相対位置姿勢も既知であるとする。したがって、任意の視点で計測する際の計測装置805と対象オブジェクト804との相対位置姿勢は既知であるとする。
本実施形態の計測システムのシステム構成は、実施形態3と同様であり、図8に示した通りである。本実施形態においては、CPU110が、ROM120等に記憶されたプログラムに基づき処理を実行することによって、図2及び後述する図10の情報処理装置100の機能及び図4のフローチャートの処理が実現される。
本実施形態では、計測視点決定部1001は、実施形態1と同様に、最も視点評価値の高い計測視点を、最終的な計測視点として決定するとしたが、実施形態2、3と同様の方法で、最終的な計測視点を決定することとしてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
例えば、上述した計測システムの機能構成の一部又は全てをハードウェアとして情報処理装置100に実装してもよい。
110 CPU
Claims (20)
- オブジェクトの特徴を含むモデル情報に基づいて、前記オブジェクトを複数の候補視点のそれぞれから観測して得られるべき前記オブジェクトの特徴を表すモデル特徴を生成する生成手段と、
前記オブジェクトを前記複数の候補視点のそれぞれから撮影した画像から得られる特徴を表す画像特徴を取得する取得手段と、
前記モデル特徴と前記画像特徴との対応関係に基づいて、前記複数の候補視点のそれぞれを評価する評価手段と、
前記複数の候補視点のそれぞれ対する前記評価手段による評価の結果に基づいて、前記複数の候補視点から前記オブジェクトを計測すべき1つ以上の計測視点を選択する選択手段と、
を有する情報処理装置。 - 前記複数の候補視点のそれぞれに対して、前記モデル特徴ごとに前記画像特徴との対応関係の信頼度を導出する導出手段をさらに備え、
前記評価手段は、1つの候補視点に対する前記モデル特徴ごとの信頼度に基づいて、前記候補視点を評価する請求項1記載の情報処理装置。 - 前記取得手段は、前記複数の候補視点のそれぞれに対して、前記モデル特徴の周辺領域に含まれる特徴群を、前記モデル特徴に対応付けられる画像特徴として取得し、
前記導出手段は、前記特徴群の密集度に基づいて前記信頼度を導出する請求項2記載の情報処理装置。 - 前記評価手段は、前記複数の候補視点のそれぞれ毎に、前記導出手段により導出された信頼度の統計量に基づいて、前記複数の候補視点それぞれについて、計測精度の評価値を取得する請求項2記載の情報処理装置。
- 前記評価手段は、前記信頼度の平均値を前記信頼度の統計量として取得する請求項4記載の情報処理装置。
- 前記評価手段は、前記導出手段により導出された信頼度のうち、設定された閾値よりも高い信頼度の数を前記統計量として取得する請求項4記載の情報処理装置。
- 前記評価手段は、前記導出手段により導出された信頼度と、前記モデル特徴の分布とに基づいて、前記複数の候補視点それぞれについて、計測精度の評価値を取得する請求項2記載の情報処理装置。
- 前記導出手段は、前記信頼度を前記モデル特徴ごとに導出し、
前記評価手段は、前記信頼度の値が設定された閾値以上であるモデル特徴の分布の偏りが小さい程、計測精度の評価が高くなるように、前記複数の候補視点それぞれの計測精度の評価値を取得する請求項7記載の情報処理装置。 - 前記取得手段は、前記複数の画像それぞれから、前記モデル特徴に対応付けられる2次元座標上の特徴群を取得する請求項1記載の情報処理装置。
- 前記取得手段は、前記複数の画像それぞれから、前記モデル特徴に対応付けられる3次元座標上の特徴群を取得する請求項1記載の情報処理装置。
- 前記モデル特徴は、前記オブジェクトのエッジ上に設定されている特徴であり、
前記取得手段は、前記複数の候補視点のそれぞれから撮影した濃淡画像から取得されるエッジを示す画像特徴と、前記モデル特徴に対応付けられて取得する請求項1記載の情報処理装置。 - 前記モデル特徴は、前記オブジェクトの面上に設定されている特徴であり、
前記取得手段は、前記複数の候補視点のそれぞれから撮影した距離画像から取得された特徴である画像特徴と、前記モデル特徴に対応付けられて取得する請求項1記載の情報処理装置。 - 前記取得手段は、前記複数の候補視点のそれぞれから撮影した画像に対して、前記モデル特徴に対応付けられるそれぞれが設定された2次元座標上の点、又は設定された3次元座標上の点である特徴群を取得する請求項1記載の情報処理装置。
- 前記モデル特徴は、前記オブジェクトのエッジ上の点、及び面上の点であり、
前記取得手段は、前記複数の候補視点のそれぞれから撮影した画像に対して、前記モデル特徴に対応付けられるそれぞれが2次元座標上の点、及び3次元座標上の点である特徴群を抽出する請求項1記載の情報処理装置。 - 前記取得手段は、前記複数の候補視点それぞれの周囲に複数の近傍視点を設定して、更に前記近傍視点に係る前記オブジェクトが撮影された画像の画像特徴を取得し、
前記評価手段は、更に、前記導出手段により導出された前記近傍視点に係る信頼度に基づいて、前記複数の候補視点それぞれの計測精度の評価値を取得する請求項2記載の情報処理装置。 - 前記評価手段は、前記候補視点の周囲の複数の近傍視点の前記評価値を取得し、前記近傍視点の前記評価値のうち最も低い評価値を当該候補視点の評価値として取得する請求項15記載の情報処理装置。
- 前記選択手段により前記計測視点として選択された視点の情報を、表示部に表示する表示手段を更に有する請求項1記載の情報処理装置。
- 請求項1乃至17何れか1項記載の情報処理装置と、
前記選択手段により選択された前記計測視点に基づいて、前記オブジェクトを計測する計測手段と、
を有する計測システム。 - 情報処理装置が実行する情報処理方法であって、
オブジェクトの特徴を含むモデル情報に基づいて、前記オブジェクトを複数の候補視点のそれぞれから観測して得られるべき前記オブジェクトの特徴を表すモデル特徴を生成する生成工程と、
前記オブジェクトを前記複数の候補視点のそれぞれから撮影した画像から得られる特徴を表す画像特徴を取得する取得工程と、
前記モデル特徴と前記画像特徴との対応関係に基づいて、前記複数の候補視点のそれぞれを評価する評価工程と、
前記複数の候補視点のそれぞれ対する前記評価工程での評価の結果に基づいて、前記複数の候補視点から前記オブジェクトを計測すべき1つ以上の計測視点を選択する選択工程と、
を含む情報処理方法。 - コンピュータを、
オブジェクトの特徴を含むモデル情報に基づいて、前記オブジェクトを複数の候補視点のそれぞれから観測して得られるべき前記オブジェクトの特徴を表すモデル特徴を生成する生成手段と、
前記オブジェクトを前記複数の候補視点のそれぞれから撮影した画像から得られる特徴を表す画像特徴を取得する取得手段と、
前記モデル特徴と前記画像特徴との対応関係に基づいて、前記複数の候補視点のそれぞれを評価する評価手段と、
前記複数の候補視点のそれぞれ対する前記評価手段による評価の結果に基づいて、前記複数の候補視点から前記オブジェクトを計測すべき1つ以上の計測視点を選択する選択手段と、
として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016127780A JP6740033B2 (ja) | 2016-06-28 | 2016-06-28 | 情報処理装置、計測システム、情報処理方法及びプログラム |
US15/634,301 US10497111B2 (en) | 2016-06-28 | 2017-06-27 | Information processing apparatus and method of selecting viewpoint for measuring object, and measuring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016127780A JP6740033B2 (ja) | 2016-06-28 | 2016-06-28 | 情報処理装置、計測システム、情報処理方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018004310A JP2018004310A (ja) | 2018-01-11 |
JP2018004310A5 JP2018004310A5 (ja) | 2019-07-25 |
JP6740033B2 true JP6740033B2 (ja) | 2020-08-12 |
Family
ID=60677804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016127780A Active JP6740033B2 (ja) | 2016-06-28 | 2016-06-28 | 情報処理装置、計測システム、情報処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10497111B2 (ja) |
JP (1) | JP6740033B2 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016046642A (ja) * | 2014-08-21 | 2016-04-04 | キヤノン株式会社 | 情報処理システム、情報処理方法及びプログラム |
US9868212B1 (en) * | 2016-02-18 | 2018-01-16 | X Development Llc | Methods and apparatus for determining the pose of an object based on point cloud data |
JP6684475B2 (ja) * | 2017-03-13 | 2020-04-22 | オムロン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2019063984A (ja) * | 2017-10-02 | 2019-04-25 | キヤノン株式会社 | 情報処理装置、方法及びロボットシステム |
US11144786B2 (en) | 2017-11-02 | 2021-10-12 | Canon Kabushiki Kaisha | Information processing apparatus, method for controlling information processing apparatus, and storage medium |
EP3764635A4 (en) * | 2018-03-06 | 2021-07-14 | FUJIFILM Corporation | PHOTOGRAPHING DEVICE, PHOTOGRAPHING METHOD, PHOTOGRAPHING PROGRAM, AND PHOTOGRAPHING SYSTEM |
EP3764634A4 (en) | 2018-03-06 | 2021-04-28 | FUJIFILM Corporation | PHOTOGRAPHIC EVALUATION CARD, DEVICE FOR CREATING A PHOTOGRAPHIC EVALUATION CARD, PROCESS FOR CREATING A PHOTOGRAPHIC EVALUATION CARD AND PROGRAM FOR CREATING A PHOTOGRAPHIC EVALUATION CARD |
JP6929241B2 (ja) * | 2018-04-16 | 2021-09-01 | Kddi株式会社 | 選択装置、選択方法及び選択プログラム |
JP7178803B2 (ja) | 2018-06-04 | 2022-11-28 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
JP7010778B2 (ja) * | 2018-06-29 | 2022-01-26 | 国立大学法人東海国立大学機構 | 観測位置推定装置、その推定方法、及びプログラム |
US11003939B2 (en) | 2018-07-06 | 2021-05-11 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
JP2020134242A (ja) * | 2019-02-15 | 2020-08-31 | オリンパス株式会社 | 計測方法、計測装置、およびプログラム |
WO2021010181A1 (ja) * | 2019-07-17 | 2021-01-21 | 日立金属株式会社 | 検査装置、検査方法、位置決め方法、およびプログラム |
JP2022056085A (ja) | 2020-09-29 | 2022-04-08 | キヤノン株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5746477B2 (ja) * | 2010-02-26 | 2015-07-08 | キヤノン株式会社 | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム |
JP5854815B2 (ja) * | 2011-12-20 | 2016-02-09 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
JP6004809B2 (ja) * | 2012-03-13 | 2016-10-12 | キヤノン株式会社 | 位置姿勢推定装置、情報処理装置、情報処理方法 |
JP6363863B2 (ja) | 2014-04-15 | 2018-07-25 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
JP6317618B2 (ja) | 2014-05-01 | 2018-04-25 | キヤノン株式会社 | 情報処理装置およびその方法、計測装置、並びに、作業装置 |
JP6397226B2 (ja) | 2014-06-05 | 2018-09-26 | キヤノン株式会社 | 装置、装置の制御方法およびプログラム |
JP6426968B2 (ja) | 2014-10-08 | 2018-11-21 | キヤノン株式会社 | 情報処理装置およびその方法 |
JP6573354B2 (ja) | 2014-11-28 | 2019-09-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP6494331B2 (ja) | 2015-03-03 | 2019-04-03 | キヤノン株式会社 | ロボット制御装置およびロボット制御方法 |
US9877012B2 (en) * | 2015-04-01 | 2018-01-23 | Canon Kabushiki Kaisha | Image processing apparatus for estimating three-dimensional position of object and method therefor |
US10171730B2 (en) | 2016-02-15 | 2019-01-01 | Canon Kabushiki Kaisha | Information processing apparatus, method of controlling information processing apparatus, and storage medium |
-
2016
- 2016-06-28 JP JP2016127780A patent/JP6740033B2/ja active Active
-
2017
- 2017-06-27 US US15/634,301 patent/US10497111B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018004310A (ja) | 2018-01-11 |
US20170372466A1 (en) | 2017-12-28 |
US10497111B2 (en) | 2019-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6740033B2 (ja) | 情報処理装置、計測システム、情報処理方法及びプログラム | |
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
JP6681729B2 (ja) | オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム | |
JP6594129B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP6635690B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US10189162B2 (en) | Model generation apparatus, information processing apparatus, model generation method, and information processing method | |
JP6573354B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP4976756B2 (ja) | 情報処理方法および装置 | |
JP5746477B2 (ja) | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム | |
JP6688088B2 (ja) | 情報処理装置およびその制御方法 | |
CN105818167A (zh) | 采用远距数字摄像头校准铰接的末端执行器的方法 | |
JP6487642B2 (ja) | 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。 | |
US11490062B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US20180290300A1 (en) | Information processing apparatus, information processing method, storage medium, system, and article manufacturing method | |
JP7057971B2 (ja) | 動物体の体重推定装置及び体重推定方法 | |
JP2003269913A (ja) | センサ較正装置、センサ較正方法、プログラム、記憶媒体 | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP5726024B2 (ja) | 情報処理方法および装置 | |
JP6109213B2 (ja) | 情報処理装置および方法、プログラム | |
JP6643416B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
CN115862124A (zh) | 视线估计方法、装置、可读存储介质及电子设备 | |
CN115049744A (zh) | 机器人手眼坐标转换方法、装置、计算机设备和存储介质 | |
CN112347837A (zh) | 图像处理系统 | |
JP7376201B1 (ja) | 情報処理システム、情報処理方法及びプログラム | |
US20240083038A1 (en) | Assistance system, image processing device, assistance method and non-transitory computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190620 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190620 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200623 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200722 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6740033 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |