JP2018091656A - 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法 - Google Patents

情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法 Download PDF

Info

Publication number
JP2018091656A
JP2018091656A JP2016233160A JP2016233160A JP2018091656A JP 2018091656 A JP2018091656 A JP 2018091656A JP 2016233160 A JP2016233160 A JP 2016233160A JP 2016233160 A JP2016233160 A JP 2016233160A JP 2018091656 A JP2018091656 A JP 2018091656A
Authority
JP
Japan
Prior art keywords
target object
sampling
orientation
model
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016233160A
Other languages
English (en)
Other versions
JP2018091656A5 (ja
Inventor
潤 庭山
Jun Niwayama
潤 庭山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016233160A priority Critical patent/JP2018091656A/ja
Priority to US15/817,459 priority patent/US20180150969A1/en
Priority to EP17001905.3A priority patent/EP3330921A1/en
Priority to CN201711213323.9A priority patent/CN108120391A/zh
Publication of JP2018091656A publication Critical patent/JP2018091656A/ja
Publication of JP2018091656A5 publication Critical patent/JP2018091656A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/2433Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures for measuring outlines by shadow casting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Abstract

【課題】高速かつ高精度に対象物体の位置姿勢を判別すること。
【解決手段】対象物体の位置および姿勢を算出する情報処理装置100は、対象物体の形状の計測データおよび対象物体の形状モデルを取得する3次元形状モデル保持部12と、3次元形状モデル保持部12が取得した形状モデルにおいて、対象物体の姿勢を特定するための特定部位のサンプリングに関する情報を決定する特定部位内サンプリング部16と、特定部位内サンプリング部16が決定した特定部位のサンプリングに関する情報および対象物体の形状の計測データに基づいて対象物体の位置および姿勢を算出する位置姿勢算出部17と、を有する。
【選択図】図2

Description

本発明は、情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法に関する。
工場などの生産ラインにおいて、ビジョンシステムを用いてバラ積みされた物体の中から一個体を特定し、特定した把持対象の物体の位置姿勢を計測して、ロボットハンドにより把持を行う技術が近年開発されている。
物体の3次元位置姿勢を計測する方法として、対象物体の撮影画像から一個体のおおよその位置姿勢を検出し、その位置姿勢を初期値として、画像データに対して物体の3次元形状モデルをあてはめるモデルフィッティング法がある。モデルフィッティングの手法としては、特許文献1のように対象物体の3次元形状モデル上の幾何特徴からサンプリングしたモデル点を対象物体の距離画像上もしくは濃淡画像上に投影し、画像上の幾何特徴と対応付ける方法が知られている。また、誤認識しやすい形状をもつ対象物体の姿勢を判別する方法として、特許文献2の方法が知られている。特許文献2の方法では、事前に互いに誤りやすい複数の姿勢間の関係を登録しておき、概略位置姿勢からモデルフィッティングした姿勢と、事前の登録に基づいて変換パラメータを用いて算出した姿勢とを比較し、より一致度の高い姿勢を出力している。
特許文献1や特許文献2の方法では、サンプリングする密度を疎にしてモデル点の数を少なくするほど処理時間が短縮されるが、1点あたりの位置姿勢推定の計算に寄与する度合いが相対的に高まるために位置姿勢推定の精度が低下する。局所的な形状を手掛かりとして姿勢の違いやものの違いを判別する必要のある物体を計測する場合、手掛かりとなる部位についての3次元モデル上での幾何的な情報の不足により誤認識する可能性がある。
一方、位置姿勢推定の精度を上げるために、サンプリングする密度を細かくしてモデル点の数を多くすると、モデル点の数に比例して画像上の幾何特徴との対応探索時間が増大してしまう。
特許文献3は、モデルフィッティングに用いるモデル点をサンプリングする方法として、3次元モデルの面を平面や曲面の集合として表現し、各面を単位面積で分割したときの小領域ごとに生成する方法を開示している。特許文献3の方法では、距離計測の誤差が小さいと推測される領域ではサンプリングの密度を低く設定する一方で、距離計測の誤差が大きいと推測される小領域ほどサンプリングの密度を高く設定している。
特開2011−175477号公報 特開2015−194478号公報 特開2011−179910号公報
しかしながら、特許文献3では、小領域ごとのモデル点の密度を距離計測の誤差に応じて制御しているが、密度を高く設定した小領域が姿勢の違いやものの違いを判別する手掛かりとなる局所的な形状を有する箇所と一致するとは限らない。
本発明は、例えば、高速かつ高精度に局所的な形状を有する物体の位置姿勢を判別することが可能な計測装置を提供することを目的とする。
上記課題を解決するために、本発明の一側面としての情報処理装置は、対象物体の位置および姿勢を算出する情報処理装置であって、前記対象物体の形状の計測データおよび前記対象物体の形状モデルを取得する取得部と、前記取得部が取得した前記形状モデルにおいて、前記対象物体の姿勢を特定するための特定部位のサンプリングに関する情報を決定するサンプリング部と、前記サンプリング部が決定した前記特定部位の前記サンプリングに関する情報および前記対象物体の形状の計測データに基づいて前記対象物体の位置および姿勢を算出する算出部と、を有する。
本発明によれば、例えば、高速かつ高精度に局所的な形状を有する物体の位置姿勢を判別することが可能な計測装置を提供することができる。
情報処理装置のハードウェア構成を示す図である。 情報処理装置の構成を示す図である。 対象物体の3次元形状モデルを示す図である。 対象物体の位置姿勢算出の処理手順を示すフローチャートである。 類似姿勢と特定部位の登録方法の説明図である。 対となる特定部位の登録についての説明図である。 モデル点を示す概念図である。 特定部位における幾何特徴上の計測点の数の上限値を推測する方法の説明図である。 位置姿勢算出方法の説明図である。 対象物体の位置姿勢算出の処理手順を示すフローチャートである。 対象物体の位置姿勢算出の処理手順を示すフローチャートである。 概略位置姿勢候補ごとのモデル点のサンプリング方法についての説明図である。 対象物体と類似物体を示す図である。 対象物体と類似物体の判別処理の手順を示すフローチャートである。 ロボットシステムの構成を示す図である。
(第1実施形態)
本実施形態では、類似姿勢の判別の手掛かりとなる局所的な特徴を有する部位(特定部位)に含まれる幾何特徴について、判別が十分可能な密度でモデル点を事前にサンプリングした上で、類似した姿勢を高精度に判別する方法について説明する。
図1は、本実施形態における情報処理装置100のハードウェア構成を示す図である。
CPU101は、バス106を介して接続する各デバイスを統括的に制御する。CPU101は、読み出し専用メモリであるROM102に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM102に記憶されており、RAM(ランダムアクセスメモリ)103に一時記憶され、CPU101によって適宜実行される。入力I/F104は、外部の装置(撮像装置や操作装置など)から情報処理装置100で処理可能な形式で入力信号として入力する。出力I/F105は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。
図2は、本実施形態に係る情報処理装置100の構成を示している。
情報処理装置100は、各処理部と記憶部22を有している。各処理部は、計測データ保持部10、概略位置姿勢算出部11、3次元形状モデル保持部12、モデル点サンプリング部13、類似姿勢指定部14、特定部位指定部15、特定部位内サンプリング部16、位置姿勢算出部17、出力部21を含む。また、情報処理装置100は撮像装置18、表示装置19、操作装置20、ロボットなどの外部装置の制御部23に接続されている。なお、本実施形態では、情報処理装置100の外部に撮像装置18、表示装置19、操作装置20、制御部23を接続しているが、撮像装置18、表示装置19、操作装置20、制御部23を含めて一体として情報処理装置として構成してもよい。
以下、情報処理装置100が有する各部について説明する。
計測データ保持部10は、撮像装置18によって撮像された対象物体の濃淡画像(2次元画像)や距離画像(3次元情報)などの計測データ(計測情報)を取得して保持する。本実施形態において計測データ保持部10は、撮像装置18によって撮像した計測データを取得するが、これに限らず記憶媒体等から事前に取得した計測データを取得しても構わない。
概略位置姿勢算出部11は、撮像装置18に対する物体の位置及び姿勢の概略値(概略位置姿勢)を算出する概略算出部である。具体的には、まず、計測データ保持部10から計測データを取得するとともに、3次元形状モデル保持部12から対象物体の3次元モデルを取得する。そして、計測データ中のバラ積みされた物体の中から一個体を検出し、撮像装置18に対する物体の位置及び姿勢の概略値を算出する。
撮像装置18には、位置及び姿勢の計測の基準となる3次元の座標系(基準座標系)が規定されているものとする。本実施形態においては、撮像装置18に使用するセンサの中心を原点とし、取得される画像の水平方向をx軸、垂直方向をy軸、センサの光軸をz軸とした座標系を基準座標系とする。撮像装置18に対する物体の位置及び姿勢とは、基準座標系における物体の位置及び姿勢を表す。
本実施形態では、センサで取得した距離画像および濃淡画像に対して複数の視点から観測した画像をテンプレートとしてパターンマッチングを行うことによりその一個体の基準座標系における概略位置姿勢を算出する。ただし、概略位置姿勢の認識方法は他の方法であっても構わない。例えば、基準座標系に対する対象物体の相対的な位置姿勢が既知であり、かつその位置姿勢が変化しないのであれば、対象物体が存在する空間における任意の位置を原点とした座標系を基準としてもよい。その他、バラ積みの中から1つ以上の個体を検出し、その3次元位置姿勢を算出できる方法であれば、ここで述べた以外のいかなる方法であっても構わない。本実施形態では、対象物体が所定の軸に対して回転させた場合に誤認識しやすい物体を対象にしているため、ここで取得した位置姿勢は誤認識されている可能性がある。概略位置姿勢算出部11で算出した概略位置姿勢の情報は、位置姿勢算出部17に入力される。
3次元形状モデル保持部12は、バラ積みピッキングの対象とする対象物体の3次元形状モデルを取得し、保持する。したがって、3次元形状モデル保持部12は、3次元形状モデルの取得部および保持部として機能する。3次元形状モデルには、たとえば、対象物体の3次元形状を複数ポリゴンの組み合わせにより近似表現したポリゴンモデルを用いることができる。各ポリゴンは、対象物体表面上の3次元座標における位置と、面を近似するポリゴンを構成するための各点の連結情報によって構成される。なお、ポリゴンは三角形で構成されるのが一般的であるが、四角形や五角形であってもよい。その他、表面点の3次元座標とその連結情報により物体形状を近似表現できるポリゴンモデルであればいかなるものであってもよい。あるいは、3次元形状モデルとして、CADデータのように、B−Rep(Boundary−Representation)表現と呼ばれる、区分されたパラメータ曲面の集合で形状を表現したモデルであってもよい。その他、物体の3次元形状を表現可能なモデルであればいかなるものであってもかまわない。なお、3次元形状モデルにはあらかじめ対象物体表面上の点の座標などを表す基準となるモデル座標系が設定されているものとする。
図3に、本実施形態で取り扱う対象物体とそのモデル座標系を示す。モデル座標系は、対象物体表面上の点を原点としたX軸、Y軸、Z軸で示されている。3次元形状モデル保持部12は、ROM102やRAM103などのメモリなどで構成されるが、記憶媒体等から3次元形状モデルを取得してもかまわない。保持される3次元形状モデルは、概略位置姿勢算出部11、モデル点サンプリング部13、類似姿勢指定部14、特定部位指定部15、位置姿勢算出部17に入力される。
モデル点サンプリング部13は、3次元形状モデル保持部12から取得した3次元形状モデルの情報に基づいて、モデル点をサンプリングする。モデル点のサンプリングは、3次元形状モデルの情報をもとに、対象物体の位置及び姿勢の算出が可能な程度の密度で実施する。モデル点サンプリング部13では、サンプリングしたモデル点について、さらに概略位置姿勢算出部11から入力される概略位置姿勢の情報に基づいて、用いる点を選択する処理を実施してもよい。
モデル点サンプリング部13は、用いるモデル点を選択する処理として、具体的には以下の処理を実施する。まず、3次元形状モデルを全方向から描画し、各方向から見える3次元形状モデルの幾何特徴を各方向に対応づけて登録する。次に、物体の概略位置姿勢と撮影パラメータから算出される視線ベクトルに最も近い方向に登録されている幾何特徴を選択することで、選択された幾何特徴に対応するモデル点を選択する。撮影パラメータと概略位置姿勢からモデル点を選択する方法としては、3次元形状モデル上の各点について3次元座標に加えて法線の情報も算出しておき、各方向の視線ベクトルと法線ベクトルとの内積を比較する方法を用いてもよい。この場合、内積値が負、すなわち視線ベクトルと法線ベクトルが対抗している点のみを登録する。
なお、モデル点サンプリング部13によるモデル点のサンプリングはユーザ指示に基づいて行われてもよい。すなわち、ユーザが対象物体の3次元形状モデルが表示されたGUIを参照しながら手動で点をサンプリングしてもよい。また、3次元形状モデルを構成する面について、各面の中心をモデル点としてサンプリングしてもよい。さらに、物体の概略位置姿勢に基づいて、計測データである距離画像上で均一になるような点をサンプリングしてもよい。具体的には、物体の概略位置姿勢と撮像装置18の撮影パラメータに基づき3次元形状モデルを2次元画像上に投影し、2次元画像上で均一にサンプリングした3次元形状モデル上の点を3次元空間に逆投影する。その他、3次元形状モデルの表面上から点を算出するのであれば、その方法は特に問わない。モデル点サンプリング部13でサンプリングされたモデル点の情報は、特定部位内サンプリング部16と位置姿勢算出部17に入力される。
類似姿勢指定部14は、対象物体の3次元形状モデルを仮想的な3次元空間上に表示し、ユーザによる操作を介して、互いに誤りやすい異なる2つの姿勢(類似姿勢)の関係(変換パラメータ)を指定し、記憶部22に登録する。類似姿勢の例については、図5や図7を用いて後述する。本実施形態では、類似姿勢指定部14は、表示装置19に3次元形状モデル保持部12が保持する3次元形状モデルを送出し、表示装置19のGUIに対象物体の3次元形状モデル2つをレンダリングする。
そして、表示装置19のGUIに対して、操作装置20によりユーザによる操作を取得して、互いに誤りやすいような姿勢に配置する。そして、このときの2つのモデルの仮想的な3次元空間における姿勢を取得し、類似姿勢間の変換パラメータを算出して類似姿勢として指定し、記録することで登録を行う。類似姿勢指定部14で登録された変換パラメータは、特定部位指定部15と位置姿勢算出部17に入力される。なお、指定される類似姿勢は2つに限られるものではなく、3つ以上の互いに誤りやすい複数の類似姿勢を指定してもよい。
特定部位指定部15は、類似姿勢指定部14において登録した類似姿勢について、判別の手掛かりとなる特定部位を指定し、記憶部22に登録する。特定部位は、類似姿勢の関係にある2つの姿勢において見た目が顕著に異なる部位である。具体的には、3次元形状モデルを形成する幾何特徴のうち、相手の3次元形状モデルを形成する幾何特徴と重ならない幾何特徴を登録する。特定部位の登録は、表示装置19のGUIに3次元形状モデル保持部12から入力された対象物体の3次元形状モデルをレンダリングし、操作装置20でユーザ操作によって選択された部位を取得して登録することが可能である。特定部位指定部15で登録された特定部位の情報は、特定部位内でモデルデータをサンプリングするために特定部位内サンプリング部16に入力される。
特定部位指定部15では、類似姿勢の情報に加え、モデル点サンプリング部13でモデルサンプリングを実施したときの3次元形状モデルとモデル点の相対位置関係の情報を用いて、特定部位を自動で登録する処理を実施してもよい。具体的には以下の処理を実施する。まず、仮想的な3次元空間上に類似姿勢の関係にある3次元形状モデルを2つレンダリングする。次に、3次元形状モデルとモデル点の相対位置関係の情報を用いて、レンダリングした各3次元形状モデルから特定部位算出用のモデル点をサンプリングする。サンプリングされた特定部位算出用のモデル点については、仮想的な3次元空間における3次元座標の情報とともに、どちらの3次元形状モデル由来の点であるかを属性情報として保持する。次に、各モデル点について、自分とは異なる属性情報をもつ近傍のモデル点との距離(モデル点間距離)を算出する。ここで、モデル点間距離の最小値が一定以上の長さである場合、その点が存在する部位について特定部位の可能性があると判断する。特定部位を指定する最後の処理として、モデル点間距離の最小値(最小モデル点間距離)が一定以上の長さであるモデル点を含む幾何特徴を特定部位として登録する。
特定部位内サンプリング部16は、特定部位指定部15から取得した特定部位の情報およびモデル点サンプリング部13から取得したモデル点の情報に基づいて、類似姿勢との判別が十分可能な密度で特定部内でのモデル点のサンプリングを実施する。サンプリングの方法としては、どちらも3次元モデルの面上及びエッジ稜線上で均一になるようにサンプリングしてよいし、ランダムにサンプリングしても構わない。サンプリングしたモデル点については、その位置情報とともに、サンプリング元の幾何特徴(面もしくはエッジ稜線)との対応関係が記憶部22に保持される。特定部位指定部15でサンプリングされた特定部位のモデル点と対応関係の情報は、位置姿勢算出部17に入力される。
位置姿勢算出部17は、取得した情報に基づいて対象物体の位置及び姿勢(位置姿勢)を算出する。本実施形態において位置姿勢算出部17が取得する情報は、計測データ(例えば、距離画像、濃淡画像)、3次元形状モデル、概略位置姿勢、2種類の方法でサンプリングされたモデル点、類似姿勢の変換パラメータ等である。
具体的にはまず、概略位置姿勢に基づき、3次元形状モデルと画像中の対象物体とが最もフィットするような位置姿勢を算出する。その後、類似姿勢の変換パラメータに基づき、算出された位置姿勢と誤りやすい関係にある位置姿勢を求め、その位置姿勢を初期値として別途モデルフィッティングを行う。その後、モデルフィッティング結果の評価値を、特定部位に含まれるモデル点を用いて算出・比較し、評価値のよい方の位置姿勢を最終結果として出力部21に入力する。
モデルフィッティングは、モデル点を距離画像上もしくは濃淡画像上に投影し、画像上の幾何特徴とフィットするように位置姿勢を補正することで行う。モデル点と対応づける計測データについては、距離画像のみあるいは濃淡画像のみを用いてフィッティングを行ってもよいし、その両方を用いてもよい。
出力部21は、位置姿勢算出部17によって算出された対象物体の位置姿勢の情報を外部に出力する。出力先としては、対象物体を把持するロボットハンドの動作を制御する制御部23等が挙げられる。
撮像装置18は、対象物体の位置姿勢を認識するために必要な計測情報を取得するセンサであることが好ましい。たとえば、2次元画像を撮影するカメラでもよいし、各画素が奥行きの情報を持つ距離画像を撮影する距離センサでもよいし、これらを併用してもよい。距離センサとしては、対象物体に照射したレーザ光やスリット光の反射光をカメラで撮影し、三角測量により距離を計測する方式のほか、光の飛行時間を利用するTime−of−flight方式等がある。また、ステレオカメラで撮影する画像から三角測量により距離を計算する方式も利用できる。その他、物体の3次元位置姿勢を認識するのに必要な情報を取得できればいかなるセンサであってもよい。
撮像装置18は、対象物体に対して上方または横方などに固定されていてもよいし、またロボットハンドなどに備えつけられていてもよい。本実施形態では、距離画像および濃淡画像をともに取得可能なセンサを利用するものとする。上述のとおり、撮像装置18が取得した2次元画像としての濃淡画像や距離画像などの計測データまたは計測情報は、計測データ保持部10に入力される。なお、撮像装置18に設定された座標系を以後、センサ座標系と呼ぶことにする。
表示装置19は、3次元形状モデル保持部12から類似姿勢指定部14を介して3次元形状モデルを取得し、表示する。また、撮像装置18から取得した画像や、位置姿勢算出部17によって算出される位置姿勢を表示し、ユーザに確認させるようにしてもよい。表示装置19は例えば液晶ディスプレイやCRTディスプレイ等が用いられる。
操作装置20は、例えば、キーボードとマウスであり、ユーザからの指示を入力するのに用いられ、特にマウスはGUIを操作するのに用いられる。
なお、情報処理装置100が備える各処理部の機能は、図1中のCPU101が、ROM102に記録されているプログラムをRAM103にロードして実行することによって実現される。また、各処理部におけるデータの保持や記憶部22におけるデータの記憶は、図1中のROM102やRAM103などのメモリで行われる。
図4(A)および図4(B)は、本実施形態における対象物体の位置姿勢を算出する処理手順を示すフローチャートである。本フローにおいては、まず位置姿勢算出の準備として、誤認識しやすい2つの位置姿勢(類似姿勢)に関する変換パラメータを登録するとともに、判別の手掛かりとなる特定部位を登録する。その後、登録された特定部位について、類似姿勢との判別が可能な数になるような密度でモデル点をサンプリングする。そして、位置姿勢算出時には、概略位置姿勢から一度フィッティングを行った後、登録された変換パラメータに基づき、類似姿勢を作成する。そして、作成された位置姿勢を初期値としてフィッティングを行った後、特定部位におけるフィッティング結果を比較し、評価値のより高い位置姿勢を採用する。
以下、各処理の詳細について説明する。
(ステップS401)
ステップS401において、情報処理装置100に対象物体の3次元形状モデルを入力する。入力された3次元形状モデルは、3次元形状モデル保持部12に保持される。モデル点サンプリング部13、類似姿勢指定部14、特定部位指定部15、および位置姿勢算出部17は、3次元形状モデル保持部12から対象物体の3次元形状モデルを取得する。
(ステップS402)
ステップS402において、モデル点サンプリング部13は、入力される3次元形状モデルの情報からモデル点をサンプリングする。ここでサンプリングされる点は、後述のステップS408とステップS410においてモデルフィッティングを行うために用いられる。モデルフィッティング用のモデル点をサンプリングする際には、サンプリングを実施する3次元形状モデル上の部位や、サンプリングするモデル点の数(即ち、サンプリング点数)について事前に設定を行う必要がある。なお、モデル点のサンプリングに関する情報については、本実施形態においてはサンプリング点数を設定しているが、3次元形状モデル上の面やエッジ稜線上にサンプリングを行うサンプリング密度を設定してもよい。
サンプリングを実施する3次元形状モデル上の部位については、例えば3次元形状モデル全体について実施するよう設定するのがよい。モデル全体についてサンプリングを実施することで、モデルフィッティングによって誤った位置姿勢を出力する可能性を低減することが期待できる。また、対象物体がモデルフィッティングに大きく寄与する幾何特徴を有している場合には、サンプリングを実施する部位を3次元形状モデルのうち幾何特徴の存在する部位のみに限定して設定してもよい。サンプリング点数については、モデルフィッティングの精度や処理時間についての所望の条件を満たす範囲内で、自由に設定して構わない。
(ステップS403)
ステップS403において、類似姿勢指定部14は、互いに誤りやすい異なる2つの姿勢(第1の姿勢、第2の姿勢)の関係を表す、類似姿勢の変換パラメータを登録する。本ステップでの姿勢の登録方法は、例えば特許文献2に示されているような、GUIを用いた方法を用いることとする。このとき、ユーザは類似姿勢指定部14を介して操作装置20を用いてGUIを操作する。
図5は、3次元形状モデルにおける類似姿勢および特定部位を説明する図である。3次元形状モデル保持部12は表示装置19に3次元形状モデルを送出し、表示装置19は取得した3次元形状モデルを図5(A)に示すように2つ、仮想空間内に配置した状態を表示する。ここで、表示された2つのモデルのうち一方を基準モデル501、もう一方のモデルを操作モデル502とする。表示装置19の表示画面に表示された操作モデル502を情報処理装置100のユーザに操作させ、基準モデル501に対して見た目が類似するような異なる姿勢に重ね合わせた状態を作成する。図5(B)はその例であり、2つのモデルが完全に重なった状態からモデル座標系のZ軸まわりに操作モデル502を180度回転させることで、類似姿勢を作成することができる。類似姿勢を作成した後、2つの3次元形状モデル間の変換パラメータを算出する。
ここで、基準モデルおよび操作モデルのそれぞれの3次元形状モデルに対して設定されているモデル座標系をそれぞれ基準モデル座標系、操作モデル座標系と呼ぶ。さらに、仮想カメラに設定された座標系を仮想カメラ座標系と呼ぶ。なお、仮想カメラ座標系は、撮像装置18の基準座標系と同様に設定するものとする。このとき、基準モデル座標系から仮想カメラ座標系への姿勢変換を行う3×3の回転行列、位置の変換を行う3列の並進ベクトルをそれぞれ、RVB、tVBとする。このとき、基準モデル座標系X=[X,Y,Zから仮想カメラ座標系X=[X,Y,Zへの変換は、4×4行列TVBを用いて以下のように表すことができる。
’=TVB
ここで、
’=[X,Y,Z,1]
’=[X,Y,Z,1]
Figure 2018091656
である。これ以後、TVBを基準モデルの位置姿勢(第1の位置姿勢)と呼ぶ。
一方、操作モデル座標系から仮想カメラ座標系への姿勢変換を行う3×3の回転行列、位置の変換を行う3列の並進ベクトルをそれぞれ、RVO、tVOとする。このとき、操作モデル座標系X=[X,Y,Zから仮想カメラ座標系X=[X,Y,Zへの変換は、4×4行列TVOを用いて以下のように表すことができる。
’=TVO
ここで、
’=[X,Y,Z,1]
’=[X,Y,Z,1]
Figure 2018091656
である。これ以後、TVOを操作モデルの位置姿勢(第2の位置姿勢)と呼ぶことにする。
基準モデルの位置姿勢TVBと、操作モデルの位置姿勢TVOより、2つの3次元形状モデル間の相対位置姿勢を求める。求める相対位置姿勢をTとすると、Tは以下により求まる。
=(TVB−1VO
算出したTは位置を表す3パラメータ、姿勢を表す3パラメータの合計6パラメータで表現可能である。そこで、Tから位置姿勢を表す6パラメータの値を取得し、これらを一組にしたものを変換パラメータとしてリストに追加する。なお、6パラメータの値の代わりに、4×4行列を構成する16個のパラメータの値を一組にしたものを変換パラメータとすることもできる。あるいは、基準モデルの位置姿勢を表す6パラメータ、操作モデルの位置姿勢を表す6パラメータを一組にして変換パラメータとしてももちろんよい。その他、基準モデルと操作モデルとの相対位置姿勢Tを復元可能、すなわち、2つのモデル間の位置姿勢を互いに変換可能であればいかなるパラメータを変換パラメータとしてもかまわない。また、姿勢を表す3パラメータのみを変換パラメータとしてもかまわない。
なお、本実施形態では変換パラメータを1つだけ登録したが、見た目を誤りやすい姿勢が複数存在する場合には、ここまで述べてきた操作を複数回実行することで、各変換パラメータの算出、リストへの追加を行えばよい。以上、GUIを用いた変換パラメータの登録方法について述べたが、ここで述べたGUIは一例であり、これ以外のものを利用して類似姿勢の変換パラメータを登録しても構わない。以上、モデル点のサンプリング方法と類似姿勢の登録方法を述べたが、この処理は対象物体の3次元形状モデルの情報があれば実施可能であるため、本実施形態においてはステップS402とS403の順番を入れ替えて実施しても構わない。
(ステップS404)
ステップS404において、特定部位指定部15は、ステップS403において登録された類似姿勢の判別に用いる特定部位を登録する。本実施形態における特定部位の登録は、ステップS403と同様に、ユーザがGUIを用いて行う方法を用いることとする。ユーザは特定部位指定部15を介して操作装置20を用いてGUIを操作する。表示装置19に、類似姿勢の関係にある2つの3次元形状モデルと、特定部位を登録するための直方体が表示されている状態で、ユーザは操作装置20を用いて直方体を移動もしくは拡大/縮小させて直方体内に囲まれる部位を選択し、特定部位として登録する。このとき、直方体を選択した時の仮想カメラから観測可能な操作モデル表面について、画面上で指定した直方体内における奥行き方向の存在範囲を算出し、算出した存在範囲と画面上の直方体により定義される3次元空間を算出する。そして、仮想カメラに対する操作モデルの位置姿勢に基づきモデル座標系に変換し直して記録する。
例えば、図5(B)のようにモデル座標系のZ軸まわりに180度操作モデルを回転させ類似姿勢が登録されている場合、図5(C)のように画面と対象物体のXZ平面を略一致させた上で、特定部位指定用の矩形で特定部位503を指定する。類似姿勢を判別する手掛かりとなる形状は対象物体表面上の円筒形状であるため、円筒形状を含むように矩形を設定するのが有効である。その結果、図5(D)に示すように、直方体の領域が特定部位503として登録される。特定部位の指定にあたり、本実施形態では直方体を用いた方法について述べているが、直方体に限らず円、楕円、多角形など、他の幾何形状を用いた指定であっても構わない。
また、特定部位を登録するときに、ステップS402において登録した類似姿勢に基づき、対になる特定部位を新たに算出して記録してもよい。例えば、図6(A)のような形状をした対象物体3の場合、図6(B)のようにモデル座標系のZ軸まわりに180度回転させた類似姿勢を登録するのが姿勢判別に有効である。このような類似姿勢については、図6(C)のように特定部位として領域601、領域602を登録することが有効であると考えられるが、これらの2つの領域は対になる部位である。つまり、図6(C)のように二つの特定部位を登録した場合、位置姿勢算出時に類似姿勢の評価値を比較するためには、二つの姿勢の双方に関して特定部位を記録しておく必要がある。そこで、操作モデルを用いて記録した特定部位の3次元空間を変換パラメータに基づき類似姿勢に配置した基準モデルのモデル座標系に変換し、双方の3次元空間を記録する。これにより、類似姿勢の関係にある二つの姿勢についてそれぞれ比較すべき特定部位を記録することが可能である。なお、変換パラメータあるいは特定部位が複数登録されている場合は、それぞれの組み合わせについて本処理を実施する。以上、GUIを用いた特定部位の登録方法について述べたが、ここで述べたGUIは一例であり、これ以外の方法を利用しても構わない。
(ステップS405)
ステップS405において、特定部位内サンプリング部16は、ステップS404において登録された特定部位の情報からモデル点をサンプリングする。ここでサンプリングされる点は、後述のステップS412における評価値の算出に用いられる。ステップS405においてサンプリング類似姿勢判別用のモデル点をサンプリングする際には、サンプリングを実施する部位が特定部位に限定される。
サンプリング点数については事前に設定を行うが、ここでの設定値は、類似姿勢を判別するために必要なサンプリング点数以上の値としなければならない。ここで、設定されるサンプリング点数は大きいほど、後述のステップS411において算出される評価値の差が大きくなることが期待されるため、類似姿勢の判別が容易となる。図7は、ステップS402において対象物体全体についてサンプリングされたモデル点と、ステップS405において特定部位内についてサンプリングされたモデル点を示す図である。対象物体3の全体についてサンプリングされたモデル点と、特定部位についてサンプリングされたモデル点は、モデル点の密度が異なっており、特定部位内でサンプリングするモデル点の密度の方が高く設定される。特定部位内でサンプリングされたモデル点は、対象物体全体についてサンプリングされたモデル点よりも高い密度で生成されるため、類似姿勢を容易に判別することができる。
サンプリング点数の設定値は、例えば撮像装置18によって取得される計測データのうち、特定部位として登録されている部位において存在しうる計測点の数の上限値とするのがよい。計測点の数の上限値は、撮像装置18の解像度や、対象物体の計測データを取得可能な撮像装置18の撮像可能範囲によって決まる値である。図8は、特定部位における幾何特徴上の計測点の数の上限値を推測する方法の説明図である。図8のように、仮想的な3次元空間において撮像装置18の撮像可能範囲内に対象物体を配置することで、取得される画像上での対象物体3の幾何特徴のサイズ(エッジ稜線の長さや面の面積に対応する画素数)を推測することができる。一方、取得された画像から抽出される計測データの密度は、画像の解像度以上にはなり得ない。よって、幾何特徴の画像上でのサイズの情報と撮像装置18の解像度の情報から、特定部位における幾何特徴上の計測点の数の上限値を推測することができる。このようにサンプリング点数を設定することで、類似姿勢を判別するモデル点を十分な数だけ確保できると期待される。
以上、特定部位におけるモデル点のサンプリングについて用途ごとに2つの方法を述べたが、モデル点のサンプリングに関する設定パラメータについてはS403と同様にサンプリング点数に限定されない。つまり、特定部位内のサンプリング密度を設定してもよい。また、ステップS403において複数の部位を特定部位として登録した場合については、登録した特定部位ごとに上述の方法で計測点の数の上限値を算出し、サンプリング点数の設定値としてもよい。
(ステップS406)
ステップS406において、計測データ保持部10は、撮像装置18により撮像された対象物体の距離画像および濃淡画像を取得する。図9(A)に撮像した画像900を示す。なお、本実施形態においては、モデル点のサンプリングの後に計測データを取得しているが、撮像装置18によって撮像が実施された後であれば、ステップS401からステップS405までの一連の処理の中のどこで実施しても構わない。
(ステップS407)
ステップS407において、概略位置姿勢算出部11は、撮影画像中に存在するバラ積みされた多数の対象物体の中から一個体の検出を行い、センサ座標系における対象物体の概略位置姿勢を表す6つのパラメータを算出して記録する。ここで算出した6つのパラメータに基づくモデル座標系からセンサ座標系への座標変換において、姿勢を表す3つのパラメータで表現される3×3の回転行列をRSM、位置を表す3つのパラメータで表現される3列の並進ベクトルをtSMとする。このとき、モデル座標系X=[X,Y,Zからセンサ座標系X=[X,Y,Zへの変換は、4×4行列T’を用いて以下のように表すことができる。
’=T’X
ここで、
’=[X,Y,Z,1]
’=[X,Y,Z,1]
Figure 2018091656
である。これ以後、T’を概略位置姿勢と呼ぶことにする。図9(B)に、概略位置姿勢T’に基づき、撮影画像上に3次元形状モデルを投影した結果を示す。投影した3次元形状モデルが点線901である。
(ステップS408)
ステップS408において、位置姿勢算出部17は、概略位置姿勢T’を初期値として3次元モデルと画像中の対象物体とのモデルフィッティングを行うことで、対象物体の位置姿勢を算出する。具体的には、3次元形状モデルを撮像装置のパラメータと概略位置姿勢とに基づいて撮影画像に投影する。そして、投影された3次元形状モデルの特徴と画像中の対象物体の特徴とを対応付けてその残差を小さくすることにより、対象物体の位置姿勢を算出する。対象物体の高精度な位置姿勢を算出する。ここで算出した位置姿勢の6パラメータにより表現可能な、モデル座標系からセンサ座標系への座標変換を行う4×4の回転行列をTとする。ここで、図9(C)に、フィッティング後の位置姿勢Tに基づき、撮影画像上に3次元形状モデルを投影した結果を示す。投影した3次元形状モデルが点線902である。この例では、概略位置姿勢算出部11が誤った一個体を検出したために、本ステップにおいて高精度な位置姿勢算出を行っても、正しい位置姿勢が算出されていない。
(ステップS409)
ステップS409において、位置姿勢算出部17は、ステップS408で算出した位置姿勢に対して評価値を算出し、所定の閾値と比較を行うことで位置姿勢の正誤を判定し、後段の処理を実施するか否かの判定を行う。たとえばフィッティング後の位置姿勢におけるモデル表面上の幾何特徴と、画像中の幾何特徴との3次元的な距離を残差とする(ずれ量取得)。そして、全幾何特徴の残差の平均値Eをスコアとして用いることができる。
算出した残差の平均値Eが所定の閾値(たとえば0.1mm)よりも小さければ、正しい位置姿勢が導出できたと判定して本処理を終了する。一方、残差の平均値が閾値よりも大きければ、誤った位置姿勢が求まったものと判定して、ステップS410へ進む。閾値は、例えば、予めユーザによって設定しておけばよい。また、位置姿勢の正誤判定方法はこれに限るものではない。たとえば、算出されたTに基づき、モデルを投影してレンダリングした画像と、撮影画像とでの、物体部位内の輝度の正規化相互相関係数Rを求め、この値を利用してもよい。この場合、Rが所定値(たとえば0.9)よりも大きければステップS411へ進む。一方、小さければステップS408へ進む。なお、この方法においてモデルを投影してレンダリングを実施する際には、対象物体の表面特性を考慮して輝度の計算に反映させてもよい。このほか、ステップS408で算出された位置姿勢の正誤を峻別可能な方法であればいかなる方法であっても構わない。なお、この処理を省略し、必ずステップS410へ進むようにしてもよい。
(ステップS410)
ステップS410において、位置姿勢算出部17は、位置姿勢Tと、類似姿勢指定部14から取得したN組の各変換パラメータとを用いて、新たな位置姿勢の候補を生成する。まず、変換パラメータから復元可能な相対位置姿勢をTr_i(i=1〜N)と表現し、それぞれを用いて作成した新たな候補の位置姿勢をT’とする。T’は以下により算出する。
’=Tr_i −1
図9(D)は、新たな候補の位置姿勢T’に基づき、撮影画像上に3次元形状モデルを投影したものである。投影した3次元形状モデルが点線903である。次に位置姿勢算出部17は、生成された新たな候補の位置姿勢T’を初期値として、ステップS408と同様に撮影画像と3次元形状モデルとがフィットするように、対象物体の位置姿勢を算出(導出)する。ここで算出された位置姿勢をTとする。
(ステップS411)
ステップS411において、位置姿勢算出部17は、ステップS409で生成されたN個の位置姿勢Tの算出が完了しているかを判定する。N個のTの算出が完了していればステップS412へ処理を進め、完了していなければステップS410へ処理を戻す。なお、N個の新たな候補位置姿勢に対してステップS410の処理を並列化して実施してもよい。
(ステップS412)
ステップS412において、位置姿勢算出部17は、ステップS410で算出した(N+1)個の位置姿勢T(i=0〜N)に対して、S305で決定した特定部位のサンプリングに関する情報に基づいて、評価値を算出する。具体的には、特定部位のモデル点と計測点の一致度から評価値を算出する。そして、算出した評価値のうち、最良の評価値に対応する位置姿勢を最終的な対象物体の位置姿勢として出力する。
ここで用いる評価値には、ステップS409と同様に残差を用いてもよいし、算出された位置姿勢に基づいて対象物体を投影した画像と、撮影画像との正規化相互相関を用いてもよい。その他、複数の位置姿勢の正誤を評価値に基づいて峻別可能な方法であればいかなる方法であっても構わない。図9(E)は、T、Tの2つの位置姿勢を評価し、Tを最終位置姿勢として出力した様子を示す。このとき出力される最終位置姿勢が点線904で示される位置姿勢である。
以上、第1実施形態では、特定部位に応じた設定値で事前にモデル点のサンプリングを行った後で、サンプリングしたモデル点を用いてモデルフィッティングと類似姿勢の判別を実施する方法について述べた。この方法を用いることにより、局所的な部位の形状が異なるような対象物体について、高速かつ高精度に姿勢の違いを判別することが可能となる。
(第2実施形態)
第1実施形態においては、特定部位についてなるべく多くのモデル点をサンプリングするようにパラメータを設定した。モデル点の数が多いほど類似姿勢の判別が容易となる一方、評価値を算出するための処理時間が増大する。サンプリング点数もしくはサンプリング密度の設定値が過剰である場合、類似姿勢の峻別性と処理時間との両立ができなくなる場合が考えられる。そこで、本実施形態では、サンプリングするモデル点の数が判定の精度を維持しつつも処理時間の増加を抑制することができる所定の基準値以下になるよう、サンプリング点数もしくはサンプリング密度を決定する。具体的には、特定部位のサンプリングを行った後に、サンプリングした点の数が過剰であるかどうかを判別し、過剰分については間引くという処理を追加で行う。本実施形態にかかる情報処理装置100の構成は第1実施形態と同様であるため説明を省略する。
次に、本実施形態の処理手順について説明する。図10は、本実施形態における対象物体の位置姿勢を算出する処理手順を示す図である。図10(A)において、ステップS1001からステップS1005までは、第1実施形態におけるステップS401からステップS405までと同じ処理であるため説明を省略する。また、図10(B)におけるステップS1008からステップS1014までは、第1実施形態におけるステップS406からステップS412までと同じ処理であるため、これらについても説明を省略する。
(ステップS1006)
ステップS1006において、特定部位内サンプリング部16は、ステップS1005においてサンプリングしたモデル点の数についてサンプリングするモデル点数の所定の基準値との比較を行い、モデル点数が過剰であるか否か判定する。モデル点数の所定の基準値(以下、「サンプリング基準点数」ともいう)は面積に関わらず設定してよいが、観測される面積ごとに段階的に設定してもよい。ここで、サンプリング基準点数は事前に設定されるパラメータである。サンプリング基準点数は、類似姿勢を判別でき、かつ所望の処理時間以内で一連の処理を実施可能な範囲内で設定される。
特定部位内のモデル点の数が過剰であるかどうかを判別する方法としては、例えばサンプリング処理を実施する際に、生成したモデル点の数を数える方法がある。ステップS1006において、特定部内におけるモデル点の数が基準モデル点数より多い場合、モデル点の数が過剰であると判断され、ステップS1007へ進む。一方、特定部位内におけるモデル点の数が基準モデル点数以下である場合はステップS1008に進む。
(ステップS1007)
ステップS1007において、特定部位内サンプリング部は、過剰であると判断されたモデル点を間引く処理を実施し、モデル点の数が所定の基準値以下になるようにする。モデル点を間引く方法としては、例えば特定部位におけるモデル点がなるべく等間隔に分布するように間引く方法がある。具体的には、まずサンプリング基準値の情報と、特定部位に含まれる幾何特徴の面積や稜線の長さの情報から、間引き後のモデル点について、モデル点が一様に分布している場合を想定したモデル点間の距離の理想値を算出する。次に、特定部位内で実際にサンプリングされている各モデル点について再近傍のモデル点との距離を算出する。距離が理想値より短い場合には、距離を算出するのに用いたモデル点のどちらかを間引く。この処理を全モデル点について順次実施することにより、モデル点がおおよそ等間隔に分布するようにモデル点を間引くことができる。また、モデル点を間引くその他の方法としては、ランダムに間引く方法を用いてもよい。
なお、モデル点の間引きに関する設定パラメータについては、サンプリング基準点数を設定しているが、間引き処理を実施した後の3次元形状モデル上の面やエッジ稜線上のモデル点の密度(以下、「サンプリング基準密度」ともいう)を設定してもよい。その場合に過剰なモデル点を間引く方法としてはまず、特定部位を所定の表面積ごとに分割し、領域内に存在するモデル点数の理想値(以下、「領域内基準モデル点数」ともいう)をサンプリング基準密度の情報から算出する。その後、分割した領域ごとに領域内に実際に存在するモデル点の数を数え、モデル点の数が領域内基準モデル点数より多い場合には、各領域において過剰な分だけのモデル点を間引く。この処理を実施することで、モデル点がおよそ一様に分布するようにモデル点を間引くことができる。
以上、本実施形態における処理手順について説明したが、本実施形態における特徴的な処理であるステップS1006とステップS1007について、これらの処理を必ずしもステップS1005の直後に実施する必要はない。つまり、ステップS1005において特定部位内のモデル点を作成してから、ステップS1014において対象物体の位置姿勢についての評価値を算出するのにモデル点が用いられるまでの間であれば、任意のタイミングで実施してもよい。また、特定部位を複数箇所指定した場合は、指定した特定部位ごとにモデル点数が過剰であるかどうかの判別とモデル点の間引き処理を実施するようにしてもよい。
以上説明したように、特定部位のサンプリングを行った後に、サンプリングした点の数が過剰であるかどうかを判別し、過剰分については間引くという処理を追加で行うことにより、判定の精度を維持しつつも処理時間の増加を抑制することができる。
(第3実施形態)
第1実施形態、第2実施形態においては、登録した特定部位について最適と思われる数だけモデル点を一意にサンプリングし、サンプリングされたモデル点を類似姿勢の判別に使用する。これら実施形態は、撮影画像上で対象物体がある程度限定された姿勢しかとらず、なおかつある程度同じ大きさで観測される場合を想定している。しかしながら、計測範囲がある程度広くて、かつ対象物体がバラ積み状態で配置されている場合、対象物体は様々な姿勢を取り得、なおかつ撮像装置18の計測範囲内で、画像上では様々な大きさで観測されうる。その場合、第1実施形態、第2実施形態においてサンプリングしたモデル点の数は、必ずしも最適なものになるとは限らず、対象物体の配置によっては過剰な数のモデル点をサンプリングしてしまう可能性がある。本実施形態は、計測範囲内で対象物体がどこに配置されるかによって、最適なモデル点を選択して類似姿勢の判別に用いる。具体的には、対象物体の概略位置姿勢がどのような値となるかによって、どのモデル点をサンプリングするかをあらかじめ設定しておき、算出された概略位置姿勢の情報をもとに対応するモデル点を選択して類似姿勢の判別に使用する。この方法を用いると、計測範囲内で対象物体が様々な位置姿勢を取っていても最適な条件で類似姿勢を判別することができる。なお、本実施形態にかかる情報処理装置100の構成は第1実施形態と同様であるため説明を省略する。
本実施形態の処理手順について説明する。図11は、本実施形態における対象物体の位置姿勢を算出する処理手順を示す図である。図11(A)において、ステップS1101からステップS1104までは、第1実施形態におけるステップS401からステップS404までと同じ処理であるため説明を省略する。また、図11(B)におけるステップS1107とステップS1108は、第1実施形態におけるステップS406とステップS407と同じ処理であるため、これらについても説明を省略する。さらに、図11(B)におけるステップS1110からステップS1114については、第1実施形態におけるステップS408からステップS412までと同じ処理であるため、これらについても説明を省略する。
(ステップS1105)
ステップS1105において、特定部位内サンプリング部16は、モデル点を設定する概略位置姿勢(以下、「概略位置姿勢候補」ともいう)と、概略位置姿勢候補ごとのサンプリング条件を設定する。サンプリング条件とは、例えば特定部位内のサンプリング密度やサンプリングするモデル点の数が挙げられる。サンプリング条件を設定する方法としては、例えば計測範囲内における対象物の位置ごとに設定する方法等がある。
図12は、概略位置姿勢ごとのモデル点のサンプリング方法についての説明図である。
図12(A)では、撮像装置18から見て、撮像範囲800の中で手前側の位置に対象物体1200が、奥側の位置に対象物体1210が配置されている。この場合、手前側の対象物体1200の方が奥側の対象物体1210よりも大きく撮像される。そのため、手前側の対象物体1200の方が、奥側の対象物体1210よりもモデル点の密度が低くても類似姿勢の判別が可能である。よって、図12(A)のような場合には、撮像装置の手前側におけるモデル点のサンプリング密度を、奥側におけるモデル点のサンプリング密度よりも低く設定するのが有効である。概略位置姿勢候補の数については、2つに限らず、いくつ設定してもよい。その場合、配置される対象物体が類似姿勢の判別に有利な位置(例えば、幾何特徴が大きく観測される位置)になる場合はサンプリング密度を低く設定するのが有効である。一方、配置される対象物体が類似姿勢の判別に不利な位置(例えば、幾何特徴が小さく観測される位置)になる場合は、サンプリング密度を高く設定するのが有効である。
サンプリング条件は、計測範囲内の位置だけではなく、対象物体の姿勢ごとに設定してもよい。例えば、図12(B)のように観測される姿勢からXYZ各軸まわりに90度刻みで回転させた4×4×4通りの64姿勢を概略位置姿勢候補とし、各姿勢における特定部位内の幾何特徴の見え方からそれぞれサンプリング密度を設定することができる。その一例として、図12(B)の姿勢からY軸周りに90度回転させた図12(C)のように観測される姿勢を示す。図12(B)の方が特定部位4内の幾何特徴が大きく観測される。そのような場合、図12(B)のような姿勢におけるサンプリング密度を図12(C)におけるサンプリング密度よりも低く設定するのが有効である。同様に、残りの姿勢についても撮影画像上での特定部位内の幾何特徴の見え方が異なる。そのため、類似姿勢の判別に有利な姿勢(例えば、幾何特徴が多く観測される姿勢)ではサンプリング密度を低く設定し、類似姿勢の判別に不利な姿勢(例えば、幾何特徴があまり観測されない姿勢)ではサンプリング密度を高く設定するのが有効である。なお、本実施形態では例としてXYZ各軸まわりに90度刻みで回転させた場合について説明したが、それに限らず任意の姿勢についてサンプリング密度を設定して構わない。
以上、概略位置姿勢候補ごとにサンプリング条件を設定する2つの方法を説明したが、これらの方法を組み合わせてもよい。例えば、位置については図12(A)のような2つの位置を想定し、かつ姿勢については対象物体の姿勢をXYZ各軸まわりに90度刻みで回転させた64姿勢を想定した場合、全部で128通りの概略位置姿勢候補を想定することができる。この128通りの概略位置姿勢候補のそれぞれについてサンプリング点数を設定することで、より多くの位置姿勢について最適な条件で類似姿勢を判別することができる。
サンプリング点数の設定方法としては、位置ごと、姿勢ごと、もしくはそれらを組み合わせた位置姿勢候補ごとにサンプリング密度の値そのものを設定する方法を用いてもよいが、それ以外の方法を用いてもよい。例えば、あらかじめ基準となる位置姿勢候補(以下、「位置姿勢基準」ともいう)とその位置姿勢におけるサンプリング密度だけ設定しておく。そして、それ以外の位置姿勢候補においては、位置姿勢基準からの差分もしくは基準位置姿勢におけるサンプリング点数との割合を設定してもよい。また、サンプリング条件を設定するのは、1つの概略位置姿勢候補に限らず、複数の概略位置姿勢候補について共通のサンプリング条件を設定しても構わない。また、概略位置姿勢候補に紐づけてサンプリング条件を設定する方法に限らず、計測範囲内の領域や、姿勢の範囲に紐づけてサンプリング条件を設定してもよい。
(ステップS1106)
図11のステップS1106において、特定部位内サンプリング部16は、ステップS1105において設定されたサンプリング条件に従って概略位置姿勢候補ごとにモデル点のサンプリングを実施する。サンプリングされたモデル点の情報は概略位置姿勢候補に紐づけられる。概略位置姿勢候補の情報とそれに紐づくモデル点の情報は位置姿勢算出部17に送られ、後述の処理であるステップS1109においてどのモデル点を使用するかが決定される。
(ステップS1109)
ステップS1109において、位置姿勢算出部17はステップS1108において算出された概略位置姿勢の情報をもとに、どのモデル点を類似姿勢の判別に用いるかを決定する。使用するモデル点の決定方法としてはまず、ステップS1108において算出された概略位置姿勢と、ステップS1105で設定された概略位置姿勢候補の照合を行う。概略位置姿勢候補の中で、ステップS1108において算出された概略位置姿勢と一致するものがあった場合は、一致した概略位置姿勢候補に紐づけられたモデル点が類似姿勢の判別に用いられる。概略位置姿勢候補の中で、ステップS1108において算出された概略位置姿勢と一致するものがなかった場合は、最も近い概略位置姿勢候補が選択され、それに紐づくモデル点が類似姿勢の判別に用いられる。
以上説明したように、本実施形態によると、概略位置姿勢の情報に基づいて対応するモデル点を選択して類似姿勢の判別を行うことができるので、様々な位置姿勢の対象物体の計測において、判定の精度と処理時間の抑制を両立することができる。
(第4実施形態)
第1実施形態、第2実施形態、第3実施形態では、姿勢を誤りやすい形状の特徴をもつ同じ形状の対象物体を判別する方法について述べた。本実施形態では、対象物体と形状の一部が異なる類似物体とを判別する方法について述べる。
図13は、対象物体と類似物体を示す図である。本実施形態で想定するのは、図13(A)で示すような形状をした対象物体3と、図13(B)で示すような形状をした類似物体1300との判別である。両者は形状の一部(対象物体3の特定部位4と類似物体1300の特定部位1301)が異なっており、例えば対象物体のバラ積みに類似物体が混入していた場合、誤認識する可能性がある。そのような誤認識を防ぐために、まず対象物体とともに類似物体の3次元形状モデルを入力し、対象物体と類似物体で誤認識する可能性のある相対姿勢を登録した上で判別の手掛かりとなる特定部位を登録する。図13(C)及び図13(D)は、登録する特定部位503の一例を示す図である。その後、対象物体と類似物体の3次元形状モデルにおいてそれぞれ特定部位503内のモデル点をサンプリングし、撮影画像上で観測される物体についてモデルフィッティングを実施して特定部位内での評価値を算出する。そして、対象物体のモデル点を用いた特定部位内での評価値と、類似物体のモデル点を用いた特定部位内での評価値とを比較することで、対象物体と類似物体を判別する。なお、本実施形態にかかる情報処理装置100の構成は第1実施形態と同様であるため説明を省略する。
次に、本実施形態の処理手順について説明する。図14は、本実施形態における対象物体と類似物体を判別する処理手順を示す図である。図14(B)において、ステップS1406からステップS1408までの処理は、第1実施形態におけるステップS406からステップS408までと同じ処理であるため、説明を省略する。
(ステップS1401)
ステップS1401において、モデル点サンプリング部13、類似姿勢指定部14、特定部位指定部15、および位置姿勢算出部17は、3次元形状モデル保持部12から対象物体の3次元形状モデルと類似物体の3次元形状モデルを取得する。これらの処理を実施する順番は任意であり、もしくは同時に取得しても構わない。
(ステップS1402)
ステップS1402において、モデル点サンプリング部13は、入力される対象物体の3次元形状モデルの情報と類似物体の3次元形状モデルの情報から、それぞれモデル点をサンプリングする。ここでサンプリングされる点は、後述のステップS1408とステップS1410においてモデルフィッティングを行うために用いられる。ここで、サンプリングを実施する条件については第1実施形態のステップS402における条件と同様であるため、説明を省略する。
(ステップS1403)
ステップS1403において、類似姿勢指定部14は、対象物体と類似物体について誤認識しやすい相対位置姿勢の変換パラメータを登録する。図13(A)に示すような対象物体と類似物体については、図13(B)に示すような相対位置姿勢に対応する変換パラメータが登録される。相対位置姿勢の変換パラメータの登録方法については第1実施形態のステップS403における方法と同様であるため、説明を省略する。
(ステップS1404)
ステップS1404において、特定部位指定部15は、ステップS1403において登録された相対位置姿勢で対象物体と類似物体を判別する特定部位を登録する。ステップS1403において図13(B)に示すような相対位置姿勢が登録された場合、図13(C)に示すように特定部位を登録することが有効である。本実施形態における特定部位の登録方法は、ステップS1403、および第1実施形態のステップS404における方法と同様であるため、説明を省略する。
(ステップS1405)
ステップS1405において、特定部位内サンプリング部16は、ステップS1404において登録された特定部位の情報から対象物体の3次元形状モデルと類似物体の3次元形状モデルのそれぞれについて、特定部位内でモデル点をサンプリングする。ここで、サンプリングされる点は、後述のステップS1411における評価値の算出に用いられる。ここで、サンプリングを実施する際の条件については、第1実施形態のステップS405における条件と同様であるため、説明を省略する。
(ステップS1409)
ステップS1409において、位置姿勢算出部17は、ステップS1408で算出した対象物体の位置姿勢に対して評価値を算出し、所定の閾値と比較を行う。評価値の例としては、第1実施形態と同様に、フィッティング後の位置姿勢におけるモデル表面上の幾何特徴と画像中の幾何特徴との3次元的な距離の残差について、全幾何特徴の残差の平均値を用いることができる。算出した残差の平均値Eが所定の閾値よりも小さければ、対象物体であると判定し、以降の処理を省略することができる。一方、Eが所定の閾値よりも大きければ、類似物体である可能性があると判定してステップS1410に進む。このほか、ステップS1408で算出された位置姿勢について、対象物体と類似物体を峻別可能な方法であればいかなる方法であっても構わない。
なお、この処理を省略し、必ずステップS1410へ進むようにしてもよい。
(ステップS1410)
ステップS1410において、位置姿勢算出部17は、ステップS1408において算出された位置姿勢Tと、対象物体の姿勢と類似物体の姿勢との変換パラメータを用いて、新たな位置姿勢の候補を生成する。まず、変換パラメータから復元可能な相対位置姿勢をTと表現し、それぞれを用いて作成した新たな候補の位置姿勢をT’とする。T’は以下により算出する。
T’=T−1
次に位置姿勢算出部17は、生成された新たな候補の位置姿勢T’を初期値として、撮影画像と3次元形状モデルとがフィットするように位置姿勢を算出する。ここで、3次元形状モデルは、対象物体のモデルと類似物体のモデルを両方用い、それぞれについて姿勢を算出する。対象物体の3次元形状モデルを用いて算出された位置姿勢をT、類似物体の3次元形状モデルを用いて算出された位置姿勢をTとする。
(ステップS1411)
ステップS1411において、位置姿勢算出部17は、ステップS1410で算出した位置姿勢T、Tに対し、特定部位として登録された部位のモデル点と計測点の一致度からそれぞれ評価値を算出する。ここで用いる評価値には、ステップS1409と同様に残差を用いてもよいし、算出された位置姿勢に基づいて対象物体を投影した画像と、撮影画像との正規化相互相関を用いてもよい。その他、複数の位置姿勢の正誤を評価値に基づいて峻別可能な方法であればいかなる方法であっても構わない。
(ステップS1412)
ステップS1412において、位置姿勢算出部17は位置姿勢Tについて算出した評価値(評価値A)と、位置姿勢Tについて算出した評価値(評価値B)を比較する。具体的には、評価値Aが評価値Bよりも高い値であった場合、撮影画像中の物体は対象物体であると判定される。一方、評価値Bが評価値Aよりも高い値であった場合、撮影画像中の物体は類似物体であると判定される。
以上、本実施形態における処理手順について説明したが、本実施形態では必ずしも図14の処理フローに厳密に従う必要はない。例えば、ステップS1405において特定部位内でモデル点のサンプリングを実施する際には、第2実施形態のように過剰にサンプリングされているかを判別し、過剰であった場合には間引く処理を追加してもよい。また、第3実施形態のように、特定部位内サンプリングを実施する概略位置姿勢候補点ごとにサンプリング条件を設定する方法を用いてもよい。
(第5実施形態)
上述の撮像装置18は、ある支持部材に支持された状態で使用されうる。本実施形態では、一例として、図15のように把持装置としてのロボットアーム1500に備え付けられて使用される制御システムについて説明する。撮像装置18を有する計測装置は、支持台1550にバラ積みされた対象物体3にパターン光を投影して撮像し、情報処理装置100はその画像を取得する。そして、情報処理装置100の位置姿勢算出部17が、対象物体3の位置および姿勢を求め、求められた位置および姿勢の情報を制御部23が取得する。制御部23は、計測結果である、対象物体3の位置および姿勢の情報に基づいて、ロボットアーム1500に駆動指令を送ってロボットアーム1500を制御する。ロボットアーム1500は保持部、把持部としての先端のロボットハンドなどで対象物体3を保持して、並進や回転などの移動をさせる。さらに、ロボットアーム1500によって対象物体3を他の部品に組み付けることにより、複数の部品で構成された物品、例えば電子回路基板や機械などを製造することができる。また、移動された対象物体3を加工することにより、物品を製造することができる。また、情報処理装置100が取得した計測データや画像や算出結果をディスプレイなどの表示装置19に表示してもよい。
(物品の製造方法に係る実施形態)
以上に説明した実施形態に係る計測装置は、物品製造方法に使用しうる。当該物品製造方法は、当該計測装置を用いて物体の計測を行う工程と、計測の結果に基づいて当該工程で計測を行われた物体の処理を行う工程と、を含みうる。当該処理は、例えば、加工、切断、搬送、組立(組付)、検査、および選別のうちの少なくともいずれか一つを含みうる。本実施形態の物品製造方法は、従来の方法に比べて、物品の性能・品質・生産性・生産コストのうちの少なくとも1つにおいて有利である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について説明したが、本発明は、これら実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。
100 情報処理装置
12 3次元形状モデル保持部
15 特定部位指定部
16 特定部位内サンプリング部
17 位置姿勢算出部

Claims (15)

  1. 対象物体の位置および姿勢を算出する情報処理装置であって、
    前記対象物体の形状の計測データおよび前記対象物体の形状モデルを取得する取得部と、
    前記取得部が取得した前記形状モデルにおいて、前記対象物体の姿勢を特定するための特定部位のサンプリングに関する情報を決定するサンプリング部と、
    前記サンプリング部が決定した前記特定部位の前記サンプリングに関する情報および前記対象物体の形状の計測データに基づいて前記対象物体の位置および姿勢を算出する算出部と、を有することを特徴とする情報処理装置。
  2. 前記サンプリング部は、前記サンプリングに関する情報として、サンプリングするモデル点の密度を決定し、当該決定された前記特定部位のモデル点の密度は、前記特定部位とは異なる他の領域をサンプリングするモデル点の密度より高いことを特徴とする請求項1に記載の情報処理装置。
  3. 前記サンプリング部は、前記対象物体を撮像する撮像装置の解像度または撮像可能範囲に基づいて、前記サンプリングに関する情報を決定することを特徴とする請求項1または請求項2に記載の情報処理装置。
  4. 前記サンプリング部は、前記サンプリングに関する情報として、サンプリングするモデル点の数を所定の基準値以下の範囲で決定することを特徴とする請求項1乃至3のうちいずれか1項に記載の情報処理装置。
  5. 前記対象物体の概略の位置および姿勢を算出する概略算出部をさらに有し、
    前記サンプリング部は、前記対象物体の概略位置姿勢の候補ごとに前記サンプリングに関する情報を設定し、
    前記算出部は、前記概略算出部が算出した前記対象物体の概略の位置および姿勢に基づいて前記対象物体の位置および姿勢を算出するのに用いる前記サンプリングに関する情報を決定することを特徴とする請求項1乃至4のうちいずれか1項に記載の情報処理装置。
  6. 前記取得部は、さらに、前記対象物体と形状の類似する類似物体の3次元形状モデルを取得し、
    前記サンプリング部は、さらに、前記対象物体と前記類似物体との判別に用いる特定部位のサンプリングに関する情報を決定し、
    前記算出部は、前記サンプリング部が決定した、前記対象物体の前記サンプリングに関する情報と前記類似物体の前記サンプリングに関する情報に基づいて、計測された物体が前記対象物体であるか否か判断することを特徴とする請求項1乃至5のうちいずれか1項に記載の情報処理装置。
  7. 前記算出部により算出された前記対象物体の位置および姿勢の情報を出力する出力部をさらに有することを特徴とする請求項1乃至6のうちいずれか1項に記載の情報処理装置。
  8. 前記特定部位は、前記対象物体の類似姿勢を判別するための部位であることを特徴とする請求項1乃至7のうちいずれか1項に記載の情報処理装置。
  9. 対象物体の位置および姿勢を計測する計測装置であって、
    前記対象物体の形状を計測する計測部と、
    請求項1乃至8のうちいずれか1項に記載の情報処理装置と、を有し、
    前記情報処理装置は、前記計測部によって計測された前記対象物体の形状の計測データを取得し、前記対象物体の位置および姿勢を算出することを特徴とする計測装置。
  10. 請求項1乃至8のうちいずれか1項に記載の情報処理装置と、
    前記対象物体を保持して移動させるロボットと、を有し、
    前記情報処理装置から出力された前記対象物体の位置および姿勢に基づいて、前記ロボットが前記対象物体を保持する、ことを特徴とするシステム。
  11. 対象物体の位置および姿勢を計測する計測装置であって、
    前記対象物体の形状を計測する計測部と、
    前記計測部による前記形状の計測データと前記対象物体の形状モデルとを比較することによって、前記対象物体の位置および姿勢を算出する処理部と、を有し、
    前記処理部は、前記対象物体の形状モデルにおいて前記対象物体の姿勢を特定するための特定部位のサンプリングに関する情報を決定し、前記サンプリングに関する情報に基づいて前記対象物体の位置および姿勢を算出することを特徴とする計測装置。
  12. 請求項11に記載の計測装置と、
    前記対象物体を保持して移動させるロボットと、を有し、
    前記計測装置から出力された前記対象物体の位置および姿勢に基づいて、前記ロボットが前記対象物体を保持する、ことを特徴とするシステム。
  13. 対象物体の位置および姿勢を算出する算出方法であって、
    前記対象物体の形状の計測データおよび前記対象物体の形状モデルを取得する取得工程と、
    前記取得工程で取得した前記形状モデルにおいて、前記対象物体の類似姿勢を判別し、姿勢を特定するための特定部位を指定する指定工程と、
    前記指定工程で指定した前記特定部位のサンプリングに関する情報を決定するサンプリング工程と、
    前記サンプリング工程で決定した前記特定部位の前記サンプリングに関する情報および前記対象物体の形状の計測データに基づいて前記対象物体の位置および姿勢を算出する算出工程と、を有することを特徴とする算出方法。
  14. 請求項13に記載の算出方法をコンピュータに実行させるためのプログラム。
  15. 請求項1乃至8のうちいずれか1項に記載の情報処理装置を用いて対象物体の計測を行う工程と、該計測の結果に基づいて前記対象物体を処理する工程と、を含むことを特徴とする物品の製造方法。
JP2016233160A 2016-11-30 2016-11-30 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法 Pending JP2018091656A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016233160A JP2018091656A (ja) 2016-11-30 2016-11-30 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法
US15/817,459 US20180150969A1 (en) 2016-11-30 2017-11-20 Information processing device, measuring apparatus, system, calculating method, storage medium, and article manufacturing method
EP17001905.3A EP3330921A1 (en) 2016-11-30 2017-11-22 Information processing device, measuring apparatus, system, calculating method, storage medium, and article manufacturing method
CN201711213323.9A CN108120391A (zh) 2016-11-30 2017-11-28 信息处理设备和方法、存储介质和物品制造方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016233160A JP2018091656A (ja) 2016-11-30 2016-11-30 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法

Publications (2)

Publication Number Publication Date
JP2018091656A true JP2018091656A (ja) 2018-06-14
JP2018091656A5 JP2018091656A5 (ja) 2020-07-09

Family

ID=60484093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016233160A Pending JP2018091656A (ja) 2016-11-30 2016-11-30 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法

Country Status (4)

Country Link
US (1) US20180150969A1 (ja)
EP (1) EP3330921A1 (ja)
JP (1) JP2018091656A (ja)
CN (1) CN108120391A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019215180A (ja) * 2018-06-11 2019-12-19 オムロン株式会社 計測システムおよび計測方法
WO2021039403A1 (ja) * 2019-08-30 2021-03-04 オムロン株式会社 顔向き推定装置及び方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180268614A1 (en) * 2017-03-16 2018-09-20 General Electric Company Systems and methods for aligning pmi object on a model
CN109840947B (zh) * 2017-11-28 2023-05-09 广州腾讯科技有限公司 增强现实场景的实现方法、装置、设备及存储介质
CN108089958B (zh) * 2017-12-29 2021-06-08 珠海市君天电子科技有限公司 Gpu测试方法、终端设备和计算机可读存储介质
CN109242903B (zh) * 2018-09-07 2020-08-07 百度在线网络技术(北京)有限公司 三维数据的生成方法、装置、设备及存储介质
JP7208480B2 (ja) * 2018-10-12 2023-01-19 富士通株式会社 学習プログラム、検出プログラム、学習装置、検出装置、学習方法および検出方法
GB201912439D0 (en) * 2019-08-30 2019-10-16 Renishaw Plc Spectroscopic apparatus and methods for determining components present in a sample
CN113674430A (zh) * 2021-08-24 2021-11-19 上海电气集团股份有限公司 虚拟模型定位配准方法、装置、增强现实设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007098567A (ja) * 2006-09-25 2007-04-19 Hitachi Ltd 自律制御型ロボットおよびその制御装置
JP2011179910A (ja) * 2010-02-26 2011-09-15 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2014120068A (ja) * 2012-12-18 2014-06-30 Canon Inc 情報処理装置および情報処理方法
JP2015194478A (ja) * 2014-03-20 2015-11-05 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5988862A (en) * 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
JP4900204B2 (ja) * 2007-11-22 2012-03-21 株式会社Ihi 物体認識方法
JP5460341B2 (ja) * 2010-01-06 2014-04-02 キヤノン株式会社 3次元計測装置及びその制御方法
JP2011175477A (ja) 2010-02-24 2011-09-08 Canon Inc 3次元計測装置、処理方法及びプログラム
JP2013101045A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007098567A (ja) * 2006-09-25 2007-04-19 Hitachi Ltd 自律制御型ロボットおよびその制御装置
JP2011179910A (ja) * 2010-02-26 2011-09-15 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2014120068A (ja) * 2012-12-18 2014-06-30 Canon Inc 情報処理装置および情報処理方法
JP2015194478A (ja) * 2014-03-20 2015-11-05 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019215180A (ja) * 2018-06-11 2019-12-19 オムロン株式会社 計測システムおよび計測方法
JP7119606B2 (ja) 2018-06-11 2022-08-17 オムロン株式会社 計測システムおよび計測方法
WO2021039403A1 (ja) * 2019-08-30 2021-03-04 オムロン株式会社 顔向き推定装置及び方法
JP2021039420A (ja) * 2019-08-30 2021-03-11 オムロン株式会社 顔向き推定装置及び方法

Also Published As

Publication number Publication date
EP3330921A1 (en) 2018-06-06
US20180150969A1 (en) 2018-05-31
CN108120391A (zh) 2018-06-05

Similar Documents

Publication Publication Date Title
JP2018091656A (ja) 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法
CN110568447B (zh) 视觉定位的方法、装置及计算机可读介质
CN110411441B (zh) 用于多模态映射和定位的系统和方法
CN110807350B (zh) 用于面向扫描匹配的视觉slam的系统和方法
JP6681729B2 (ja) オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム
JP6642968B2 (ja) 情報処理装置、情報処理方法、プログラム
JP5430456B2 (ja) 幾何特徴抽出装置、幾何特徴抽出方法、及びプログラム、三次元計測装置、物体認識装置
JP4677536B1 (ja) 3次元物体認識装置及び3次元物体認識方法
JP5380789B2 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP6594129B2 (ja) 情報処理装置、情報処理方法、プログラム
US11654571B2 (en) Three-dimensional data generation device and robot control system
JP6632208B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2008506953A (ja) 機械視覚のための方法及び装置
CN107025663A (zh) 视觉系统中用于3d点云匹配的杂波评分系统及方法
US20180290300A1 (en) Information processing apparatus, information processing method, storage medium, system, and article manufacturing method
JP2019114103A (ja) 物体認識処理装置、物体認識処理方法及びプログラム
JP2019153290A (ja) ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法
JP2014134856A (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
US11189053B2 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
JP2018195070A (ja) 情報処理装置、情報処理方法、及びプログラム
JPH07103715A (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JP5462662B2 (ja) 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム
JPH0981737A (ja) 三次元物体モデル生成方法
WO2022137509A1 (ja) 物体認識装置、物体認識方法、非一時的なコンピュータ可読媒体及び物体認識システム
JP2018200175A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200529

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200529

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201102

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210427

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210427

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210511

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210518

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210903

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210907

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210928

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20211102

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20211221

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220125

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220125