JP6324025B2 - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP6324025B2
JP6324025B2 JP2013229806A JP2013229806A JP6324025B2 JP 6324025 B2 JP6324025 B2 JP 6324025B2 JP 2013229806 A JP2013229806 A JP 2013229806A JP 2013229806 A JP2013229806 A JP 2013229806A JP 6324025 B2 JP6324025 B2 JP 6324025B2
Authority
JP
Japan
Prior art keywords
image
dimensional
orientation
model
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013229806A
Other languages
English (en)
Other versions
JP2015090298A (ja
JP2015090298A5 (ja
Inventor
圭祐 立野
圭祐 立野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013229806A priority Critical patent/JP6324025B2/ja
Priority to US14/531,780 priority patent/US9639942B2/en
Publication of JP2015090298A publication Critical patent/JP2015090298A/ja
Publication of JP2015090298A5 publication Critical patent/JP2015090298A5/ja
Application granted granted Critical
Publication of JP6324025B2 publication Critical patent/JP6324025B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、三次元形状が既知である物体の位置姿勢を計測する技術に関する。
近年のロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、ハンドなどのエンドエフェクタによって部品を把持して組立を行う。この組立には、把持の対象となる部品とロボット(ハンド)との間の相対的な位置姿勢を計測する必要がある。
位置姿勢を計測する方法として、二次元画像上から検出される特徴や距離画像に対して物体の三次元形状モデルをあてはめるモデルフィッティングによる計測がある。二次元画像に対するモデルフィッティングでは、物体の位置姿勢に基づいて三次元形状モデルを画像上に投影したときの投影像が、検出された特徴に当てはまるように位置姿勢を推定する。距離画像に対するモデルフィッティングでは、距離画像の各点を三次元座標を持つ三次元点群に変換し、三次元空間において三次元形状モデルが三次元点群に当てはまるように位置姿勢を推定する。
しかし、二次元画像上での特徴の検出位置や点群の三次元座標には、画素の量子化誤差
やブラー、特徴検出アルゴリズムの精度、カメラ間の対応等に起因する誤差が存在する。
そこで、多数の計測情報(画像上の特徴や点群)に含まれる計測誤差の影響を平均化する等、位置姿勢の計測精度を向上させる取り組みがなされている。
日浦、山口、佐藤、井口、"距離画像と濃淡画像の融合による任意形状物体の実時間追跡"、電子情報通信学会論文誌D−II,vol.J80−DII,no.11,pp.2904−2911,1997.
高精度に位置姿勢を計測する方法として、明示的な特徴検出は行わず、濃淡画像と距離画像の勾配を利用した位置姿勢を推定する方法がある(非特許文献1参照)。つまり、運動による明度変化、距離変化を滑らかであると仮定し、濃淡画像の明度変化と距離画像の距離変化から勾配法に基づき物体の姿勢パラメータを算出する。しかし、濃淡画像の二次元と距離画像の三次元では、尺度が異なり、有効に組み合わせることが難しく、人手によってチューニングすることでしか、対応することができないという課題があった。
本発明は、以上の課題を鑑みてなされたものであり、2次元画像から得られる計測情報と距離データから得られる計測情報を併用した位置姿勢推定を行うことにより、対象物体の位置姿勢を高精度に計測することを目的とする。
上記の課題を解決するために、本発明の情報処理装置は、対象物体の形状を表すモデルを保持する保持手段と、前記対象物体の2次元画像と前記対象物体の表面上の3次元点群の情報とを取得する取得手段と、前記対象物体の概略の位置姿勢を取得する概略位置姿勢取得手段と、前記取得した2次元画像から画像特徴を検出する検出手段と、前記概略位置姿勢に基づいて、前記検出された画像特徴と前記モデルを構成する幾何特徴とを対応付け、前記3次元点群の距離点と前記モデルを構成する幾何特徴とを対応づける対応付け手段と、前記対応付けられた2次元画像上における前記画像特徴に対応する3次元位置と、3次元空間で前記概略位置姿勢に配置した前記モデルの幾何特徴の3次元位置との間の3次元空間における第1の距離を取得する第1の取得手段と、前記対応づけられた距離点の3次元位置と3次元空間で前記概略位置姿勢に配置した前記モデルの幾何特徴との3次元空間における第2の距離を取得する第2の取得手段と、3次元空間における前記第1の残差及び第2の残差に基づいて、前記対象物体の位置姿勢を導出する位置姿勢導出手段とを備える。
本発明により、対象物体の位置姿勢を高精度に計測することができる。
本発明の第1の実施形態における情報処理装置の構成を示す図である。 本発明の第1の実施形態における3次元形状モデルの構成要素を説明する図である。 本発明の第1の実施形態における位置姿勢推定方法の処理手順を示すフローチャートである。 本発明の第1の実施形態における、3次元ずれ算出処理の詳細な手順を示すフローチャートである。 本発明の第1の実施形態における、3次元形状モデルと画像特徴間の距離算出を説明する図である。 本発明の第1の変形例における、3次元形状モデルと画像特徴間の距離算出を説明する図である。 本発明の第2の変形例における、3次元形状モデルと画像特徴間の距離算出を説明する図である。 本発明の第2の実施形態における情報処理装置の構成を示す図である。
以下、添付図面を参照して本発明の好適な実施形態について詳細に説明する。
[第1の実施形態]
本実施形態における位置姿勢推定の処理について詳細を述べる。なお、本実施形態で述べる「位置姿勢」とは、対象物体と当該部品を撮影するカメラとの相対的な位置姿勢の関係のことを意味する。
図1は、本実施形態における情報処理装置1の構成を示している。図1に示すように、情報処理装置1は、モデル保持部110、画像入力部120、距離データ入力部130、概略位置姿勢入力部140、特徴検出部150、3次元ずれ算出部160、位置姿勢推定部170から構成されている。また、図1に示す構成は、本発明の情報処理装置の適用例となる構成である。なお、情報処理装置1は、コンピュータ(CPU)がメモリに蓄積されたプログラムを実行して所定の機能を実現する、通常の情報処理装置によって実現され得ることは明らかである。
次に、情報処理装置1を構成する各部について説明する。
モデル保持部110は、対象物体の形状を表す3次元形状モデル10を保持する。本実施例では、3次元形状モデル(例えば、CADモデルやポリゴンモデル)は、図2(b)に示すような、3次元位置と3次元法線方向から構成される物体表面上の局所的な3次元平面情報(以後、局所面特徴と称する)と、図2(a)に示すような、3次元位置と3次元線分方向から構成される物体輪郭上の局所的な3次元線分情報(以後、局所線特徴と称する、単にモデル特徴と称した場合は、局所面特徴または局所線特徴のどちらかを指す)によって構成されるものとする。
ただし、3次元形状モデルとして保持する形状情報は、対象形状を表す3次元的なモデル情報であれば良く、表現形式に特に制限はない。例えば、単純な3次元点の集合や、稜線を表す3次元ラインの集合、3次元点3点で構成される面および線の集合で表されるポリゴン形式の形状情報など、他の表現で表しても良い。例えば、3点と3辺および1面により構成されるポリゴンの集合として、3次元形状モデルを表現してもよいし、単純な3次元点の集合として3次元形状を表現してもよい。また陰関数の組み合わせによりパラメトリックに3次元形状を表現する方法を用いてもよい。対象物体の形状に即する限り、3次元形状モデルの表現方法に特に制限はない。3次元形状モデル10は、モデル保持部110に保存され、位置姿勢推定部150に入力される。
2次元画像撮像装置20は、通常の2次元画像を撮影するカメラである。撮影される2次元画像は濃淡画像であってもよいしカラー画像であってもよい。本実施形態では2次元画像撮像装置20は濃淡画像を出力する。2次元画像撮像装置20が撮影する画像は画像入力部120を介して情報処理装置1に入力される。なお、情報処理装置1に入力される画像は、2次元画像撮像装置20により撮影される画像に限るものではなく、記憶媒体等に保存されたファイルまたは外部ネットワークから読み込んだ画像を入力してもよい。カメラの焦点距離や主点位置、レンズ歪みパラメータなどの内部パラメータは、使用する機器の仕様を参照するか、また、以下の文献で開示される方法によって事前にキャリブレーションしておく。
R. Y. Tsai, “A versatile camera calibration technique for high−accuracy 3D machine vision metrology using off−the−shelf TV cameras and lenses,” IEEE Journal of Robotics and Automation, vol.RA−3, no.4, 1987
画像入力部120は、2次元撮像装置20によって撮像された画像を情報処理装置1に入力する。画像入力部120は、撮像装置の出力がNTSCなどのアナログ出力であればアナログビデオキャプチャボードによって実現される。また撮像装置の出力がIEEE1394などのデジタル出力であれば、例えばIEEE1394インタフェースボードによって実現される。また、画像取得部120は、予め記憶装置に記憶してある静止画像や動画像のデジタルデータを読み出すことにより画像を取得するものであってもよい。
距離画像撮像装置30は、計測対象である物体表面上の点の3次元情報を計測する。本実施形態では、距離画像撮像装置30として距離画像を出力する距離センサを用いる。距離画像は、各画素が奥行きの情報を持つ画像である。
本実施形態では、距離センサとしては、波長の異なる色IDを付与したマルチスリットラインを対象に照射、その反射光をカメラで撮像して三角測量によって距離計測を行うワンショットアクティブ式のものを利用する。しかしながら、距離センサはこれに限るものではなく、光の飛行時間を利用するTime−of−flight方式であってもよい。また、ステレオカメラが撮影する画像から三角測量によって各画素の奥行きを計算するパッシブ式であってもよい。その他、距離画像を計測するものであればいかなるものであっても本発明の本質を損なうものではない。
距離データ入力部130は、距離画像撮像装置30によって計測された距離画像を情報処理装置1に入力する。なお、情報処理装置1に入力される距離データは、上述の距離画像に限るものではなく、例えば3次元点群などの画像の形となっていないデータであってもかまわない。また、距離画像撮像装置30と2次元画像撮像装置20の光軸は一致しており、2次元画像撮像装置20が出力する濃淡画像の各画素と、距離画像撮像装置が出力する距離画像の各画素の対応は既知であるとする。
ただし、本実施形態の適用は、濃淡画像と距離画像が同一の視点である場合に限るものではない。例えば、濃淡画像を撮像する撮像装置と距離画像を撮像する撮像装置が別の位置姿勢にあり、濃淡画像と距離画像をそれぞれ別の視点から撮像しても良い。この場合は、撮像装置間の相対的な位置姿勢は既知であるとして、距離画像中の3次元点群を濃淡画像に投影することにより、濃淡画像と距離画像の対応を取る。同一の物体を撮像する撮像装置間の相対的な位置姿勢が既知であり、その画像間の対応が計算できる限り、撮像装置の位置関係に特に制限はない。以下、2次元画像撮像装置20と距離画像撮像装置30を合わせた機器を撮像装置2030と称する。
概略位置姿勢入力部140は、2次元画像撮像装置20と距離画像撮像装置30からなる撮像装置2030に対する対象物体の位置及び姿勢の概略値を入力する(概略位置姿勢取得)。本実施形態では、情報処理装置1は時間軸方向に連続して計測を行うものとして、前回(前時刻)の計測値を概略の位置及び姿勢として用いる。
しかしながら、位置及び姿勢の概略値の入力方法はこれに限るものではない。例えば、過去の位置及び姿勢の計測をもとに物体の速度や角速度を時系列フィルタにより推定し、過去の位置及び姿勢と推定された速度・加速度から現在の位置及び姿勢を予測したものでもよい。また、様々な姿勢で撮像した対象物体の画像をテンプレートとして保持しておき、入力する画像に対してテンプレートマッチング(パターンマッチング)を行うことによって、対象物体の大まかな位置と姿勢を推定してもよい。あるいは、他のセンサによる物体の位置及び姿勢の計測が可能である場合には、該センサによる出力値を位置及び姿勢の概略値として用いてもよい。
センサは、例えばトランスミッタが発する磁界を物体に装着するレシーバで検出することにより位置及び姿勢を計測する磁気式センサであってもよい。また、物体上に配置されたマーカをシーンに固定されたカメラによって撮影することにより位置及び姿勢を計測する光学式センサであってもよい。その他、6自由度の位置及び姿勢を計測するセンサであればいかなるセンサであってもよい。また、物体の置かれているおおよその位置や姿勢があらかじめ分かっている場合にはその値を概略値として用いる。
特徴検出部150では、画像入力部120から入力された二次元画像から画像特徴を検出する。本実施形態では画像特徴としてエッジを検出する。しかしながら、本実施形態の画像特徴は、エッジに限られるものではない。例えば、画像特徴として特徴点を検出してもよい。この場合、対象物体の三次元形状モデルを三次元点群データによって表し、特徴点と三次元の点の対応に基づいて位置姿勢を算出する。また、特定の特徴のみ用いるのではなく、複数の特徴(特徴点とエッジ)を位置姿勢の算出に利用してもよい。以上に示すように、画像特徴としては、3次元形状モデルとの対応付けを行うことが可能である特徴であれば、いかなる特徴であっても特に問題ない。特徴検出処理の詳細については後述する。
3次元ずれ算出部160では、濃淡画像及び距離データから検出された観測情報と、モデル保持部110により保持された3次元形状モデル10との間の3次元空間中のずれ(以後、残差と称する)を計量する。
本実施形態では、画像特徴の方向と位置に基づいて定義される3次元平面と、モデル特徴の3次元位置との距離を計量する。しかしながら、この方法に限るものではない。例えば、画像特徴の方向を利用せず、視点から画像エッジへ伸ばす方向に、画像エッジの3次元位置を仮に設定し、その位置に基づいてモデル特徴(幾何特徴)との距離を算出してもよい。また、3次元平面を算出せずに、視点から画像特徴の位置へ伸ばした視線ベクトルと、モデル特徴の位置と方向から定義される3次元直線との最短距離に基づいて、画像特徴とモデル特徴との残差を計量しても良い。3次元空間中において、画像エッジと局所線特徴との間の残差を計量出来る限り、他の方法でもよい。本実施形態における処理の詳細については後述する。
位置姿勢算出部170では、3次元ずれ算出部160において計量された、濃淡画像及び距離データと3次元形状モデル10とのずれ量に基づいて、撮像装置2030と対象物体との間の位置及び姿勢を計測する。本実施形態は、濃淡画像と距離画像を同時に利用して位置姿勢を推定する方式に限るものではなく、濃淡画像のみ、距離画像のみを用いて位置姿勢推定を行う場合においても同様に適用可能である。処理の詳細については後述する。
以上が、情報処理装置1の構成の一例についての説明である。
次に、本実施形態における位置姿勢推定の処理手順について説明する。図3は、本実施形態における位置姿勢推定の処理手順を示すフローチャートである。
(ステップS1100)
まず、ステップS1100において、撮像装置2030に対する対象物体の位置及び姿勢の概略値を、概略位置姿勢入力部140を介して情報処理装置1に入力する。本実施形態では、前述したように、前の時刻において計測された位置及び姿勢を、物体の概略位置姿勢として用いる。概略位置姿勢の入力が終了したら、ステップS1100の処理を終了し、ステップS1200に進む。
(ステップS1200)
次に、ステップS1200において、対象物体の濃淡画像を取得する。2次元画像撮像装置20から濃淡画像を取得し、画像入力部120を介して情報処理装置1に入力する。濃淡画像の取得が終了したら、ステップS1200の処理を終了し、ステップS1300に進む。
(ステップS1300)
次に、ステップS1300において、対象物体の距離データを取得する。距離画像撮像装置30からの距離画像の取得を行い、距離データ入力部130を介して情報処理装置1に入力する。本実施形態では、距離画像は撮像装置から対象物体の表面までの距離が格納されているものとする。前述のように、2次元画像撮像装置20と距離画像撮像装置30の光軸は一致しているため、濃淡画像の各画素と距離画像の各画素の対応は既知である。距離画像の取得した後、距離画像から3次元点群を算出する。距離画像からの三次元点群の算出は、距離画像の各画素について、画素位置に対応する視線ベクトルに奥行き値を乗算することにより行う。距離画像の取得および3次元点群の算出が終了したら、ステップS1300の処理を終了し、ステップS1400に進む。
(ステップS1400)
次に、ステップS1400では、ステップS1200において取得した濃淡画像から画像特徴の検出を行う。本実施形態では、画像特徴としてエッジを検出する。エッジは濃度勾配の極値となる点である。本実施形態ではエッジ検出方法として、以下の文献で開示されるCannyエッジアルゴリズムを用いる。
Canny, J., “A Computational Approach To Edge Detection,” IEEE Trans. Pattern Analysis and Machine Intelligence, 8(6):679−698, 1986.
エッジ検出処理の結果、濃淡画像中でのエッジ位置とその方向が得られる。また、エッジ検出方法はこれに限るものではなく、例えば、Sobelフィルタやprewittフィルタなどのエッジ検出フィルタを用いて、その応答値からエッジ位置と方向を算出してもよい。また、上述したような画像全体からエッジを検出する方式に限らず、着目領域近傍で局所的にエッジ検出を行うような方法を用いても良い。濃淡画像上で検出され、局所線特徴と対応づけられるエッジ特徴であれば、いかなる方法で検出しても問題はなく、その検出方法の選択に特に制限はない。濃淡画像から全ての画像エッジを検出する処理を終了すればステップS1400の処理を終了し、ステップS1500に進む。
(ステップS1500)
次に、ステップS1500では、ステップS1400において濃淡画像から抽出された画像エッジ、および、S1300において入力された距離点群と3次元形状モデル10との対応を算出し、対応間の3次元空間におけるずれ量を算出する。
本実施形態では、撮像装置2030の視点位置(カメラ中心)と画像エッジの位置と方向から定義される3次元平面と、局所線特徴の3次元位置との距離を、画像エッジと局所線特徴との残差として算出する。これにより、3次元空間中での残差に統一して、位置姿勢を推定することが可能になる。
以下、図4を用いて、ステップS1500における3次元ずれ算出処理について詳細な処理を詳述する。
(ステップS1510)
まず、ステップS1510では、ステップS1100において入力された、対象物体の概略位置姿勢に基づいて、ステップS1400において抽出された濃淡画像中の画像エッジと、3次元形状モデル10との対応付けを行う。それぞれの物体の概略位置姿勢と校正済みの2次元画像撮像装置30の内部パラメータを用いて3次元形状モデルを構成する局所線特徴を画像へ投影し、投影像近傍の領域を探索して検出されたエッジと局所線特徴とを対応付けする。局所線特徴の投影像近傍で複数のエッジが検出された場合には、複数検出されたエッジのうち、投影された局所線特徴に対して画像上で最も近いエッジを対応付ける。
(ステップS1520)
次に、ステップS1520では、ステップS1100において入力された、対象物体の概略位置姿勢に基づいて、ステップS1300において取得した距離画像および3次元点群と3次元形状モデル10との対応付けを行う。概略位置姿勢と校正済みの距離画像撮像装置30の内部パラメータを用いて、3次元形状モデルを構成する各局所面特徴を距離画像上に投影する。そして、各局所面特徴の投影位置で参照される距離値に基づく距離点を各局所面特徴に対応する3次元点として保持する。
(ステップS1530)
次に、ステップS1530では、ステップS1510で算出した局所線特徴と画像エッジの対応間の残差とそのヤコビアンを算出する。前述した通り、本実施形態では、撮像装置2030の視点位置(カメラ中心)から画像エッジを通る3次元平面を算出し、該3次元平面と、局所線特徴の位置と間の符号付き距離を、画像エッジと局所線特徴との3次元空間中における残差として算出する。図5(a)は、画像エッジを通る3次元平面と局所線特徴との残差計量を説明する図である。
まず、画像エッジの画像座標(u,v)から、焦点距離が1となる正規化画像座標系における座標(u’,v’)を算出することで、視点位置から見た画像エッジの3次元位置qimgを算出する。視点位置から見た画像エッジの3次元位置qimgは、撮像装置2030の焦点距離(fx,fy)、および、主点位置(px,py)に基づいて、以下の式より計算できる
Figure 0006324025
次に、画像エッジの3次元空間中への逆投影像となる3次元平面を算出する。具体的には、視点位置と画像エッジの3次元位置qimgを通り、画像エッジの方向dimgに平行な3次元平面の法線nimgを算出する。該3次元平面の法線nは、画像エッジの方向dimgと画像エッジの3次元位置qimgより、以下の式より算出できる。
Figure 0006324025
以上により得られた3次元平面と局所線特徴の3次元位置との間の、面と点間の符号付き距離を算出することで、画像エッジと局所線特徴との3次元空間内における残差erredgeを算出する。対象物体の概略位置姿勢sに基づいて算出した、視点位置から見た局所線特徴の位置をpとすると、画像エッジの逆投影像となる該3次元平面の法線nimgと画像エッジの3次元位置qimgより、3次元空間内における残差erredgeは以下の式より算出できる。
erredge=−nimg・(qimg−p) (式3)
次に、局所線特徴と画像エッジの3次元空間中における残差に関するヤコビアンを算出する。ここで、残差のヤコビアンとは、位置姿勢6自由度のパラメータが微小に変化したときに、局所線特徴と画像エッジとの間の残差が変化する割合を表す値である。また、対象物体の位置及び姿勢sは6次元ベクトルであり、対象物体の位置を表す3つの要素(s,s,s)と、姿勢を表す3つの要素(s,s,s)からなる。姿勢を表す3つの要素は、例えばオイラー角による表現や、方向が原点を通る回転軸を表してノルムが回転角を表す3次元ベクトルなどによって表現される。この位置及び姿勢sの各パラメータで、対応間残差erredgeを偏微分することによって、以下のヤコビアン行列を算出する。
Figure 0006324025
以上の手順を、ステップS1510で対応づけられた画像エッジと局所線特徴との全ての対応組みに対して処理を行い、全ての対応組みに関する局所線特徴と画像エッジとの3次元空間中における残差とヤコビアンを計算する。
(ステップS1540)
次に、ステップS1540では、ステップS1520で算出した局所面特徴と距離点との対応間の残差とそのヤコビアンを算出する。図5(b)は、局所面特徴と対応点(距離画像中の3次元点)との残差の計算を説明する図である。対象物体の概略位置姿勢sに基づいて算出した、撮像装置2030から見た局所面特徴の位置をp、面の法線方向をnとし、所面特徴点に対応する距離点の3次元座標をqとすると、局所面特徴と距離点との間の残差は、以下の式より算出できる。
errrange=−n・(q−p) (式5)
そして、局所線特徴のヤコビアンと同様に、仮想カメラの位置及び姿勢sの各パラメータで、対応間距離errrangeを偏微分することによって、局所面特徴と距離点間の残差のヤコビアン行列は以下のように算出できる。
Figure 0006324025
以上の手順を、ステップS1520で対応づけられた全ての局所面特徴と3次元点群との対応組みに対して処理を行い、全ての対応組みに関する局所面特徴と3次元点群との3次元空間中における残差とヤコビアンを計算する。
以上の処理により、局所線特徴と画像エッジの対応組みに関する残差とヤコビアン、および、局所面特徴と3次元点群の対応組みに関する残差とヤコビアンの算出が終了したら、ステップS1500の処理を終了し、ステップS1600に進む。
(ステップS1600)
次に、ステップS1600では、ステップS1500において算出した残差を最小化するように対象物体の位置及び姿勢を算出(位置姿勢導出)する。上述したように、画像エッジと局所線特徴間の残差と、距離点と局所面特徴の残差は、3次元空間中の残差として共通の尺度で計量されているため、各対応間の残差を最小になるように線形連立方程式を解くことで、尺度が統一化して併用した位置姿勢の推定が可能である。
ステップS1510で濃淡画像上のエッジと対応づけられた局所線特徴の数をiとして、ステップS1530で算出した各局所線特徴と画像エッジとの3次元空間中における残差をerredgei、そのヤコビアンをJedgeiとする。また、ステップS1520で距離画像中の距離点と対応づけられた局所面特徴の数をjとして、ステップS1540で算出した各局所面特徴と距離点との3次元空間中における残差をerrrangej、そのヤコビアンをJrangej、とすると、各対応間の誤差を最小化する位置姿勢の更新分は、以下のようなΔsに関する線形連立方程式として立式できる。
Figure 0006324025
ここで、ヤコビアンをJ、対応データ間の誤差をEとおくと、式8を以下の式で表すことができる。
JΔs=E (式8)
次式に示すように一般化逆行列を用いて式12を解くことにより補正値Δsを求める。
Δs=(JJ)−1E (式9)
これにより得られたΔsを用いて、位置及び姿勢を更新する。
なお、ここでは、はずれ値除去を行わない単純な非線形最適化手法について説明した。しかし、例えばm推定を利用したはずれ値除去を行ってもよい。また、本実施形態では、非線形最適化手法としてGauss−Newton法を用いた。しかしながら、非線形最適化手法はこれに限るものではない。
例えばよりシンプルな方法である最急降下法によって行ってもよい。また、Newton−Raphson法やLevenberg−Marquardt法、共役勾配法やICCG法など、他の非線形最適化計算手法を用いてもよい。また、最適化計算ベースの位置姿勢算出以外にも、概略の位置及び姿勢を中心に一定範囲において6自由度の値が網羅的にカバーできるように多数の位置及び姿勢を生成し、それぞれの位置及び姿勢において観測できるモデル特徴と濃淡画像及び距離画像とのマッチング具合を評価することで、位置姿勢の推定を行っても良い。また、位置姿勢算出においては、位置および姿勢の両方を同時に推定する例を説明したが、本実施形態は、位置のみ、姿勢のみ、または、位置と姿勢の任意の成分の組み合わせのみを推定する場合においても同様に適用可能である。
以上の処理により、位置及び姿勢の更新処理が終了すればステップS1600の処理を終了し、ステップS1700に進む。
(ステップS1700)
次に、ステップS1700では、ステップS1600で更新した位置姿勢が、収束しているか否か、すなわち、さらに反復計算を必要とするか否かの判定を行う。具体的には、補正値がほぼ0である場合や、誤差ベクトルの二乗和の補正前と補正後の差がほぼ0である場合に収束したと判定する。収束していなければ、ステップS1500に戻り、更新した位置姿勢を用いて、再度3次元ずれ算出処理および位置姿勢算出処理を行う。収束していると判断した場合は、この処理は終了する。
以上の処理により、対象物体の位置及び姿勢の更新を終えたら、撮像装置と対象物体間の相対的な位置姿勢の最終的な推定値が決定される。
以上述べたように、本実施形態では、2次元画像とモデルとの距離として、2次元画像から得られる画像特徴を3次元空間中に逆投影することで得られる3次元平面とモデル特徴の3次元位置との間の距離を算出することで、3次元空間中の距離として統一的に計量して2次元画像と距離データを併用した位置姿勢推定を行う方法について述べた。これにより、計測情報の寄与率の偏りのない高精度な位置姿勢推定を行うことが可能になる。また、画像エッジの残差の尺度変換処理を自体必要なくなるため、従来の濃淡画像と距離データを併用した位置姿勢推定手法よりも高速な位置姿勢推定が可能となる。
[第1の変形例]
第1の実施形態では、画像特徴とモデル特徴との残差計量方法として、2次元画像から得られる画像特徴の方向と位置および視点位置により定義される3次元平面と、モデル特徴との距離を計量する方法について説明した。しかし、画像特徴とモデル特徴との残差を、3次元空間中の距離として統一的に計量する方法は、上述の方式に限るものではない。
例えば、画像特徴の方向を利用せず、視点から画像エッジの位置へ伸ばす直線の3次元点と、モデル特徴との距離を算出してもよい。具体的には、画像エッジの3次元位置の奥行き値がモデル特徴の奥行き値と同じに設定する。そして、視点位置とモデル特徴の3次元位置を通りモデル特徴の3次元方向に平行な3次元平面と、画像エッジの3次元位置との間の符号付き距離を算出する。
以下、逆投影による画像エッジの3次元位置に基づく残差計量方法について詳細を説明する。以下はこれまでに説明した第1の実施形態における、画像エッジと局所線特徴間の残差を算出するステップS1530に置き換わる処理である。
図6は、逆投影により仮に設定した画像エッジの3次元位置と局所線特徴との間の3次元空間中における残差の計算を説明する図である。
まず、画像エッジを3次元空間中に逆投影し、3次元空間中における画像エッジの仮の3次元位置qを算出する。対象物体の概略位置姿勢sに基づいて算出した、視点位置から見た局所線特徴の位置をp=(pex,pey,pez)とする。画像エッジを3次元空間中へ逆投影して計算される3次元位置qの奥行き値が、局所線特徴の奥行き値pezと同じになると仮定すると、画像エッジの仮の3次元位置qは、式1より得られる画像エッジの位置qimgより、以下の式より算出される。
=(qimgez) (式10)
そして、得られた画像エッジの3次元位置qに基づき、局所線特徴と画像エッジとの対応間の3次元空間内における残差erredgeを算出する、対応間残差erredgeは、画像エッジの3次元位置qと、局所線特徴の方向dに沿って局所線特徴の位置pと視点位置を通る3次元平面との、符号付き距離として算出する。該3次元平面の法線方向をn=d×pとすると、局所線特徴と画像エッジとの間の3次元空間内における残差erredgeは以下の式より算出できる。
erredge=−n・(q−p) (式11)
こうして得られた生成した局所線特徴と画像エッジとの間の3次元空間内における残差erredgeに基づき、ステップS1530の以降の処理を第1の実施形態と同様に実行する
また、画像特徴とモデル特徴との残差計量方法は、以上に示す方法に限るものではなく、画像特徴とモデル特徴との間の、3次元空間中における残差を計量できる限り、残差計量方法に特に制限はなく、いかなる方法を用いても特に問題はない。
以上、画像特徴とモデル特徴との残差を、3次元空間中の距離として統一的に計量する方法として、画像特徴の方向を利用せず、視点から画像エッジの位置へ伸ばす直線上の3次元点と、モデル特徴との距離を算出する方法について説明した。
[第2の変形例]
第1の実施形態および第1の変形例では、画像特徴の位置と方向、または、モデル特徴の位置と方向から定義される3次元平面に基づいて、画像特徴とモデル特徴との残差計量を行う方法について説明した。
しかし、画像特徴とモデル特徴との残差計量を行う方法は、上述の3次元平面に基づく方法に限るものではない。例えば、視点位置から画像特徴の位置へ伸ばした3次元直線と、モデル特徴の位置と方向から定義される3次元直線との最短距離に基づいて、画像特徴とモデル特徴との残差を計量しても良い。以下、画像特徴の視線ベクトルとモデル特徴を表す3次元直線との距離に基づく残差計量方法について詳細を説明する。以下は、これまでに説明した第1の実施形態における、画像エッジと局所線特徴間の残差を算出するステップS1530に置き換わる処理である。
図7は、画像特徴の視線ベクトルとモデル特徴の位置と方向から定義される3次元直線との間の3次元空間中における残差の計算を説明する図である。
まず、焦点距離が1となる正規化画像座標系における画像エッジの座標を(u’,v’)としたとき、画像エッジの視線ベクトルvimgは、以下の式より算出できる。
Figure 0006324025
そして、画像エッジの視線ベクトルvimgと、局所線特徴の3次元位置をpおよび方向をdから定義される3次元直線との間の最短距離を算出することで、画像エッジと局所線特徴の3次元空間中の残差erredgeを算出する。画像エッジの視線ベクトルと局所線特徴の位置と方向から定義される直線との間の最短距離となる方向nは、以下の式より算出できる。
n=d×vimg (式13)
以上で求めた最短距離方向nと、局所線特徴の3次元位置をpおよび画像エッジの視線ベクトルvimgより、画像エッジと局所線特徴の3次元空間中の残差erredgeを以下の式により算出する。
erredge=−n・(vimg−p) (式14)
こうして得られた生成した局所線特徴と画像エッジとの間の3次元空間内における残差erredgeに基づき、ステップS1530の以降の処理を第1の実施形態と同様に実行する
以上、画視点から画像特徴の位置へ伸ばした視線ベクトルと、モデル特徴の位置と方向から定義される3次元直線との最短距離に基づいて、画像特徴とモデル特徴との距離を算出する方法について説明した。
[第3の変形例]
以上説明した実施形態・変形例では、二次元画像上の特徴としてエッジを用いていた。しかしながら、二次元画像上の特徴はエッジに限るものではなく、その他の特徴であってもよい。例えば、対象物体の三次元形状モデルを三次元点群データによって表し、画像特徴として特徴点を検出して、特徴点と三次元の点の対応に基づいて位置姿勢を算出してもよい。また、一つの種類の特徴のみ用いるのではなく、複数種の特徴(特徴点とエッジ)を位置姿勢の算出に利用してもよい。
[第2の実施形態]
本発明による情報処理装置1の好適な適用事例としては、以下のような形態も考えられる。すなわち、2次元画像撮像装置20および距離画像撮像装置30により得られる2次元画像と距離画像を基に対象物体40の位置姿勢を推定し、産業用ロボットアーム60によりその把持・組み付け・分解などの操作を行う利用例があげられる。以下、図8を用いて本発明の一実施例である情報処理装置1の適用例を説明する。図8では、情報処理装置1とロボット60を用いて対象物体40を把持するロボットシステムの構成例を示す。
ロボット60はロボットコントローラ50により制御され、指令された位置に手先を移動させ物体の把持・組み付け・分解などを行うロボットである。対象物体40は、作業台に置かれる位置が変わるため、現在の対象物体40の位置姿勢を推定し、ロボットの把持制御を行う必要がある。
2次元画像撮像装置20は、通常の2次元画像を撮影するカメラ、距離画像撮像装置30は物体表面の距離を計測する距離センサであり、産業用ロボットアームの手先等の対象物体40を撮像できる位置に設置する。
情報処理装置1は、2次元画像撮像装置20および距離画像撮像装置30から得られる2次元画像と距離画像を基に対象物体40の位置姿勢を推定する。情報処理装置1で推定された対象物体40の位置姿勢は、ロボット60に入力され、対象物体40の把持などを行うようにロボットアームを制御する。なお、ロボットアーム60による対象物体40の操作は、以上に示す把持操作に限るものではなく、例えば,対象物体40を別の物体に組み付ける組み付け動作を行っても良い。本発明の情報処理装置により、ロボットシステムは対象物体40の位置が不定でも位置姿勢推定を行うことで、対象物体40を把持・組み付け・分解などの操作を行うことが可能となる。
[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<実施例の効果>
第1の実施形態では、2次元画像とモデルとの距離として、2次元画像から得られる画像特徴を3次元空間中に逆投影することで得られる3次元平面とモデル特徴の3次元位置との間の距離を算出することで、3次元空間中の距離として統一的に計量して2次元画像と距離データを併用した位置姿勢推定を行う方法について述べた。従来手法のような概略位置姿勢の奥行き値に基づく残差尺度の変換処理を行わないため、高精度な位置姿勢推定を行うことが可能になる。また、画像エッジの残差の尺度変換処理自体必要なくなるため、従来の濃淡画像と距離データを併用した位置姿勢推定手法よりも高速な位置姿勢推定が可能となる。
第1の変形例では、画像エッジの3次元点を、視点から画像エッジの位置へ伸ばす直線上におけるモデル特徴の奥行き値と同じ位置に設定し、モデル特徴の3次元位置との距離を算出することで、統一的に残差を計量して2次元画像と距離データを併用した位置姿勢推定を行う方法について述べた。
3次元空間中において画像特徴とモデル特徴との残差を計量し、濃淡画像と距離データを同一の評価尺度で併用することで、高精度な位置姿勢推定を行うことが可能になる。また、画像特徴とモデル特徴との残差を計量において、画像特徴の方向を利用しないため、画像特徴の検出において、画像特徴の方向を検出する必要が無くなる。
第2の変形例では、画像特徴とモデル特徴との3次元空間中における残差計量方法として、視点から画像特徴の位置へ伸ばした視線ベクトルと、モデル特徴の位置と方向から定義される3次元直線との最短距離に基づいて、3次元空間中における画像特徴とモデル特徴との残差を計量する方法について説明した。
3次元空間中において画像特徴とモデル特徴との残差を計量し、濃淡画像と距離データを同一の評価尺度で併用することで、高精度な位置姿勢推定を行うことが可能になる。
第3の変形例では、二次元画像上の画像特徴として特徴点を検出し、対象物体の三次元形状モデルを三次元点群データによって表して、特徴点と三次元の点の対応に基づいて位置姿勢を算出する方法を示した。
特徴点として画像特徴を検出し、特徴点に基づいて位置姿勢を行うことで、2次元画像上で画像特徴としてエッジが得られない場合でも、2次元画像から特徴点が検出できる限り、位置姿勢推定を行うことが可能になる。
第2の実施形態では、本発明の情報処理装置により、対象物体の位置姿勢を推定し、推定結果に基づいてロボットシステムが対象物体の把持および移動を行う方法を示した。
対象物体の位置姿勢が不定でも位置姿勢推定を行うことで、ロボットシステムが対象物体を把持することが可能となる。

Claims (9)

  1. 対象物体の形状を表すモデルを保持する保持手段と、
    撮像装置により撮像された前記対象物体の2次元画像と前記対象物体の表面上の3次元点群の情報とを取得する取得手段と、
    前記対象物体の概略の位置姿勢を取得する概略位置姿勢取得手段と、
    前記取得した2次元画像から画像エッジの位置と方向を検出する検出手段と、
    前記概略位置姿勢に基づいて、前記検出された画像エッジと前記モデルを構成する局所線特徴とを対応付け、前記3次元点群の距離点と前記モデルを構成する局所面特徴とを対応づける対応付け手段と、
    前記撮像装置の視点位置及び該視点位置から見た前記画像エッジの位置を通り、該画像エッジの方向と平行な3次元平面と、3次元空間で前記概略位置姿勢に配置した前記モデルにおいて前記画像エッジと対応付けられた局所線特徴の3次元位置との距離に基づいて、当該画像エッジと対応付けられた局所線特徴との3次元空間における残差を第1の残差として取得する第1の取得手段と、
    前記対応づけられた距離点の3次元位置と3次元空間で前記概略位置姿勢に配置した前記モデルの局所面特徴との3次元空間における残差を第2の残差として取得する第2の取得手段と、
    3次元空間における前記第1の残差及び第2の残差に基づいて、前記対象物体の位置姿勢を導出する位置姿勢導出手段とを備えることを特徴とする情報処理装置。
  2. 前記対応付け手段は、前記概略位置姿勢に基づいて、前記2次元画像上に前記モデルを投影し、該投影されたモデルの局所線特徴に対応する画像エッジを探索することによって、前記投影されたモデルの局所線特徴と該モデルに対応する画像エッジとを対応づけることを特徴とする請求項に記載の情報処理装置。
  3. 前記3次元点群の情報は、前記対象物体を撮影した距離画像から取得することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記対応付け手段は、前記概略位置姿勢に基づいて、前記距離画像上に前記モデルを投影し、該投影されたモデルの局所面特徴に対応する距離点を探索することによって、前記投影されたモデルの局所面特徴と該モデルに対応する距離点とを対応づけることを特徴とする請求項に記載の情報処理装置。
  5. 前記位置姿勢導出手段は、前記取得した第1の残差と第2の残差とが小さくなるように、前記概略位置姿勢を更新することによって、前記対象物体の位置姿勢を導出することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  6. 前記モデルはCADモデルであることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  7. 前記概略位置姿勢は、前記2次元画像または前記3次元点群の情報に対して、パターンマッチングを行うことにより取得されることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  8. 前記位置姿勢導出手段による前記対象物体の位置姿勢の推定結果に基づいて、前記対象物体を操作する操作手段をさらに備えることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  9. コンピュータを、請求項1乃至のいずれか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
JP2013229806A 2013-11-05 2013-11-05 情報処理装置、情報処理方法 Active JP6324025B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013229806A JP6324025B2 (ja) 2013-11-05 2013-11-05 情報処理装置、情報処理方法
US14/531,780 US9639942B2 (en) 2013-11-05 2014-11-03 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013229806A JP6324025B2 (ja) 2013-11-05 2013-11-05 情報処理装置、情報処理方法

Publications (3)

Publication Number Publication Date
JP2015090298A JP2015090298A (ja) 2015-05-11
JP2015090298A5 JP2015090298A5 (ja) 2016-12-22
JP6324025B2 true JP6324025B2 (ja) 2018-05-16

Family

ID=53007080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013229806A Active JP6324025B2 (ja) 2013-11-05 2013-11-05 情報処理装置、情報処理方法

Country Status (2)

Country Link
US (1) US9639942B2 (ja)
JP (1) JP6324025B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6440937B2 (ja) * 2013-12-24 2018-12-19 株式会社東芝 情報対応付け装置、その方法及びそのプログラム
JP6317618B2 (ja) * 2014-05-01 2018-04-25 キヤノン株式会社 情報処理装置およびその方法、計測装置、並びに、作業装置
JP6677522B2 (ja) * 2016-02-15 2020-04-08 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
JP6717113B2 (ja) * 2016-08-22 2020-07-01 株式会社Ihi 観察装置および観察方法
CN109791696B (zh) * 2016-08-24 2024-04-30 苏黎世大学 用于场景的3d重建的方法、设备和定位事件摄像机的方法
US10290119B2 (en) 2016-09-15 2019-05-14 Sportsmedia Technology Corporation Multi view camera registration
JP2018084954A (ja) * 2016-11-24 2018-05-31 セイコーエプソン株式会社 プログラム、姿勢導出方法、姿勢導出装置
WO2018123801A1 (ja) * 2016-12-28 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル配信方法、三次元モデル受信方法、三次元モデル配信装置及び三次元モデル受信装置
JP6922605B2 (ja) * 2017-09-26 2021-08-18 富士フイルムビジネスイノベーション株式会社 3次元物体検出装置、ロボット、及びプログラム
CN108846864A (zh) * 2018-05-29 2018-11-20 珠海全志科技股份有限公司 一种运动物体的位置捕捉系统、方法及装置
JP7306366B2 (ja) * 2020-11-16 2023-07-11 横河電機株式会社 機器登録端末、機器登録方法、および、機器登録プログラム
CN112683169A (zh) * 2020-12-17 2021-04-20 深圳依时货拉拉科技有限公司 物体尺寸测量方法、装置、设备及存储介质
CN113191374B (zh) * 2021-05-19 2023-04-18 甘肃省地震局(中国地震局兰州地震研究所) 基于金字塔注意力网络的PolSAR图像山脊线提取方法
CN116168214B (zh) * 2023-04-25 2023-07-18 浙江一山智慧医疗研究有限公司 医疗图像纹理特征提取方法、装置及应用

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1897033A4 (en) * 2005-06-16 2015-06-24 Strider Labs Inc SYSTEM AND METHOD FOR RECOGNIZING 2D IMAGES USING 3D CLASS MODELS
GB2452508A (en) * 2007-09-05 2009-03-11 Sony Corp Generating a three-dimensional representation of a sports game
US8107721B2 (en) * 2008-05-29 2012-01-31 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of semi-specular objects
JP5393318B2 (ja) * 2009-07-28 2014-01-22 キヤノン株式会社 位置姿勢計測方法及び装置
JP5618569B2 (ja) * 2010-02-25 2014-11-05 キヤノン株式会社 位置姿勢推定装置及びその方法
JP5612916B2 (ja) * 2010-06-18 2014-10-22 キヤノン株式会社 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
JP5839971B2 (ja) * 2010-12-14 2016-01-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US8457355B2 (en) * 2011-05-05 2013-06-04 International Business Machines Corporation Incorporating video meta-data in 3D models
JP5383836B2 (ja) * 2012-02-03 2014-01-08 ファナック株式会社 検索ウィンドウを自動的に調整する機能を備えた画像処理装置
JP6004809B2 (ja) * 2012-03-13 2016-10-12 キヤノン株式会社 位置姿勢推定装置、情報処理装置、情報処理方法

Also Published As

Publication number Publication date
US20150125034A1 (en) 2015-05-07
JP2015090298A (ja) 2015-05-11
US9639942B2 (en) 2017-05-02

Similar Documents

Publication Publication Date Title
JP6324025B2 (ja) 情報処理装置、情報処理方法
US20200096317A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP5839971B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6370038B2 (ja) 位置姿勢計測装置及び方法
JP6271953B2 (ja) 画像処理装置、画像処理方法
JP6444027B2 (ja) 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム
JP5567908B2 (ja) 3次元計測装置、その計測方法及びプログラム
JP5393318B2 (ja) 位置姿勢計測方法及び装置
JP5624394B2 (ja) 位置姿勢計測装置、その計測処理方法及びプログラム
JP6092530B2 (ja) 画像処理装置、画像処理方法
US20130230235A1 (en) Information processing apparatus and information processing method
JP6317618B2 (ja) 情報処理装置およびその方法、計測装置、並びに、作業装置
JP6677522B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JP6180158B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法、およびプログラム
JP6626338B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5698815B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP2015135333A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2015132523A (ja) 位置姿勢計測装置、位置姿勢計測方法及びプログラム
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP6285765B2 (ja) 情報処理装置、情報処理方法
JP6766229B2 (ja) 位置姿勢計測装置及び方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180410

R151 Written notification of patent or utility model registration

Ref document number: 6324025

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151