JP2016170050A - 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム - Google Patents

位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2016170050A
JP2016170050A JP2015050094A JP2015050094A JP2016170050A JP 2016170050 A JP2016170050 A JP 2016170050A JP 2015050094 A JP2015050094 A JP 2015050094A JP 2015050094 A JP2015050094 A JP 2015050094A JP 2016170050 A JP2016170050 A JP 2016170050A
Authority
JP
Japan
Prior art keywords
orientation
dimensional
image
shape model
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015050094A
Other languages
English (en)
Inventor
友則 安藤
Tomonori Ando
友則 安藤
小竹 大輔
Daisuke Kotake
大輔 小竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015050094A priority Critical patent/JP2016170050A/ja
Publication of JP2016170050A publication Critical patent/JP2016170050A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】3次元形状が既知である計測対象の物体の画像から、当該物体の位置及び姿勢を、よりロバストかつ高精度に計測する。
【解決手段】位置姿勢計測装置は、計測対象の物体の2次元画像を取得する第1の取得手段と、前記物体の形状を表す3次元形状データを取得する第2の取得手段と、前記物体の形状モデルを保存する保存手段と、前記第2の取得手段により取得された前記物体の前記3次元形状データと、前記保存手段に保存される前記物体の前記形状モデルとに基づいて、前記物体の主平面の位置及び姿勢を前記物体の第1の位置及び姿勢として算出する第1の算出手段と、前記第1の算出手段により算出された前記第1の位置及び姿勢に基づいて、前記第1の取得手段により取得された前記2次元画像と前記形状モデルとを照合することにより、前記物体の3次元空間上の第2の位置及び姿勢を算出する第2の算出手段と、を具備する。
【選択図】図1

Description

本発明は、物体の位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラムに関し、特に3次元形状が既知である物体の位置及び姿勢を計測する技術に関する。
近年、ロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代替して行うようになりつつある。このような目的には、主にアーム型のロボットが利用される。このロボットは、アームの先端に装着されたハンドなどのエンドエフェクタによって部品を把持し組立を行う。ロボットが適切に部品を把持するためには、部品とロボット(エンドエフェクタ)との間の相対的な位置及び姿勢を高精度に計測する必要がある。
また、ロボットによる組立を実場面に適用するためには、部品の位置及び姿勢の計測を高精度に加えて高速で行う必要がある。このような位置及び姿勢の計測技術は、ロボットによる工業製品の組立だけでなく、ロボットが自律移動するための自己位置推定や、実測データからの3次元モデルデータ生成など、様々な場面で必要とされる。
工業製品の生産現場における部品の位置及び姿勢の計測方法として、カメラから得られる2次元画像(濃淡画像、カラー画像を含む)を利用する方法が公知である。
下記非特許文献1は、ワイヤフレームモデルによって表される物体の3次元形状モデルの投影像を、カメラから得られる濃淡画像上のエッジに当てはめることで計測対象物体の位置及び姿勢を計測する方法を開示する。
この方法では、計測対象物体の概略の位置及び姿勢は所与であり、この物体の概略の位置及び姿勢を繰り返し最適化することにより、物体の位置及び姿勢を計測する。より詳細には、繰り返しの各ステップにおいて、まず、ワイヤフレームモデルを構成する各線分上に設定された制御点と、濃淡画像上のエッジとの対応付けを行う。次に、制御点の投影像と、対応するエッジの誤差とが小さくなるように、物体の位置及び姿勢を補正する。この対応付けの際には、物体の概略の位置及び姿勢をもとに算出される制御点の画像上での位置の近傍で、対応するエッジの探索が行われる。
T. Drummond and R. Cipolla, "Real-time visual tracking of complex structures", IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 24, no.7, pp.932-946, 2002.
上記非特許文献1に開示される濃淡画像を用いる位置及び姿勢の推定方法は、ワイヤフレームモデル上の制御点で構成される、所与である物体の概略の位置及び姿勢が、撮像された当該物体の実際の位置及び姿勢に十分近い場合には、有効であり得る。
しかしながら、この方法によれば、最初に与えられる物体の概略の位置及び姿勢と、計測対象の物体の濃淡画像上の位置及び姿勢、の差(初期値のずれ)がある程度存在すると、制御点と画像上のエッジとの対応付けに失敗してしまう。すなわち、物体の位置及び姿勢の計測におけるロバスト性が低くなるという課題があった。
また、テンプレートマッチングを用いて、物体の位置及び姿勢を濃淡画像から算出する方法もある。しかしながら、この方法によれば、ある位置及び姿勢における物体の見え方の情報を持つテンプレートを、当該物体があらゆる位置及び姿勢にある場合でも検出できるよう、予め多数を準備しておかなければならず、煩雑であった。
本発明は上記課題に鑑みてなされたものであり、3次元形状が既知である計測対象の物体の画像から、当該物体の位置及び姿勢を、よりロバストかつ高精度に計測することができる位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラムを提供することを目的とする。
(1)上記課題を解決するために、本願発明の一態様に係る位置姿勢計測装置は、計測対象である物体の位置及び姿勢を計測する位置姿勢計測装置であって、前記物体の2次元画像を取得する第1の取得手段と、前記物体の形状を表す3次元形状データを取得する第2の取得手段と、前記物体の形状モデルを保存する保存手段と、前記第2の取得手段により取得された前記物体の前記3次元形状データと、前記保存手段に保存される前記物体の前記形状モデルとに基づいて、前記物体の主平面の位置及び姿勢を前記物体の第1の位置及び姿勢として算出する第1の算出手段と、前記第1の算出手段により算出された前記第1の位置及び姿勢に基づいて、前記第1の取得手段により取得された前記2次元画像と前記形状モデルとを照合することにより、前記物体の3次元空間上の第2の位置及び姿勢を算出する第2の算出手段と、を具備する。
(2)上記課題を解決するために、本願発明の一態様に係る位置姿勢計測方法は、計測対象である物体の位置及び姿勢を計測する位置姿勢計測方法であって、前記物体の2次元画像を取得するステップと、前記物体の形状を表す3次元形状データを取得するステップと、前記物体の形状モデルを保存するステップと、前記取得した前記物体の前記3次元形状データと、前記保存される前記物体の前記形状モデルとに基づいて、前記物体の主平面の位置及び姿勢を前記物体の第1の位置及び姿勢として算出するステップと、前記算出された前記第1の位置及び姿勢に基づいて、前記取得された前記2次元画像と前記形状モデルとを照合することにより、前記物体の3次元空間上の第2の位置及び姿勢を算出するステップと、を含む。
本発明によれば、3次元形状が既知である計測対象の物体の画像から、当該物体の位置及び姿勢を、よりロバストかつ高精度に計測することができる。
本実施形態1における位置姿勢計測装置101の構成を示す図である。 本実施形態1における3次元形状モデルの点の例を説明する図である。 本実施形態1における3次元形状モデルの点の例を説明する図である。 本実施形態1における3次元形状モデルの線分の例を説明する図である。 本実施形態1における3次元形状モデルの線分の例を説明する図である。 図2A、図2Bの3次元形状モデルの点の座標値の例を説明する図である。 図3A、図3Bの3次元形状モデルを線分の表し方の例を説明する図である。 本実施形態1における位置及び姿勢の計測の概略処理手順を示すフローチャートである。 本実施形態1における図6のS620における主平面の位置及び姿勢の計測の処理手順の詳細を示すフローチャートである。 本実施形態1における図6のS630における物体の位置及び姿勢の計測の処理手順の詳細を示すフローチャートである。 本実施形態1におけるエッジ検出方法を説明する図である。 本実施形態1において、探索ラインに沿った濃度勾配の極大値がエッジになることを説明する図である。 本実施形態1における線分の投影像と検出されたエッジの関係を説明する図である。 本実施形態2における位置姿勢計測装置の構成を示す図である。 本実施形態2における図6のS630における位置及び姿勢の計測の処理手順の詳細を表すフローチャートである。 本実施形態3における図6のS630における位置及び姿勢の計測の処理手順の詳細を示すフローチャートである。 本実施形態4における情報処理装置の構成の一例を示す図である。 本実施形態4における情報処理装置の細部の構成の一例を示す図である。 各実施形態で説明した各部を構成することができるコンピュータを示す図である。
以下、添付図面を参照して本発明の実施形態を詳細に説明する。
なお、以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。
以降の実施形態では、計測対象物体の「主平面」とは、計測対象物体の現在の位置及び姿勢における最も広い平面をいうものとする。
(実施形態1)
実施形態1においては、計測対象物体の位置及び姿勢の推定を段階的及び選択的に実行する。
すなわち、本実施形態1では、まず、計測対象物体の3次元データ(3次元形状データ)の情報、例えば物体の表面上の点群の3次元座標値、を用いて、当該物体の主平面の位置及び姿勢を推定する。その後、計測対象物体の2次元画像(以下、「濃淡画像」として説明するが、カラー画像を用いることもできる。)上の特徴に対して物体の3次元モデルが当てはまるようにフィッティングして位置及び姿勢の推定を行う。
なお、本実施形態1では、物体の位置及び姿勢の初期値はあらかじめ与えられるものとする。また、計測対象の物体が1つの場合を例として説明するが、本実施形態1は計測対象物体が複数である場合にも適用することができる。
<位置姿勢計測装置の構成>
図1は、本実施形態1における位置姿勢計測装置101の構成を示す。図1に示すように、位置姿勢計測装置101は、モデル保存部110、2次元画像入力部130、3次元データ入力部150、第1位置姿勢算出部160、第2位置姿勢算出部165から構成されている。また、位置姿勢計測装置101には、2次元画像撮像部100、距離計測部105が接続される。以下、位置姿勢計測装置101を構成する各部、及び、位置姿勢計測装置101に接続する各部の構成について説明する。
2次元画像撮像部100は、例えば、物体の通常の2次元画像を撮影するカメラであってよい。撮影される2次元画像は、濃淡画像であってもよいしカラー画像であってもよい。この2次元画像撮像部100が撮影する画像は、位置姿勢計測装置101の2次元画像入力部130に入力されることで取得される。
この2次元画像において、カメラの焦点距離や主点位置、レンズ歪みパラメータなどの内部パラメータは、例えばZhangの方法などによって事前にキャリブレーションしておいてよい(Z. Zhang, “A flexible new technique for camera calibration”, IEEE Transactions on Pattern Analysis and Machine Intelligence,Vol.22, No.11, pages 1330-1334, 2000.)。
距離計測部105は、計測対象である物体の表面上の点までの距離を計測する。本実施形態1では、距離計測部105として距離画像を出力する距離センサを用いるが、他の手段を用いてもよい。ここで、距離画像は、各画素が計測装置からの距離の情報を持つ画像である。
本実施形態1では、距離に基づいて算出される計測装置基準の座標系における3次元座標が保存されているものとする。例えば、座標系としては、2次元画像撮像部100であるカメラのカメラ中心を原点とし、画像の水平方向をx軸、垂直方向をy軸、カメラの光軸をz軸とした座標系を採用することができる。
上記の距離画像に含まれる距離値から3次元点群への変換は、距離画像の各画素について、画素位置に対応する視線ベクトルに距離値を乗算することにより行う。この結果、物体の表面の点群の3次元座標値が得られる。
なお、距離センサとしては、液晶プロジェクタから物体に照射した2次元のパターン光をカメラで撮影し、三角測量により距離を計測するアクティブ方式のものを利用することができる。しかしながら、距離センサはこれに限るものではなく、光切断法やTime-of-flight方式など他のアクティブ式のものや、ステレオカメラによるパッシブ式など、距離画像を出力可能であればいかなる距離センサであってもよい。本実施形態1では、距離センサ用のカメラと2次元画像撮像部100のカメラは同一のものを用い、同一視点における濃淡画像と距離画像が取得できるものとする。
他方、距離センサ用のカメラと2次元画像撮像部100のカメラが異なっていてもよいが、この場合は、両者の相対的な位置及び姿勢を事前にキャリブレーションしておく。例えば、3次元形状が既知であるキャリブレーション物体を撮影し、濃淡画像に基づいた物体の位置及び姿勢と、距離画像に基づいた物体の位置及び姿勢から、相対的な位置及び姿勢を求めてもよい。
距離計測部105が計測した距離画像は、位置姿勢計測装置101中の3次元データ入力部150に入力されることで取得される。
モデル保存部110には、位置及び姿勢を計測する対象である物体の3次元形状モデル及び各姿勢ごとの主平面の情報等が保存されている。モデル保存部110には、さらに、例えば、パターンマッチングに用いるテンプレート、その他の情報などが保存されていてもよい。本実施形態1では、物体を線分と面から構成される3次元形状モデルとして説明する。
<3次元形状モデル>
図2ないし図5は、本実施形態1において利用する3次元形状モデルを説明する図である。これらの図に示すように、3次元形状モデルは、点の集合、及び各点を結んで構成される線分の集合によって定義される。
図2A,図2Bにおいては、計測対象である物体10の3次元形状モデルが点P1〜点P14の14点から構成されている。図2Aでは、計測対象である物体10の3次元形状モデルの点が表面から描かれており、一方、図2Bでは、物体10の裏面から描かれている。
図3A、図3Bにおいては、図2A,図2Bと同じ計測対象物体10の3次元形状モデルが線分L1〜L16により構成されている。図3Aでは、物体10の3次元形状モデルの線分が表面から描かれており、一方、図3Bでは、物体10の裏面から描かれている。
図4においては、物体10の3次元形状モデルの点P1〜点P14が3次元座標値によって表されている。また、図5においては、物体10の3次元形状モデルの線分L1〜L16が線分を構成する両端の点のIDによって表されている。
本実施形態1において、さらに3次元形状モデルは、面の情報を備える。
すなわち、計測対象物体10の各面は、各面を構成する点のIDによって表される。以下、単に物体10という場合は、特に説明しない限り、計測対象物体10を示すものとする。図2の3次元形状モデルでは、直方体を構成する6つの面の情報が記憶されている。「主平面」、すなわち物体の現在の位置及び姿勢における最も広い平面、の情報としては、任意の姿勢と主平面となる面の関係を備えることができる。具体的には、物体10の各面が、その面自身が主平面となる姿勢の範囲を保持するようにする。このように構成される3次元形状モデルは、第1位置姿勢算出部160及び第2位置姿勢算出部165において、物体10の位置及び姿勢を算出する際に用いられる。
第1位置姿勢算出部160は、3次元データ入力部150によって入力された3次元点群と、モデル保存部110に保存される3次元形状モデルとを用いて、物体10の第1の位置及び姿勢を計測(推定)する。この第1の位置及び姿勢とは、例えば、物体10の主平面の位置及び姿勢である。
第2位置姿勢算出部165は、第1位置姿勢算出部160から出力された第1の位置及び姿勢をもとに、物体10の第2の位置及び姿勢を計測(推定)する。この第2の位置及び姿勢の計測において、第2位置姿勢算出部165は、2次元画像入力部130によって入力された2次元画像と、モデル保存部110に保存される3次元形状モデルとを用いる。この第2の位置及び姿勢は、例えば、最終的に計測したい物体10の位置及び姿勢である。
<位置及び姿勢の計測処理手順概要>
図6は、本実施形態1における物体10の位置及び姿勢の計測の処理手順の概略を表すフローチャートである。
まず、物体10の位置及び姿勢を算出するための計測データを取得する(S610)。この計測データは、物体10の濃淡画像と距離画像を含む。具体的には、2次元画像撮像部100によって撮影された濃淡画像を、位置姿勢計測装置101の2次元画像入力部130が取得する。また、距離計測部105から出力された距離画像を、位置姿勢計測装置101の3次元データ入力部150が取得する。
S610で取得した距離画像の情報に基づいて、第1位置姿勢算出部160が、物体10の第1の位置及び姿勢の算出を行う(S620)。具体的には、第1位置姿勢算出部160は、距離画像から得られる物体10の表面上の3次元点群データに、モデル保存部110に保存される物体の3次元形状モデルの主平面が当てはまるように、物体10の第1の位置及び姿勢を算出する。
次に、物体10の第1の位置及び姿勢、すなわち、ステップS620で更新された主平面の位置及び姿勢の算出結果、を用いて、第2位置姿勢算出部165が、物体10の第2の位置及び姿勢の推定を行う(S630)。具体的には、濃淡画像である2次元画像に対して、物体10の3次元形状モデルが当てはまるように、物体10の第2の位置及び姿勢を推定することで第の位置及び姿勢を計測する。この第2の位置及び姿勢が、最終的に求めたい物体10の位置及び姿勢となり得る位置及び姿勢である。
<第1の位置及び姿勢算出処理の詳細>
図7は、図6のS620における第1の位置及び姿勢の計測の処理手順詳細を表すフローチャートである。ここでは、第1位置姿勢算出部が、計測対象である物体10の3次元形状モデルの平面と、上記距離画像から得られる物体表面上の3次元点群の3次元空間中における誤差の二乗和が最小になるように、位置及び姿勢の最適化を行う。
物体10の位置及び姿勢の算出をする方法は、例えばRANSAC(RANdom SAmple Consensus)アルゴリズムなどの、はずれ値に対してロバストな方法を用いてもよい(M.Armstrong and A. Zisserman, “Robust object tracking” in Proceedings of Asian Conference on Computer Vision, pp. 58-62, 1995.)。
以下の説明では、3次元形状モデルの主平面の位置および姿勢の3自由度を未知パラメータとして推定する。これら3つのパラメータを3次元ベクトルsで表す。sは、位置を表す主平面の法線方向の位置の1自由度分の要素(成分)(位置の成分)と、主平面の傾きを表す2自由度分の要素(成分)(主平面と平行な方向周りの回転による2自由度の姿勢の成分)からなる。
まず、第1位置姿勢算出部160は、物体10の位置及び姿勢の概略値を取得する(S710)。本実施形態1では、物体10が置かれているおおよその位置や姿勢が既知であり、あらかじめ与えられている(所与である)ことを前提としており、その値を概略値(初期値)として用いる。この概略値は、外部の所定の装置から与えられてもよいし、位置姿勢計測装置101の操作者がキーボードやタッチパネル等の入力手段を用いて与えてもよい。なお、物体10の位置及び姿勢の概略値は、予め与えられている場合だけでなく、他の手法で適宜取得することもできる。
例えば、位置姿勢計測装置101は、時間軸方向に連続して計測を行うものとして、前回(前時刻)の計測値を、概略の位置及び姿勢として用いてもよい。この場合は、前回の計測値を記憶する記憶手段を設けて保存しておいてよい。当該記憶手段は、第1位置姿勢算出部160の外部に設けられてもよく、モデル保存部110等と記憶手段を共用してもよい。
あるいは、過去の位置及び姿勢の計測結果をもとに、位置及び姿勢の変化量を推定し、過去の位置及び姿勢と推定された変化量から現在の位置及び姿勢を予測したものを概略値として用いてもよい。
次に、図6のS610で入力された距離画像と、モデル保存部110が保存する3次元形状モデルとの対応付けを行う。具体的には、物体の3次元形状モデル(ポリゴンモデル)を、入力された距離画像上に投影することによって対応付けを行う(S720)。
この対応付けの方法の一例は、大石、中澤、池内、“インデックス画像を用いた複数距離画像の高速同時位置合せ”, 電子情報通信学会論文誌D, Vol.J89-D, No.3, pp.513-521, 2006.に開示されている。
ここでは、距離画像と同サイズの画像バッファを準備し、当該画像バッファに対して、校正済みであるカメラの内部パラメータと、位置及び姿勢の概略値とを用いてポリゴンモデルを描画していく。以下、ポリゴンモデルを描画した画像を「ポリゴン描画画像」と呼ぶ。
描画する際には、各ポリゴンに固有の色を割り当てて描画を行う。ポリゴンの色は例えばRGBの各色で表す。背景部分と区別するために、黒(R=0、G=0、B=0)以外の色を用いてポリゴンを描画する。このような描画処理によって、距離画像の各画素に対応するポリゴンを、画像の色によって同定することができる。
なお、ポリゴンの描画処理をGPU(Graphics Processing Unit)上で高速に行い、描画された結果の画像を読み出してもよい。ポリゴンモデルを描画した後、ポリゴン描画画像の各画素の値を読み取る。黒以外の値が保存されている画素については、距離画像のその画素に保持されている3次元座標とポリゴン描画画像上の色に相当するポリゴンとを対応付ける。この対応付け方法は、広い平面であるほど正しく対応づけられる可能性が高くなるため、本実施形態1の図6のS620では、物体10の主平面のみの位置及び姿勢の算出をまず実行する。
次に、ポリゴンと3次元点の対応付けの結果、それらの間の残差を最小化するような主平面の位置及び姿勢を算出する(S730)。
具体的には、まず、ポリゴンの位置及び姿勢の変化による変動と、対応付け結果の残差の変化と、の間の相関を表す係数行列を算出する。さらに、対応付け結果の残差を表す誤差ベクトルを算出する。なお、物体10の3次元形状モデルに登録された各面は、その面自身が主平面となる姿勢の範囲を保持している。このため、概略位置姿勢が各面に登録された姿勢範囲に入っている場合に主平面と判断することで主平面を特定し、その面のIDを取得する。
3次元空間における平面の方程式は、一般にax+by+cz=e(a2+b2+c2=1)の形で表される。
ここでは、3次元形状モデル中のある平面の計測物体の座標系における方程式を、ax+by+cz=eであるとする。なお、計測物体の座標系は、以下、計測物体座標系と称する。この平面の方程式は、位置及び姿勢の概略値に基づいて、位置姿勢を計測する側を基準とした座標系である基準座標系における平面の方程式a'x+b'y+c'z=e'に変換できる。位置及び姿勢の概略値に基づいて、計測物体座標系から基準座標系への座標変換を行う式は、
Figure 2016170050
のように表す(上記の式のxは3次元ベクトル )ことができる。ただしRは姿勢を表す3×3回転行列であり、tは位置を表す3次元ベクトルである。
このとき、基準座標系における平面の方程式の係数は次式のように表される。
Figure 2016170050
平面の座標変換については、例えば金谷「形状CADと図形の数学」(共立出版)で詳しく説明がなされている。基準座標系における3次元座標の計測値が(x'、y'、z')である点Pが3次元形状モデル中のある面Fと対応付けられているとする。面Fに点Pから下ろした垂線の足をQとする。点Qの基準座標系における3次元座標(x、y、z)は、物体10の位置及び姿勢sによって変換するものである。
そして、物体10が、ある位置及び姿勢sである場合に、3次元座標(x0、y0、z0)の近傍で1次のテイラー展開によって、下記の式3のように近似できる。
Figure 2016170050
正しいsによって、式3により変換される(x、y、z)は、法線ベクトルが面Fの法線ベクトルと同様であり、かつ、点Pを通る平面(a'x+b'y+c'z=e'、 e'=a'x'+b'y'+c'z') 上にあると仮定することができる。
この仮定によれば、式3を平面の方程式に代入することによって、下記式4が得られる。この式4は観測方程式と呼ばれる。
Figure 2016170050
ただし、
Figure 2016170050
である。また、式4の観測方程式は対応付けが行われたすべての点群データについて立式することができる。
式4の観測方程式はsの各成分の微小変化Δspii(i=1、2、3)についての方程式になっており、式4の観測方程式を全ての点群データについて立式すると、式6に示すようなΔspiに関する線形連立方程式を立てることができる。
Figure 2016170050
この線形連立方程式を式7のように表す。
Figure 2016170050
この式7の左辺のJpが求める係数行列であり、右辺のEpが誤差ベクトルである。この式7をもとにして、行列Jpの一般化逆行列(Jp T・Jp−1・Jp Tを用いて位置及び姿勢の補正値ΔSpを最小二乗基準で求める。
しかしながら、距離画像の対応付けデータ中に、誤った対応付けその他の原因による外れ値が混入することを完全に避けることは困難である。そこで、本実施形態1では、次に述べるようなロバスト推定手法を用いることができる。
一般に、外れ値を生じるような対応付けにおいては、式6の右辺の誤差ベクトルの値が大きくなる。そこで、本実施形態1においては、誤差の絶対値が大きいデータには小さな重みを与え、誤差が小さいデータには大きな重みを与えるようにして、誤差の大きいデータの影響を抑制している。本実施形態1では、重みとして、例えば次の式8に示すようなTukeyの関数により与えることができる。
Figure 2016170050
ここで、c1は定数であり、いわば誤差の許容範囲を示す。なお、重みを与える関数はTukeyの関数である必要はなく、例えばHuberの関数など、誤差が大きいデータには小さな重みを与え、誤差が小さいデータには大きな重みを与える関数であればどのようなものでもよい。
各計測データに対応する重みをwiとする。ここで式9のように重み行列Wpを定義する。
Figure 2016170050
重み行列Wpは、対角成分以外はすべて0の正方行列であり、対角成分には重みwiが入る。
この重み行列Wpを用いて、式7を式10のように変形する。
Figure 2016170050
式10を式11のように解くことにより補正値ΔSpを求める。
Figure 2016170050
次に、S730において算出された位置及び姿勢の補正値Δsを用いて、主平面の位置及び姿勢の概略値を、下記のように補正する(S740)。
Figure 2016170050
補正された主平面の位置及び姿勢を用いて収束判定を行い、収束していれば補正を完了する(S750)。収束していない場合は、S730に戻り、補正を繰り返す。収束判定は、例えば、補正値Δsがほぼ0である場合や、誤差ベクトルの二乗和が補正前と補正後でほとんど変わらない一定値になった場合に収束したと判定することができる。また、例えばΔsが所定の基準値未満になった場合に収束すると判定してもよい。このようにして、第1の位置及び姿勢の算出処理が完了する。
<第2の位置及び姿勢算出処理ステップS630の詳細>
図8は、図6のステップS630における第2の位置及び姿勢の計測の処理手順詳細を表すフローチャートである。
本実施形態1では、第2位置姿勢算出部165が、濃淡画像上のエッジと推定される位置及び物体10の姿勢に基づいて、濃淡画像上に投影される線分との距離の二乗和が最小になるように、物体10の位置及び姿勢の最適化を行うことで物体10の第2の位置及び姿勢の推定が行われる。
まず、図6のS620で得られた計測対象物体10の主平面の位置及び姿勢(第1の位置及び姿勢)を概略値(初期値)として入力する(S810)。
次に、図6のS610において入力された濃淡画像において画像特徴の検出を行い、検出した画像特徴と、モデル保存部110が保存する物体10の3次元形状モデルとの対応付けを行う(S820)。すなわち、物体10の画像特徴と、3次元形状モデルの幾何特徴と、の照合、対応付けを行う。
本実施形態1では、画像特徴としてエッジを検出する。このエッジは、濃度勾配が極値となる点(又はその点の集合)である。本実施形態1では、例えば、非特許文献1に記載されている方法によって、画像の特徴としてエッジ検出を行うことができる。同文献が開示するエッジ検出方法は、3次元形状モデル側から対応するエッジを探索する方法であるため、検出と対応付けが一度に実行される。
図9は、本実施形態1におけるエッジ検出を説明する図である。図9では、3次元形状モデルを構成する各線分の濃淡画像上への投影像を算出する様子が示されている。この投影像の算出は、計測対象物体10の主平面の位置及び姿勢の概略値と、校正済みのカメラの内部パラメータとを用いて行われる。また、計測対象物体10の主平面の位置及び姿勢の概略値は、図8のS810において入力された概略値である。
図9に示されように、線分の濃淡画像への投影像は、その濃淡画像上でも線分(投影された線分900)となる。
次に、濃淡画像上で等間隔になるように投影された線分900上で、制御点910を設定する。そして、この制御点910を通り、かつ、投影された線分900に直交する線分920(探索ライン)上で1次元のエッジ検出を行い、対応する点であるエッジ930を検出する。
図10は、このエッジ検出の原理を示すグラフを表す図である。エッジ930は、画素値の濃度勾配が極値をとる位置の点として検出される。したがって、図10に示すように、近傍に、濃度勾配が極値1000を取る点が複数存在する場合には、複数のエッジ930が検出されることがある。本実施形態1では、検出されるエッジ930のうち最も濃度勾配の大きいものを対応するエッジ930と見なしている。
図8に戻り、3次元形状モデルの線分(投影された線分900)上の制御点910と、濃淡画像上で検出されたエッジ930との対応付け結果の残差を最小化するような位置及び姿勢を算出する(S830)。このように、本実施形態1では、画像特徴としての検出されたエッジと、3次元モデル上のエッジを投影した線分(幾何特徴)とが照合され、対応付けがなされる。
まず、3次元形状モデルの線分である投影された線分900上の制御点910の位置及び姿勢の変化による変動と残差の変化の相関を表す係数行列と、対応付け結果の残差を表す誤差ベクトルとを算出する。
図11は、線分の投影像と検出されたエッジの関係を説明する図である。図11では、濃淡画像の水平方向、垂直方向をそれぞれu軸、v軸と定義している。位置及び姿勢の概略値sに基づいて投影された線分900上のある制御点910の濃淡画像上での位置を(u0、v0)、該制御点910が属する線分900の画像上での傾きをu軸に対する傾きθで表す。傾きθは、線分の両端の3次元座標をsの概略値(s)に基づいて濃淡画像上に投影し、濃淡画像上での両端の座標を結んだ直線の傾きとして算出する。該線分(投影された線分900)の濃淡画像上での法線ベクトルは(sinθ、−cosθ)となる。また、該制御点910の対応点(エッジ)930の画像座標を(u’、v’)とする。ここで、点(u’、v’)を通り、傾きがθである直線が図11において破線で示されている。
この破線上の任意の点(u、v)は、
Figure 2016170050
と表すことができる(θは定数とする)。ここで、
Figure 2016170050
であり、制御点910の濃淡画像上での位置は計測対象物体10の位置及び姿勢により変化する。
制御点910の画像座標(u、v)は(u0、v0)の近傍で1次のテイラー展開によって式15のように近似できる。但しΔs(i=1、2、 … 、6)はsの各成分の微小変化を表す。
Figure 2016170050
正しいSによって得られる制御点910の濃淡画像上での位置が式9によって表される直線(図11における破線)上にあると仮定すると、式15を式13に代入することによって、観測方程式(式16)が得られる。
Figure 2016170050
ただし、
Figure 2016170050
である。
式16の観測方程式は対応付けが行われたすべての制御点910について立式することができる。式16はsの各成分の微小変化Δs(i=1、2、 … 、6)に関する方程式になっているので、複数の制御点910について立式することによって、Δsに関する線形連立方程式を立てることができる。
これらの線形連立方程式を合わせると式18のように表すことができる。
Figure 2016170050
この線形連立方程式を、ここでは式19のように表す。
Figure 2016170050
ここで、左辺のJが求める係数行列であり、右辺のEが誤差ベクトルである。
式19をもとに、位置及び姿勢の補正値Δsを算出する。しかし、エッジ930の対応付けデータに誤対応などの外れ値が混入する可能性がある。
そのため、S730で述べたようなロバスト推定手法により重み行列Wを用いて式20によって、補正値Δsを算出する。
Figure 2016170050
S830において算出された位置及び姿勢の補正値Δsにより、位置及び姿勢の概略値を次のように補正する(S840)。
Figure 2016170050
次に、位置及び姿勢の値の収束判定を行う(S850)。収束していれば、図8の処理を終了する。終了時に得られる位置及び姿勢がS630における第2の位置及び姿勢であり、これを最終的に求めようとする物体10の位置及び姿勢としてよい。
他方、収束していない場合は、S830に戻って、残差の最小化の処理からふたたび処理を繰り返す。収束判定は、図7のS750と同様、種々の手法を採用することができる。例えば、補正値Δsがほぼ0であると判断する場合や、誤差ベクトルの二乗和が補正前と補正後でほとんど変わらない場合に収束したと判定してもよい。また、例えば、補正値Δsが所定の基準値未満になった場合に収束したと判定してもよい。
以上述べたように、本実施形態1では、まず、距離画像を用いて物体の主平面の位置及び姿勢を、第1の位置及び姿勢として推定する。次に、3次元モデル中の各線分を画像上に投影し、当該線分の近傍で対応するエッジを探索する対応付けを行うことによって、第2の位置及び姿勢を推定する。正しいスケールで対応付けを決定することができるので、本実施形態1によれば、誤った対応付けをより低減することができる。その結果、物体10の位置及び姿勢の概略値(初期値)のずれに対して、よりロバストな推定をすることができる。
(実施形態1−変形例1)
実施形態1の変形例1は、主平面に関する3自由度以外の位置及び姿勢の成分を、濃淡画像とモデルから算出するものである。
上述した実施形態1では、前段の処理において、平面の位置及び姿勢の3自由度を推定した後、後段の処理において、濃淡画像と距離画像の両方を利用して計測対象である物体10の位置及び姿勢を6自由度すべて推定した。
これに替えて、距離画像から算出される計測対象物体10が有する平面の位置及び姿勢の精度が高い場合などは、後段の処理においては、平面の位置及び姿勢は固定して平面に対する位置および姿勢を推定してもよい。例えば、具体的には図8のS830において、3次元形状モデルの主平面の位置および姿勢の3自由度以外の自由度を未知パラメータとして推定する。このパラメータを、例えば3次元ベクトルsで表すことができる。3次元ベクトルsは、主平面と水平な位置を表す2自由度分の要素(成分)と、主平面の法線の向きを回転軸とした回転(角度)を表す1自由度分の要素(成分)からなる。このsを用いて図8のS830を同様に処理すればよい。
(実施形態1−変形例2)
実施形態1の変形例2は、第2の位置及び姿勢の計算に濃淡画像と距離画像を併用するものである。
実施形態1では、図6のS630において、第2の位置及び姿勢の算出時に濃淡画像のみを用いた。これに替えて、距離画像と濃淡画像の両方を用いてもよい。この場合、3次元データ入力部150から得られる距離画像を、第2位置姿勢算出部165でも用いるように構成する。そのうえで、例えば、図8のS830の説明中の連立方程式(式18)の算出時に、式16の条件以外の条件も算出することができる。例えば、式16だけでなく、S730の説明中の式4の条件も位置及び姿勢の6自由度のパラメータに関して算出し、下記の式22を係数行列として用いてよい。
Figure 2016170050
(実施形態2)
以下、本発明の実施形態2を、実施形態1と異なる点について説明する。
本実施形態2においては、まず第1の位置姿勢推定において、距離画像から主平面に相当する平面を検出する。そして、第2の位置姿勢推定において、求めた物体10の第1の位置及び姿勢に基づいて検出した平面が、正面向きになるように濃淡画像を補正して、パターンマッチングにより物体10の第2の位置及び姿勢を算出する。
すなわち、実施形態2では、まず距離画像から主平面に相当する平面を検出し、当該平面がカメラの視軸と垂直になるように濃淡画像を補正する。当該補正後、例えば、パターンマッチングによって物体10の位置及び姿勢を算出する。
図12は、本実施形態2に係る位置姿勢計測装置1201の構成を説明する図である。図12に示すように、位置姿勢計測装置1201は、モデル保存部1210、
2次元画像入力部130、3次元データ入力部150、第1位置姿勢算出部1260、第2位置姿勢算出部1265、とから構成されている。また、位置姿勢計測装置1201には、2次元画像撮像部100と、距離計測部105とが接続されている。
以下、位置姿勢計測装置1201を構成する各部、及び該装置に接続する各部について説明する。但し、2次元画像撮像部100、距離計測部105、2次元画像入力部130、3次元データ入力部150に関しては、実施形態1と同様の構成であるため、説明を省略する。
モデル保存部1210は、位置及び姿勢を計測する対象の物体10をパターンマッチングによって検出する際に用いるテンプレートと、当該物体10の主平面の情報とを保存する。本実施形態2において、このテンプレートは、ある位置及び姿勢における物体10を画像として取得した場合の、当該画像の各画素の輝度値の情報を持つものとする。
モデル保存部1210は、物体10の様々な位置及び姿勢に対してテンプレートを保存している。これにより、所定の画像に対して、当該画像と相関の高いテンプレートをモデル保存部1210から選択することによって、選択されたテンプレートと対応づけられた位置及び姿勢を出力する。
本実施形態2では、テンプレートは、計測対象である物体10の主平面が視軸と垂直となる場合の輝度値の情報を持つものとする。また、実施形態1と同様に、物体10を表す3次元形状モデルは、当該物体10の点の集合、及び、当該物体10の面を構成する点のID、によって表現されている。さらに、当該物体10の各面が、その面自身が主平面となる姿勢の範囲も、モデル保存部1210に保持されている。このように、その面が主平面となる姿勢の範囲もモデル保存部1210に情報として保持されていることによって、主平面の情報を保持している。テンプレートと、主平面の情報とは、第2位置姿勢算出部1265がその処理に用いる。
第1位置姿勢算出部1260は、3次元データ入力部1250が入力した3次元点群に対して平面の検出を行い、検出された平面の位置及び姿勢を第1の位置及び姿勢として計測する。ここで検出された平面の位置及び姿勢とは、平面の法線方向の向きを定める2自由度の姿勢成分と平面の法線方向の1自由度の位置成分から成る。
第2位置姿勢算出部1265は、第1位置姿勢算出部1260が算出した第1の位置及び姿勢を用いて、2次元画像入力部1230が入力した2次元画像中の物体10の主平面が視軸と垂直になるように画像を変換する。当該変換した画像に対して、モデル保存部210に保存されている計測する対象の物体10のテンプレートをもとに、パターンマッチングを行い、物体10の第2の位置及び姿勢を計測する。
実施形態2における位置及び姿勢の計測の処理手順を示すフローチャートは、実施形態1と同様に、図6に示されている。以下、順次説明する。
図6を参照して、まず、物体10の位置及び姿勢を算出するための計測データを取得する(S610)。具体的には、物体10の濃淡画像と距離画像とを取得する。位置姿勢計測装置1201中の2次元画像入力部1230が、2次元画像撮像部1200が撮像した濃淡画像を取得する。また、3次元データ入力部1250が、距離計測部1205が出力する距離画像を取得する。
次に、取得された距離画像の情報に基づいて、第1位置姿勢算出部1260が、物体10の第1の位置及び姿勢の計測を行う(S620)。このS620においては、取得された距離画像から平面を検出し、検出された平面の位置及び姿勢を、第1の位置及び姿勢として算出する。このような平面の算出処理には、例えば、Jiang X., Bunke H., “Fast segmentation of range images into planar regions by scan line grouping”, Machine Vision Application, Vol.7, Issue2, 1994.に記載されている手法を利用することができる。この文献に記載されている方法を用いて、距離画像を面ごとに分割し、検出された複数の面のうちで面積最大の平面の位置及び姿勢を出力するものとする。このように、面のセグメンテーションの方法は、例えば当該文献に記載されているが、他の方法を利用してもよい。
また、面積最大の平面を検出するには、距離画像のセグメンテーションによって得られた各セグメントを、面積の順に順位付けをすればよい。
次に、面積の大きい順番に、セグメントが平面かどうかを、例えば平面フィッティングにより確認する。平面フィッティングの結果、セグメントのすべての点が平面との距離がある閾値(例えば1mmなど)以下であれば、着目しているセグメントが平面であると判断する。以上のような処理によって、距離画像上の3次元点(点群)に基づき、面積最大の平面を検出する。
しかしながら、これらの処理だけでは、例えば背景が平面の場合などは、当該背景を検出してしまい、誤検出が生じるおそれがある。そこで、平面フィッティングの結果、ある平面と検出されたセグメント中のすべての点のZ座標が、ある閾値より大きくなっている場合に、当該平面は背景であると判断してもよい。この結果、当該平面以外の他の平面から検出結果を出力するように構成してもよい。なお、ある閾値は、例えば、対象の部品のZ座標の概略位置姿勢が既知の場合、そのZ座標の値などを利用してよい。
次に、第2位置姿勢算出部1265が、S620において算出された第1の位置及び姿勢と濃淡画像に基づいて、物体10の第2の位置及び姿勢の計測を行う(S630)。本実施形態2では、このS630において、例えば、濃淡画像を、S620において検出された平面が視軸と垂直になるように変換する。すなわちこの変換は、S620において検出された平面が、物体10の主平面と一致するものとする。そして、変換後の画像に対して、物体10の主平面が視軸と垂直になっているパターンを用いてパターンマッチングを行い、物体10の位置及び姿勢を算出する。ここで算出される位置及び姿勢を、本実施形態2における第2の位置及び姿勢としてよい。
図13は、図6のS630における物体10の第2の位置及び姿勢の計測の処理手順の、本実施形態2における処理詳細を示すフローチャートである。以下、図13に示すS1310からS1320を参照して、図6に示すS630の詳細な動作を説明する。なお、図13に示されたフローチャートで表される動作は、第2位致姿勢算出部1265が実行する。
まず、S620において算出された物体10の第1の位置及び姿勢を用いて濃淡画像の変換を行う(S1310)。
ここでは、濃淡画像の現在の視点、すなわち変換前の視点を、以降、「旧視点」と呼ぶ。また、この旧視点の視軸とS620において検出した平面との交点を、以降、「視軸と平面の交点」と呼ぶ。そして、当該旧視点と、視軸と平面の交点と、の距離が変化せず、かつ、S620において検出した平面が当該視軸と垂直になるような視点を、「正面視点」と呼ぶ。
ここで、濃淡画像を撮像したカメラの内部パラメータは既知であり、濃淡画像の各座標に対応する3次元座標も既知であるので、これらパラメータを利用して、正面視点における画像を計算することができる。
正面視点から見た画像の計算は、以下のように実行してよい。
まず、正面視点の3次元空間上での座標は、視軸と平面の交点から、図6のS620において検出した平面の法線方向に、旧視点からの視軸と平面との交点の間の距離だけ移動した場所にある。
次に、座標軸を決定する。旧視点に対するx、y、z軸をそれぞれ決定する。ここでは、旧視点に対するx軸を、濃淡画像上で左から右向き、かつ、z軸と垂直の向きとする。旧視点に対するy軸を、濃淡画像上で上から下向き、かつ、z軸と垂直の向きとする。旧視点に対するz軸を、旧視点から濃淡画像上で奥の向き、と決定する。
同様に、正面視点に対する座標軸x’、 y’、z’軸それぞれ決定する。正面視点に対するz’軸は、正面視点から視軸と平面の交点への向きとする。正面視点に対するx’軸は、濃淡画像上で左から右向き、かつ、z’軸と垂直の向きとする。正面視点に対するy’軸は、濃淡画像上で上から下向き、かつ、z’軸と垂直の向きとする。
次に、距離画像上の各点の座標値を、x、y、z軸で表されている座標値から、x’、y’、z’軸に関する座標値に変換する。そして、このx’、y’、z’軸の座標値で表された距離画像上の各点に対して、カメラの内部パラメータを用いて新たに画像上の座標を計算する。当該計算によって、正面視点から見た場合の画像を計算して求めることができる。画素によっては値が決定できない場合もあるが、そのような画素は数値が未定義であるものとして、パターンマッチングの際に用いないようにすればよい。
図13に戻り、S1310において変換した濃淡画像に対して、モデル保存部1210に保存されているテンプレートを用いて、パターンマッチングを行い、第2の位置および姿勢の推定を行う(S1320)。
ここで、パターンマッチングの方法は、様々なパターンマッチングの方法を利用してよい。本実施形態2では、例えば正規化相関法により計算することができる。この正規化相関法では、テンプレートtと、テンプレートtと同じサイズの画像Iに対して以下のような評価値Rを算出する。
Figure 2016170050
濃淡画像からテンプレートtと同じサイズの画像I’を抜き出し、上記式を用いて評価値Rを算出することができる。I’の抜き出し方は、要求される精度に依存する。例えば、要求される精度がa画素であり、テンプレートtの高さがh画素、幅がw画素の場合、I’の頂点が(ma、 na)、(ma+w、na)、(ma、na+h)、(ma+w、na+h)(m、nは整数)となるすべての抜き出し方において評価値Rを算出する。算出したすべての評価値のうち、最も値の高くなる評価値を出力するような、テンプレートtに対応している位置及び姿勢を算出してよい。当該算出した位置及び姿勢を、第2の位置及び姿勢として出力してよい。
以上説明したように、本実施形態2では、まず距離画像を用いて距離画像上の平面を検出する。次に、その平面が、視線と垂直になるように、濃淡画像を変換する。このため、計測対象である物体10の、テンプレートとして保存される位置及び姿勢は、主平面と視線が垂直になっているのみでよい。したがって、モデル保存部1210において保存されているテンプレートの量が少なくてもなお、ロバストかつ精度の高い位置及び姿勢の推定が可能になる。
(実施形態2−変形例1)
実施形態2の変形例1では、パターンマッチングを実行した後に、精度が向上するフィッティングを行う。
この変形例1では、上述の実施形態2についての図6のS630の処理による出力(すなわち、第2の位置及び姿勢)を、物体10の概略の位置姿勢として、上述の実施形態1についてのS630の処理を行う。これにより、物体10の位置及び姿勢の推定の精度を高めることができる。あるいは、パターンマッチングにおけるテンプレートのバリエーション数を減らしても、推定の精度を維持することができる。
(実施形態2−変形例2)
実施形態2の変形例2は、上述した実施形態2の動作において、第1の位置及び姿勢の算出処理を、実施形態1で説明した処理を用いる。
すなわち、上記実施形態2における第1の位置及び姿勢の算出処理を、実施形態1で説明した図6のS610、S620の処理を用いて求めてもよい。実施形態1についての図6のS620で最適化した3自由度のパラメータsから主平面の位置及び姿勢を算出し、図6のS630の入力として利用すればよい。
(実施形態2−変形例3)
実施形態2の変形例3は、複数の対象物体の位置及び姿勢を算出する。
取得した画像に複数の計測対象の部品が撮影されている場合、図6のS620において、距離画像のセグメンテーションによって得られた平面の中で、面積の大きい方から、複数の平面のセグメントを選び出してもよい。当該複数の平面のセグメントに対して、実施形態2で説明した図6のS620の処理を行い、複数の対象物体10に対して、第1の位置及び姿勢を算出してもよい。
(実施形態3)
以下、本発明の実施形態3を、上記実施形態と異なる点について説明する。
実施形態3においては、実施形態2における第2位置姿勢算出部1265が、特徴点ベースのモデルフィッティングを実行するものである。
この実施形態3においては、実施形態2と同様に、第2位置姿勢算出部1265が、主平面が視軸と垂直となるように変換した濃淡画像から特徴点を検出する。そして、第2位置姿勢算出部1265は、主平面が視軸と垂直となっている画像における例えばSIFT(Scale-Invariant Feature Transform)特徴点のデータベース上の特徴点との対応をもとに、物体10の位置及び姿勢を算出する。
本実施形態3において説明する位置姿勢計測装置は、図12に示す位置姿勢計測装置1201と同様の構成であってよい。図12を参照して、位置姿勢計測装置1201は、モデル保存部1210、2次元画像入力部130、3次元データ入力部150、第1位置姿勢算出部1260、第2位置姿勢算出部1265から構成されている。また、位置姿勢計測装置1201には、2次元画像撮像部100、距離計測部105が接続されている。以下、本実施形態3の位置姿勢計測装置を構成する各部について説明する。なお、2次元画像撮像部100、距離計測部105、2次元画像入力部130、3次元データ入力部150、第1位置姿勢算出部1260に関しては、実施形態2と同様のため、説明を省略する。
モデル保存部1210には、計測する対象の物体10の2次元の特徴点のデータベースと主平面の情報とを保存する。本実施形態3においては、例えばSIFT特徴点のデータベースを保存する。この2次元特徴点はSIFT特徴点以外の特徴点であってよい。SIFT特徴点のデータベースは、例えば、物体10のそれぞれの主平面が視軸と垂直になっている場合における、当該すべての視点に対して、それぞれSIFT特徴点の検出を行い、各視点ごとにその特徴量の列を保存して作成できる。
SIFT特徴点を検出する方法は、例えば、David G. Lowe, “Distinctive image features from scale-invariant keypoints”, Int. Journal of Computer Vision, Vol. 60, No. 2, pp.91-110, 2004.に記載されている方法を採用してよい。主平面の情報は、実施形態2と同様に、モデルを点の集合及び面を構成する点のIDによって表現する。さらに、データベース中には、各面が、その面自身が主平面となる姿勢の範囲を保持することで、主平面の情報として保持する。SIFT特徴点のデータベースと、主平面の情報は、モデル保存部1210に保存される。そして、第2位置姿勢算出部1265が、当該SIFT特徴点のデータベースと、主平面の情報を用いて所定の処理を実行する。
第2位置姿勢算出部1265は、第1位置姿勢算出部1260が算出した第1の位置及び姿勢を用いて、2次元画像入力部1230が入力した2次元画像中の物体10の主平面が視軸と垂直になるように、当該画像を変換する。
第2位置姿勢算出部1265は、変換した画像に対して、モデル保存部1210に保存されている計測する対象である物体10のSIFT特徴点のデータベース中のSIFT特徴点群を、変換済み画像から抽出したSIFT特徴点と対応付ける。そして、第2位置姿勢算出部1265は、例えばDLT(Direct Linear Transform)法によって、物体10の第2の位置及び姿勢を計測(算出)する。ここで、DLT法として、Y. I. Abdel-Aziz and H. M. Karara.,”Direct linear transformation from comparator coordinates into object space coordinates in close-range photogrammetry”, In Proceedings of the Symposium on Close-Range Photogrammetry, pp. 1-18. American Society of Photogrammetry, Falls Church, 1971.”に記載の方法等を利用することができる。
実施形態3における、物体10の位置及び姿勢の計測の処理手順を示すフローチャートは実施形態1と同様に図6を参照して説明する。図6において、各ステップのうち、S610、S620についてはそれぞれ実施形態2で説明したS610、S629の処理内容と同一でよいため、説明を省略する。以下では、S630について説明する。
すなわち、第2位置姿勢算出部1265は、S620において算出された第1の位置及び姿勢と、濃淡画像とに基づいて物体10の第2の位置及び姿勢の計測(算出)を行う(S630)。このS630においては、濃淡画像を、S620において検出した平面が視軸と垂直になるように変換する。変換後の画像に対して、データベース上のSIFT特徴点と、視軸と主平面が垂直となっている画像上のSIFT特徴点との対応付けを行う。当該対応付けの処理においては、第2位置姿勢算出部1265は、モデル保存部1210に保存されているSIFT特徴量のデータベースを用いてよい。第2位置姿勢算出部1265は、当該対応付けの後、例えばDLT法によって位置及び姿勢を算出する。
図14は、実施形態3についての図6のS630における第2の位置及び姿勢の計測の処理手順を表すフローチャートを示す。
以下、S1410からS1430を参照して、実施形態3におけるS630の処理の詳細を説明する。なお、図14のS1410の処理は、図13に示すS1310と同様のため説明は省略し、S1420から説明を行う。
まず、S1410において変換した濃淡画像(以降、「正面画像」と呼ぶ。)上のSIFT特徴点と、モデル保存部1210に保存されているデータベース上のSIFT特徴点(以降、「モデル上のSIFT特徴点」と呼ぶ。)との対応付けを行う(S1420)。ここで、正面画像からSIFT特徴点を検出する方法は、例えば、David G. Lowe, “Distinctive image features from scale-invariant keypoints”, Int. Journal of Computer Vision, Vol. 60, No. 2, pp.91-110, 2004.に記載されている方法を採用できる。
対応付けは、例えば、正面画像から検出したSIFT特徴点に対し、最も距離が小さくなるモデル上のSIFT特徴点を対応付けることで実行できる。本実施形態3では、距離は、SIFT特徴量の差のL2ノルムとする。これに替えて、距離を他の方法で算出してもよい。
正面画像から検出されたSIFT特徴点群は、ノイズなどの影響で、異なる姿勢から検出されたモデル上のSIFT特徴点群に対応付けられてしまう可能性がある。この場合、すべての姿勢Pにおいて、正面画像から検出されたSIFT特徴点群に対応付いたモデル上のSIFT特徴点群の中から、Pから検出されたモデル上のSIFT特徴点の個数を算出する。そして、前述の個数が最も多くなるような姿勢Pmaxを選択する。選択された姿勢Pmaxから検出されたモデル上のSIFT特徴点群に含まれる正面画像から、検出されたSIFT特徴点を抽出する。そして、当該抽出されたSIFT特徴点に対応付いたモデル上のSIFT点のみを、最終的な正面画像から検出されたSIFT特徴点群に対応付いたモデル上のSIFT特徴点群とする。
S1420における対応付け結果に基づき、第2位置姿勢算出部1265が、物体10の第2の位置及び姿勢の算出を行う。本実施形態3では、例えば、DLT法を用いて、第2の位置及び姿勢の算出を行ってよい。第2の位置及び姿勢の算出方法はDLT法に限られるものではなく、例えばLepetit(V. Lepetit, F. Moreno-Noguer, and P. Fua, “Epnp: An accurate o(n) solution to the pnp problem” Int. J. Comput. Vision, vol. 81. No. 2. Pp. 155-166, 2009.)に記載されているアルゴリズムを利用できる。
以上、説明したように、実施形態3においては、まず距離画像を用いて距離画像上の平面を検出して、当該平面が視線と垂直になるように濃淡画像を変換する。この処理によって、データベース中に保存されている対象の物体10のSIFT特徴点により近いSIFT特徴点が出現しやすくなる。したがって、対応付けの精度が向上し、よりロバストに、物体10の位置及び姿勢を算出できる。
(実施形態3−変形例1)
実施形態3の変形例1においては、実施形態3の第1の位置及び姿勢の算出処理を、実施形態1に替えて実行する。
すなわち、実施形態3における第1の位置及び姿勢算出を、実施形態1において説明した図6のS610、S620の処理によって求めてもよい。実施形態1のS620で最適化した3自由度のパラメータsから主平面の位置及び姿勢を算出し、実施形態3についての図6のS630の入力とすることができる。
(実施形態3−変形例2)
実施形態3の変形例2においては、複数の計測対象である物体10の位置及び姿勢を算出する。
取得した画像に複数の計測対象の部品が撮影されている場合、図6のS620において、距離画像のセグメンテーションによって得られた面積の大きい複数の平面のセグメントを抽出する。この抽出した複数の平面のセグメントに対してS620の処理をそれぞれ行い、複数の対象である物体10のそれぞれに関して位置及び姿勢を算出してもよい。
(実施形態4)
以下、本発明の実施形態4を、上記実施形態と異なる点につき説明する。
実施形態4は、位置姿勢計測装置だけでなく、ロボット制御装置の構成まで含んだ全体的なシステムである。
図15は、本実施形態4における情報処理装置1510の構成の一例を示す。本実施形態4において、図15を参照して、情報処理装置1510は、位置姿勢計測装置1505、センサ部1500、ロボットコントローラ部1501を備えている。さらに、情報処理装置1510は、ロボット1502、物体抽出・概略位置姿勢取得部1520を備えてよい。
図16は、位置姿勢計測装置1505、及び、ロボットコントローラ部1501の詳細な構成図の一例を示す。図16において、位置姿勢計測装置101は、実施形態1、実施形態2、実施形態3と同様に、モデル保存部110、2次元画像入力部130、3次元データ入力150、第1位置姿勢算出部160、第2位置姿勢算出部165から構成される。ロボットコントローラ部1501は、ロボット作業指示部1670、ロボット制御部1680から構成される。これらの構成によって、パレット1504内に山積みした対象物体1503の計測を行い、ロボット1502によるピック作業を行う。
以下、本実施形態4における情報処理装置1510を構成する各部について説明する。なお、位置姿勢計測装置101については実施形態1、実施形態2、実施形態3の位置姿勢計測装置101、位置姿勢計測装置1201と同様であるので説明は省略する。
センサ部1500は、例えば、小型プロジェクタと2次元画像を撮影する小型カメラから構成することができる。このセンサ部1500は、パレット1504の上方に固定的に配置され、山積みされた対象物体1503の画像を撮影し、2次元画像入力部130、3次元データ入力部150に対して濃淡画像や、距離画像等の出力を行ってよい。センサ部1500の小型プロジェクタと小型カメラとの相対的な位置関係は予めキャリブレーションにより求まっているものとする。
センサ部1500の小型プロジェクタは対象物体に対してパターン光を照射する。センサ部1500の小型カメラは、そのパターンを撮像し、それに基づき算出される距離画像を3次元データ入力部150に対して出力する。また、センサ部1500は、小型カメラが撮像した濃淡画像を2次元画像入力部130に対して出力する。
この照射パターンとしては、例えば、空間符号化法の幅の異なる複数の縞模様パターンや、複数の線パターンなどを利用してよい。また、例えば、2次元的なパターンやランダムドットのようなパターンでもよい。また、センサ部1500は、例えば、回折格子と照明とカメラから構成されてもよい。この場合は回折格子と照明により対象物体にパターン光を投射し、カメラによりパターンを撮影することができる。
ロボット1502は、例えば、多関節ロボットであってよい。このロボット1502は、ロボットコントローラ部1501からの制御命令を受信して、当該制御命令に基づき稼働する。ロボット1502の先端には、例えばエンドエフェクタであるハンドが装着される。このハンドを用いて、ロボット1502は、対象である物体1503に対する作業を行うことができる。本実施形態4においては、エンドエフェクタとして、対象である物体1503を把持することが可能な、例えばチャック機構を持つハンドを用いてよい。その他、エンドエフェクタにはモータ駆動可能なハンドを用いてもよいし、空気圧で対象物体を吸着する吸着パッドを用いてもよい。
センサ部1500の位置姿勢、ロボット1502やハンドの位置や軌道、ロボット1502のアームとセンサ部1500の相対位置姿勢のキャリブレーション作業等は、本実施形態4の実施に先立って公知の技術によって予め行われているものとする。これによって、第2位置姿勢算出部165が計測する物体1503の位置及び姿勢を、パレット1504が置かれた空間に対して固定的に定義されたワークスペース座標系に変換することができる。
また、情報処理装置1510のロボットコントローラ部1501は、ワークスペース座標系で指定した位置姿勢に対して、ハンドが設定されるように、ロボット1502を制御する。
計測対象である物体1503は、例えば、工業製品を構成する部品である。物体1503は、ロボット1502によって、例えばピックされて製品に組み付けられてよい。物体1503の素材は、例えば、プラスチック、金属、ビニールなど、様々なものを用いることができる。図15は、一例として、複数の対象である物体1503が様々な姿勢になるようにパレット1504に山積みされている様子を示す。
パレット1504は、対象である物体1503を収容するための箱である。パレット1504の素材に制約はないが、例えば、プラスチックや紙素材を用いてよい。またパレット1504の形状にも制約はないが、例えば、作りやすさの点から立方体あるいは直方体にしてよい。パレット1504の大きさにも制約はないが、例えば、センサ部1500で計測可能な範囲内に収まるようにする。
物体抽出・概略位置姿勢取得部1520は、センサ部1500が出力する画像(濃淡画像、距離画像等)上で、パレット1504に収容されている対象である物体1503を例えば1つ抽出し、その概略位置姿勢を得る。物体抽出・概略位置姿勢取得部1520には、計測対象である物体1503を、例えばGeodesic Sphere(計測を行う表面)上に設定した所定の視点から観察した画像が、あらかじめテンプレートとして保持されている。物体抽出・概略位置姿勢取得部1520は、当該テンプレートを用いて、センサ部1500が出力する画像からテンプレートマッチングによって、概略位置姿勢を得る。すなわち、物体抽出・概略位置姿勢取得部1520は、テンプレートマッチングの評価値が最大のテンプレートに対応する位置及び姿勢を、選択した対象である物体1503の概略位置姿勢とする。評価値としては、例えば正規化相関法であれば図13のS1320において算出するRの値を用いてよい。
次に、ロボットコントローラ部1501内の各構成について説明する。ロボット作業指示部1670は、位置姿勢計測装置101が出力する計測結果である位置及び姿勢に基づいて、ロボット1502に対する作業指示を出力することができる。ロボット作業指示部1670は、位置姿勢計測装置1505からの出力に応じて、対象物体1503を把持や吸着できる位置にハンドを移動させて把持や吸着を行わせる。
なお、ロボット1502の作業は移動、把持、吸着に限られるものではなく、対象である物体1503の外観検査など、他の作業も含んでよい。さらに、ロボット1502も多関節ロボットではなくNC制御可能な可動式の機械でもよい。ロボット制御部1680は、ロボット作業指示部1670からの指示情報を受けて、ロボット1502の制御を行う。
次に、本実施形態4における処理手順を説明する。まず、パレット1504に収容されている対象である物体1503をセンサ部1500が撮像する。次に、物体抽出・概略位置姿勢取得部1520が、対象である物体1503の概略位置姿勢を決定する。次に、位置姿勢計測装置1505が、対象である物体1503の位置及び姿勢を決定する。位置及び姿勢を決定する方法は、例えば、実施形態1において説明した方法によって求めてよい。または、物体抽出・概略位置姿勢取得部1520が算出した概略位置姿勢付近の画像を抜き出して、実施形態2、実施形態3に記載した方法によって求めてもよい。最後に、ロボット1502のエンドエフェクタによって対象である物体1503を把持もしくは吸着する。
なお、物体1503の位置・姿勢の計測が失敗した場合や、計測の後で実行するべきロボット作業において失敗した場合は、それ以降も、類似した状況下で失敗を繰り返す可能性がある。そこで、実施形態4では、失敗した場合の対象である物体1503に対する相対的な位置姿勢を所定の記憶手段に記憶しておき、それ以降の処理においては、その記憶しておいた位置姿勢を避けるように構成してもよい。失敗した時の状況を再現させないことによって、ロバスト性を向上させることができる。
(上記各実施形態の変形例)
また、上記各実施形態は、以下の処理を実行することによっても実現される。即ち、上述した各実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給することによって実現してよい。その場合、当該システム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して処理を実行する。また、そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供してもよい。
図17は、上記各実施形態の各部を構成することのできるコンピュータ1710の構成の例を示す。撮像部1715を含むコンピュータ1710は、例えば、センサ部1500や、2次元画像取得部100、1200、距離計測部105、1205等を構成する。CPU1711は、ROM1712や、RAM1713、外部メモリ1714等に格納されたプログラムを実行することによって、上記各実施形態の各部を実現する。例えば、位置姿勢計測装置の各部の機能を実現する。ROM1712、RAM1713、外部メモリ1714には、上記各実施形態で説明した各部の機能を実現するプログラムを格納することができる。また、例えば、モデル保存部110、1210に格納されるモデルやデータベース等を格納する。また、入力部1716は、濃淡画像などの2次元画像や、距離画像などを入力する。これによって、2次元画像入力部130、1230、3次元データ入力部150、1250等の機能を実現することができる。また、表示部1717は、操作者に対して計測の結果、処理の結果等を表示する。通信I/F1718は、外部と通信を行うインターフェースであり、インターネット等を通じてロボット1502を操作することなどを実現する。外部メモリ1714は、ハードディスクや、半導体記憶装置等であり、プログラムや、上記実施形態で説明した各所のモデルやデータベースを格納する。コンピュータ1710の上記説明した各部はバス1719によって相互に接続されている。
また、上記各実施形態では、物体の位置及び姿勢をロバストに計測する技術を説明したが、この技術は、さまざまな応用が考えられる。例えば、ロボットの自己位置推定や、ロボットと物体との間の相対的な位置及び姿勢を推定するのに利用することができる。
以上、本発明の実施形態について詳細に説明したが、これら実施形態、本発明を実施するにあたっての具体例を示したに過ぎず、本発明の技術的範囲は、上記実施形態に限定されるものではない。本発明は、その趣旨を逸脱しない範囲において種々の変更が可能であり、それらも本発明の技術的範囲に含まれる。
100…2次元画像撮像部、101…位置姿勢計測装置、105…距離計測部、110…モデル保存部、130…2次元画像入力部、150…3次元データ入力部、160…第1位置姿勢算出部、165…第2位置姿勢算出部

Claims (20)

  1. 計測対象である物体の位置及び姿勢を計測する位置姿勢計測装置であって、
    前記物体の2次元画像を取得する第1の取得手段と、
    前記物体の形状を表す3次元形状データを取得する第2の取得手段と、
    前記物体の形状モデルを保存する保存手段と、
    前記第2の取得手段により取得された前記物体の前記3次元形状データと、前記保存手段に保存される前記物体の前記形状モデルとに基づいて、前記物体の主平面の位置及び姿勢を前記物体の第1の位置及び姿勢として算出する第1の算出手段と、
    前記第1の算出手段により算出された前記第1の位置及び姿勢に基づいて、前記第1の取得手段により取得された前記2次元画像と前記形状モデルとを照合することにより、前記物体の3次元空間上の第2の位置及び姿勢を算出する第2の算出手段と、
    を具備することを特徴とする位置姿勢計測装置。
  2. 前記3次元形状データは、前記物体の表面上の点群の3次元座標であり、
    前記第1の算出手段は、前記物体の前記点群の3次元座標のデータが、前記3次元形状モデルの前記主平面に当てはまるように、前記物体の前記第1の距離及び姿勢を算出する、ことを特徴とする請求項1に記載の位置姿勢計測装置。
  3. 前記3次元形状データは、前記物体上の点群の撮像視点からの距離を表す距離画像から得られる、ことを特徴とする請求項1又は2に記載の位置姿勢計測装置。
  4. 前記形状モデルは、前記物体の3次元形状モデルを構成する面と、当該面が前記主平面となる前記物体の姿勢の情報と、を含む、ことを特徴とする請求項1から3のいずれか1項に記載の位置姿勢計測装置。
  5. 前記第1の算出手段は、前記3次元形状データと前記3次元形状モデルとから得られる対応付け結果に基づき、与えられる前記物体の位置及び姿勢の初期値を補正することによって、前記物体の前記第1の位置及び姿勢を算出する、ことを特徴とする請求項1から4のいずれか1項に記載の位置姿勢計測装置。
  6. 前記第1の算出手段は、前記3次元形状データから、前記物体の平面を検出し、検出された前記平面が、前記形状モデルの前記主平面と一致するように、前記物体の前記第1の位置及び姿勢を算出する、ことを特徴とする請求項1から4のいずれか1項に記載の位置姿勢計測装置。
  7. 前記第2の算出手段は、前記第1の位置及び姿勢に基づいて、前記形状モデル上の幾何特徴と、前記2次元画像から抽出された画像特徴とを対応付け、当該対応付けの結果に基づいて、前記物体の前記第2の位置及び姿勢を算出する、ことを特徴とする請求項1から6のいずれか1項に記載の位置姿勢計測装置。
  8. 前記第2の算出手段は、前記第1の位置及び姿勢に基づいて、前記2次元画像を、前記形状モデルの前記主平面が前記2次元画像の撮影における視軸に垂直になる正面画像に変換し、前記主平面が前記視軸に垂直な視点において前記物体を観察した像に相当するパターン群を前記正面画像に照合することによって、前記物体の前記第2の位置及び姿勢を算出する、ことを特徴とする請求項1から6のいずれか1項に記載の位置姿勢計測装置。
  9. 前記第1の算出手段は、前記物体の前記主平面の法線方向の1自由度の位置の成分、及び前記主平面と平行な方向周りの回転による2自由度の姿勢の成分から成る前記第1の位置及び姿勢を算出し、
    前記第2の算出手段は、前記物体の前記主平面と平行な方向の2自由度の位置の成分、及び前記主平面の法線方向周りの回転による1自由度の姿勢の成分から成る前記第2の位置及び姿勢を算出する、ことを特徴とする請求項1から8のいずれか1項に記載の位置姿勢計測装置。
  10. 前記第2の算出手段は、前記第1の位置及び姿勢に基づいて、前記形状モデル上の幾何特徴と、前記2次元画像から抽出された画像特徴とを対応付け、さらに、前記第1の位置及び姿勢と、前記3次元形状データと前記3次元形状モデルとから得られる対応付け結果とに基づいて、前記物体の前記第2の位置及び姿勢を算出する、ことを特徴とする請求項1から9のいずれか1項に記載の位置姿勢計測装置。
  11. 請求項1から10のいずれか1項に記載の位置姿勢計測装置と、
    前記位置姿勢計測装置に対して、前記物体の前記2次元画像と、前記物体の前記3次元形状データと、を出力するセンサ部と、
    前記位置姿勢計測装置に対して、前記物体の概略の位置及び姿勢を設定する設定部と、
    前記位置姿勢計測装置が出力する前記物体の位置及び姿勢に基づき、ロボットを制御するコントローラと、
    前記コントローラによって制御されるロボットと、
    を具備することを特徴とする情報処理装置。
  12. 計測対象である物体の位置及び姿勢を計測する位置姿勢計測方法であって、
    前記物体の2次元画像を取得するステップと、
    前記物体の形状を表す3次元形状データを取得するステップと、
    前記物体の形状モデルを保存するステップと、
    取得された前記物体の前記3次元形状データと、記憶装置に保存される前記物体の形状モデルとに基づいて、前記物体の主平面の位置及び姿勢を前記物体の第1の位置及び姿勢として算出するステップと、
    算出された前記第1の位置及び姿勢に基づいて、取得された前記2次元画像と前記形状モデルとを照合することにより、前記物体の3次元空間上の第2の位置及び姿勢を算出するステップと、
    を含むことを特徴とする位置姿勢計測方法。
  13. 前記3次元形状データは、前記物体の表面上の点群の3次元座標であり、
    前記第1の距離及び姿勢は、前記物体の前記点群の3次元座標のデータが、前記3次元形状モデルの前記主平面に当てはまるように、算出される、ことを特徴とする請求項12に記載の位置姿勢計測方法。
  14. 前記3次元形状データは、前記物体上の点群の撮像視点からの距離を表す距離画像から得られる、ことを特徴とする請求項12又は13に記載の位置姿勢計測方法。
  15. 前記形状モデルは、前記物体の3次元形状モデルを構成する面と、当該面が前記主平面となる前記物体の姿勢の情報と、を含む、ことを特徴とする請求項12から13のいずれか1項に記載の位置姿勢計測方法。
  16. 前記物体の前記第1の位置及び姿勢は、前記3次元形状データと前記3次元形状モデルとから得られる対応付け結果に基づき、与えられる前記物体の位置及び姿勢の初期値を補正することによって、算出される、ことを特徴とする請求項12から15のいずれか1項に記載の位置姿勢計測方法。
  17. 前記物体の前記第1の位置及び姿勢は、前記3次元形状データから、前記物体の平面を検出し、検出された前記平面が、前記形状モデルの前記主平面と一致するように、算出される、ことを特徴とする請求項12から15のいずれか1項に記載の位置姿勢計測方法。
  18. 前記物体の前記第2の位置及び姿勢は、前記第1の位置及び姿勢に基づいて、前記形状モデル上の幾何特徴と、前記2次元画像から抽出された画像特徴とを対応付け、当該対応付けの結果に基づいて、算出される、ことを特徴とする請求項12から17のいずれか1項に記載の位置姿勢計測方法。
  19. 前記物体の前記第2の位置及び姿勢は、前記第1の位置及び姿勢に基づいて、前記2次元画像を、前記形状モデルの前記主平面が前記2次元画像の撮影における視軸に垂直になる正面画像に変換し、前記主平面が前記視軸に垂直な視点において前記物体を観察した像に相当するパターン群を前記正面画像に照合することによって、算出される、ことを特徴とする請求項12から17のいずれか1項に記載の位置姿勢計測方法。
  20. コンピュータが読み取り実行することで、前記コンピュータを、請求項1から10のいずれか1項に記載の位置姿勢計測装置の各手段として機能させるためのコンピュータプログラム。
JP2015050094A 2015-03-12 2015-03-12 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム Pending JP2016170050A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015050094A JP2016170050A (ja) 2015-03-12 2015-03-12 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015050094A JP2016170050A (ja) 2015-03-12 2015-03-12 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2016170050A true JP2016170050A (ja) 2016-09-23

Family

ID=56982444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015050094A Pending JP2016170050A (ja) 2015-03-12 2015-03-12 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP2016170050A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077837A (ja) * 2016-10-28 2018-05-17 Jfeスチール株式会社 位置認識方法およびシステム、ならびに異常判定方法およびシステム
CN109934869A (zh) * 2017-12-19 2019-06-25 欧姆龙株式会社 位置姿势推断装置、位置姿势推断方法及记录介质
JP2019136828A (ja) * 2018-02-13 2019-08-22 Kyoto Robotics株式会社 箱状物ピッキング装置及びその方法
WO2020049766A1 (ja) * 2018-09-07 2020-03-12 オムロン株式会社 対象物認識装置、マニピュレータ、および移動ロボット
CN111353416A (zh) * 2020-02-26 2020-06-30 广东温氏种猪科技有限公司 基于牲畜三维测量的姿态检测方法、系统及存储介质
US10755439B2 (en) 2018-03-08 2020-08-25 Fujitsu Limited Estimation device, estimation method and storage medium
JP7093881B1 (ja) 2021-09-06 2022-06-30 Dmg森精機株式会社 システム、及び自動搬送車
CN115359192A (zh) * 2022-10-14 2022-11-18 阿里巴巴(中国)有限公司 三维重建与商品信息处理方法、装置、设备及存储介质
JP7502641B2 (ja) 2020-11-17 2024-06-19 株式会社デンソーウェーブ 認識システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217544A (ja) * 2007-03-06 2008-09-18 Yaskawa Electric Corp 物体検出方法、物体検出装置、及びそれを備えたロボット
JP2010127819A (ja) * 2008-11-28 2010-06-10 Fuji Electric Holdings Co Ltd 多面体位置検出装置及び検出方法
JP2012123781A (ja) * 2010-11-19 2012-06-28 Canon Inc 情報処理装置、情報処理システム及び情報処理方法
JP2012141962A (ja) * 2010-12-14 2012-07-26 Canon Inc 位置姿勢計測装置及び位置姿勢計測方法
JP2014046433A (ja) * 2012-09-03 2014-03-17 Canon Inc 情報処理システム、方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217544A (ja) * 2007-03-06 2008-09-18 Yaskawa Electric Corp 物体検出方法、物体検出装置、及びそれを備えたロボット
JP2010127819A (ja) * 2008-11-28 2010-06-10 Fuji Electric Holdings Co Ltd 多面体位置検出装置及び検出方法
JP2012123781A (ja) * 2010-11-19 2012-06-28 Canon Inc 情報処理装置、情報処理システム及び情報処理方法
JP2012141962A (ja) * 2010-12-14 2012-07-26 Canon Inc 位置姿勢計測装置及び位置姿勢計測方法
JP2014046433A (ja) * 2012-09-03 2014-03-17 Canon Inc 情報処理システム、方法及びプログラム

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077837A (ja) * 2016-10-28 2018-05-17 Jfeスチール株式会社 位置認識方法およびシステム、ならびに異常判定方法およびシステム
CN109934869A (zh) * 2017-12-19 2019-06-25 欧姆龙株式会社 位置姿势推断装置、位置姿势推断方法及记录介质
JP2019109747A (ja) * 2017-12-19 2019-07-04 オムロン株式会社 位置姿勢推定装置、位置姿勢推定方法及びプログラム
JP2019136828A (ja) * 2018-02-13 2019-08-22 Kyoto Robotics株式会社 箱状物ピッキング装置及びその方法
JP7065632B2 (ja) 2018-02-13 2022-05-12 Kyoto Robotics株式会社 箱状物ピッキング装置及びその方法
US10755439B2 (en) 2018-03-08 2020-08-25 Fujitsu Limited Estimation device, estimation method and storage medium
JP7031540B2 (ja) 2018-09-07 2022-03-08 オムロン株式会社 対象物認識装置、マニピュレータ、および移動ロボット
JP2020042421A (ja) * 2018-09-07 2020-03-19 オムロン株式会社 対象物認識装置、マニピュレータ、および移動ロボット
WO2020049766A1 (ja) * 2018-09-07 2020-03-12 オムロン株式会社 対象物認識装置、マニピュレータ、および移動ロボット
US11964399B2 (en) 2018-09-07 2024-04-23 Omron Corporation Target object recognition device, manipulator, and mobile robot
CN111353416A (zh) * 2020-02-26 2020-06-30 广东温氏种猪科技有限公司 基于牲畜三维测量的姿态检测方法、系统及存储介质
CN111353416B (zh) * 2020-02-26 2023-07-07 广东温氏种猪科技有限公司 基于牲畜三维测量的姿态检测方法、系统及存储介质
JP7502641B2 (ja) 2020-11-17 2024-06-19 株式会社デンソーウェーブ 認識システム
JP7093881B1 (ja) 2021-09-06 2022-06-30 Dmg森精機株式会社 システム、及び自動搬送車
WO2023032400A1 (ja) * 2021-09-06 2023-03-09 Dmg森精機株式会社 自動搬送装置、及びシステム
JP2023037769A (ja) * 2021-09-06 2023-03-16 Dmg森精機株式会社 システム、及び自動搬送車
CN115359192A (zh) * 2022-10-14 2022-11-18 阿里巴巴(中国)有限公司 三维重建与商品信息处理方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
JP5839971B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5567908B2 (ja) 3次元計測装置、その計測方法及びプログラム
JP6370038B2 (ja) 位置姿勢計測装置及び方法
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JP6573354B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6465789B2 (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
JP6271953B2 (ja) 画像処理装置、画像処理方法
JP5624394B2 (ja) 位置姿勢計測装置、その計測処理方法及びプログラム
JP6021533B2 (ja) 情報処理システム、装置、方法及びプログラム
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP6004809B2 (ja) 位置姿勢推定装置、情報処理装置、情報処理方法
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP5393318B2 (ja) 位置姿勢計測方法及び装置
JP5627325B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP5863440B2 (ja) 情報処理装置および方法
JP6092530B2 (ja) 画像処理装置、画像処理方法
US20130230235A1 (en) Information processing apparatus and information processing method
JP2011175477A (ja) 3次元計測装置、処理方法及びプログラム
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP5698815B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP2015007639A (ja) 情報処理装置、情報処理方法およびプログラム
JP6040264B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2011174891A (ja) 位置姿勢計測装置、位置姿勢計測方法、及びプログラム
JP6766229B2 (ja) 位置姿勢計測装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190328

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190702