JP2014238687A - 画像処理装置、ロボット制御システム、ロボット、画像処理方法及び画像処理プログラム - Google Patents
画像処理装置、ロボット制御システム、ロボット、画像処理方法及び画像処理プログラム Download PDFInfo
- Publication number
- JP2014238687A JP2014238687A JP2013120463A JP2013120463A JP2014238687A JP 2014238687 A JP2014238687 A JP 2014238687A JP 2013120463 A JP2013120463 A JP 2013120463A JP 2013120463 A JP2013120463 A JP 2013120463A JP 2014238687 A JP2014238687 A JP 2014238687A
- Authority
- JP
- Japan
- Prior art keywords
- image
- template
- spherical surface
- spherical
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】テンプレートのデータ量削減と処理負荷の低減が可能な画像処理装置、ロボット制御システム、ロボット、画像処理方法及び画像処理プログラム等を提供すること。【解決手段】画像処理装置は、画像平面420から仮想の球面425に写像したテンプレート画像である球面テンプレート画像を記憶するテンプレート画像記憶部と、撮像部20による撮像画像に対してテンプレートマッチング処理を行う画像処理部と、を含む。画像処理部は、画像平面420から仮想の球面425に撮像画像を写像し、その写像した撮像画像である球面撮像画像と球面テンプレート画像とにより、仮想の球面425上においてテンプレートマッチング処理を行う。【選択図】 図3
Description
本発明は、画像処理装置、ロボット制御システム、ロボット、画像処理方法及び画像処理プログラム等に関する。
特定のパターン(例えば、特定の画像そのものや特徴量等)の位置を画像から検出する手法として、ピンホールカメラモデルを想定したテンプレートマッチングが知られている。この手法では、特定のパターンをテンプレートとして、画像の各位置におけるテンプレートと画像との類似度を求め、その類似度が最も高い位置を検出する。
カメラで画像を撮影する場合、3次元空間を平面に写像することになる。そのため、カメラから見た物体までの距離と物体の姿勢が同一であっても、光軸上(オンアクシス)と光軸外(オフアクシス)とで画像上での物体の見え方が異なる。このような画像に対してテンプレートマッチングを行う場合、物体の見え方が異なることに対して何らかの対処が必要である。
例えば特許文献1には、オフアクシスでの像の歪みではないが、物体の動きによる像の歪みに対して位置検出の精度を向上する手法が開示されている。この手法では、3つ以上のテンプレートを用いたマッチングを行い、その結果に基づいて像の歪み方を推定し、その推定した歪み方に基づいた補正を行う。
また特許文献2には、オンアクシスでのテンプレートのみを用意し、テンプレートウィンドウの画像平面上におけるスライド位置に応じてホモグラフィー行列を求め、そのホモグラフィー行列によりテンプレートを変形し、その変形したテンプレートによりマッチングを行う手法が開示されている。
上記のようなオフアクシスでの物体の見え方の違いに対するテンプレートマッチングでは、テンプレートのデータ量増大や処理負荷の増大という課題がある。
例えば特許文献1の手法を適用した場合、オンアクシスのテンプレートだけでなく、オフアクシスの各位置での見え方に応じた大量のテンプレートを用意する必要があるため、テンプレートのデータ量が膨大となる。また特許文献2の手法を用いた場合、テンプレートをスライドさせながらマッチングを行う際に、スライド位置に応じてホモグラフィー行列が異なるため、ホモグラフィー変換を繰り返し行う必要がある。そのため、処理負荷が増大する。
本発明の幾つかの態様によれば、テンプレートのデータ量削減と処理負荷の低減が可能な画像処理装置、ロボット制御システム、ロボット、画像処理方法及び画像処理プログラム等を提供できる。
本発明の一態様は、画像平面から仮想の球面に写像したテンプレート画像である球面テンプレート画像を記憶するテンプレート画像記憶部と、撮像部による撮像画像に対してテンプレートマッチング処理を行う画像処理部と、を含み、前記画像処理部は、前記画像平面から前記仮想の球面に前記撮像画像を写像し、前記写像した前記撮像画像である球面撮像画像と前記球面テンプレート画像とにより、前記仮想の球面上において前記テンプレートマッチング処理を行う画像処理装置に関係する。
本発明の一態様によれば、画像平面から仮想の球面に写像された撮像画像と、画像平面から仮想の球面に写像されたテンプレート画像とにより、仮想の球面上においてテンプレートマッチング処理が行われる。これにより、テンプレートのデータ量削減と処理負荷の低減が可能になる。
また本発明の一態様では、テンプレート画像記憶部は、前記球面テンプレート画像として、前記撮像部の光軸上に物体が配置された場合における前記物体の画像を記憶してもよい。
仮想の球面に写像した画像では、画像平面上の画像とは異なり、オフセット角(撮像部の光軸と撮像部から見た物体の方向との成す角度)に依らず物体の見え方は同一となる。そのため、本発明の一態様では、光軸外のテンプレート画像が不要となり、光軸上のテンプレート画像で高精度なテンプレートマッチングを行うことが可能である。これにより、テンプレートの記憶領域を必要最小限に抑えることができる。
また本発明の一態様では、前記テンプレート画像記憶部は、前記撮像部の光軸上において前記撮像部から異なる距離に前記物体が配置された場合における複数の前記球面テンプレート画像を記憶してもよい。
このようにすれば、仮想の球面内での位置だけでなく、撮像部から物体までの距離を検出することが可能となる。このように距離毎のテンプレート画像を用意する場合、オフセット角毎にテンプレートを用意すると膨大なデータ量となるが、本発明の一態様では、光軸外のテンプレート画像が不要であるため、テンプレートのデータ量を大幅に抑制可能である。
また本発明の一態様では、前記画像処理部は、前記仮想の球面上の座標を前記画像平面上の座標に変換し、前記変換した前記画像平面上の座標における前記撮像画像の画素値を前記仮想の球面上の座標での画素値として取得してもよい。
仮想の球面上でテンプレートマッチングを行うためには、仮想の球面の各座標においてテンプレート及び撮像画像がどのような画素値をもつのかを知る必要があるが、本発明の一態様によれば、仮想の球面から画像平面への座標変換により、テンプレートマッチングに必要な仮想の球面での画素値を取得できる。
また本発明の一態様では、前記画像処理部は、前記撮像画像をテクスチャーマッピングにより前記仮想の球面にマッピングすることで、前記仮想の球面上の座標での画素値を取得してもよい。
このようにすれば、グラフィックス処理のAPI等を用いてGPUにテクスチャーマッピング処理を行わせることが可能となり、GPUのグラフィックス処理能力を利用して高速にテンプレートや撮像画像を球面写像できる。
また本発明の一態様では、前記画像処理部は、前記テンプレートマッチング処理の結果に基づいて、物体の位置姿勢を検出してもよい。
また本発明の一態様では、前記画像処理部は、前記仮想の球面上での前記テンプレートマッチング処理により検出した前記物体の位置姿勢を、3次元空間での位置姿勢に変換することにより、前記3次元空間での前記物体の位置姿勢を検出してもよい。
このようにすれば、仮想の球面上でのテンプレートマッチングにより、3次元空間での物体の位置姿勢を検出することができる。例えば、ロボット制御に本発明を適用した場合、マッチング結果からワールド座標系での位置姿勢を検出し、ロボットアーム等の制御を行うことが可能となる。
また本発明の他の態様は、画像平面から仮想の球面に写像したテンプレート画像である球面テンプレート画像を記憶するテンプレート画像記憶部と、撮像部による撮像画像に対してテンプレートマッチング処理を行う画像処理部と、前記テンプレートマッチング処理の結果に基づいてロボットを制御するロボット制御部と、を含み、前記画像処理部は、前記画像平面から前記仮想の球面に前記撮像画像を写像し、前記写像した前記撮像画像である球面撮像画像と前記球面テンプレート画像とにより、前記仮想の球面上において前記テンプレートマッチング処理を行うロボット制御システムに関係する。
また本発明の他の態様では、前記テンプレート画像記憶部に記憶された前記球面テンプレート画像を表示する表示部を含んでもよい。
また本発明の更に他の態様は、画像平面から仮想の球面に写像したテンプレート画像である球面テンプレート画像を記憶するテンプレート画像記憶部と、撮像部による撮像画像に対してテンプレートマッチング処理を行う画像処理部と、ロボットのアームと、前記テンプレートマッチング処理の結果に基づいて前記アームを制御するロボット制御部と、を含み、前記画像処理部は、前記画像平面から前記仮想の球面に前記撮像画像を写像し、前記写像した前記撮像画像である球面撮像画像と前記球面テンプレート画像とにより、前記仮想の球面上において前記テンプレートマッチング処理を行うロボットに関係する。
また本発明の更に他の態様は、撮像部による撮像画像を画像平面から仮想の球面に写像し、前記写像した前記撮像画像である球面撮像画像と、前記画像平面から前記仮想の球面に写像したテンプレート画像である球面テンプレート画像とにより、前記仮想の球面上においてテンプレートマッチング処理を行う画像処理方法に関係する。
また本発明の更に他の態様は、撮像部による撮像画像を画像平面から仮想の球面に写像し、前記写像した前記撮像画像である球面撮像画像と、前記画像平面から前記仮想の球面に写像したテンプレート画像である球面テンプレート画像とにより、前記仮想の球面上においてテンプレートマッチング処理を行う、ステップをコンピューターに実行させる画像処理プログラムに関係する。
以下、本発明の好適な実施の形態について詳細に説明する。なお以下に説明する本実施形態は特許請求の範囲に記載された本発明の内容を不当に限定するものではなく、本実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。
1.本実施形態の手法
以下では、本実施形態のテンプレートマッチングを3次元空間における物体の位置姿勢の検出に適用する場合を例にとり説明する。なお、本実施形態はこれに限定されず、仮想の球面上に写像することにより被写体像の変形をキャンセルできるアプリケーションであれば、適用可能である。
以下では、本実施形態のテンプレートマッチングを3次元空間における物体の位置姿勢の検出に適用する場合を例にとり説明する。なお、本実施形態はこれに限定されず、仮想の球面上に写像することにより被写体像の変形をキャンセルできるアプリケーションであれば、適用可能である。
図1に、ピンホールカメラモデルにおいて、撮像部20(カメラ)で物体450(被写体)を撮影した場合の画像上での見え方を模式的に示す。図1では、物体450は、平面430上のオンアクシス及びオフアクシスに配置されている。オンアクシスとは、撮像部20の光軸440上に物体450が存在する状態のことであり、オフアクシスとは、撮像部20の光軸440上以外の位置に物体450が存在する状態のことである。
撮像部20により物体450を撮影すると、3次元空間に配置された物体450は画像平面420に写像される。このとき、オンアクシスでの像460とオフアクシスでの像470は、見え方(形や大きさ)が異なっている。例えばオンアクシスの像460では、物体450の上平面のみが写っているが、オフアクシスの像470では物体450の右側面も写っている。また、オンアクシスとオフアクシスで撮像部20から物体50までの距離が変わるため、像の大きさも多少異なっている。更に、オフアクシスにおいて、光軸440からのオフセット角θが変化すると、見え方もそれに応じて異なったものとなる。
さて、このような画像から物体450の位置姿勢を検出することを考える。位置姿勢を高精度に検出するためには、そもそも、正確なテンプレートマッチングが必要である。正確なテンプレートマッチングを行う手法としては、空間中のさまざまな位置における物体の姿勢毎にテンプレートを用意する手法が考えられる(例えば特許文献1を、物体の位置姿勢検出に適用した場合)。
しかしながら、この手法では、テンプレートのデータサイズが膨大になるという課題がある。これは、上述のように、光軸440からのオフセット角θが変わると、物体450の見え方が変わり、それぞれテンプレートが必要となるためである。また、オフセット角θが同一であっても、撮像部20から物体450までの距離が変わると見え方が異なるので、各オフセット角θにおいて距離を変化させた膨大なテンプレートを用意しなければならないためである。
一方、オフセット角θ毎にテンプレートを用意するのではなく、オフセット角θに応じてテンプレートを変形する手法が考えられる。この手法では、オフセット角θ毎のテンプレートが不要となるため、テンプレートのデータサイズを削減できる。例えば特許文献2の手法では、ホモグラフィー変換によりテンプレートを変形する。
図2に、ホモグラフィー変換についての説明図を示す。図2では、オフセット角θに物体450が配置されているとする。この物体450を撮影すると、画像上では像475が得られる。ホモグラフィー変換ではホモグラフィー行列により変換を行うが、ホモグラフィー行列は、オフセット角θの像475をオンアクシス(θ=0度)での像465に変換する行列である。即ち、ホモグラフィー変換は、ピンホールカメラモデルにおけるピンホールを中心とした球面435を考え、オフセット角θでの球面435の接平面に像475を写像し、その接平面上の像490をオンアクシスでの球面435の接平面に移動させ、その像480を画像平面420へ写像する変換と等価である。
さて、上記のようなホモグラフィー変換において、撮像部20から見たときの物体450の距離と姿勢は、オンアクシスとオフアクシスで同一となるはずである。それにも関わらず、画像平面420上では、オフアクシスでの像475はオンアクシスでの像465に比べて伸びており、画像平面420上での見え方は異なったものとなる。これは、球面435の法線と画像平面420が成す角度が、オフセット角θに応じて異なるためである。このように、オフセット角θに応じて画像平面420上での像が異なるため、オフセット角θに応じてホモグラフィー行列も異なったものとなる。
特許文献2では、オンアクシスでのテンプレートを用意しておき、そのテンプレートをホモグラフィー行列の逆行列により変換し、その変換したテンプレートによりマッチングを行う。マッチングでは、走査窓の位置(即ちオフセット角θ)を移動させながら類似度を算出するため、その位置毎にホモグラフィー行列(の逆行列)を求めてテンプレートを変換する必要がある。そのため、ホモグラフィー変換の繰り返し演算が発生し、テンプレートマッチングの処理負荷が非常に大きなものとなるという課題がある。
以上の図1、図2で説明したような課題は、画像平面420上でテンプレートマッチングを行うことに本質的に起因している。即ち、画像平面420上でマッチングすることにより、カメラ光軸外(オフアクシス)に置かれた物体50の画像平面420での見え方が、オフセット角θに応じて変わるためである。
そこで本実施形態では、球面上においてテンプレートマッチングを行う。具体的には、画像処理装置(例えば、後述する図15の記憶部130及び処理部110)は、テンプレート画像記憶部132と画像処理部112を含む。図3に示すように、テンプレート画像記憶部132は、画像平面420から仮想の球面425に写像したテンプレート画像である球面テンプレート画像を記憶する。画像処理部112は、撮像部20による撮像画像に対してテンプレートマッチング処理を行う。このとき画像処理部112は、画像平面420から仮想の球面425に撮像画像を写像し、その写像した撮像画像である球面撮像画像と球面テンプレート画像とにより、仮想の球面425上においてテンプレートマッチング処理を行う。
このようにすれば、オフセット角θに応じたテンプレートのデータや、オフセット角θに応じたテンプレートの変形が不要となり、テンプレートのデータ量を削減すると共に軽負荷でテンプレートマッチングを行うことが可能となる。即ち、図3に示すように、撮影された物体450の像を球面425へ写像するということは、結局、物体450が配置された球面435から仮想的な球面425へ写像しているということである。この場合、平面への写像ではないため、図2で説明したようなホモグラフィーの関係が生じず、オフセット角θに関わらずオンアクシスの像485もオフアクシスの像495も同一となる。これにより、オフセット角θに依らないテンプレートのみで、ホモグラフィー変換による変形をすることなく、テンプレートマッチングを行うことができる。
また、画像平面420から球面425への写像は単純な座標変換であり、1回だけ行えば済むため、特許文献2のようにホモグラフィー変換を繰り返し行う場合に比べて処理負荷が軽くなり、高速処理が可能である。例えば、後述のようにGPUのテクスチャーマッピング機能を用いることにより、球面425への座標変換を高速に実行可能である。
ここで、画像平面420とは、撮像部20が3次元空間の像を結像させる平面のことである。例えばピンホールカメラモデルを採用した場合、ピンホールから光軸440方向へ撮像部20の焦点距離だけ離れると共に光軸440に直交する平面である。実際にはピンホールを挟んで被写体と反対側に存在するが、数学的に等価であることからピンホールより被写体側に設定することが一般的である(透視投影モデル)。
また、球面425とは、球面上でテンプレートマッチングを行うために仮想的に設定した球面(被写体側に設定した半球面)である。例えばピンホールカメラモデルを採用した場合、ピンホールを中心とする球面であり、その半径は任意に設定することが可能であるが、例えば半径は撮像部20の焦点距離である。
また本実施形態では、テンプレート画像記憶部132は、球面テンプレート画像として、撮像部20の光軸440上に物体450が配置された場合(オンアクシス)における物体450の画像を記憶する。
より具体的には、テンプレート画像記憶部132は、撮像部20の光軸440上において撮像部20から異なる距離に物体450が配置された場合における複数の球面テンプレート画像を記憶する。例えば、光軸440に沿って離散的な距離を設定し、その各距離に物体450を種々の姿勢で配置した場合の球面テンプレート画像を記憶しておく。テンプレートマッチングでは、各距離及び各姿勢の球面テンプレート画像を用いて順次マッチングを行い、類似度が最も高い球面テンプレート画像を検出して物体450までの距離及び物体450の姿勢を決定する。
このように、本実施形態によれば、オンアクシスのテンプレート画像のみを記憶しておけばよいため、テンプレートの記憶領域を必要最小限に抑えることができる。また、撮像部20からの距離に応じて物体450の見え方が異なるため、3次元空間での位置姿勢を検出するためには、距離毎及び姿勢毎のテンプレートが必要である。しかしながら、本実施形態ではオフセット角θ毎にデータを用意する必要がないため、物体の位置姿勢検出においてもテンプレートのデータ量を大幅に抑制可能である。
2.物体の位置姿勢検出処理
図4に、本実施形態の球面テンプレートマッチングを用いて物体の位置姿勢を検出する処理のフローチャートを示す。各ステップにおける処理の詳細については、後述する。
図4に、本実施形態の球面テンプレートマッチングを用いて物体の位置姿勢を検出する処理のフローチャートを示す。各ステップにおける処理の詳細については、後述する。
図4の処理を開始すると、検出対象となる被写体のオンアクシスのテンプレート画像を取得する(ステップS1)。次に、そのオンアクシスのテンプレート画像を球面上に写像する(ステップS2)。次に、撮像した画像を球面上に写像する(ステップS3)。次に、球面上に写像したテンプレート画像及び撮像画像を用いて、球面上でテンプレートマッチングを行う(ステップS4)。次に、テンプレートマッチングで検出した球面上での位置姿勢と、最もマッチングしたテンプレートに対応する距離とを、3次元空間(ワールド座標系)での座標及び姿勢へ変換する(ステップS5)。
この処理手順のうち、テンプレート画像を作成するステップS1、S2は、物体検出を行う前に予め実行する。そして、作成したテンプレート画像をテンプレート画像記憶部132へ記憶しておく。物体検出のリアルタイム処理では、テンプレート画像記憶部132からテンプレート画像を読み出してステップS3〜S5を実行する。或は、球面へ写像する前のテンプレート画像をテンプレート画像記憶部132へ記憶しておき、物体検出のリアルタイム処理でステップS1〜S5を実行してもよい。
3.球面写像の手法
3.1.第1の手法
次に、撮像画像やテンプレート画像を球面425へ写像する手法について詳細に説明する。図5に、球面写像の第1の手法についての説明図を示す。
3.1.第1の手法
次に、撮像画像やテンプレート画像を球面425へ写像する手法について詳細に説明する。図5に、球面写像の第1の手法についての説明図を示す。
図5に示すように、画像平面420上にx軸及びx軸に直交するy軸を設定し、光軸440と画像平面420の交点を原点O=(0,0)とする。x軸、y軸は任意に設定可能であるが、例えば撮像素子の水平走査方向と垂直走査方向であってもよいし、或はカメラの内部パラメーターをキャリブレートした座標系であってもよい。また、球面425の半径をFとする。半径Fは任意に設定可能であるが、例えばカメラの焦点距離であってもよいし、或はF=1としてもよい。
第1の手法では、画像平面420上の点P’=(x,y)を球面425上の点P=(u,v)へ変換する変換式を用いて写像する。球面425上の座標としては、例えば極座標(φ,sarc)を採用できる。φは、x軸と線分OP’が成す角度である。sarcは、球面425と光軸440の交点から点Pまでの大円上の円弧の長さである。
上式(2)の座標変換は、例えばGPU(Graphics Processing Unit)の機能であるレンダラーのピクセルシェーダーにより実現することができる。具体的には、撮像画像をテクスチャーとして、平面座標であるテクスチャー座標(u、v)=(x,y)から球面座標(φ,sarc)へのテクスチャーマッピングを行う。即ち、ピクセルシェーダーが球面座標(φ,sarc)をテクスチャー座標(x,y)へ変換し、その変換したテクスチャー座標(x,y)の画素値を球面座標(φ,sarc)の画素値として取得する。このようなテクスチャーアクセスにより、上記の変換式による座標変換が実現される。なお、この場合には、実際には上式(2)の逆変換を行っていることになる。
なお、GPUによるテクスチャーマッピングを用いた球面写像のより詳細な処理手順については、図10や図11で後述する。
3.2.第2の手法
図6、図7に、球面写像の第2の手法についての説明図を示す。第2の手法では、カメラの内部パラメーターの行列と対応付けた変換により写像する。
図6、図7に、球面写像の第2の手法についての説明図を示す。第2の手法では、カメラの内部パラメーターの行列と対応付けた変換により写像する。
図6に示すように、3次元空間をユークリッド座標系で表すものとし、球面425の中心(ピンホール位置)を原点とし、光軸方向にz軸を設定し、画像平面420に平行にx軸、y軸を設定する。ここでは、画像平面420をz=1に設定し、球面425の半径を1とする。なお、P、P’の上に矢印が付された符号は、それぞれ点P、点P’の位置ベクトルを表す。
まず、カメラの内部パラメーターについて説明する。図6では、点Pが球面425上にあるが、ここでは3次元空間の任意の点とする。3次元空間の任意の点Pから画像平面420上の点P’への変換は、一般的に下式(3)と表せる。
現実のカメラで撮影した場合、上式(3)の行列Kは下式(4)のようになる。(Cx,Cy)は、センサー中心と光軸のずれである。fは、光学系の焦点距離である。aはアスペクトレシオであり、水平方向と垂直方向の画素ピッチの比を表す。sはスキューであり、光軸に対するセンサー平面の傾きによるものである。このような行列Kを、カメラの内部パラメーターと呼ぶ。
さて、上式(3)、(4)は、3次元空間の点Pを画像平面420上の点P’に写像する変換である。即ち、その逆変換である下式(5)を考えれば、画像平面420上の点P’を3次元空間の点Pに写像する変換となる。
この逆変換では、写像先に制限が無いため、そのままでは3次元空間内のどの面に点Pが写像されるかは決まっていない。そこで、テンプレートマッチングを行う球面425に点Pが存在するという条件(下式(6))を課すことにより、上式(5)の逆変換を、画像平面420から球面425への写像と考えることができる。
第1の手法で上述したように、テクスチャーマッピングで座標変換を行う場合には球面425から画像平面420への変換を用いている。即ち、実際の処理では上式(3)に相当する変換が分かっていればよい。以下では、上式(6)の条件の下で上式(3)に相当する変換を算出する。
図7に、光軸に平行で点P及び点P’を通る平面での断面図を示す。rは、光軸から点Pまでの距離である。θmは、点Pの位置ベクトルと画像平面420が成す角度(図5のθとはθm=π/2−θの関係)である。dは、点Pのz座標である。r’は、光軸から点P’までの距離である。このとき、点Pが半径1の球面425上に存在するという条件により下式(7)が成り立つ。
上式(9)の第3行左辺は、点P’の座標(x’,y’,1)であり、上式(9)の第3行右辺は、上式(7)より極座標の変数φ,θmで表されている。即ち、上式(9)は、球面425上の点Pの座標(φ,θm)を画像平面420上の座標(x’,y’)に写像する変換式となっている。なお、上式(9)の第2行と第3行を結ぶ等号は、斉次座標における同値関係を表す。即ち、3次元ユークリッド空間とその空間内に置かれたz=1の2次元平面を考えた場合に、第2行の3次元ユークリッド空間中の点Pが、z=1の2次元平面上の点P’に写像されることを表す。
4.球面テンプレートマッチング処理
次に、球面テンプレートマッチング処理の詳細について説明する。図8に、球面テンプレートマッチング処理のフローチャートを示す。
次に、球面テンプレートマッチング処理の詳細について説明する。図8に、球面テンプレートマッチング処理のフローチャートを示す。
この処理を開始すると、予め球面上に写像されたテンプレート画像を取得する(ステップS21)。次に、球面上の走査窓(Sliding Window)の極座標(Φ,Θ)を設定する(ステップS22)。例えば、走査窓の左端(走査窓の中でφが最小の位置)をΦとし、走査窓の下端(走査窓の中でθmが最小の位置)をΘとする。次に、走査窓内の撮像画像を球面画像に変換する(ステップS23)。次に、球面テンプレート画像と走査窓の球面画像の類似度を算出する(ステップS24)。類似度としては、例えばSSD(Sum of Squared Difference)やSAD(Sum of Absolute Difference)を用いることができる。例えばSSDの場合、下式(10)により類似度RSSDを算出する。I(φ,θm)は走査窓の球面画像であり、T(φ,θm)は球面テンプレート画像である。
次に、類似度の最大値を検出したか否かを判定する(ステップS25)。類似度の最大値が検出されていない場合には、ステップS22に戻り、走査窓の座標を所定の刻みでシフトさせて再設定する。類似度の最大値が検出された場合には、その最大値の座標を検出位置とし、処理を終了する。
図9に、球面テンプレート画像を生成する処理のフローチャートを示す。この処理は、図8のステップS21の前に行う処理であり、例えばOpenGL等のAPI(Application Programming Interface)を用いて処理手順をプログラムコードとして記述し、GPU(Graphics Processing Unit)に実行させることにより実現できる。
この処理を開始すると、物体の3次元モデルデータを所定の方向から見た透視変換画像を生成し、その透視変換画像をテクスチャーバッファーにセットする(ステップS41)。次に、座標変数を初期値φ=φBottom、θm=θBottomに設定する(ステップS42、S43)。次に、単位行列をメモリーにロードし、その単位行列を角度φだけ回転し、その回転した単位行列を角度θmだけ回転する(ステップS44)。次に、回転した単位行列のz軸成分を球面上の点Z(=P)の座標として取得する(ステップS45)。次に、点Zに対応する画像平面上の点P’の座標を求める(ステップS46)。次に、点P’の画素値をテクスチャーバッファーから取得し、その画素値を球面テンプレート画像T(φ,θm)に代入する(ステップS47)。このような行列の回転変換をGPUによりハードウェア処理することで、画像平面から仮想の球面への座標変換を高速に処理することが可能となる。
次に、θmが最大値θTopであるか否かを判定する(ステップS48)。θm<θTopである場合には、Δθを一定の刻みとしてθm=θm+Δθとし(ステップS49)、ステップS44に戻る。θm=θTopである場合には、φが最大値φTopであるか否かを判定する(ステップS50)。φ<φTopである場合には、Δφを一定の刻みとしてφ=φ+Δφとし(ステップS51)、ステップS43に戻る。φ=φTopである場合には、処理を終了する。
なお、必要に応じて球面テンプレート画像T(φ,θm)から画像特徴量を抽出し、それを最終的な球面テンプレート画像としてもよい。
図10に、走査窓における球面撮像画像を生成する処理のフローチャートを示す。この処理は、図8のステップS23で実行する処理である。図9の処理と同様に、OpenGL等のAPIを用いて実現できる。
この処理を開始すると、図8のステップS22で設定した走査窓の極座標(Φ,Θ)を取得する(ステップS61)。次に、座標変数を初期値φ=φBottom、θm=θBottomに設定する(ステップS62、S63)。次に、単位行列をメモリーにロードし、その単位行列を角度φ+Φだけ回転し、その回転した単位行列を角度θm+Θだけ回転する(ステップS64)。次に、回転した単位行列のz軸成分を球面上の点Z(=P)の座標として取得する(ステップS65)。次に、点Zに対応する画像平面上の点P’の座標を求める(ステップS66)。次に、点P’の画素値をテクスチャーバッファーから取得し、その球面撮像画像の画素値I(φ,θm)に代入する(ステップS67)。
次に、θmが最大値θTopであるか否かを判定する(ステップS68)。θm<θTopである場合には、Δθを一定の刻みとしてθm=θm+Δθとし(ステップS69)、ステップS64に戻る。θm=θTopである場合には、φが最大値φTopであるか否かを判定する(ステップS70)。φ<φTopである場合には、Δφを一定の刻みとしてφ=φ+Δφとし(ステップS71)、ステップS73に戻る。φ=φTopである場合には、処理を終了する。
なお、必要に応じて球面撮像画像から画像特徴量を抽出し、それを最終的な球面撮像画像としてもよい。また、走査窓をスライドさせたときに、以前に設定した走査窓と重なった部分がある場合には、その重なった部分については写像を行わずに、既に球面写像された画素値を再利用してもよい。
5.3次元空間座標への変換処理
次に、球面テンプレートマッチングで検出した球面上での物体の位置姿勢を、3次元直交座標系(ユークリッド座標系)での物体の位置姿勢に変換する処理の詳細について説明する。
次に、球面テンプレートマッチングで検出した球面上での物体の位置姿勢を、3次元直交座標系(ユークリッド座標系)での物体の位置姿勢に変換する処理の詳細について説明する。
図11、図12に、変換処理の説明図を示す。図12は、図11の座標系を+z方向から見たものである。直交座標(x,y,z)及び極座標(φ,θ)の定義は、上述した図5等と同様である。変換により求める3次元空間の点をP”=(x,y,z)とする。
まず、物体位置の変換について説明する。球面テンプレートマッチングでは、極座標でのマッチング位置(φ,θ)が決定される。また、テンプレートは距離毎に用意されており、最もマッチしたテンプレートに紐付けられた距離Dが決定される。このとき、下式(11)が成り立つ。
なお、図9や図10で説明したような行列を回転させる手法により3次元空間の点P”=(x,y,z)を求めてもよい。
次に、物体姿勢の変換について説明する。球面テンプレートマッチングでは、テンプレートは姿勢毎に用意されており、最もマッチしたテンプレートに紐付けられた姿勢が決定される。決定した姿勢を下式(13)の行列Hで表す。
ここで、行列Hの列ベクトルa=(ax,ay,az)は、物体に固定された座標系(ローカル座標系)のx軸方向の単位ベクトルを空間座標系(ワールド座標系)で表したものである。同様に、列ベクトルb=(bx,by,bz)、c=(cx,cy,cz)は、それぞれ物体座標系のy軸、z軸方向の単位ベクトルを空間座標系で表したものである。
テンプレートはオンアクシスのものなので、テンプレートマッチングで決定した行列Hはオンアクシスでの姿勢を表している。この姿勢を、マッチング位置(φ,θ)に基づいて回転させたものが3次元空間での姿勢となる。即ち、この回転行列をRとすると、下式(14)により3次元空間での姿勢(行列H”)を求めることができる。
回転行列Rは、以下のようなものである。即ち、オンアクシスでのテンプレート画像平面の法線方向は、−z方向の単位ベクトルe0であり、下式(15)である。また、点P”方向の単位ベクトルe1は、下式(16)である。単位ベクトルe0、e1の成す面に垂直な単位ベクトルe2は、下式(17)となる。ここで、e2=(nx,ny,nz)とおく。
以上に説明した実施形態では、画像処理部112(例えば、図15の画像処理部112)は、仮想の球面425上の座標(φ,θ)(又は(φ,θm))を画像平面420上の座標(x’,y’)に変換し、その変換した画像平面420上の座標(x’,y’)における撮像画像の画素値を仮想の球面425上の座標(φ,θ)での画素値I(φ,θ)として取得する。
球面425上でテンプレートマッチングを行うためには、球面425上の各座標においてテンプレート及び撮像画像がどのような画素値をもつのかを知る必要がある。この点、本実施形態によれば、球面425上の座標(φ,θ)を参照すると座標変換が行われ、画素値I(φ,θ)が取得されるので、テンプレートマッチングに必要な画素値を得ることができる。
また本実施形態では、画像処理部112は、撮像画像をテクスチャーマッピングにより仮想の球面425にマッピングすることで、仮想の球面425上の座標(φ,θ)での画素値I(φ,θ)を取得する。
例えば本実施形態では、図5で説明した第1の手法のように、幾何的に求めた座標変数の変換式に基づいて座標変換を行う。或は、図6、図7で説明した第2の手法のように、3次元座標から平面座標への変換であるカメラの内部パラメーター行列に対応付けた手法により、行列演算により座標変換を行ってもよい。或は、図9、図10等で説明した手法のように、空間座標の3軸の単位ベクトルを列ベクトルとして並べたものである単位行列を回転させることにより、座標変換を行ってもよい。
このようにすれば、グラフィックス処理のAPI等を用いてGPUにテクスチャーマッピング処理を行わせることが可能となり、GPUのグラフィックス処理能力を利用して高速な球面写像が可能となる。特に、図9、図10等で説明した単位行列の回転を用いる座標変換では、GPUはこのような行列の回転演算を得意としており、更なる高速化を期待できる。
また本実施形態では、画像処理部112は、テンプレートマッチング処理の結果に基づいて、物体の位置姿勢を検出する。
具体的には、画像処理部112は、仮想の球面425上でのテンプレートマッチング処理により検出した物体の位置姿勢(座標(φ,θ)、距離D、行列H)を、3次元空間での位置姿勢(座標(x,y,z)、行列H”)に変換することにより、3次元空間での物体の位置姿勢を検出する。
このようにすれば、球面425上でのテンプレートマッチングにより、3次元空間での物体の位置姿勢を検出することができる。例えばロボット制御では、作業空間に固定されたワールド座標系として一般的にユークリッド座標系が用いられている。本実施形態では、マッチング結果からユークリッド座標系での位置姿勢を検出できるので、その検出結果に基づいてロボットアーム等の制御を行うことが可能となる。
6.ロボットシステム
以上に述べた本実施形態の球面テンプレートマッチングは、例えばロボット制御における物体検出に適用することが可能である。以下では、球面テンプレートマッチングを適用したロボット制御について説明する。
以上に述べた本実施形態の球面テンプレートマッチングは、例えばロボット制御における物体検出に適用することが可能である。以下では、球面テンプレートマッチングを適用したロボット制御について説明する。
図13にロボットシステムの構成例を示す。ロボットシステムは、ロボット制御システム10(情報処理装置)と、撮像部20(カメラ)と、ロボット30とを含む。
ロボット制御システム10は、撮像部20により得られる画像に基づいて、制御信号を生成し、制御信号に基づいてロボット30を制御する。ロボット制御システムの詳細は後述する。ロボット制御システム10の一部又は全部の機能は、例えばPC等の情報処理装置などにより実現される。なお、ロボット制御システム10の一部又は全部の機能を、撮像部20やロボット30により実現したり、情報処理装置とは異なる電子機器により実現してもよい。また、本実施形態のロボット制御システム10の一部又は全部の機能は、情報処理装置もしくは撮像部20、ロボット30と通信により接続されたサーバにより実現されてもよい。
撮像部20は、作業スペースを撮影する。この撮像部20は、例えばCCD等の撮像素子と光学系を含む。また画像処理用等に用いられるデバイス(プロセッサー)を含むことができる。撮像部20は、ロボット30やワーク40が位置し得る作業スペースを撮影することができる位置に配置される。例えば、撮像部20は、ワーク40の直上でもよいし(固定カメラ)、ロボット30のアーム320やエンドエフェクター330等に取り付けられてもよい(可動カメラ)。ここで、ワーク40とは、ロボット30における加工対象物のことをいう。なお、撮像部20は、一台で作業スペース全体又は一部を撮影してもよいし、複数台によって、作業スペースの全体又は一部を撮影してもよい。また、撮像部20による撮像画像の取得以外の手法、例えばレーザー等を用いた3次元スキャン等を用いてもよい。
ロボット30は、アーム320及びエンドエフェクター330(例えばハンド)を有し、ロボット制御システム10からの制御信号に従い処理を行う。ロボット30は、例えばワーク40の把持や加工などの処理を行う。
ここで、アーム320とは、ロボット30の一部の領域であって、一つ以上の関節を含む可動領域のことをいう。また、アーム320のエンドポイントとは、アーム320の先端部分の領域であって、ロボット30のエンドエフェクター330以外の他の領域と接続されていない領域のことをいう。さらに、エンドエフェクター330とは、ワーク40を把持したり、ワーク40に加工を施すためにアーム320のエンドポイントに取り付ける部品のことをいう。なお、アームのエンドポイントの位置は、エンドエフェクター330の位置としてもよい。
以上の図13はロボット30とロボット制御システム10とが別体として存在するロボットシステムの例であるが、本実施形態では、ロボット制御システム10がロボット30に内蔵されてもよい。
図14に、そのようなロボットシステムの構成例を示す。このロボットシステムは、ロボット本体30(アーム320及びエンドエフェクター330を有する)と、ロボット本体30を支えるベースユニット部と、を含み、そのベースユニット部にロボット制御システム10が格納される。図14のロボットシステムでは、ベースユニット部に車輪等が設けられ、ロボット全体が移動可能な構成となっている。なお、図13は単腕型の例であるが、ロボットは図14に示すように双腕型等の多腕型のロボットであってもよい。
7.ロボット制御システム
図15に、ロボット制御システム及びこれを含むロボットシステムの詳細な構成例を示す。ロボット制御システム10は、処理部110と、ロボット制御部120と、記憶部130と、I/F部140(入力部)と、を含む。なお、処理部110と記憶部130が、本実施形態の球面テンプレートマッチングを行う画像処理装置に対応する。
図15に、ロボット制御システム及びこれを含むロボットシステムの詳細な構成例を示す。ロボット制御システム10は、処理部110と、ロボット制御部120と、記憶部130と、I/F部140(入力部)と、を含む。なお、処理部110と記憶部130が、本実施形態の球面テンプレートマッチングを行う画像処理装置に対応する。
処理部110は、記憶部130からのデータや、I/F部140において受信した撮像部20或いはロボット30からの情報等に基づいて種々の処理を行う。この処理部110の機能は、各種プロセッサー(例えばCPU、GPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。
球面上テンプレートマッチングによる物体検出は、処理部110が行う。具体的には、処理部110は画像処理部112と物体検出部114を含む。また記憶部130は、ワーク40の球面テンプレート画像を記憶するテンプレート画像記憶部132を含む。そして、画像処理部112は、テンプレート画像記憶部132から球面テンプレート画像を読み出し、I/F部140を介して撮像部20から撮像画像を取得する。画像処理部112は、撮像画像を球面に写像し、球面テンプレートマッチングを行う。物体検出部114は、球面上テンプレートマッチングで検出したワーク40の球面上での位置姿勢を、3次元空間での位置姿勢に変換する。
処理部110は、検出したワーク40の3次元空間での位置姿勢に基づいて、ロボット30の制御信号を生成し、制御信号をロボット制御部120に出力する。なお、この制御信号によりアーム320のエンドポイントがワーク40に近づいた後、更にビジュアルサーボを行い、その制御信号をロボット制御部120に出力してもよい。ここで、ビジュアルサーボとは、エンドポイントの所望の位置姿勢を実現する参照画像(ターゲット画像)を用意しておき、撮像画像が参照画像に近づくようにエンドポイントを制御することにより、エンドポイントを所望の位置姿勢に制御する手法である。
ロボット制御部120は、処理部110から出力された制御信号に基づいて、ロボット30を制御する。
記憶部130は、データベースを記憶したり、処理部110等のワーク領域となるもので、その機能はRAM等のメモリーやHDD(ハードディスクドライブ)などにより実現できる。
I/F部140は、ロボット制御システム10に対するユーザーからの入力等を行ったり、撮像部20やロボット30からの情報を受け付けるためのインターフェースである。ユーザーからの入力等に関しては、スイッチやボタン、キーボード或いはマウス等から構成されてもよい。
ロボット30は、アーム320及びエンドエフェクター330の他に制御部310を含む。制御部310は、ロボット制御システム10からの情報を受け付け、ロボット30の各部(アーム320及びエンドエフェクター330等)の制御を行う。
なお、本実施形態のロボット制御システム10は、更に表示部を含んでもよい。そして、テンプレート画像記憶部132に記憶された球面テンプレート画像を、その表示部に表示させてもよい。例えば、図13に示すように情報処理装置でロボット制御システム10を構成し、その情報処理装置に表示部を設けてもよい。或は、図14に示すようにロボット制御システム10をロボット本体30と一体に構成し、そのロボットシステムに表示部を設けてもよい。
このようにすれば、例えばテンプレート生成ツール等により予め生成した球面テンプレート画像をユーザーが表示部に表示させてチェックすることが可能となる。これにより、正しい球面テンプレート画像が生成されているか、或は球面テンプレート画像が正しくテンプレート画像記憶部132に格納されているか等を、チェックすることができる。
ここで、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また本実施形態及び変形例の全ての組み合わせも、本発明の範囲に含まれる。また画像処理装置、ロボット制御システム、ロボット、ロボットシステムの構成・動作・作動方法や、球面写像の処理手法、球面テンプレートマッチングの処理手法、マッチング位置から3次元座標への変換手法、ロボットの制御手法等も、本実施形態で説明したものに限定されず、種々の変形実施が可能である。
10 ロボット制御システム、20 撮像部、30 ロボット(ロボット本体)、
40 ワーク、50 物体、110 処理部、112 画像処理部、
114 物体検出部、120 ロボット制御部、130 記憶部、
132 テンプレート画像記憶部、140 I/F部、310 制御部、
320 アーム、330 エンドエフェクター、420 画像平面、
425 球面、430 平面、435 球面、440 光軸、450 物体、
460,465,470,475,480,485,490,495 像、
P,P’,P” 点、x,y,z 座標、θ,θm,φ 角度
40 ワーク、50 物体、110 処理部、112 画像処理部、
114 物体検出部、120 ロボット制御部、130 記憶部、
132 テンプレート画像記憶部、140 I/F部、310 制御部、
320 アーム、330 エンドエフェクター、420 画像平面、
425 球面、430 平面、435 球面、440 光軸、450 物体、
460,465,470,475,480,485,490,495 像、
P,P’,P” 点、x,y,z 座標、θ,θm,φ 角度
Claims (12)
- 画像平面から仮想の球面に写像したテンプレート画像である球面テンプレート画像を記憶するテンプレート画像記憶部と、
撮像部による撮像画像に対してテンプレートマッチング処理を行う画像処理部と、
を含み、
前記画像処理部は、
前記画像平面から前記仮想の球面に前記撮像画像を写像し、前記写像した前記撮像画像である球面撮像画像と前記球面テンプレート画像とにより、前記仮想の球面上において前記テンプレートマッチング処理を行うことを特徴とする画像処理装置。 - 請求項1において、
前記テンプレート画像記憶部は、
前記球面テンプレート画像として、前記撮像部の光軸上に物体が配置された場合における前記物体の画像を記憶することを特徴とする画像処理装置。 - 請求項2において、
前記テンプレート画像記憶部は、
前記撮像部の光軸上において前記撮像部から異なる距離に前記物体が配置された場合における複数の前記球面テンプレート画像を記憶することを特徴とする画像処理装置。 - 請求項1乃至3のいずれかにおいて、
前記画像処理部は、
前記仮想の球面上の座標を前記画像平面上の座標に変換し、前記変換した前記画像平面上の座標における前記撮像画像の画素値を前記仮想の球面上の座標での画素値として取得することを特徴とする画像処理装置。 - 請求項4において、
前記画像処理部は、
前記撮像画像をテクスチャーマッピングにより前記仮想の球面にマッピングすることで、前記仮想の球面上の座標での画素値を取得することを特徴とする画像処理装置。 - 請求項1乃至5のいずれかにおいて、
前記画像処理部は、
前記テンプレートマッチング処理の結果に基づいて、物体の位置姿勢を検出することを特徴とする画像処理装置。 - 請求項6において、
前記画像処理部は、
前記仮想の球面上での前記テンプレートマッチング処理により検出した前記物体の位置姿勢を、3次元空間での位置姿勢に変換することにより、前記3次元空間での前記物体の位置姿勢を検出することを特徴とする画像処理装置。 - 画像平面から仮想の球面に写像したテンプレート画像である球面テンプレート画像を記憶するテンプレート画像記憶部と、
撮像部による撮像画像に対してテンプレートマッチング処理を行う画像処理部と、
前記テンプレートマッチング処理の結果に基づいてロボットを制御するロボット制御部と、
を含み、
前記画像処理部は、
前記画像平面から前記仮想の球面に前記撮像画像を写像し、前記写像した前記撮像画像である球面撮像画像と前記球面テンプレート画像とにより、前記仮想の球面上において前記テンプレートマッチング処理を行うことを特徴とするロボット制御システム。 - 請求項8において、
前記テンプレート画像記憶部に記憶された前記球面テンプレート画像を表示する表示部を含むことを特徴とするロボット制御システム。 - 画像平面から仮想の球面に写像したテンプレート画像である球面テンプレート画像を記憶するテンプレート画像記憶部と、
撮像部による撮像画像に対してテンプレートマッチング処理を行う画像処理部と、
ロボットのアームと、
前記テンプレートマッチング処理の結果に基づいて前記アームを制御するロボット制御部と、
を含み、
前記画像処理部は、
前記画像平面から前記仮想の球面に前記撮像画像を写像し、前記写像した前記撮像画像である球面撮像画像と前記球面テンプレート画像とにより、前記仮想の球面上において前記テンプレートマッチング処理を行うことを特徴とするロボット。 - 撮像部による撮像画像を画像平面から仮想の球面に写像し、
前記写像した前記撮像画像である球面撮像画像と、前記画像平面から前記仮想の球面に写像したテンプレート画像である球面テンプレート画像とにより、前記仮想の球面上においてテンプレートマッチング処理を行うことを特徴とする画像処理方法。 - 撮像部による撮像画像を画像平面から仮想の球面に写像し、
前記写像した前記撮像画像である球面撮像画像と、前記画像平面から前記仮想の球面に写像したテンプレート画像である球面テンプレート画像とにより、前記仮想の球面上においてテンプレートマッチング処理を行う、
ステップをコンピューターに実行させる画像処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013120463A JP2014238687A (ja) | 2013-06-07 | 2013-06-07 | 画像処理装置、ロボット制御システム、ロボット、画像処理方法及び画像処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013120463A JP2014238687A (ja) | 2013-06-07 | 2013-06-07 | 画像処理装置、ロボット制御システム、ロボット、画像処理方法及び画像処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014238687A true JP2014238687A (ja) | 2014-12-18 |
Family
ID=52135811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013120463A Withdrawn JP2014238687A (ja) | 2013-06-07 | 2013-06-07 | 画像処理装置、ロボット制御システム、ロボット、画像処理方法及び画像処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014238687A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018055429A (ja) * | 2016-09-29 | 2018-04-05 | ファナック株式会社 | 物体認識装置および物体認識方法 |
CN111131813A (zh) * | 2019-10-29 | 2020-05-08 | 牧今科技 | 用于确定相机校准的姿态的方法和系统 |
JP2021070146A (ja) * | 2019-10-29 | 2021-05-06 | 株式会社Mujin | カメラキャリブレーションの姿勢を決定するための方法及びシステム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08235357A (ja) * | 1995-02-24 | 1996-09-13 | Mitsubishi Electric Corp | 画像処理装置 |
JP2004362128A (ja) * | 2003-06-03 | 2004-12-24 | Shimizu Corp | モデル画像照合における3次元姿勢の補正手法 |
JP2007257100A (ja) * | 2006-03-22 | 2007-10-04 | Nippon Telegr & Teleph Corp <Ntt> | パノラマ画像作成方法 |
JP2013043271A (ja) * | 2011-08-26 | 2013-03-04 | Canon Inc | 情報処理装置、情報処理装置の制御方法、およびプログラム |
-
2013
- 2013-06-07 JP JP2013120463A patent/JP2014238687A/ja not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08235357A (ja) * | 1995-02-24 | 1996-09-13 | Mitsubishi Electric Corp | 画像処理装置 |
JP2004362128A (ja) * | 2003-06-03 | 2004-12-24 | Shimizu Corp | モデル画像照合における3次元姿勢の補正手法 |
JP2007257100A (ja) * | 2006-03-22 | 2007-10-04 | Nippon Telegr & Teleph Corp <Ntt> | パノラマ画像作成方法 |
JP2013043271A (ja) * | 2011-08-26 | 2013-03-04 | Canon Inc | 情報処理装置、情報処理装置の制御方法、およびプログラム |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018055429A (ja) * | 2016-09-29 | 2018-04-05 | ファナック株式会社 | 物体認識装置および物体認識方法 |
CN107886044A (zh) * | 2016-09-29 | 2018-04-06 | 发那科株式会社 | 物体识别装置以及物体识别方法 |
US10482341B2 (en) | 2016-09-29 | 2019-11-19 | Fanuc Corporation | Object recognition device and object recognition method |
CN107886044B (zh) * | 2016-09-29 | 2024-05-03 | 发那科株式会社 | 物体识别装置以及物体识别方法 |
CN111131813A (zh) * | 2019-10-29 | 2020-05-08 | 牧今科技 | 用于确定相机校准的姿态的方法和系统 |
JP2021070146A (ja) * | 2019-10-29 | 2021-05-06 | 株式会社Mujin | カメラキャリブレーションの姿勢を決定するための方法及びシステム |
US11370121B2 (en) | 2019-10-29 | 2022-06-28 | Mujin, Inc. | Method and system for determining poses for camera calibration |
JP7457981B2 (ja) | 2019-10-29 | 2024-03-29 | 株式会社Mujin | カメラキャリブレーションの姿勢を決定するための方法及びシステム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200284573A1 (en) | Position and orientation measuring apparatus, information processing apparatus and information processing method | |
JP6271953B2 (ja) | 画像処理装置、画像処理方法 | |
JP5850962B2 (ja) | ビジュアルフィードバックを利用したロボットシステム | |
JP3842233B2 (ja) | 画像処理装置及びロボットシステム | |
JP5949242B2 (ja) | ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム | |
JP5746477B2 (ja) | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム | |
JP6594129B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP6067175B2 (ja) | 位置測定装置及び位置測定方法 | |
TWI677413B (zh) | 用於機械手臂系統之校正方法及裝置 | |
US11654571B2 (en) | Three-dimensional data generation device and robot control system | |
JP2012141962A (ja) | 位置姿勢計測装置及び位置姿勢計測方法 | |
CN111801198A (zh) | 一种手眼标定方法、系统及计算机存储介质 | |
CN104976950B (zh) | 物件空间信息量测装置与方法及取像路径的计算方法 | |
WO2021218542A1 (zh) | 基于视觉感知设备的机器人本体坐标系的空间标定方法、装置和存储介质 | |
JP2015035211A (ja) | パターンマッチング方法及びパターンマッチング装置 | |
JP2016170050A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム | |
JP2014238687A (ja) | 画像処理装置、ロボット制御システム、ロボット、画像処理方法及び画像処理プログラム | |
JP6237122B2 (ja) | ロボット、画像処理方法及びロボットシステム | |
JP2005069757A (ja) | 中心窩広視野画像を利用したカメラ位置姿勢推定方法及びシステム | |
Liang et al. | An integrated camera parameters calibration approach for robotic monocular vision guidance | |
JP2005186193A (ja) | ロボットのキャリブレーション方法および三次元位置計測方法 | |
US10706319B2 (en) | Template creation apparatus, object recognition processing apparatus, template creation method, and program | |
JP5938201B2 (ja) | 位置姿勢計測装置、その処理方法及びプログラム | |
CN114952832B (zh) | 基于单目六自由度物体姿态估计的机械臂拼装方法及装置 | |
JP7376227B2 (ja) | 複数の撮像条件を用いた画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160527 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170523 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20170721 |