JP2016109630A - 情報処理装置、情報処理方法、プログラム - Google Patents
情報処理装置、情報処理方法、プログラム Download PDFInfo
- Publication number
- JP2016109630A JP2016109630A JP2014249426A JP2014249426A JP2016109630A JP 2016109630 A JP2016109630 A JP 2016109630A JP 2014249426 A JP2014249426 A JP 2014249426A JP 2014249426 A JP2014249426 A JP 2014249426A JP 2016109630 A JP2016109630 A JP 2016109630A
- Authority
- JP
- Japan
- Prior art keywords
- target object
- contact
- information
- orientation
- accuracy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 40
- 238000003672 processing method Methods 0.000 title claims 3
- 238000009826 distribution Methods 0.000 claims description 43
- 238000000034 method Methods 0.000 claims description 39
- 230000008569 process Effects 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 description 169
- 239000011159 matrix material Substances 0.000 description 38
- 238000004364 calculation method Methods 0.000 description 36
- 238000012545 processing Methods 0.000 description 12
- 230000009466 transformation Effects 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000007476 Maximum Likelihood Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001502 supplementing effect Effects 0.000 description 3
- 239000006185 dispersion Substances 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/082—Grasping-force detectors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39527—Workpiece detector, sensor mounted in, near hand, gripper
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40575—Camera combined with tactile sensors, for 3-D
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40576—Multisensory object recognition, surface reconstruction
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
Abstract
Description
第1の実施形態では、ロボットハンドによる接触位置及び距離センサによる非接触計測データの精度情報に応じて、対象物体の位置姿勢を計測する方法について述べる。本実施形態では非接触計測データ及び接触位置の精度情報である誤差分布の特性を考慮し、誤差分布の小さい非接触計測データ及び接触位置を重視して位置姿勢を算出する。これにより、精度高く対象物体の位置姿勢を算出することができる。
図3は情報処理装置1のブロック構成図である。以下に本実施形態における情報処理装置1の構成について述べる。
図4に示すフローチャートを用いて、本実施形態の情報処理装置1の処理の流れを説明する。
ステップS1010では、データ保持部102で保持している対象物体の形状情報、すなわち対象物体の表面の3次元点の集合を取得する。前記3次元点は対象物体の基準座標系における3次元点である。
ステップS1020では、概略位置姿勢取得部103は、対象物体のロボットアームの基準座標における概略位置姿勢を取得する。具体的にはデータ保持部102で保持するロボットアームの基準座標における対象物体の概略位置姿勢を読み出す。
ステップS1030では、概略位置姿勢取得部103は、ステップS1020で取得した対象物体の概略位置姿勢をロボットコントローラ100に送信する。そして、ロボットコントローラ100は、ロボットアーム・ハンド101を制御して対象物体の所定の位置を把持する。
ステップS1040では、非接触計測データ取得部104は、非接触計測データとして、ロボットアームの基準座標における3次元点の集合を取得する。
ステップS1050では、接触位置取得部105は、接触位置として、ロボットアームの基準座標におけるロボットハンドが対象物体に接触している位置の3次元座標の集合を取得する。具体的には、ロボットハンドに取り付けた不図示の接触センサから、ロボットハンドが対象物体に接触している位置を取得する。接触センサから取得した接触位置は接触センサ上のローカル座標系の3次元点である。よって、接触センサとロボットハンドとの相対位置姿勢と、ロボットアームとロボットハンドの相対位置姿勢と、ロボットハンドの位置姿勢に基づいて、接触位置のローカル座標系における3次元位置をロボットアームの基準座標系に変換する。
ステップS1060では、精度取得部106は、ステップS1040及びステップS1050で取得した非接触計測データ及び接触位置の精度情報を取得する。具体的にはデータ保持部102で保持する精度情報である非接触計測データの誤差分布テーブルから、ステップS1040で取得した非接触計測データの3次元点集合の各3次元点に対応する誤差分布を、各3次元点の精度情報として取得する。接触位置に関しても同様で、データ保持部102で保持する接触位置の誤差分布テーブルから、ステップS1050で取得した接触位置の3次元点集合の各3次元点に対応する誤差分布を、各3次元点の精度情報として取得する。接触センサの接触位置に関する誤差分布は、接触位置の面の法線に略直交する方向に広がる分布である。
ステップS1070では、位置姿勢算出部107は、ロボットアームの基準座標における対象物体の位置姿勢を算出する。位置姿勢算出には公知のICP(Iterative Closest Points)アルゴリズムを用いる。ICPアルゴリズムは、2つのN次元点群間の相対位置姿勢を、対応付けと位置姿勢算出を繰り返し行うことにより算出する方法である。
上記構成では、非接触計測データ取得部104で取得するのは非接触センサで計測した3次元点群であった。しかしながら非接触計測データ取得部104で取得するのはカメラで撮影した画像から抽出した画像特徴であっても良い。例えば画像特徴がエッジ点である場合、図5のようなシーンで本発明が特に有効である。エッジ点は図5に示すエッジ点の楕円のように画像から検出されたエッジ方向には確度が低いが、エッジ方向に垂直な方向への確度は高い。また画像面の奥行き方向については1つのエッジ点から決まる情報はなく、奥行き方向に無限に広がりをもつ誤差分布となる。図5のシーンでは、エッジ点のみを用いて位置姿勢を算出した場合、撮影画像1201に直交する位置姿勢成分の確度は高いが、画像面の奥行き方向の位置姿勢成分の確度は低くなる。このときに図5のように対象物体を把持したロボットハンドの接触点1206の誤差分布を考慮し、上記の方法と同様に、エッジ点1205と接触点1206の誤差分布を同時利用して対象物体の位置姿勢を算出する。これにより、互いの誤差分布(精度情報)の性質を補いあって対象物体の位置姿勢を精度高く算出することができる。
第2の実施形態では、ロボットハンドによる接触位置及び距離センサによる非接触計測データの精度情報に応じて、精度の高いデータのみを利用するように、計測データを切り替えて対象物体の位置姿勢を算出する方法について述べる。
本実施形態の構成を図6に示す。第1の実施形態との差分についてのみ説明する。
本実施形態の処理の流れは図4に示す第1の実施形態のフローチャートと同様であり、以下ではその差分について説明する。
ステップS1040では、非接触計測データ取得部204は、非接触計測データとして、ロボットアームの基準座標における3次元点及びその計測信頼度の集合を取得する。第1の実施形態と同様に、距離センサとロボットアームとの相対位置姿勢と、距離センサを取り付けたロボットアームの位置姿勢に基づいて、距離センサのローカル座標系における3次元点座標をロボットアームの基準座標系に変換する。
ステップS1050では、接触位置取得部205は、接触位置として、ロボットアームの基準座標におけるロボットハンドが対象物体に接触している位置の3次元座標及びその計測信頼度の集合を取得する。第1の実施形態と同様に、接触センサとロボットハンドとの相対位置姿勢と、ロボットアームとロボットハンドの相対位置姿勢と、ロボットハンドの位置姿勢に基づいて、接触位置のローカル座標系における3次元位置をロボットアームの基準座標系に変換する。
ステップS1060では、精度取得部206は、ステップS1040及びステップS1050で取得した非接触計測データ及び接触位置の精度として、各々の計測信頼度を設定する。
ステップS1070では、位置姿勢算出部207は、ロボットアームの基準座標における対象物体の位置姿勢を算出する。第1の実施形態と同様に、位置姿勢算出にはICP(Iterative Closest Points)アルゴリズムを用いる。ただし、位置姿勢算出に利用する非接触計測データはその精度が所定の閾値t1より大きいもののみとする。また接触点もその精度が所定の閾値t2より大きいもののみを利用する。よって精度が閾値より大きい非接触計測データと対象物体表面点との対応点集合を(v、q)∈Sv’、接触点と対象物体表面点との対応点集合を(c、q)∈Sc’とすると、以下の式を最小化する変換行列M’を最小二乗推定により算出できる。
上記第2の実施形態は、非接触計測データと接触点の各点ごとに精度をチェックして位置姿勢算出に利用する点を選択していた。しかしながら、非接触計測データの平均精度や最小精度、最大精度などをチェックして、所定の閾値よりも精度が大きければ非接触計測データ全体を利用せず、接触点のみで位置姿勢を算出しても良い。また反対に接触点の平均精度などが所定の閾値よりも大きければ非接触計測データのみで位置姿勢を算出しても良い。さらに、非接触計測データと接触点の精度がどちらも閾値より小さければ、非接触計測データ及び接触位置の少なくとも一方を再度計測し直し、精度取得、位置姿勢算出をやり直しても良い。また、非接触計測データと接触点のうち、精度の高い方のみを利用しても良い。
第3の実施形態では、ロボットハンドによる接触位置及び距離センサによる非接触計測データから算出される位置姿勢の曖昧性がより小さくなるように対象物体の把持位置を決定することで、より精度の高い対象物体の位置姿勢を算出する方法について述べる。
図7は本実施形態で説明する情報処理装置3のブロック構成図である。以下に本実施形態における情報処理装置3の構成について述べる。
図7に示すフローチャートを用いて、本実施形態の情報処理装置3の処理の流れを説明する。ただし、本実施形態の処理の流れは図4に示す第1の実施形態のフローチャートと同様の部分があり、以下ではその差分について説明する。
ステップS3010では、概略位置姿勢取得部303は、データ保持部302で保持している対象物体の形状情報、すなわち対象物体の表面の3次元点及び法線の集合を取得する。前記3次元点は対象物体の基準座標系における3次元点である。次にステップS3020で行う対象物体の認識で用いる辞書を構築する。対象物体の検出にはSpin Imagesを用いた認識手法を利用する。Spin Images特徴量は距離画像や3次元点群から算出する局所特徴量である。よって、対象物体の形状情報からSpin Images特徴量を抽出し辞書として保持しておく。なお、事前に辞書作成を行ってデータ保持部302に格納しておき、それを読み出しても良い。Spin Imagesを用いた認識手法については以下の非特許文献に開示されている。
A.E. Johnson and M. Hebert,“Using Spin Images for Efficient Object Recognition in Cluttered 3D Scenes,”IEEE Trans. on PAMI,vol.21,no.5,pp.433−449,1999.
<ステップS3020>
ステップS3020では、概略位置姿勢取得部303は、対象物体のロボットアームの基準座標における概略位置姿勢を取得する。具体的にはロボットアームに取り付けている距離センサ1003で対象物体を含むシーンを3次元計測し、得られたロボットアームの基準座標における3次元点の集合から対象物体の位置姿勢を検出する。前述したとおり、対象物体の検出にはSpin Imagesを用いた認識手法を利用する。計測した3次元点の集合から、Spin Images特徴量を抽出し、ステップS3010で準備した辞書と照合し、対象物体の位置姿勢を算出する。さらに算出した位置姿勢を初期値として、対象物体の形状情報と計測した3次元点の集合に対してICPアルゴリズムを適用して対象物体の位置姿勢をリファインし、概略位置姿勢とする。ここでは、対象物体表面の3次元点及び法線を局所平面とみなして、対応付けた計測3次元点との点と平面との距離を最小化することによって、対象物体の位置姿勢を算出する。
ステップS3025では、把持位置決定部308は、対象物体の把持位置を決定する。ステップS3020で概略位置姿勢を算出する際に用いた距離センサ1003で3次元計測して取得した3次元点の集合(計測データ)を利用して、概略位置姿勢の曖昧性を算出し、その曖昧性を解消する把持位置を決定する。
W. Hoff and T. Vincent,“Analysis of head pose accuracy in augmented reality,”IEEE Trans. Visualization and Computer Graphics,Vol 6, No.4,2000.
ステップS3020で述べた通り、位置姿勢の算出には、対象物体の表面の3次元点及び法線(形状情報)を局所平面とし、対応付けた計測3次元点(計測データ)との距離を最小化するICPアルゴリズムで行っている。ここで、計測データはロボットアームの基準座標系、対象物体の形状情報は対象物体の基準座標系のデータである。対象物体の形状情報を表す表面点の3次元位置と法線のロボットアーム基準座標系における3次元座標を(x,y,z)T、法線方向を(nx,ny,nz)T(単位ベクトル)、計測データの3次元点の座標を(x’,y’,z’)Tとする。そうすると、(数1)で表していた3次元空間での符号付き距離eは以下の式より算出できる。
e=nx(x’−x)+ny(y’−y)+nz(z’−z)
そして、対象物体の基準座標系からロボットアームの基準座標系への変換パラメータs=(s1,s2,s3,s4,s5,s6)Tで、対応間距離eを偏微分することによって、ヤコビ行列J3Dは以下のように算出できる。
ステップS3030では、把持位置決定部308は、ステップS3025で決定した把持位置と、ステップS3020で取得した対象物体の概略位置姿勢をロボットコントローラ300に送り、ロボットアーム・ハンド301を制御し、対象物体を把持する。
ステップS3070では、位置姿勢算出部307は、ステップS3010と同様に、対象物体の位置姿勢を算出する。ただし、対応間距離eを(数4)の対象物体の表面の3次元点及び法線(形状情報)が表す局所平面と対応付けた計測3次元点(計測データ)として、(数3)を最大化する変換行列M’を最尤推定により算出する。
ステップS3080では、位置姿勢算出部307は、ステップS3025で説明した方法で、ステップS3070で算出した位置姿勢の曖昧性を表す共分散行列を算出する。ただし、ステップS3070では計測データとして非接触計測データと接触点の両方を用いて位置姿勢を算出するので、曖昧性を算出する際の計測データも非接触計測データと接触点の両方を用いる。算出した共分散行列の最大固有値(算出した位置姿勢の最もばらつきが大きい方向の分散を表す)が所定の閾値以下であれば位置姿勢の算出を終了し、大きければステップS3020に戻って計測をやり直す。
上記ステップS3025の把持位置決定方法では、算出した位置姿勢の曖昧性のみから把持位置を決定した。それに加えて、ロボットハンドの形状情報をさらに利用して、決定した把持位置が把持可能かチェックしても良い。例えば、ロボットハンドの形状情報と、対象物体の位置姿勢と形状情報やシーンの3次元計測データを用いて、算出した把持位置を把持可能かシミュレーションし、対象物体の表面点の集合からその法線が前記最大固有ベクトルuに近い順に探しても良い。
第4の実施形態では、対象物体を把持した後に、ロボットハンドによる接触位置及び距離センサによる非接触計測データから算出される位置姿勢の曖昧性が小さくなるように、ロボットハンドを制御して接触位置を追加する。これにより精度の高い位置姿勢を算出する方法について述べる。
本実施形態の構成は、図7で示される第3の実施形態と同様で、以下ではその差分について説明する。
図8に示すフローチャートを用いて、本実施形態の情報処理装置4の処理の流れを説明する。本実施形態の処理の流れは第3の実施形態と同様であり、以下ではその差分について説明する。
ステップS3020は、概略位置姿勢取得部303は、対象物体のロボットアームの基準座標における概略位置姿勢を取得する。具体的には前の周回のステップS3070で算出した対象物体の位置姿勢を概略位置姿勢として設定する。
ステップS3025では、接触位置決定部308は、対象物体の接触位置を決定する。概略位置姿勢として設定した前の周回のステップS3070で算出した対象物体の位置姿勢の曖昧性を算出し、その曖昧性を解消する把持位置を決定する。即ち、対象物体の位置姿勢算出に利用した非接触計測データ及び接触位置、対象物体の形状情報(対象物体の表面の3次元点及び法線の集合)からヤコビ行列を求めて算出する。接触位置の算出方法は実施形態3のステップS3025の把持位置の算出方法と同様である。
ステップS3030は、ステップS3025で決定した接触位置と、ステップS3020で取得した対象物体の概略位置姿勢をロボットコントローラ300に送信し、ロボットアーム・ハンド301を制御し、対象物体の表面にロボットハンドの指を接触させる。
ステップS3040では、非接触計測データ取得部304は、非接触計測データとして、ロボットアームの基準座標における3次元点の集合を取得する。なお前の処理ループで取得した非接触計測データを記憶しておいて再び利用しても良い。
ステップS3050では、接触位置取得部305は、ステップS3030でロボットハンドが接触した位置を取得する。取得した接触位置と、前の周回のときに取得した接触位置を合わせた3次元座標の集合を、接触位置として出力し、以降のステップで利用する。
ステップS3060では、精度取得部306は、ステップS3040及びステップS3050で取得した非接触計測データ及び接触位置の精度を取得する。
ステップS3070では、位置姿勢算出部307は、第3の実施形態のステップS3070と同様に、対象物体の位置姿勢を算出する。
ステップS3080では、位置姿勢算出部307は、第3の実施形態のステップS3080と同様に、ステップS3025で説明した方法で、ステップS3070で算出した位置姿勢の曖昧性を表す共分散行列を算出する。算出した共分散行列の最大固有値(算出した位置姿勢の最もばらつきが大きい方向の分散を表す)が所定の閾値以下であれば位置姿勢の算出を終了し、大きければステップS3020に戻って別の接触位置を計測する。
第4の実施形態では、図8に示すような接触用の指3007を用いて接触位置を追加した。しかしながら、接触位置を追加するのに用いる装置はそれに限るものではない。ロボットアームが複数あれば、対象物体を把持していない一方のロボットアーム・ハンドを用いて接触位置を追加しても良い。また対象物体が接触時に動かなければ把持せずに接触位置を追加しても良い。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
第1の実施形態では、傾向の異なる非接触計測データとロボットハンドの接触位置の精度(誤差分布)を考慮し、誤差分布の小さい非接触計測データ及び接触位置を重視して位置姿勢を算出する。これにより、計測装置を増やすことなく、互いの精度(誤差分布)の性質を補いあって対象物体の位置姿勢を精度高く算出することができる。
ロボットコントローラは、ロボットアームやロボットハンドを任意の位置姿勢への移動及び把持動作を制御し、ロボットアームやロボットハンドの位置姿勢や関節角度などのロボットの状態を出力できれば良い。ロボットコントローラは、ロボットアームの先端の位置姿勢や把持対象物体の位置姿勢、ロボットアームの関節角情報を受信してロボットアーム・ハンドを制御しても良い。
Claims (13)
- 対象物体の形状情報を保持するデータ保持手段と、
前記対象物体の概略位置姿勢を取得する概略位置姿勢取得手段と、
前記対象物体を非接触センサで計測することにより、前記対象物体の位置情報を取得する位置情報取得手段と、
前記対象物体に対して、接触センサを接触させることにより、該接触センサが接触した接触位置の位置情報を取得する接触位置情報取得手段と、
前記位置情報取得手段で取得した前記対象物体の位置情報の精度を示す第1の精度情報と、前記接触位置取得手段で取得した接触位置の位置情報の精度を示す第2の精度情報とを取得する手段と、
前記概略位置姿勢と、前記第1の精度情報と、前記第2の精度情報とに基づいて、前記データ保持手段で保持する対象物体の形状情報を、前記対象物体の位置情報と前記接触位置の位置情報とに対応づけることにより、前記対象物体の位置姿勢を導出する位置姿勢導出手段とを備えることを特徴とする情報処理装置。 - 対象物体の形状情報を保持するデータ保持手段と、
前記対象物体の概略位置姿勢を取得する概略位置姿勢取得手段と、
前記対象物体を非接触センサで計測することにより、前記対象物体の位置情報を取得する位置情報取得手段と、
前記対象物体に対して、接触センサを接触させることにより、該接触センサが接触した接触位置の位置情報を取得する接触位置情報取得手段と、
前記位置情報取得手段で取得した前記対象物体の位置情報の精度を示す第1の精度情報と、前記接触位置取得手段で取得した接触位置の位置情報の精度を示す第2の精度情報とを取得する手段と、
前記概略位置姿勢と、前記第1の精度情報と前記第2の精度情報とに基づいて、前記対象物体の位置情報と前記接触位置の位置情報とのうち、いずれか一方を選択し、該選択された位置情報と前記対象物体の形状情報とを対応づけることにより、前記対象物体の位置姿勢を算出する位置姿勢導出手段とを備えることを特徴とする情報処理装置。 - 前記第1の精度情報は、前記非接触センサにより計測されるデータの誤差分布であることを特徴とする請求項1または2に記載の情報処理装置。
- 前記第2の精度情報は、前記接触位置における前記対象物体の面の法線に略直交する方向に広がりのある誤差分布であることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
- 前記位置姿勢導出手段は、前記第1の精度情報と前記第2の精度情報とに基づいて、前記対象物体の位置情報と、前記接触位置の位置情報とのうち、より確からしい位置情報に大きい重みをつけることにより、前記対象物体の位置姿勢を算出することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
- 前記第1の精度情報および前記第2の精度情報は、位置情報の誤差分布の広がりを示し、
前記位置姿勢導出手段は、前記対象物体の位置情報と前記接触位置の位置情報それぞれの誤差分布の広がりに応じて、前記対象物体の位置情報と前記接触位置の位置情報に重みを設定し、該重みに基づいて前記対象物体の位置姿勢を算出することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 - 前記位置情報取得手段で取得した前記対象物体の位置情報に基づいて、前記接触センサを接触させる接触位置を決定する接触位置決定手段をさらに有することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
- 前記非接触センサは、撮像装置であり、前記位置情報は、前記撮像装置により取得される画像から抽出される前記対象物体の特徴であることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
- 前記接触センサは、前記対象物体を把持するためのロボットハンドに取り付けられていることを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
- 請求項1乃至9のいずれか1項に記載の情報処理装置と、
前記対象物体を保持または把持する手段を備えることを特徴とするシステム。 - 対象物体の概略位置姿勢を取得する概略位置姿勢取得工程と、
前記対象物体を非接触センサで計測することにより得られる、前記対象物体の位置情報を取得する位置情報取得工程と、
前記対象物体に対して、接触センサを接触させることにより、該接触センサが接触した接触位置の位置情報を取得する接触位置情報取得工程と、
前記位置情報取得工程において取得された前記対象物体の位置情報の精度を示す第1の精度情報と、前記接触位置取得工程において取得された接触位置の位置情報の精度を示す第2の精度情報とを取得する工程と、
前記概略位置姿勢と、前記第1の精度情報と、前記第2の精度情報とに基づいて、データ保持手段で保持される対象物体の形状情報を、前記対象物体の位置情報と前記接触位置の位置情報とに対応づけることにより、前記対象物体の位置姿勢を導出する位置姿勢導出工程とを備えることを特徴とする情報処理方法。 - 対象物体の概略位置姿勢を取得する概略位置姿勢取得工程と、
前記対象物体を非接触センサで計測することにより得られる、前記対象物体の位置情報を取得する位置情報取得工程と、
前記対象物体に対して、接触センサを接触させることにより、該接触センサが接触した接触位置の位置情報を取得する接触位置情報取得工程と、
前記位置情報取得工程において取得された前記対象物体の位置情報の精度を示す第1の精度情報と、前記接触位置取得工程において取得された接触位置の位置情報の精度を示す第2の精度情報とを取得する取得工程と、
前記概略位置姿勢と、前記第1の精度情報と、前記第2の精度情報とに基づいて、前記対象物体の位置情報と前記接触位置の位置情報とのうち、いずれか一方を選択し、該選択された位置情報と前記対象物体の形状情報とを対応づけることにより、前記対象物体の位置姿勢を算出する位置姿勢導出工程とを備えることを特徴とする情報処理方法。 - コンピュータを、請求項1乃至10の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014249426A JP6415291B2 (ja) | 2014-12-09 | 2014-12-09 | 情報処理装置、情報処理方法、プログラム |
US15/533,960 US10335963B2 (en) | 2014-12-09 | 2015-11-17 | Information processing apparatus, information processing method, and program |
PCT/JP2015/005745 WO2016092749A1 (en) | 2014-12-09 | 2015-11-17 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014249426A JP6415291B2 (ja) | 2014-12-09 | 2014-12-09 | 情報処理装置、情報処理方法、プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016109630A true JP2016109630A (ja) | 2016-06-20 |
JP2016109630A5 JP2016109630A5 (ja) | 2018-01-25 |
JP6415291B2 JP6415291B2 (ja) | 2018-10-31 |
Family
ID=56106983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014249426A Active JP6415291B2 (ja) | 2014-12-09 | 2014-12-09 | 情報処理装置、情報処理方法、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10335963B2 (ja) |
JP (1) | JP6415291B2 (ja) |
WO (1) | WO2016092749A1 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10452957B2 (en) | 2017-02-27 | 2019-10-22 | Fujifilm Corporation | Image classification apparatus, method, and program |
JP2020040193A (ja) * | 2018-09-14 | 2020-03-19 | 株式会社東芝 | 情報処理装置及びピッキングシステム |
WO2020184678A1 (ja) * | 2019-03-14 | 2020-09-17 | 株式会社東京精密 | 三次元測定システム及び三次元測定方法 |
JP2020153977A (ja) * | 2019-03-14 | 2020-09-24 | 株式会社東京精密 | 三次元測定システム及び三次元測定方法 |
WO2021002465A1 (ja) * | 2019-07-03 | 2021-01-07 | 株式会社Preferred Networks | 情報処理装置、ロボットシステム、および、情報処理方法 |
JP7388970B2 (ja) | 2020-04-06 | 2023-11-29 | ファナック株式会社 | ロボットシステム |
JP7400183B2 (ja) | 2020-03-04 | 2023-12-19 | 株式会社東京精密 | 三次元測定システム及び三次元測定方法 |
JP7448884B2 (ja) | 2019-05-15 | 2024-03-13 | オムロン株式会社 | 計測システム、計測装置、計測方法、及び計測プログラム |
JP7458578B2 (ja) | 2020-03-04 | 2024-04-01 | 株式会社東京精密 | 三次元測定システム及び三次元測定方法 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6415026B2 (ja) * | 2013-06-28 | 2018-10-31 | キヤノン株式会社 | 干渉判定装置、干渉判定方法、コンピュータプログラム |
JP6415291B2 (ja) * | 2014-12-09 | 2018-10-31 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP6582530B2 (ja) * | 2015-05-11 | 2019-10-02 | 富士通株式会社 | 支援プログラム、支援方法および支援装置 |
CN106945034B (zh) * | 2016-01-07 | 2021-09-03 | 鸿富锦精密电子(郑州)有限公司 | 机器人点位调节方法与系统 |
JP2018161700A (ja) * | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、システム、情報処理方法、製造方法 |
WO2018227612A1 (en) * | 2017-06-16 | 2018-12-20 | Bayerische Motoren Werke Aktiengesellschaft | Methods and apparatus for selecting a map for a moving object, system, and vehicle/robot |
US11065761B2 (en) * | 2017-07-25 | 2021-07-20 | Dematic Corp. | Robotic picking training technique |
JP6880457B2 (ja) * | 2017-11-14 | 2021-06-02 | オムロン株式会社 | 把持方法、把持システム及びプログラム |
US10792809B2 (en) * | 2017-12-12 | 2020-10-06 | X Development Llc | Robot grip detection using non-contact sensors |
JP6587195B2 (ja) * | 2018-01-16 | 2019-10-09 | 株式会社Preferred Networks | 触覚情報推定装置、触覚情報推定方法、プログラム及び非一時的コンピュータ可読媒体 |
JP6988531B2 (ja) * | 2018-02-06 | 2022-01-05 | トヨタ自動車株式会社 | ロボット |
JP7052564B2 (ja) * | 2018-05-29 | 2022-04-12 | オムロン株式会社 | 視覚センサシステム、制御方法およびプログラム |
US11241795B2 (en) * | 2018-09-21 | 2022-02-08 | Beijing Jingdong Shangke Information Technology Co., Ltd. | Soft package, robot system for processing the same, and method thereof |
US10456915B1 (en) * | 2019-01-25 | 2019-10-29 | Mujin, Inc. | Robotic system with enhanced scanning mechanism |
US10870204B2 (en) | 2019-01-25 | 2020-12-22 | Mujin, Inc. | Robotic system control method and controller |
JP6697204B1 (ja) | 2019-01-25 | 2020-05-20 | 株式会社Mujin | ロボットシステムの制御方法、非一過性のコンピュータ読取可能な記録媒体及びロボットシステムの制御装置 |
JP7307592B2 (ja) * | 2019-05-24 | 2023-07-12 | キヤノン株式会社 | 計測装置、撮像装置、制御方法及びプログラム |
WO2021064925A1 (ja) * | 2019-10-02 | 2021-04-08 | 富士通株式会社 | 生成方法、生成プログラムおよび情報処理装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05288543A (ja) * | 1992-04-07 | 1993-11-02 | Fujitsu Ltd | 視覚情報と触覚情報とを統合した認識装置 |
JP2008014691A (ja) * | 2006-07-04 | 2008-01-24 | Japan Aerospace Exploration Agency | ステレオ画像計測方法とそれを実施する装置 |
JP2008309671A (ja) * | 2007-06-15 | 2008-12-25 | Ihi Corp | 物体認識方法および装置 |
US20130010070A1 (en) * | 2011-07-08 | 2013-01-10 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
JP2013032922A (ja) * | 2011-08-01 | 2013-02-14 | Hitachi Ltd | 3次元寸法測定方法 |
JP2013186088A (ja) * | 2012-03-09 | 2013-09-19 | Canon Inc | 情報処理装置、情報処理方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2417090A (en) * | 2003-04-28 | 2006-02-15 | Stephen James Crampton | CMM arm with exoskeleton |
JP5105147B2 (ja) * | 2006-08-28 | 2012-12-19 | 株式会社安川電機 | ロボットおよび制御方法 |
JP5505138B2 (ja) | 2010-07-05 | 2014-05-28 | 株式会社安川電機 | ロボット装置およびロボット装置による把持方法 |
JP6415291B2 (ja) * | 2014-12-09 | 2018-10-31 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
GB201509341D0 (en) * | 2015-05-29 | 2015-07-15 | Cambridge Medical Robotics Ltd | Characterising robot environments |
JP2017177294A (ja) * | 2016-03-31 | 2017-10-05 | キヤノン株式会社 | ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム |
-
2014
- 2014-12-09 JP JP2014249426A patent/JP6415291B2/ja active Active
-
2015
- 2015-11-17 US US15/533,960 patent/US10335963B2/en active Active
- 2015-11-17 WO PCT/JP2015/005745 patent/WO2016092749A1/en active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05288543A (ja) * | 1992-04-07 | 1993-11-02 | Fujitsu Ltd | 視覚情報と触覚情報とを統合した認識装置 |
JP2008014691A (ja) * | 2006-07-04 | 2008-01-24 | Japan Aerospace Exploration Agency | ステレオ画像計測方法とそれを実施する装置 |
JP2008309671A (ja) * | 2007-06-15 | 2008-12-25 | Ihi Corp | 物体認識方法および装置 |
US20130010070A1 (en) * | 2011-07-08 | 2013-01-10 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
JP2013036987A (ja) * | 2011-07-08 | 2013-02-21 | Canon Inc | 情報処理装置及び情報処理方法 |
JP2013032922A (ja) * | 2011-08-01 | 2013-02-14 | Hitachi Ltd | 3次元寸法測定方法 |
JP2013186088A (ja) * | 2012-03-09 | 2013-09-19 | Canon Inc | 情報処理装置、情報処理方法 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10452957B2 (en) | 2017-02-27 | 2019-10-22 | Fujifilm Corporation | Image classification apparatus, method, and program |
JP2020040193A (ja) * | 2018-09-14 | 2020-03-19 | 株式会社東芝 | 情報処理装置及びピッキングシステム |
JP7163116B2 (ja) | 2018-09-14 | 2022-10-31 | 株式会社東芝 | 情報処理装置及びピッキングシステム |
WO2020184678A1 (ja) * | 2019-03-14 | 2020-09-17 | 株式会社東京精密 | 三次元測定システム及び三次元測定方法 |
JP2020153977A (ja) * | 2019-03-14 | 2020-09-24 | 株式会社東京精密 | 三次元測定システム及び三次元測定方法 |
CN113330277A (zh) * | 2019-03-14 | 2021-08-31 | 株式会社东京精密 | 三维测量系统和三维测量方法 |
GB2596439A (en) * | 2019-03-14 | 2021-12-29 | Tokyo Seimitsu Co Ltd | Three-dimensional measuring system, and three-dimensional measuring method |
CN113330277B (zh) * | 2019-03-14 | 2022-04-29 | 株式会社东京精密 | 三维测量系统和三维测量方法 |
US11365959B2 (en) | 2019-03-14 | 2022-06-21 | Tokyo Seimitsu Co., Ltd. | Three-dimensional measuring system, and three-dimensional measuring method |
GB2596439B (en) * | 2019-03-14 | 2023-04-19 | Tokyo Seimitsu Co Ltd | Three-dimensional measuring system, and three-dimensional measuring method |
JP7458580B2 (ja) | 2019-03-14 | 2024-04-01 | 株式会社東京精密 | 三次元測定システム及び三次元測定方法 |
JP7448884B2 (ja) | 2019-05-15 | 2024-03-13 | オムロン株式会社 | 計測システム、計測装置、計測方法、及び計測プログラム |
WO2021002465A1 (ja) * | 2019-07-03 | 2021-01-07 | 株式会社Preferred Networks | 情報処理装置、ロボットシステム、および、情報処理方法 |
JP7400183B2 (ja) | 2020-03-04 | 2023-12-19 | 株式会社東京精密 | 三次元測定システム及び三次元測定方法 |
JP7458578B2 (ja) | 2020-03-04 | 2024-04-01 | 株式会社東京精密 | 三次元測定システム及び三次元測定方法 |
JP7388970B2 (ja) | 2020-04-06 | 2023-11-29 | ファナック株式会社 | ロボットシステム |
Also Published As
Publication number | Publication date |
---|---|
JP6415291B2 (ja) | 2018-10-31 |
WO2016092749A1 (en) | 2016-06-16 |
US10335963B2 (en) | 2019-07-02 |
US20170326739A1 (en) | 2017-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6415291B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP6271953B2 (ja) | 画像処理装置、画像処理方法 | |
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
US10189162B2 (en) | Model generation apparatus, information processing apparatus, model generation method, and information processing method | |
JP5746477B2 (ja) | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム | |
US9616572B2 (en) | Information processing apparatus for determining interference between peripheral objects and grasping unit, information processing method, and storage medium | |
JP5839971B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6677522B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP5393318B2 (ja) | 位置姿勢計測方法及び装置 | |
JP6370038B2 (ja) | 位置姿勢計測装置及び方法 | |
JP6740033B2 (ja) | 情報処理装置、計測システム、情報処理方法及びプログラム | |
US10203197B2 (en) | Range measurement apparatus and range measurement method | |
JP6594129B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
US20150283704A1 (en) | Information processing apparatus and information processing method | |
JP6324025B2 (ja) | 情報処理装置、情報処理方法 | |
JP2016170050A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム | |
JP6626338B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP2011174891A (ja) | 位置姿勢計測装置、位置姿勢計測方法、及びプログラム | |
WO2019130429A1 (ja) | ピッキング対象物把持情報登録システム | |
JP5938201B2 (ja) | 位置姿勢計測装置、その処理方法及びプログラム | |
US20240083038A1 (en) | Assistance system, image processing device, assistance method and non-transitory computer-readable storage medium | |
CN117315018B (zh) | 基于改进PnP的用户面部位姿检测方法、设备、介质 | |
TWI730482B (zh) | 平面動態偵測系統及偵測方法 | |
KR20240015464A (ko) | 소실점을 이용한 특징선 기반 slam 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171208 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180904 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181002 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6415291 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |