JP2016109630A - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
JP2016109630A
JP2016109630A JP2014249426A JP2014249426A JP2016109630A JP 2016109630 A JP2016109630 A JP 2016109630A JP 2014249426 A JP2014249426 A JP 2014249426A JP 2014249426 A JP2014249426 A JP 2014249426A JP 2016109630 A JP2016109630 A JP 2016109630A
Authority
JP
Japan
Prior art keywords
target object
contact
information
orientation
accuracy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014249426A
Other languages
English (en)
Other versions
JP6415291B2 (ja
JP2016109630A5 (ja
Inventor
祐介 中里
Yusuke Nakazato
祐介 中里
小林 一彦
Kazuhiko Kobayashi
一彦 小林
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014249426A priority Critical patent/JP6415291B2/ja
Priority to US15/533,960 priority patent/US10335963B2/en
Priority to PCT/JP2015/005745 priority patent/WO2016092749A1/en
Publication of JP2016109630A publication Critical patent/JP2016109630A/ja
Publication of JP2016109630A5 publication Critical patent/JP2016109630A5/ja
Application granted granted Critical
Publication of JP6415291B2 publication Critical patent/JP6415291B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39527Workpiece detector, sensor mounted in, near hand, gripper
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40575Camera combined with tactile sensors, for 3-D
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40576Multisensory object recognition, surface reconstruction

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

【課題】 物体の位置及び姿勢を精度よく計測することを目的とする。【解決手段】 対象物体の概略位置姿勢を取得し、前記対象物体を非接触センサで計測することにより、前記対象物体の位置情報を取得し、前記対象物体に対して、接触センサを接触させることにより、該接触センサが接触した接触位置の位置情報を取得し、前記取得した前記対象物体の位置情報の精度を示す第1の精度情報と、前記接触位置取得手段で取得した接触位置の位置情報の精度を示す第2の精度情報とを取得し、前記概略位置姿勢と、前記第1の精度情報と、前記第2の精度情報とに基づいて、前記対象物体の形状情報を、前記対象物体の位置情報と前記接触位置の位置情報とに対応づけることにより、前記対象物体の位置姿勢を導出する。【選択図】 図1

Description

本発明は、3次元形状が既知である物体の位置及び姿勢を計測する技術に関する。
産業用ロボットによる製品の自動組み立てにおいて、ロボットが部品を把持するためには、把持の対象となる部品とロボット(ハンド)との間の相対的な位置及び姿勢を計測する必要がある。位置及び姿勢を計測する方法としては、ロボットや環境に取り付けたカメラで撮影する画像上から検出される特徴や、距離センサから得られる距離画像に対して物体の3次元形状モデルをあてはめるモデルフィッティングによる計測法がある(非特許文献1)。
特開2012‐11531号公報
T.Drummond and R.Cipolla,"Real−time visual tracking of complex structures,"IEEE Transactions on Pattern Analysis and Machine Intelligence,vol.24,no.7,pp.932−946,2002.
複雑な部品組み立てなどの作業では、常に部品位置姿勢を取得するのに好適な画像が撮影できない場合が発生する。特に部品を把持した際には、ロボットハンドにより部品が隠されるため、部品の位置姿勢算出に必要な特徴が欠損し位置姿勢の算出に失敗する場合がある。さらにロボットハンド付近に設置したカメラからでは物体の一部しか撮影できない場合が多く、部品の位置姿勢算出に失敗しやすい。そのため従来は位置姿勢算出に必要な特徴が十分撮影できるように計測装置を増やしたり、撮影位置を調整したりする必要があった。
特許文献1では、検出手段で撮影画像から対象物体の位置を求め、求めた位置をロボットハンドが接触した位置に基づいて修正する方法が開示されている。しかしながら特許文献1の方法では、上述したように物体の一部しか撮影できない場合のように、検出手段から対象物体の位置が求められない場合には、位置の修正が難しいという課題があった。
本発明は、以上の課題に鑑みてなされたものであり、物体の一部についての計測情報が取得できない場合であっても、高精度に位置姿勢の計測を行うことを目的とする。
上記の課題を解決するために、本発明の情報処理装置は、例えば、対象物体の形状情報を保持するデータ保持手段と、前記対象物体の概略位置姿勢を取得する概略位置姿勢取得手段と、前記対象物体を非接触センサで計測することにより、前記対象物体の位置情報を取得する位置情報取得手段と、前記対象物体に対して、接触センサを接触させることにより、該接触センサが接触した接触位置の位置情報を取得する接触位置情報取得手段と、前記位置情報取得手段で取得した前記対象物体の位置情報の精度を示す第1の精度情報と、前記接触位置取得手段で取得した接触位置の位置情報の精度を示す第2の精度情報とを取得する手段と、前記概略位置姿勢と、前記第1の精度情報と、前記第2の精度情報とに基づいて、前記データ保持手段で保持する対象物体の形状情報を、前記対象物体の位置情報と前記接触位置の位置情報とに対応づけることにより、前記対象物体の位置姿勢を導出する位置姿勢導出手段とを備えることを特徴とする。
また、本発明の情報処理装置は、例えば、対象物体の形状情報を保持するデータ保持手段と、前記対象物体の概略位置姿勢を取得する概略位置姿勢取得手段と、前記対象物体を非接触センサで計測することにより、前記対象物体の位置情報を取得する位置情報取得手段と、前記対象物体に対して、接触センサを接触させることにより、該接触センサが接触した接触位置の位置情報を取得する接触位置情報取得手段と、前記位置情報取得手段で取得した前記対象物体の位置情報の精度を示す第1の精度情報と、前記接触位置取得手段で取得した接触位置の位置情報の精度を示す第2の精度情報とを取得する手段と、前記概略位置姿勢と、前記第1の精度情報と前記第2の精度情報とに基づいて、前記対象物体の位置情報と前記接触位置の位置情報とのうち、いずれか一方を選択し、該選択された位置情報と前記対象物体の形状情報とを対応づけることにより、前記対象物体の位置姿勢を算出する位置姿勢導出手段とを備えることを特徴とする。
本発明により、物体の一部についての計測情報が取得できない場合であっても、高精度に位置姿勢の計測を行うことができる。
第1の実施形態における情報処理装置1の装置と対象物体の関係を示す図である。 第1の実施形態における情報処理装置1の接触位置及び距離計測データの模式図である。 第1の実施形態における情報処理装置1の構成を示す図である。 第1の実施形態における処理の手順を示すフローチャートである。 第1の実施形態における情報処理装置1の接触位置及び2次元計測データの模式図である。 第2の実施形態における情報処理装置2の構成を示す図である。 第3の実施形態における情報処理装置3の構成を示す図である。 第3の実施形態における処理の手順を示すフローチャートである。 第4の実施形態における情報処理装置4の装置と対象物体の関係を示す図である。 本発明の情報処理装置のハードウェア構成を示す図である。
本発明にかかる各実施形態を説明するのに先立ち、各実施形態に示す情報処理装置が実装されるハードウェア構成について、図10を用いて説明する。
図10は、本実施形態における情報装置のハードウェア構成図である。同図において、CPU1010は、バス1000を介して接続する各デバイスを統括的に制御する。CPU1010は、読み出し専用メモリ(ROM)1020に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM920に記憶されており、ランダムアクセスメモリ(RAM)1030に一時記憶され、CPU1010によって適宜実行される。また、入力I/F1040は、外部の装置(表示装置や操作装置など)から情報処理装置1で処理可能な形式で入力信号として入力する。また、出力I/F1050は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。
これらの各機能部は、CPU1010が、ROM1020に格納されたプログラムをRAM1030に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU1010を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
(第1の実施形態)
第1の実施形態では、ロボットハンドによる接触位置及び距離センサによる非接触計測データの精度情報に応じて、対象物体の位置姿勢を計測する方法について述べる。本実施形態では非接触計測データ及び接触位置の精度情報である誤差分布の特性を考慮し、誤差分布の小さい非接触計測データ及び接触位置を重視して位置姿勢を算出する。これにより、精度高く対象物体の位置姿勢を算出することができる。
本実施形態では図1に示すように、ロボットハンド1002を取り付けたロボットアーム1001に、さらに距離センサ1003を取り付け、対象物体を距離計測する。ロボットハンド1002で対象物体を把持した際には、図2の撮影画像1101に示すような距離計測点1105の集合が計測される。撮影画像1101は、距離センサが備える撮像装置によって撮像された画像である。把持時には距離センサ1003が対象物体1004に接近するため、撮影画像1101のように対象物体の一部しか計測できない場合が多い。このような場合、6自由度ある対象物体の位置姿勢を算出しようとしても、撮影画像面に直交する位置姿勢の成分を決定できない場合がある。そこで本実施形態では距離計測点に加えてロボットハンドの接触位置情報を用いることで、対象物体の位置姿勢の算出を可能にする。さらに距離計測点1105と接触点1106の計測精度を表す誤差分布を考慮し、誤差分布の小さい非接触計測データ及び接触位置を重視して位置姿勢を算出することでより精度の高い位置姿勢を算出することができる。
<構成>
図3は情報処理装置1のブロック構成図である。以下に本実施形態における情報処理装置1の構成について述べる。
本実施形態は、所定の位置姿勢に置かれた対象物体を把持するシーンを想定する。把持する際に対象物体の位置姿勢がずれるため、その対象物体の位置姿勢を非接触計測データ及びロボットハンドの接触位置に基づいて算出する。
情報処理装置1は、データ保持部102、概略位置姿勢取得部103、非接触計測データ取得部104、接触位置取得部105、精度取得部106、位置姿勢算出部107を有する。そして、ロボットハンドによる接触位置及び非接触センサによる計測データの精度に応じて、対象物体の位置姿勢を精度高く計測する。さらに情報処理装置1は、ロボットコントローラ100に算出した位置姿勢を送り、ロボットアーム・ハンド101を制御して、対象物体を把持させる。なお、図1のロボットハンド1002とロボットアーム1001が、図3のロボットアーム・ハンド101に対応している。
ロボットアーム・ハンド101は、6軸のロボットアームとロボットアームの先端に取り付けられたロボットハンドである。ロボットコントローラ1005による制御に従って、ロボットアームの先端を入力された任意の位置・姿勢に移動することができる。また、ロボットアームの各関節角情報とロボットアーム・ハンド101の形状情報に基づいて、ロボットアームの基準座標系におけるロボットアームの各関節の位置姿勢及びロボットハンドの位置姿勢を出力する。ロボットハンドは指令を受けてロボットハンドを開閉し、物体を把持する。ロボットハンドには接触センサが取り付けられており、この接触センサによって、ロボットハンドが把持している接触位置情報を取得することができる。
非接触センサ1003は、計測対象である物体表面上の点までの距離情報を計測する。本実施形態では、距離値を各画素に格納した距離画像を出力する距離センサを用いる。距離画像は、各画素が奥行きの情報を持つ画像である。距離センサとしては、プロジェクタ等により対象物体に照射したパターン光の反射光をカメラで撮像し、三角測量により距離を計測するアクティブ式のものを利用する。しかしながら、距離センサはこれに限るものではなく、光の飛行時間を利用するTime−of−flight方式であってもよい。これらのアクティブ式の距離センサは、表面のテクスチャが少ない物体が対象であるとき好適である。また、ステレオカメラが撮像する画像から三角測量によって各画素の奥行きを計算するパッシブ式であってもよい。パッシブ式の距離センサは、表面のテクスチャが十分ある物体を対象とする場合に好適である。その他、距離画像を計測するものであればいかなるものであっても本発明の本質を損なうものではない。
データ保持部102は、対象物体の位置姿勢を推定する際に用いる対象物体の形状情報を保持する。本実施形態では対象物体の表面の3次元点の集合を形状情報とする。対象物体の形状情報は位置姿勢算出部107にて利用する。データ保持部102は、さらに以下の情報を保持する。(1)ロボットアームの基準座標における対象物体の概略位置姿勢。(2)ロボットアームと非接触センサとの相対位置姿勢。(3)ハンドに取り付けた接触センサとロボットハンドとの相対位置姿勢。(4)非接触計測データ及び接触位置の精度情報などのキャリブレーション情報。これらキャリブレーション情報は事前に計測しておく。
概略位置姿勢取得部103は、対象物体のロボットアームの基準座標における概略位置姿勢を取得する。対象物体の概略位置姿勢は位置姿勢算出部107で利用する。またロボットコントローラ100に送信され、ロボットアーム・ハンド101の制御に利用する。
非接触計測データ取得部104は、ロボットアームに取り付けた非接触センサ1003で計測した非接触計測データとして、ロボットアームの基準座標における3次元点の集合を取得する。非接触計測データは位置姿勢算出部107にて利用する。
接触位置取得部105は、ロボットハンドに取り付けた接触センサを用いて接触を検知した時のロボットハンドの接触位置のロボットアームの基準座標における3次元位置の集合を取得する(接触位置情報取得)。取得した接触位置は位置姿勢算出部107にて利用する。
精度情報取得部106は、非接触計測データ取得部104で取得した3次元点群(非接触計測データ)の精度情報、及び接触位置取得部105で取得した接触位置の3次元位置の精度情報を取得する。ここで精度情報とは各3次元点の誤差分布(ばらつき値)のことである。ここでは誤差分布として正規化共分散行列を用いる。誤差分布は、事前に非接触センサおよび接触センサそれぞれで、予め3次元位置が既知の物体に対して複数回計測を行うことで、取得しておく。誤差分布は、3次元座標をキーとした誤差分布のテーブルを非接触計測データ、接触位置データそれぞれについて作成し、精度情報としてデータ保持部102で保持する。保持された精度は位置姿勢算出部107にて利用する。
位置姿勢算出部107は、対象物体の位置姿勢を算出する(位置姿勢導出)。具体的には、以下の情報に基づいて対象物体の位置姿勢を算出する。(1)データ保持部102で保持する対象物体の形状情報。(2)概略位置姿勢取得部103で取得した対象物体の概略位置姿勢。(3)非接触計測データ取得部104で取得した非接触計測データ。(4)接触位置取得部105で取得したロボットハンドの接触位置。(5)精度取得部106で取得した非接触計測データ及びロボットハンドの接触位置の精度。具体的には、概略位置姿勢を初期値として公知のICP(Iterative Closest Points)アルゴリズムを用いて算出する。算出した位置姿勢をロボットコントローラ100に送信し、ロボットアーム・ハンド101を制御することで、対象物体の組み付けや整列配置などを高精度に実現できる。
<処理の流れ>
図4に示すフローチャートを用いて、本実施形態の情報処理装置1の処理の流れを説明する。
<ステップS1010>
ステップS1010では、データ保持部102で保持している対象物体の形状情報、すなわち対象物体の表面の3次元点の集合を取得する。前記3次元点は対象物体の基準座標系における3次元点である。
<ステップS1020>
ステップS1020では、概略位置姿勢取得部103は、対象物体のロボットアームの基準座標における概略位置姿勢を取得する。具体的にはデータ保持部102で保持するロボットアームの基準座標における対象物体の概略位置姿勢を読み出す。
<ステップS1030>
ステップS1030では、概略位置姿勢取得部103は、ステップS1020で取得した対象物体の概略位置姿勢をロボットコントローラ100に送信する。そして、ロボットコントローラ100は、ロボットアーム・ハンド101を制御して対象物体の所定の位置を把持する。
<ステップS1040>
ステップS1040では、非接触計測データ取得部104は、非接触計測データとして、ロボットアームの基準座標における3次元点の集合を取得する。
具体的には、ロボットアームに取り付けた非接触センサ1003から3次元点群を取得する。非接触センサ1003から取得した3次元点群は非接触センサ1003のローカル座標系上の3次元点群である。よって、非接触センサ1003とロボットアームとの相対位置姿勢、非接触センサを取り付けたロボットアームの位置姿勢に基づいて、非接触センサ1003のローカル座標系における3次元点座標をロボットアームの基準座標系に変換する。
<ステップS1050>
ステップS1050では、接触位置取得部105は、接触位置として、ロボットアームの基準座標におけるロボットハンドが対象物体に接触している位置の3次元座標の集合を取得する。具体的には、ロボットハンドに取り付けた不図示の接触センサから、ロボットハンドが対象物体に接触している位置を取得する。接触センサから取得した接触位置は接触センサ上のローカル座標系の3次元点である。よって、接触センサとロボットハンドとの相対位置姿勢と、ロボットアームとロボットハンドの相対位置姿勢と、ロボットハンドの位置姿勢に基づいて、接触位置のローカル座標系における3次元位置をロボットアームの基準座標系に変換する。
<ステップS1060>
ステップS1060では、精度取得部106は、ステップS1040及びステップS1050で取得した非接触計測データ及び接触位置の精度情報を取得する。具体的にはデータ保持部102で保持する精度情報である非接触計測データの誤差分布テーブルから、ステップS1040で取得した非接触計測データの3次元点集合の各3次元点に対応する誤差分布を、各3次元点の精度情報として取得する。接触位置に関しても同様で、データ保持部102で保持する接触位置の誤差分布テーブルから、ステップS1050で取得した接触位置の3次元点集合の各3次元点に対応する誤差分布を、各3次元点の精度情報として取得する。接触センサの接触位置に関する誤差分布は、接触位置の面の法線に略直交する方向に広がる分布である。
<ステップS1070>
ステップS1070では、位置姿勢算出部107は、ロボットアームの基準座標における対象物体の位置姿勢を算出する。位置姿勢算出には公知のICP(Iterative Closest Points)アルゴリズムを用いる。ICPアルゴリズムは、2つのN次元点群間の相対位置姿勢を、対応付けと位置姿勢算出を繰り返し行うことにより算出する方法である。
ステップS1040及びステップS1050で取得したロボットアームの基準座標における非接触計測データ及び接触位置を一方の3次元点群とする。そして、もう一方をステップS1010で取得した対象物体の基準座標系における3次元点群とすれば、ロボットアームの基準座標系における対象物体の位置姿勢を算出できる。具体的には以下の手順で算出する。
ステップS1040で取得したロボットアームの基準座標における非接触計測データの3次元点の集合をV、ステップS1050で取得したロボットアームの基準座標における接触位置の3次元点の集合をCとする。ロボットアームの基準座標系における対象物体の位置姿勢、すなわち対象物体の基準座標系からロボットアームの基準座標系への変換行列をMとする。
(1)変換行列Mの初期値として、ステップS1020で取得した対象物体のロボットアームの基準座標における概略位置姿勢を設定する。
(2)ステップS1010で取得した対象物体の基準座標系における、対象物体表面の3次元点集合Qを変換行列Mで座標変換する。変換後の3次元点集合をMQとする。
(3)ロボットアームの基準座標系における、非接触計測データの3次元点集合V及び接触位置の3次元点集合Cと、対象物体表面点集合MQとの間で近傍探索を行う。VとMQとの対応点集合を(v、q)∈Sv、CとMQとの対応点集合を(c、q)∈Scとする。ここで、v∈V、c∈C、q∈MQである。
(4)対応付けた3次元点をそれぞれp、qとすると、対応間距離eを以下の式で表す。
Figure 2016109630
ステップS1060で取得したVとCの誤差分布、つまり正規化共分散行列をそれぞれΣvi、Σcjとする。そして以下の式を最大化する変換行列M’を最尤推定により算出する。
Figure 2016109630
ここでN(e,Σ)は期待値e、正規化共分散行列Σの正規分布を表す。
(5)変換行列Mに(4)で求めた変換行列M’を代入し、変換行列Mが収束するまで(2)〜(5)を繰り返す。
以上の計算により、対象物体の基準座標系からロボットアームの基準座標系への変換行列M、すなわちロボットアームの基準座標系における対象物体の位置姿勢を算出する。
アクティブステレオやパッシブステレオなどのステレオ計測による非接触センサで計測した3次元点は図2の距離計測点1105のように奥行き方向に伸びた楕円形の誤差分布になる。この距離計測点1105の集合のみを用いて6自由度ある対象物体の位置姿勢を算出しようとしても、図2のような対象物体が一部しか計測できないシーンでは撮影画像面に直交する位置姿勢の成分を決定できない。
それに対して接触点1106は接触センサの設置されているロボットハンドの表面の法線方向には確度が高いが、法線に直交する方向の確度は低い。そのため図2の距離計測点1106のようにロボットハンドの表面の法線に直交する方向に広がりをもった誤差分布となる。本実施形態では、この距離計測点1105と傾向の異なる誤差分布を持つ接触点1106を距離計測点1105と同時に利用して対象物体の位置姿勢を算出する。このように傾向の異なる非接触センサの非接触計測データとロボットハンドの接触位置の精度情報(誤差分布)を考慮することにより、互いの精度情報(誤差分布)の性質を補いあって対象物体の位置姿勢を精度高く算出することができる。
(変形例)
上記構成では、非接触計測データ取得部104で取得するのは非接触センサで計測した3次元点群であった。しかしながら非接触計測データ取得部104で取得するのはカメラで撮影した画像から抽出した画像特徴であっても良い。例えば画像特徴がエッジ点である場合、図5のようなシーンで本発明が特に有効である。エッジ点は図5に示すエッジ点の楕円のように画像から検出されたエッジ方向には確度が低いが、エッジ方向に垂直な方向への確度は高い。また画像面の奥行き方向については1つのエッジ点から決まる情報はなく、奥行き方向に無限に広がりをもつ誤差分布となる。図5のシーンでは、エッジ点のみを用いて位置姿勢を算出した場合、撮影画像1201に直交する位置姿勢成分の確度は高いが、画像面の奥行き方向の位置姿勢成分の確度は低くなる。このときに図5のように対象物体を把持したロボットハンドの接触点1206の誤差分布を考慮し、上記の方法と同様に、エッジ点1205と接触点1206の誤差分布を同時利用して対象物体の位置姿勢を算出する。これにより、互いの誤差分布(精度情報)の性質を補いあって対象物体の位置姿勢を精度高く算出することができる。
さらにロボットアームに距離センサとカメラの両方を取り付け、非接触計測データ取得部104で距離センサからの3次元点群とカメラからの画像特徴の両方を非接触計測データとしてもよい。
また上記の構成では誤差分布を利用した最尤推定により、非接触計測データと接触位置を同時利用して精度高く対象物体の位置姿勢を算出する例を示した。しかしながら同時利用の方法は最尤推定でなくても良い。例えば、非接触計測データの誤差の分散と接触点の誤差の分散を重みとし、重み付き最小二乗法などを用いて対象物体の位置姿勢を算出しても良い。重みは分散に限らず、画像特徴や距離計測点などの幾何特徴の検出信頼度や、接触点を検知する信号強度に基づいて決めても良いし、検出された点の数に応じて決めても良い。
以上述べた構成で、傾向の異なる非接触計測データとロボットハンドの接触位置の精度情報(誤差分布)を考慮し、誤差分布の小さい非接触計測データ及び接触位置を重視して位置姿勢を算出する。これにより、互いの精度情報(誤差分布)の性質を補いあって対象物体の位置姿勢を精度高く算出することができる。
(第2の実施形態)
第2の実施形態では、ロボットハンドによる接触位置及び距離センサによる非接触計測データの精度情報に応じて、精度の高いデータのみを利用するように、計測データを切り替えて対象物体の位置姿勢を算出する方法について述べる。
距離センサは反射輝度の低い物体や、動いている物体、計測可能範囲外の物体などを計測した場合に計測精度が低下することが多い。またロボットハンドに取り付けた接触センサも、把持した物体が滑ったり、柔軟であったりする場合に計測精度が低下する場合がある。このような信頼できない低精度の計測データを用いて対象物体の位置姿勢を算出すると、誤った位置姿勢を算出する場合がある。そこで本実施形態では、接触位置及び距離センサによる非接触計測データの精度に応じて利用するデータを切り替えることで、精度の低い計測データが混入しても対象物体の位置姿勢を精度高く算出する方法について述べる。
<構成>
本実施形態の構成を図6に示す。第1の実施形態との差分についてのみ説明する。
非接触計測データ取得部204は、ロボットアームに取り付けた距離センサで計測した非接触計測データとして、ロボットアームの基準座標における3次元点及びその計測信頼度の集合を取得する。計測信頼度は値が小さいほど信頼度が高い数値であるとする。例えばTOF(Time−of−Flight)センサであれば反射強度などに基づいて計測信頼度を算出でき、ステレオセンサであればパターンマッチングのマッチング度合いなどに基づいて計測信頼度を算出できる。
接触位置取得部205は、ロボットハンドに取り付けた接触センサを用いて接触を検知した時のロボットハンドの接触位置のロボットアームの基準座標における3次元位置及びその計測信頼度の集合を取得する。計測信頼度は値が小さいほど信頼度が高い数値であるとする。接触センサの信頼度はセンサで検出した信号の強度や分散などに基づいて算出できる。
精度取得部206では、非接触計測データ取得部204で取得した3次元点群の精度として非接触計測データ取得部204で取得した計測信頼度を設定する。同様に接触位置取得部205で取得した接触位置の3次元位置の精度として、接触位置取得部205で取得した計測信頼度を設定する。
位置姿勢算出部207は、対象物体の位置姿勢を算出する。具体的には、第1の実施形態と同様に、以下の情報に基づいて算出する。(1)データ保持部202で保持する対象物体の形状情報。(2)概略位置姿勢取得部203で取得した対象物体の概略位置姿勢。(3)非接触計測データ取得部204で取得した非接触計測データ。(4)接触位置取得部205で取得したロボットハンドの接触位置。(5)精度取得部206で取得した非接触計測データ及びロボットハンドの接触位置の精度。ただし、このとき精度取得部206で取得した精度に基づいて、位置姿勢算出に利用するデータを選択して算出する。
<処理の流れ>
本実施形態の処理の流れは図4に示す第1の実施形態のフローチャートと同様であり、以下ではその差分について説明する。
ステップS1010〜S1030は第1の実施形態と同様である。
<ステップS1040>
ステップS1040では、非接触計測データ取得部204は、非接触計測データとして、ロボットアームの基準座標における3次元点及びその計測信頼度の集合を取得する。第1の実施形態と同様に、距離センサとロボットアームとの相対位置姿勢と、距離センサを取り付けたロボットアームの位置姿勢に基づいて、距離センサのローカル座標系における3次元点座標をロボットアームの基準座標系に変換する。
<ステップS1050>
ステップS1050では、接触位置取得部205は、接触位置として、ロボットアームの基準座標におけるロボットハンドが対象物体に接触している位置の3次元座標及びその計測信頼度の集合を取得する。第1の実施形態と同様に、接触センサとロボットハンドとの相対位置姿勢と、ロボットアームとロボットハンドの相対位置姿勢と、ロボットハンドの位置姿勢に基づいて、接触位置のローカル座標系における3次元位置をロボットアームの基準座標系に変換する。
<ステップS1060>
ステップS1060では、精度取得部206は、ステップS1040及びステップS1050で取得した非接触計測データ及び接触位置の精度として、各々の計測信頼度を設定する。
<ステップS1070>
ステップS1070では、位置姿勢算出部207は、ロボットアームの基準座標における対象物体の位置姿勢を算出する。第1の実施形態と同様に、位置姿勢算出にはICP(Iterative Closest Points)アルゴリズムを用いる。ただし、位置姿勢算出に利用する非接触計測データはその精度が所定の閾値t1より大きいもののみとする。また接触点もその精度が所定の閾値t2より大きいもののみを利用する。よって精度が閾値より大きい非接触計測データと対象物体表面点との対応点集合を(v、q)∈Sv’、接触点と対象物体表面点との対応点集合を(c、q)∈Sc’とすると、以下の式を最小化する変換行列M’を最小二乗推定により算出できる。
Figure 2016109630
以上の処理により接触位置及び距離センサによる非接触計測データの精度に応じて利用するデータを切り替えることで、精度の低い計測データが混入しても対象物体の位置姿勢を精度高く算出することができる。
(変形例)
上記第2の実施形態は、非接触計測データと接触点の各点ごとに精度をチェックして位置姿勢算出に利用する点を選択していた。しかしながら、非接触計測データの平均精度や最小精度、最大精度などをチェックして、所定の閾値よりも精度が大きければ非接触計測データ全体を利用せず、接触点のみで位置姿勢を算出しても良い。また反対に接触点の平均精度などが所定の閾値よりも大きければ非接触計測データのみで位置姿勢を算出しても良い。さらに、非接触計測データと接触点の精度がどちらも閾値より小さければ、非接触計測データ及び接触位置の少なくとも一方を再度計測し直し、精度取得、位置姿勢算出をやり直しても良い。また、非接触計測データと接触点のうち、精度の高い方のみを利用しても良い。
以上述べた構成で、非接触計測データとロボットハンドの接触位置の精度に応じて、精度の高いデータのみを利用するように、データを切り替えることで、精度の低い計測データが混入しても対象物体の位置姿勢を精度高く算出することができる。
(第3の実施形態)
第3の実施形態では、ロボットハンドによる接触位置及び距離センサによる非接触計測データから算出される位置姿勢の曖昧性がより小さくなるように対象物体の把持位置を決定することで、より精度の高い対象物体の位置姿勢を算出する方法について述べる。
本実施形態の装置構成は第1の実施形態で説明した図1と同様である。本実施形態では、算出する位置姿勢の曖昧性がより小さくなるような対象物体上の把持位置を決定した上で対象物体を把持・接触し、距離計測点1105と接触点1106の計測精度を考慮することで、より精度の高い対象物体の位置姿勢を算出することができる。
本実施形態では、山積みされた対象物体の内の1つを把持するシーンを想定する。対象物体の山積みを非接触計測して把持する物体の概略位置姿勢を取得し、把持位置を決定して把持する。把持する際に対象物体の位置姿勢がずれるため、その対象物体の位置姿勢を非接触計測データ及びロボットハンドの接触位置に基づいて算出する。
<構成>
図7は本実施形態で説明する情報処理装置3のブロック構成図である。以下に本実施形態における情報処理装置3の構成について述べる。
情報処理装置3は、第1の実施形態と同様に、ロボットコントローラ1005に算出した位置姿勢を送り、ロボットアーム・ハンド101を制御して、対象物体を把持させる。情報処理装置3は、データ保持部302、概略位置姿勢取得部303、非接触計測データ取得部304、接触位置取得部305、精度取得部306、位置姿勢算出部307に加えて、接触位置決定部308を有する。
情報処理装置3の構成のうち、第1の実施形態と差分があるものについてのみ説明する。
概略位置姿勢取得部303は、対象物体のロボットアームの基準座標における概略位置姿勢を取得する。ここでは、ロボットアームに取り付けている距離センサ1003で対象物体を含むシーンを3次元計測し、得られたロボットアームの基準座標における3次元点の集合から対象物体の位置姿勢を検出する。把持位置決定部308は、対象物体の把持位置を決定する。決定した把持位置はロボットコントローラ300に渡され、対象物体を把持する際の制御に利用する。
<処理の流れ>
図7に示すフローチャートを用いて、本実施形態の情報処理装置3の処理の流れを説明する。ただし、本実施形態の処理の流れは図4に示す第1の実施形態のフローチャートと同様の部分があり、以下ではその差分について説明する。
ステップS3040〜S3070は第1の実施形態のS1040〜S1070と同様である。
<ステップS3010>
ステップS3010では、概略位置姿勢取得部303は、データ保持部302で保持している対象物体の形状情報、すなわち対象物体の表面の3次元点及び法線の集合を取得する。前記3次元点は対象物体の基準座標系における3次元点である。次にステップS3020で行う対象物体の認識で用いる辞書を構築する。対象物体の検出にはSpin Imagesを用いた認識手法を利用する。Spin Images特徴量は距離画像や3次元点群から算出する局所特徴量である。よって、対象物体の形状情報からSpin Images特徴量を抽出し辞書として保持しておく。なお、事前に辞書作成を行ってデータ保持部302に格納しておき、それを読み出しても良い。Spin Imagesを用いた認識手法については以下の非特許文献に開示されている。
A.E. Johnson and M. Hebert,“Using Spin Images for Efficient Object Recognition in Cluttered 3D Scenes,”IEEE Trans. on PAMI,vol.21,no.5,pp.433−449,1999.
<ステップS3020>
ステップS3020では、概略位置姿勢取得部303は、対象物体のロボットアームの基準座標における概略位置姿勢を取得する。具体的にはロボットアームに取り付けている距離センサ1003で対象物体を含むシーンを3次元計測し、得られたロボットアームの基準座標における3次元点の集合から対象物体の位置姿勢を検出する。前述したとおり、対象物体の検出にはSpin Imagesを用いた認識手法を利用する。計測した3次元点の集合から、Spin Images特徴量を抽出し、ステップS3010で準備した辞書と照合し、対象物体の位置姿勢を算出する。さらに算出した位置姿勢を初期値として、対象物体の形状情報と計測した3次元点の集合に対してICPアルゴリズムを適用して対象物体の位置姿勢をリファインし、概略位置姿勢とする。ここでは、対象物体表面の3次元点及び法線を局所平面とみなして、対応付けた計測3次元点との点と平面との距離を最小化することによって、対象物体の位置姿勢を算出する。
<ステップS3025>
ステップS3025では、把持位置決定部308は、対象物体の把持位置を決定する。ステップS3020で概略位置姿勢を算出する際に用いた距離センサ1003で3次元計測して取得した3次元点の集合(計測データ)を利用して、概略位置姿勢の曖昧性を算出し、その曖昧性を解消する把持位置を決定する。
概略位置姿勢の曖昧性は、対象物体の形状情報(対象物体の表面の3次元点及び法線の集合)と計測した3次元点の集合(計測データ)からヤコビ行列を求めて算出する。ヤコビ行列とは、対象物体の位置姿勢を算出する際に着目する幾何特徴の対応間距離が変化したときに、位置姿勢6自由度のパラメータが変化する度合いを表す値である。具体的には、3次元空間中での点と平面の距離を位置及び姿勢の関数としたときの、位置及び姿勢の各要素に関する一次の偏微分係数を要素とする行列である。幾何特徴のヤコビ行列をみることで、その幾何特徴が位置姿勢6自由度のどのパラメータに影響を与え易いかがわかる。ヤコビ行列の特定のパラメータが小さい場合、そのパラメータへの影響が小さい、すなわちそのパラメータが決まらず位置合わせに失敗する、または十分な精度で位置合わせができないことを表す。以下では幾何特徴のヤコビ行列の導出方法を示す。
計測データの偶然誤差およびデータ量・空間分布と位置姿勢算出の偶然誤差の関係は、以下の非特許文献に、計測データの偶然誤差による位置姿勢推定結果の偶然誤差への伝播としてモデル化する手法が提案されている
W. Hoff and T. Vincent,“Analysis of head pose accuracy in augmented reality,”IEEE Trans. Visualization and Computer Graphics,Vol 6, No.4,2000.
ステップS3020で述べた通り、位置姿勢の算出には、対象物体の表面の3次元点及び法線(形状情報)を局所平面とし、対応付けた計測3次元点(計測データ)との距離を最小化するICPアルゴリズムで行っている。ここで、計測データはロボットアームの基準座標系、対象物体の形状情報は対象物体の基準座標系のデータである。対象物体の形状情報を表す表面点の3次元位置と法線のロボットアーム基準座標系における3次元座標を(x,y,z)、法線方向を(n,n,n(単位ベクトル)、計測データの3次元点の座標を(x’,y’,z’)とする。そうすると、(数1)で表していた3次元空間での符号付き距離eは以下の式より算出できる。
e=n(x’−x)+n(y’−y)+n(z’−z)
そして、対象物体の基準座標系からロボットアームの基準座標系への変換パラメータs=(s1,s2,s3,s4,s5,s6)で、対応間距離eを偏微分することによって、ヤコビ行列J3Dは以下のように算出できる。
Figure 2016109630
ここで
Figure 2016109630
Figure 2016109630
は対象物体の基準座標系からロボットアームの基準座標系への姿勢変換行列、(x,y,zは対象物体の基準座標系での形状情報の3次元点の座標を表す。この1×6のヤコビ行列J3Dを対応点数mだけ連結したm×6行列のヤコビ行列Jを用いると、位置姿勢と観測データ間の微小変化は、(数7)で示すように、位置姿勢(の微小変化Δ)の一次近似による誤差の関数として表すことができる。これは、位置姿勢の微小変化による、観測データ位置の微小変化を表す関係式である。
Figure 2016109630
この式より、計測データの共分散行列Cov(e)から誤差逆伝播の枠組みに基づき位置姿勢の共分散行列Cov(Δ)を算出する。精度取得部306より、計測データの精度として計測データの各3次元点の標準偏差を取得し、それをσrange jとする。共分散行列Cov(e)は、σrange jを用いて以下の(数8)で表される。
Figure 2016109630
計測データの共分散行列Cov(e)、および、各計測データに対応するヤコビ行列Jから、位置姿勢の共分散行列Cov(Δ)を計算すると、以下になる。
Figure 2016109630
この式に基づき、推定する位置姿勢パラメータの曖昧性を表す共分散行列Cov(Δ)を算出する。この共分散行列Cov(Δ)の最大固有ベクトルuが、概略位置姿勢として算出している位置姿勢の最も曖昧な方向を表す。
対象物体の把持位置、すなわちステップS3070で位置姿勢算出に用いる接触点は、図2の距離計測点1106のようにロボットハンドの表面の法線に直交する方向に広がりをもった誤差分布を持つ。よって位置姿勢算出の曖昧性を減らすために、前記最大固有ベクトルuに最も近い法線をもつ点を対象物体の形状情報から選択し、把持位置とする。
<ステップS3030>
ステップS3030では、把持位置決定部308は、ステップS3025で決定した把持位置と、ステップS3020で取得した対象物体の概略位置姿勢をロボットコントローラ300に送り、ロボットアーム・ハンド301を制御し、対象物体を把持する。
<ステップS3070>
ステップS3070では、位置姿勢算出部307は、ステップS3010と同様に、対象物体の位置姿勢を算出する。ただし、対応間距離eを(数4)の対象物体の表面の3次元点及び法線(形状情報)が表す局所平面と対応付けた計測3次元点(計測データ)として、(数3)を最大化する変換行列M’を最尤推定により算出する。
<ステップS3080>
ステップS3080では、位置姿勢算出部307は、ステップS3025で説明した方法で、ステップS3070で算出した位置姿勢の曖昧性を表す共分散行列を算出する。ただし、ステップS3070では計測データとして非接触計測データと接触点の両方を用いて位置姿勢を算出するので、曖昧性を算出する際の計測データも非接触計測データと接触点の両方を用いる。算出した共分散行列の最大固有値(算出した位置姿勢の最もばらつきが大きい方向の分散を表す)が所定の閾値以下であれば位置姿勢の算出を終了し、大きければステップS3020に戻って計測をやり直す。
これにより、算出する位置姿勢の曖昧性がより小さくなるような対象物体上の把持位置を決定した上で対象物体を把持・接触し、傾向の異なる非接触計測データとロボットハンドの接触位置の精度を考慮して、対象物体の位置姿勢を精度高く算出することができる。
<変形例>
上記ステップS3025の把持位置決定方法では、算出した位置姿勢の曖昧性のみから把持位置を決定した。それに加えて、ロボットハンドの形状情報をさらに利用して、決定した把持位置が把持可能かチェックしても良い。例えば、ロボットハンドの形状情報と、対象物体の位置姿勢と形状情報やシーンの3次元計測データを用いて、算出した把持位置を把持可能かシミュレーションし、対象物体の表面点の集合からその法線が前記最大固有ベクトルuに近い順に探しても良い。
以上述べた構成で、算出する位置姿勢の曖昧性がより小さくなるような対象物体上の把持位置を把持することにより、傾向の異なる非接触計測データとロボットハンドの接触位置を確実に得ることができるため、対象物体の位置姿勢を精度高く算出することができる。
(第4の実施形態)
第4の実施形態では、対象物体を把持した後に、ロボットハンドによる接触位置及び距離センサによる非接触計測データから算出される位置姿勢の曖昧性が小さくなるように、ロボットハンドを制御して接触位置を追加する。これにより精度の高い位置姿勢を算出する方法について述べる。
本実施形態の装置構成を図8に示す。本実施形態で述べる方法では、算出した対象物体の位置姿勢の曖昧性がより小さくなるような対象物体表面上の点や面を決定し、ロボットハンド3002の一部である接触指3007で触ることにより、接触位置を追加する。追加した接触位置と追加前の接触位置の集合、距離センサ3003で取得した非接触計測データを用いて、再度位置姿勢を算出することで、より精度の高い対象物体の位置姿勢を算出することができる。
本実施形態では、第3の実施形態と同様に、山積みされた対象物体の内の1つを把持するシーンを想定する。対象物体の山積みを非接触計測して把持する物体の概略位置姿勢を取得し、把持位置を決定して把持する。把持する際に対象物体の位置姿勢がずれるため、その対象物体の位置姿勢を非接触計測データ及びロボットハンドの接触位置に基づいて算出する。
<構成>
本実施形態の構成は、図7で示される第3の実施形態と同様で、以下ではその差分について説明する。
接触位置決定部308は、第3の実施形態と同様に対象物体の把持位置を決定する。さらに接触位置を追加取得するために、接触指3007を接触させる位置も決定する。決定した把持位置及び接触位置はロボットコントローラ300に渡され、対象物体を把持及び接触する際の制御に利用する。
<処理の流れ>
図8に示すフローチャートを用いて、本実施形態の情報処理装置4の処理の流れを説明する。本実施形態の処理の流れは第3の実施形態と同様であり、以下ではその差分について説明する。
ステップS3010は第3の実施形態と同様である。ステップS3020〜S3080の最初のループは第3の実施形態と同様である。ただし2週目以降のループでは、把持し直すのではなく、接触指3007を接触させて接触位置を追加する。以下では2週目以降のループでの各ステップの処理を説明する。
<ステップS3020>
ステップS3020は、概略位置姿勢取得部303は、対象物体のロボットアームの基準座標における概略位置姿勢を取得する。具体的には前の周回のステップS3070で算出した対象物体の位置姿勢を概略位置姿勢として設定する。
<ステップS3025>
ステップS3025では、接触位置決定部308は、対象物体の接触位置を決定する。概略位置姿勢として設定した前の周回のステップS3070で算出した対象物体の位置姿勢の曖昧性を算出し、その曖昧性を解消する把持位置を決定する。即ち、対象物体の位置姿勢算出に利用した非接触計測データ及び接触位置、対象物体の形状情報(対象物体の表面の3次元点及び法線の集合)からヤコビ行列を求めて算出する。接触位置の算出方法は実施形態3のステップS3025の把持位置の算出方法と同様である。
<ステップS3030>
ステップS3030は、ステップS3025で決定した接触位置と、ステップS3020で取得した対象物体の概略位置姿勢をロボットコントローラ300に送信し、ロボットアーム・ハンド301を制御し、対象物体の表面にロボットハンドの指を接触させる。
<ステップS3040>
ステップS3040では、非接触計測データ取得部304は、非接触計測データとして、ロボットアームの基準座標における3次元点の集合を取得する。なお前の処理ループで取得した非接触計測データを記憶しておいて再び利用しても良い。
<ステップS3050>
ステップS3050では、接触位置取得部305は、ステップS3030でロボットハンドが接触した位置を取得する。取得した接触位置と、前の周回のときに取得した接触位置を合わせた3次元座標の集合を、接触位置として出力し、以降のステップで利用する。
<ステップS3060>
ステップS3060では、精度取得部306は、ステップS3040及びステップS3050で取得した非接触計測データ及び接触位置の精度を取得する。
<ステップS3070>
ステップS3070では、位置姿勢算出部307は、第3の実施形態のステップS3070と同様に、対象物体の位置姿勢を算出する。
<ステップS3080>
ステップS3080では、位置姿勢算出部307は、第3の実施形態のステップS3080と同様に、ステップS3025で説明した方法で、ステップS3070で算出した位置姿勢の曖昧性を表す共分散行列を算出する。算出した共分散行列の最大固有値(算出した位置姿勢の最もばらつきが大きい方向の分散を表す)が所定の閾値以下であれば位置姿勢の算出を終了し、大きければステップS3020に戻って別の接触位置を計測する。
これにより、算出する位置姿勢の曖昧性がより小さくなるような対象物体上の接触位置を逐次追加して対象物体の位置姿勢を算出することができ、精度の高い対象物体の位置姿勢を取得することができる。
<バリエーション>
第4の実施形態では、図8に示すような接触用の指3007を用いて接触位置を追加した。しかしながら、接触位置を追加するのに用いる装置はそれに限るものではない。ロボットアームが複数あれば、対象物体を把持していない一方のロボットアーム・ハンドを用いて接触位置を追加しても良い。また対象物体が接触時に動かなければ把持せずに接触位置を追加しても良い。
以上述べた構成で、算出する位置姿勢の曖昧性がより小さくなるような対象物体上の接触位置を逐次追加する。これにより、傾向の異なる非接触計測データとロボットハンドの接触位置を確実に得ることができるため、対象物体の位置姿勢を精度高く算出することができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<各実施形態の効果>
第1の実施形態では、傾向の異なる非接触計測データとロボットハンドの接触位置の精度(誤差分布)を考慮し、誤差分布の小さい非接触計測データ及び接触位置を重視して位置姿勢を算出する。これにより、計測装置を増やすことなく、互いの精度(誤差分布)の性質を補いあって対象物体の位置姿勢を精度高く算出することができる。
第2の実施形態では、非接触計測データとロボットハンドの接触位置の精度に応じて、精度の高いデータのみを利用するように、計測データを切り替える。これにより、計測装置を増やすことなく、精度の低い計測データが混入しても対象物体の位置姿勢を精度高く算出することができる。
第3の実施形態では、算出する位置姿勢の曖昧性がより小さくなるような対象物体上の位置を把持する。これにより、傾向の異なる非接触計測データとロボットハンドの接触位置を確実に得ることができるため、計測装置を増やすことなく、対象物体の位置姿勢を精度高く算出することができる。
第4の実施形態では、算出する位置姿勢の曖昧性がより小さくなるような対象物体上の接触位置を逐次追加する。これにより、傾向の異なる非接触計測データとロボットハンドの接触位置を確実に得ることができるため、計測装置を増やすことなく、対象物体の位置姿勢を精度高く算出することができる。
<定義>
ロボットコントローラは、ロボットアームやロボットハンドを任意の位置姿勢への移動及び把持動作を制御し、ロボットアームやロボットハンドの位置姿勢や関節角度などのロボットの状態を出力できれば良い。ロボットコントローラは、ロボットアームの先端の位置姿勢や把持対象物体の位置姿勢、ロボットアームの関節角情報を受信してロボットアーム・ハンドを制御しても良い。
ロボットアームは、1つ以上の稼働部位があるロボットであればどのような形態であっても構わない。腕が複数あっても良く、複数のロボットで構成しても良い。ロボットは6軸ロボットであっても、スカラロボットやパラレルリンクロボットであっても良く、その形態は問わない。また実体を持たないシミュレーション上のロボットであっても良い。
ロボットハンドは部品を把持できる機構があり、把持や接触を検知できればどのような形態であっても構わない。2指であっても多指であっても良いし、吸着ハンドであってもかまわない。接触計測用の指があっても良い。また実体を持たないシミュレーション上のロボットハンドであっても良い。
データ保持部は、対象物体の位置姿勢を推定する際に用いる対象物体やロボットアームの形状情報やキャリブレーション情報を保持できれば良い。対象物体の形状情報は3次元点や法線など幾何特徴の集合であっても良い。3次元形状のメッシュモデルであっても、CADモデルのような解析曲面モデルであっても良い。キャリブレーション情報は、以下の情報であってもよい。ロボットアームの基準座標における対象物体の概略位置姿勢。ロボットアームと距離センサとの相対位置姿勢。ロボットハンドに取り付けた接触センサとロボットハンドとの相対位置姿勢。非接触計測データ及び接触位置の精度情報、計測装置のカメラパラメータなど。上記データを保持する記憶装置はHDDやSSD、メモリ、テープドライブなど、データを保持できればどのようなものでも構わない。
概略位置姿勢取得部は、対象物体のロボットアームの基準座標における概略位置姿勢を取得できれば良い。データ保持部から位置姿勢を読み出しても良いし、ロボットアームや環境に取り付けた距離センサやカメラなどで対象物体を計測し、その計測データから対象物体の位置姿勢を取得しても良い。計測データからの位置姿勢算出にはSpin Imagesなどの特徴量を用いた認識手法であっても良いし、テンプレートマッチングに基づいた手法であっても良い。ICPアルゴリズムなどを用いたモデルフィッティング手法を用いてもかまわない。
非接触計測データ取得部は、ロボットアームの基準座標における対象物体の非接触計測データを取得できれば良い。非接触計測データはロボットアームや環境に取り付けた距離センサで計測しても良いし、予め計測していたデータを記憶装置から読み出しても良い。非接触計測データは2次元画像や距離画像であっても良いし、3次元点やその法線、3次元特徴の集合であっても良い。2次元画像から検出したエッジや特徴点などの幾何特徴の集合であっても良く、非接触で対象物体を計測した情報であれば良い。取得した非接触計測データが局所座標系であれば、データ保持部で保持するキャリブレーション情報を用いて、ロボットアームの基準座標に変換すれば良い。
接触位置取得部は、ロボットアームの基準座標における、対象物体に接触した位置が取得できば良い。接触位置は接触センサで直接接触を検知しても良いし、ロボットハンドや指にかかる負荷を検知して間接的に接触を検知しても良い。予め計測していたデータを記憶装置から読み出しても良い。取得した接触位置が局所座標系であれば、データ保持部で保持するキャリブレーション情報を用いて、ロボットアームの基準座標に変換すれば良い。
精度取得部は、非接触計測データ取得部で取得した非接触計測データの精度、及び接触位置取得部で取得した接触位置の精度情報を取得できれば良い。予め計測していたデータを記憶装置から読み出しても良い。精度情報は、非接触計測データ及び接触位置の精度を表していればどのような表現であってもかまわない。誤差分布であっても良いし、計測信頼度であっても良い。また似た計測点が多いほど精度を高く設定しても良いし、撮影画像の明るさや幾何特徴の強度であっても良い。誤差分布は正規化共分散行列であっても良いし、正規分布の分散値であっても良い。事前に複数回計測を行って作った3次元座標をキーとした誤差分布のテーブルであっても良いし、そのテーブルに関数を当てはめたものや、モデル化してパラメータ化したものでも構わない。テーブルや関数のキーは3次元座標に限らず、画素の明るさや幾何特徴の強度、面の向きであっても良い。
位置姿勢算出部は、以下の情報に基づいて、対象物体のロボットアームの基準座標における位置姿勢を算出できれば良い。(1)データ保持部で保持する対象物体の形状情報。(2)概略位置姿勢取得部で取得した対象物体の概略位置姿勢。(3)非接触計測データ取得部で取得した非接触計測データ。(4)接触位置取得部で取得したロボットハンドの接触位置。(5)精度取得部で取得した非接触計測データ及びロボットハンドの接触位置の精度。位置姿勢の算出にはICPアルゴリズムを用いても良いし、対象物体の形状情報から抽出した幾何特徴と、非接触計測データや接触位置から抽出した幾何特徴の類似度を測り、類似する幾何特徴の距離に基づいて位置姿勢を算出しても良い。また、対応する対象物体の形状情報と、非接触計測データや接触位置との距離は点間距離を用いても良いし、点と面との距離を用いても良い。また位置姿勢の算出には最尤推定や最小二乗推定などの最適化手法を用いても良いし、前記距離に基づく評価値が最も良い位置姿勢を全探索により探索しても良い。
また非接触計測データ及び接触位置の精度は最尤推定における共分散行列や、最小二乗推定における重みとして利用しても良いし、前記評価値の重みとして利用しても良い。さらに精度が所定の閾値以下のデータは位置姿勢に利用しなくても良い。非接触計測データの平均精度や最小精度、最大精度などをチェックして、所定の閾値よりも精度が大きければ非接触計測データ全体を利用せず、接触点のみで位置姿勢を算出しても良い。また反対に接触点の平均精度などが所定の閾値よりも大きければ非接触計測データのみで位置姿勢を算出しても良い。さらに、非接触計測データと接触点の精度がどちらも閾値より小さければ、非接触計測データ及び接触位置の少なくとも一方を再度計測し直し、精度取得、位置姿勢算出をやり直しても良い。また、非接触計測データと接触点のうち、精度の高い方のみを利用しても良い。
接触位置決定部は、算出する位置姿勢の曖昧性がより小さくなるような対象物体の把持位置及び接触位置の少なくとも一方を決定できれば良い。把持及び接触位置は、算出した対象物体の位置姿勢の最も曖昧な方向に最も近い法線をもつ点や面を対象物体の形状情報から選択しても良い。さらにロボットハンドの形状情報を利用して把持及び接触位置が接触可能かチェックし、接触可能な位置のみを選択しても良い。

Claims (13)

  1. 対象物体の形状情報を保持するデータ保持手段と、
    前記対象物体の概略位置姿勢を取得する概略位置姿勢取得手段と、
    前記対象物体を非接触センサで計測することにより、前記対象物体の位置情報を取得する位置情報取得手段と、
    前記対象物体に対して、接触センサを接触させることにより、該接触センサが接触した接触位置の位置情報を取得する接触位置情報取得手段と、
    前記位置情報取得手段で取得した前記対象物体の位置情報の精度を示す第1の精度情報と、前記接触位置取得手段で取得した接触位置の位置情報の精度を示す第2の精度情報とを取得する手段と、
    前記概略位置姿勢と、前記第1の精度情報と、前記第2の精度情報とに基づいて、前記データ保持手段で保持する対象物体の形状情報を、前記対象物体の位置情報と前記接触位置の位置情報とに対応づけることにより、前記対象物体の位置姿勢を導出する位置姿勢導出手段とを備えることを特徴とする情報処理装置。
  2. 対象物体の形状情報を保持するデータ保持手段と、
    前記対象物体の概略位置姿勢を取得する概略位置姿勢取得手段と、
    前記対象物体を非接触センサで計測することにより、前記対象物体の位置情報を取得する位置情報取得手段と、
    前記対象物体に対して、接触センサを接触させることにより、該接触センサが接触した接触位置の位置情報を取得する接触位置情報取得手段と、
    前記位置情報取得手段で取得した前記対象物体の位置情報の精度を示す第1の精度情報と、前記接触位置取得手段で取得した接触位置の位置情報の精度を示す第2の精度情報とを取得する手段と、
    前記概略位置姿勢と、前記第1の精度情報と前記第2の精度情報とに基づいて、前記対象物体の位置情報と前記接触位置の位置情報とのうち、いずれか一方を選択し、該選択された位置情報と前記対象物体の形状情報とを対応づけることにより、前記対象物体の位置姿勢を算出する位置姿勢導出手段とを備えることを特徴とする情報処理装置。
  3. 前記第1の精度情報は、前記非接触センサにより計測されるデータの誤差分布であることを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記第2の精度情報は、前記接触位置における前記対象物体の面の法線に略直交する方向に広がりのある誤差分布であることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記位置姿勢導出手段は、前記第1の精度情報と前記第2の精度情報とに基づいて、前記対象物体の位置情報と、前記接触位置の位置情報とのうち、より確からしい位置情報に大きい重みをつけることにより、前記対象物体の位置姿勢を算出することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記第1の精度情報および前記第2の精度情報は、位置情報の誤差分布の広がりを示し、
    前記位置姿勢導出手段は、前記対象物体の位置情報と前記接触位置の位置情報それぞれの誤差分布の広がりに応じて、前記対象物体の位置情報と前記接触位置の位置情報に重みを設定し、該重みに基づいて前記対象物体の位置姿勢を算出することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  7. 前記位置情報取得手段で取得した前記対象物体の位置情報に基づいて、前記接触センサを接触させる接触位置を決定する接触位置決定手段をさらに有することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 前記非接触センサは、撮像装置であり、前記位置情報は、前記撮像装置により取得される画像から抽出される前記対象物体の特徴であることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 前記接触センサは、前記対象物体を把持するためのロボットハンドに取り付けられていることを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
  10. 請求項1乃至9のいずれか1項に記載の情報処理装置と、
    前記対象物体を保持または把持する手段を備えることを特徴とするシステム。
  11. 対象物体の概略位置姿勢を取得する概略位置姿勢取得工程と、
    前記対象物体を非接触センサで計測することにより得られる、前記対象物体の位置情報を取得する位置情報取得工程と、
    前記対象物体に対して、接触センサを接触させることにより、該接触センサが接触した接触位置の位置情報を取得する接触位置情報取得工程と、
    前記位置情報取得工程において取得された前記対象物体の位置情報の精度を示す第1の精度情報と、前記接触位置取得工程において取得された接触位置の位置情報の精度を示す第2の精度情報とを取得する工程と、
    前記概略位置姿勢と、前記第1の精度情報と、前記第2の精度情報とに基づいて、データ保持手段で保持される対象物体の形状情報を、前記対象物体の位置情報と前記接触位置の位置情報とに対応づけることにより、前記対象物体の位置姿勢を導出する位置姿勢導出工程とを備えることを特徴とする情報処理方法。
  12. 対象物体の概略位置姿勢を取得する概略位置姿勢取得工程と、
    前記対象物体を非接触センサで計測することにより得られる、前記対象物体の位置情報を取得する位置情報取得工程と、
    前記対象物体に対して、接触センサを接触させることにより、該接触センサが接触した接触位置の位置情報を取得する接触位置情報取得工程と、
    前記位置情報取得工程において取得された前記対象物体の位置情報の精度を示す第1の精度情報と、前記接触位置取得工程において取得された接触位置の位置情報の精度を示す第2の精度情報とを取得する取得工程と、
    前記概略位置姿勢と、前記第1の精度情報と、前記第2の精度情報とに基づいて、前記対象物体の位置情報と前記接触位置の位置情報とのうち、いずれか一方を選択し、該選択された位置情報と前記対象物体の形状情報とを対応づけることにより、前記対象物体の位置姿勢を算出する位置姿勢導出工程とを備えることを特徴とする情報処理方法。
  13. コンピュータを、請求項1乃至10の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2014249426A 2014-12-09 2014-12-09 情報処理装置、情報処理方法、プログラム Active JP6415291B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014249426A JP6415291B2 (ja) 2014-12-09 2014-12-09 情報処理装置、情報処理方法、プログラム
US15/533,960 US10335963B2 (en) 2014-12-09 2015-11-17 Information processing apparatus, information processing method, and program
PCT/JP2015/005745 WO2016092749A1 (en) 2014-12-09 2015-11-17 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014249426A JP6415291B2 (ja) 2014-12-09 2014-12-09 情報処理装置、情報処理方法、プログラム

Publications (3)

Publication Number Publication Date
JP2016109630A true JP2016109630A (ja) 2016-06-20
JP2016109630A5 JP2016109630A5 (ja) 2018-01-25
JP6415291B2 JP6415291B2 (ja) 2018-10-31

Family

ID=56106983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014249426A Active JP6415291B2 (ja) 2014-12-09 2014-12-09 情報処理装置、情報処理方法、プログラム

Country Status (3)

Country Link
US (1) US10335963B2 (ja)
JP (1) JP6415291B2 (ja)
WO (1) WO2016092749A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10452957B2 (en) 2017-02-27 2019-10-22 Fujifilm Corporation Image classification apparatus, method, and program
JP2020040193A (ja) * 2018-09-14 2020-03-19 株式会社東芝 情報処理装置及びピッキングシステム
WO2020184678A1 (ja) * 2019-03-14 2020-09-17 株式会社東京精密 三次元測定システム及び三次元測定方法
JP2020153977A (ja) * 2019-03-14 2020-09-24 株式会社東京精密 三次元測定システム及び三次元測定方法
WO2021002465A1 (ja) * 2019-07-03 2021-01-07 株式会社Preferred Networks 情報処理装置、ロボットシステム、および、情報処理方法
JP7388970B2 (ja) 2020-04-06 2023-11-29 ファナック株式会社 ロボットシステム
JP7400183B2 (ja) 2020-03-04 2023-12-19 株式会社東京精密 三次元測定システム及び三次元測定方法
JP7448884B2 (ja) 2019-05-15 2024-03-13 オムロン株式会社 計測システム、計測装置、計測方法、及び計測プログラム
JP7458578B2 (ja) 2020-03-04 2024-04-01 株式会社東京精密 三次元測定システム及び三次元測定方法

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6415026B2 (ja) * 2013-06-28 2018-10-31 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP6415291B2 (ja) * 2014-12-09 2018-10-31 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP6582530B2 (ja) * 2015-05-11 2019-10-02 富士通株式会社 支援プログラム、支援方法および支援装置
CN106945034B (zh) * 2016-01-07 2021-09-03 鸿富锦精密电子(郑州)有限公司 机器人点位调节方法与系统
JP2018161700A (ja) * 2017-03-24 2018-10-18 キヤノン株式会社 情報処理装置、システム、情報処理方法、製造方法
WO2018227612A1 (en) * 2017-06-16 2018-12-20 Bayerische Motoren Werke Aktiengesellschaft Methods and apparatus for selecting a map for a moving object, system, and vehicle/robot
US11065761B2 (en) * 2017-07-25 2021-07-20 Dematic Corp. Robotic picking training technique
JP6880457B2 (ja) * 2017-11-14 2021-06-02 オムロン株式会社 把持方法、把持システム及びプログラム
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
JP6587195B2 (ja) * 2018-01-16 2019-10-09 株式会社Preferred Networks 触覚情報推定装置、触覚情報推定方法、プログラム及び非一時的コンピュータ可読媒体
JP6988531B2 (ja) * 2018-02-06 2022-01-05 トヨタ自動車株式会社 ロボット
JP7052564B2 (ja) * 2018-05-29 2022-04-12 オムロン株式会社 視覚センサシステム、制御方法およびプログラム
US11241795B2 (en) * 2018-09-21 2022-02-08 Beijing Jingdong Shangke Information Technology Co., Ltd. Soft package, robot system for processing the same, and method thereof
US10456915B1 (en) * 2019-01-25 2019-10-29 Mujin, Inc. Robotic system with enhanced scanning mechanism
US10870204B2 (en) 2019-01-25 2020-12-22 Mujin, Inc. Robotic system control method and controller
JP6697204B1 (ja) 2019-01-25 2020-05-20 株式会社Mujin ロボットシステムの制御方法、非一過性のコンピュータ読取可能な記録媒体及びロボットシステムの制御装置
JP7307592B2 (ja) * 2019-05-24 2023-07-12 キヤノン株式会社 計測装置、撮像装置、制御方法及びプログラム
WO2021064925A1 (ja) * 2019-10-02 2021-04-08 富士通株式会社 生成方法、生成プログラムおよび情報処理装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05288543A (ja) * 1992-04-07 1993-11-02 Fujitsu Ltd 視覚情報と触覚情報とを統合した認識装置
JP2008014691A (ja) * 2006-07-04 2008-01-24 Japan Aerospace Exploration Agency ステレオ画像計測方法とそれを実施する装置
JP2008309671A (ja) * 2007-06-15 2008-12-25 Ihi Corp 物体認識方法および装置
US20130010070A1 (en) * 2011-07-08 2013-01-10 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP2013032922A (ja) * 2011-08-01 2013-02-14 Hitachi Ltd 3次元寸法測定方法
JP2013186088A (ja) * 2012-03-09 2013-09-19 Canon Inc 情報処理装置、情報処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2417090A (en) * 2003-04-28 2006-02-15 Stephen James Crampton CMM arm with exoskeleton
JP5105147B2 (ja) * 2006-08-28 2012-12-19 株式会社安川電機 ロボットおよび制御方法
JP5505138B2 (ja) 2010-07-05 2014-05-28 株式会社安川電機 ロボット装置およびロボット装置による把持方法
JP6415291B2 (ja) * 2014-12-09 2018-10-31 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
GB201509341D0 (en) * 2015-05-29 2015-07-15 Cambridge Medical Robotics Ltd Characterising robot environments
JP2017177294A (ja) * 2016-03-31 2017-10-05 キヤノン株式会社 ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05288543A (ja) * 1992-04-07 1993-11-02 Fujitsu Ltd 視覚情報と触覚情報とを統合した認識装置
JP2008014691A (ja) * 2006-07-04 2008-01-24 Japan Aerospace Exploration Agency ステレオ画像計測方法とそれを実施する装置
JP2008309671A (ja) * 2007-06-15 2008-12-25 Ihi Corp 物体認識方法および装置
US20130010070A1 (en) * 2011-07-08 2013-01-10 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP2013036987A (ja) * 2011-07-08 2013-02-21 Canon Inc 情報処理装置及び情報処理方法
JP2013032922A (ja) * 2011-08-01 2013-02-14 Hitachi Ltd 3次元寸法測定方法
JP2013186088A (ja) * 2012-03-09 2013-09-19 Canon Inc 情報処理装置、情報処理方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10452957B2 (en) 2017-02-27 2019-10-22 Fujifilm Corporation Image classification apparatus, method, and program
JP2020040193A (ja) * 2018-09-14 2020-03-19 株式会社東芝 情報処理装置及びピッキングシステム
JP7163116B2 (ja) 2018-09-14 2022-10-31 株式会社東芝 情報処理装置及びピッキングシステム
WO2020184678A1 (ja) * 2019-03-14 2020-09-17 株式会社東京精密 三次元測定システム及び三次元測定方法
JP2020153977A (ja) * 2019-03-14 2020-09-24 株式会社東京精密 三次元測定システム及び三次元測定方法
CN113330277A (zh) * 2019-03-14 2021-08-31 株式会社东京精密 三维测量系统和三维测量方法
GB2596439A (en) * 2019-03-14 2021-12-29 Tokyo Seimitsu Co Ltd Three-dimensional measuring system, and three-dimensional measuring method
CN113330277B (zh) * 2019-03-14 2022-04-29 株式会社东京精密 三维测量系统和三维测量方法
US11365959B2 (en) 2019-03-14 2022-06-21 Tokyo Seimitsu Co., Ltd. Three-dimensional measuring system, and three-dimensional measuring method
GB2596439B (en) * 2019-03-14 2023-04-19 Tokyo Seimitsu Co Ltd Three-dimensional measuring system, and three-dimensional measuring method
JP7458580B2 (ja) 2019-03-14 2024-04-01 株式会社東京精密 三次元測定システム及び三次元測定方法
JP7448884B2 (ja) 2019-05-15 2024-03-13 オムロン株式会社 計測システム、計測装置、計測方法、及び計測プログラム
WO2021002465A1 (ja) * 2019-07-03 2021-01-07 株式会社Preferred Networks 情報処理装置、ロボットシステム、および、情報処理方法
JP7400183B2 (ja) 2020-03-04 2023-12-19 株式会社東京精密 三次元測定システム及び三次元測定方法
JP7458578B2 (ja) 2020-03-04 2024-04-01 株式会社東京精密 三次元測定システム及び三次元測定方法
JP7388970B2 (ja) 2020-04-06 2023-11-29 ファナック株式会社 ロボットシステム

Also Published As

Publication number Publication date
JP6415291B2 (ja) 2018-10-31
WO2016092749A1 (en) 2016-06-16
US10335963B2 (en) 2019-07-02
US20170326739A1 (en) 2017-11-16

Similar Documents

Publication Publication Date Title
JP6415291B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6271953B2 (ja) 画像処理装置、画像処理方法
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
US10189162B2 (en) Model generation apparatus, information processing apparatus, model generation method, and information processing method
JP5746477B2 (ja) モデル生成装置、3次元計測装置、それらの制御方法及びプログラム
US9616572B2 (en) Information processing apparatus for determining interference between peripheral objects and grasping unit, information processing method, and storage medium
JP5839971B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6677522B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP5393318B2 (ja) 位置姿勢計測方法及び装置
JP6370038B2 (ja) 位置姿勢計測装置及び方法
JP6740033B2 (ja) 情報処理装置、計測システム、情報処理方法及びプログラム
US10203197B2 (en) Range measurement apparatus and range measurement method
JP6594129B2 (ja) 情報処理装置、情報処理方法、プログラム
US20150283704A1 (en) Information processing apparatus and information processing method
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JP6626338B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2011174891A (ja) 位置姿勢計測装置、位置姿勢計測方法、及びプログラム
WO2019130429A1 (ja) ピッキング対象物把持情報登録システム
JP5938201B2 (ja) 位置姿勢計測装置、その処理方法及びプログラム
US20240083038A1 (en) Assistance system, image processing device, assistance method and non-transitory computer-readable storage medium
CN117315018B (zh) 基于改进PnP的用户面部位姿检测方法、设备、介质
TWI730482B (zh) 平面動態偵測系統及偵測方法
KR20240015464A (ko) 소실점을 이용한 특징선 기반 slam 시스템

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181002

R151 Written notification of patent or utility model registration

Ref document number: 6415291

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151