JP6604147B2 - 操作対象物の状態推定装置 - Google Patents

操作対象物の状態推定装置 Download PDF

Info

Publication number
JP6604147B2
JP6604147B2 JP2015217051A JP2015217051A JP6604147B2 JP 6604147 B2 JP6604147 B2 JP 6604147B2 JP 2015217051 A JP2015217051 A JP 2015217051A JP 2015217051 A JP2015217051 A JP 2015217051A JP 6604147 B2 JP6604147 B2 JP 6604147B2
Authority
JP
Japan
Prior art keywords
joint angle
robot
furniture
sensor
point sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015217051A
Other languages
English (en)
Other versions
JP2017087317A (ja
Inventor
和都 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2015217051A priority Critical patent/JP6604147B2/ja
Publication of JP2017087317A publication Critical patent/JP2017087317A/ja
Application granted granted Critical
Publication of JP6604147B2 publication Critical patent/JP6604147B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Description

本発明は、操作対象物の状態推定装置に関し、特に、ロボットハンドにより操作対象物を操作する技術に関する。
ロボットが扉や引き出しを開ける等の家具操作を行う際、家具の操作量を常に把握し、操作の成否に応じて次の行動を決定していく必要がある。すなわち、ロボットは、操作に失敗した場合には、迅速なリカバリ動作を行う必要がある。例えば、ロボットは、扉や引き出しを開け損ねた場合、再度、扉や引き出しを開ける動作を行う必要がある。
特許文献1には、ワークの三次元位置姿勢及び形態を簡便かつ迅速に計測し、計測された情報によりロボットアーム先端部及びロボットハンドを迅速かつ精密に操作することを目的とした装置が開示されている。この装置は、ワークを撮影するカメラと、ハンド部を有するロボットアームと、カメラにより撮影された画像を処理する画像処理部と、処理された画像に基づいてワークの三次元位置姿勢や形態を検出する検出部と、検出された情報に基づいてアーム先端部とロボットハンドを操作する制御部とから構成される。そして、上記カメラは、ステレオカメラであり、ロボットアームの先端部に装着されている。
しかしながら、家具の一部(扉や引き出し等)が、どのように動いたのかを確認するために、上記特許文献1に開示の装置のように、ステレオカメラのみを使用すると(またRGB−Dセンサのみを使用した場合であっても)、家具の操作中はロボットと家具が近すぎるため、深度情報を取得することができないという問題がある。
より具体的には、RGB−Dセンサで深度情報を取得する場合、赤外光パターン照射が用いられるが、照射角度の関係で近距離になると照射が難しくなる。また、ステレオカメラで深度情報を取得する場合、2つのカメラが共通に目印とできる箇所をできる限り多く見つける必要がある。そのためには、2つのカメラのそれぞれで得られる画像内に、多様な形や色が見られる必要があるが、家具に接近すればするほど、形状や色の変化が少ない画像しか得られなくなる。
特開2009−241247号公報
上述したように、特許文献1に開示の技術では、家具操作中に、ロボットから家具までの距離を正確に測定することができないため、実際の家具の操作量を正確に把握することができず、家具操作の成否(実際の家具の操作量が、ロボットが目標する操作量と一致しているか否か)を確認することができないという問題がある。
すなわち、特許文献1に開示の技術では、操作対象物(例えば家具)の位置姿勢変化を正確に把握することができないという問題がある。
本発明は、操作対象物の位置姿勢変化を、より正確に推定することができる操作対象物の状態推定装置を提供するものである。
本発明の態様に係る操作対象物の状態推定装置は、操作対象物を操作するロボットハンドと、前記ロボットハンドの関節角度を検出し、検出した関節角度を示す関節角度情報を生成する関節角度取得部と、前記操作対象物までの距離を検出し、検出した距離を2次元空間上の点列で示す2次元距離情報を生成する2次元距離センサと、前記操作対象物を撮像し、撮像した操作対象物を画像で示す画像情報を生成する撮像センサと、前記関節角度取得部が生成した関節角度情報が示す関節角度に基づいて、前記2次元距離センサが生成した2次元距離情報が示す点列から、前記操作対象物の点列を抽出するとともに、前記撮像センサが生成した画像情報が示す画像におけるエッジを検出し、検出したエッジのうち、前記抽出した点列を前記画像上に投影した場合における当該投影した点列との一致度が所定基準を満たすエッジを抽出する候補線分抽出部と、前記抽出したエッジの形状変化に基づいて、前記操作対象物の位置姿勢変化を推定する位置姿勢変化推定部と、を備えたものである。
これによれば、操作対象物と、それを操作する状態推定装置との位置が近く、状態推定装置から家具までの距離を2次元距離センサによって正確に測定することができない場合であっても、画像における操作対象物のエッジの形状変化に基づいて、操作対象物の位置姿勢変化を推定するようにしているため、操作対象物の位置姿勢変化を、より正確に推定することができる。
上述した本発明の態様によれば、操作対象物の位置姿勢変化を、より正確に推定することができる操作対象物の状態推定装置を提供することができる。
実施の形態に係るロボットの外部構成図である。 実施の形態に係るロボットの内部構成図である。 実施の形態に係るロボットの処理を示すフローチャートである。 実施の形態に係るロボットの処理を示すフローチャートである。 実施の形態に係るロボットの処理を説明するための図である。 実施の形態に係るロボットの処理を説明するための図である。
以下に図面を参照しながら、本発明の好適な実施の形態について説明する。以下の実施の形態に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、それに限定されるものではない。また、以下の記載及び図面では、説明の明確化のため、当業者にとって自明な事項等については、適宜、省略及び簡略化がなされている。
<発明の実施の形態>
まず、本実施の形態に係るロボット1について説明する。図1を参照して、本実施の形態に係るロボット1の外部構成について説明する。図1は、本実施の形態に係るロボット1の外部構成図である。
ロボット1は、本体10と、移動台車20と、アーム30と、頭部40と、把持部50とを有している。ロボット1は、典型的には、家庭内において人が行う作業を、人に代わり実行するための生活支援ロボットである。ロボット1は、例えば、扉や引き出しを開けるといった家具の操作をする、任意の場所に移動し、物を拾い人に届ける等の作業を実行する。
移動台車20は、その上方で本体10を支持するように、その上部が本体10の下部に連結されている。移動台車20は、その下部に設けられた車輪(図示せず)を駆動することでロボット1を移動させる。
本体10は、その前方を観測可能となるように、2次元レーダー測域センサ11が取り付けられている。2次元レーダー測域センサ11は、ロボット1(2次元レーダー測域センサ11)から、ロボット1の前方の各物体(例えば家具)までの距離を計測し、計測した各物体までの距離を示す2次元距離情報を生成する。
ここで、2次元レーダー測域センサ11は、近距離でも広角で観測が可能な2次元走査型の距離センサである。すなわち、2次元レーダー測域センサ11は、ロボット1の周辺を、ロボット1の上下方向と直行する平面上で扇状に走査することで各物体表面を線状になぞり、その線上における各点までの距離を示す2次元距離情報を生成する。よって、2次元距離情報は、ロボット1(2次元レーダー測域センサ11)から、各物体表面の各点までの距離を、2次元空間上の点列で示す情報となる。つまり、この点列は、物体表面の距離の差が少ない場合には、線形の連続的な点列となり、物体表面の距離の差が大きい場合には、非線形な点列となる。よって、壁の前に家具が置かれている場合には、壁と家具のそれぞれの表面における各点までの距離は、線形の連続的な点列で示され、壁と家具の境界を挟んで隣接する2つの点は、非線形の点列で示される。
アーム30は、本体10の前方に突出するように、本体10の前部に接続されている。アーム30は、多関節のアームである。アーム30は、その先端部に、任意の物体を把持できる把持部50を含む。これにより、ロボット1は、アーム30の各関節の角度を調整することで、把持部50を所望の位置に移動させ、その位置に存在する物体(例えば家具)を操作することができる。アーム30及び把持部50は、ロボットハンドとして機能する。
頭部40は、本体10の上方で本体10に支持されるように、本体10の上部に連結されている。頭部40は、その前方を観測可能となるように、その前部にRGBセンサ41が取り付けられている。RGBセンサ41は、ロボット1の前方の物体(例えば家具)を撮像し、撮像した物体をRGB画像で示すRGB画像情報を生成するセンサである。
RGBセンサ41は、撮像可能な角度範囲(画角)が所定の角度範囲となっている。頭部40と本体10との連結部は、頭部40を動作可能となるように関節構造となっている。ロボット1は、頭部40を動作させることで、RGBセンサ41による撮像範囲を上下又は左右方向に調整することができる。RGBセンサ41は、例えば、単眼カメラ、ステレオカメラ、又は、RGB−Dカメラ等である。
上述した構成により、ロボット1は、物体(例えば家具)を操作するにあたり、2次元レーダー測域センサ11及びRGBセンサ41によってロボット1が操作対象とする物体を観測し、観測した結果に基づいて、実際の物体の操作量を算出する。そして、ロボット1は、算出した実際の物体の操作量と、目標する物体の操作量とを比較することで、操作対象の物体の操作の成否を認識することが可能となる。
続いて、図2を参照して、本実施の形態に係るロボット1の内部構成について説明する。図2は、本実施の形態に係るロボット1の内部構成図である。
ロボット1は、2次元レーダー測域センサ11と、制御部12と、アクチュエータ21a、21bと、車輪22a、22bと、アクチュエータ31a、31bと、関節角度取得部32a、32bと、RGBセンサ41と、アクチュエータ42と、関節角度取得部43とを有する。2次元レーダー測域センサ11及び制御部12は、本体10に含まれる。アクチュエータ21a、21b及び車輪22a、22bは、移動台車20に含まれる。アクチュエータ31a、31b及び関節角度取得部32a、32bは、アーム30に含まれる。RGBセンサ41、アクチュエータ42及び関節角度取得部43は、頭部40に含まれる。
2次元レーダー測域センサ11は、上述した通りである。2次元レーダー測域センサ11は、生成した2次元距離情報を制御部12に出力する。
制御部12は、ロボット1を統括的に制御する。制御部12は、CPU(Central Processing Unit)及び記憶部(図示せず)を有しており、そのCPUが記憶部に格納されたプログラムを実行することで、制御部12としての各種処理を実現する。すなわち、このプログラムは、制御部12が有するCPUに制御部12としての各所処理を実行させるためのコードを含んでいる。記憶部は、上記プログラムや各種情報を格納可能な記憶装置の少なくとも1つを含む。記憶装置として、例えば、メモリ及びハードディスク等の少なくとも1つを任意に使用してよい。
アクチュエータ21a、21bは、ロボット1の車輪22a、22bを駆動する。アクチュエータ21aは、制御部12からの制御によって駆動され、車輪22aを回転させる。アクチュエータ21bは、制御部12からの制御によって駆動され、車輪22bを回転させる。
車輪22a及び車輪22bは、上述した移動台車20の下部に取り付けられた車輪に該当する。すなわち、制御部12は、アクチュエータ21a、21bを制御して、車輪22a、22bを回転させることでロボット2を移動させる。
アクチュエータ31a、31bは、ロボット1のアーム30を駆動する。アクチュエータ31a、31bは、制御部12からの制御によって駆動され、アーム30を動作させるアクチュエータ31a、31bのそれぞれは、アーム30の関節として設けられている。なお、
関節角度取得部32a、32bのそれぞれは、アーム30の各関節の角度を検出する角度センサを含む。この角度センサは、例えば、ロータリエンコーダである。関節角度取得部32aは、アクチュエータ31aに取り付けられており、アクチュエータ31aの関節角度を検出する。関節角度取得部32aは、検出した関節角度を示す関節角度情報を制御部12に出力する。関節角度取得部32bは、アクチュエータ31bに取り付けられており、アクチュエータ31bの関節角度を検出する。関節角度取得部32bは、検出した関節角度を示す関節角度情報を制御部12に出力する。これにより、制御部12は、関節角度取得部32a、32bのそれぞれから出力された関節角度情報が示す関節角度に基づいて、アーム30の状態を認識することが可能である。
ここでは、アーム30が、2つの関節(2つのアクチュエータ及び関節角度取得部の組)を有する例について説明するが、アーム30の関節(アクチュエータ及び関節角度取得部の組)の数は、これに限られない。
アクチュエータ42は、ロボット1の頭部40を駆動する。アクチュエータ42は、制御部12からの制御によって駆動され、頭部40を動作させる。アクチュエータ42は、頭部40の関節として設けられている。
RGBセンサ41は、上述した通りである。RGBセンサ41は、生成したRGB画像情報を制御部12に出力する。
関節角度取得部43は、頭部40の各関節の角度を検出する角度センサを含む。この角度センサは、例えば、ロータリエンコーダである。関節角度取得部43は、アクチュエータ42に取り付けられており、アクチュエータ42の関節角度を検出する。関節角度取得部43は、検出した関節角度を示す関節角度情報を制御部12に出力する。これにより、制御部12は、関節角度取得部43のそれぞれから出力された関節角度情報が示す関節角度に基づいて、頭部40の状態を認識することが可能となる。
ここでは、頭部40が、1つの関節(1つのアクチュエータ及び関節角度取得部の組)を有する例について説明するが、頭部40の関節(アクチュエータ及び関節角度取得部の組))の数は、これに限られない。
ここで、制御部12は、候補線分抽出部121と、位置姿勢変化推定部122として機能する。
候補線分抽出部121は、関節角度取得部32a及び関節角度取得部32bから出力された関節角度情報のそれぞれが示す関節角度(アクチュエータ31a及びアクチュエータ31bのそれぞれの関節角度)に基づいて、2次元レーザー測域センサ11から出力された2次元距離情報が示す点列から、ロボット1が操作対象とする物体の点列を抽出する。より具体的には、候補線分抽出部121は、2次元距離情報が示す複数の線形の点列から、ロボット1が操作対象とする物体における線形の点列を抽出する。
また、候補線分抽出部121は、RGBセンサ41から出力されたRGB画像情報が示すRGB画像におけるエッジを検出する。これにより、ロボット1が操作対象とする物体のエッジを含む複数のエッジが検出される。そして、候補線分抽出部121は、検出した複数のエッジのうち、抽出した点列をRGB画像上に投影した場合におけるその投影した点列との一致度合いが所定基準を満たす少なくとも1つのエッジを、ロボット1が操作対象とする物体におけるエッジの候補として抽出する。
位置姿勢変化推定部122は、抽出したエッジの形状変化に基づいて、ロボット1が操作対象とする物体の位置姿勢変化を推定する。すなわち、ロボット1が操作対象とする物体の位置姿勢変化として、実際のその物体の操作量が算出される。
続いて、図3〜図6を参照して、本実施の形態に係るロボット1の動作について説明する。図3及び図4は、本実施の形態に係るロボット1の動作を示し、図5は、図3に示す各動作の模式図を示し、図6は、図4に示す各動作の模式図を示している。以下、ロボット1が操作対象とする物体が、棚(家具)であり、ロボット1がその棚の扉を開ける動作をする例について説明する。
ロボット1は、家具の操作準備(棚の扉の取っ手の把持部50による把持)を終えたときに、RGBセンサ41によってその家具を映し込む(S1)。すなわち、制御部12は、アクチュエータ42を駆動し、RGBセンサ41の画角内にその家具を収める。
ロボット1は、RGB画像情報、2次元距離情報、及び、関節角度情報を取得する(S2)。すなわち、制御部12は、RGBセンサ41から出力されたRGB画像情報と、2次元レーザー測域センサ11から出力された2次元距離情報と、関節角度取得部32a、32b、43のそれぞれから出力された関節角度情報とを取得する。
なお、この各情報の取得は、各センサ11、41、32a、32b、43が所定時間間隔毎に測定及び情報の生成を行うようにし、ステップS1の動作を終了したときに制御部12が各センサ11、41、32a、32b、43から出力された各情報を取得するようにしてもよく、ステップS1の動作を終了したときに各センサ11、41、32a、32b、43が測定及び情報の生成を行うようにしてもよい。
制御部12の候補線分抽出部121は、取得した各情報に基づいて、家具面の候補となる線分を示す線分情報を取得する(S3)。
より具体的には、候補線分抽出部121は、ロボット構成情報が示すロボット1の構成と、アーム30の関節角度取得部32a、32bのそれぞれから取得した関節角度情報が示す関節角度とに基づいて、2次元レーザー測域センサ11に対する手先(アーム30の把持部50)の相対位置を算出する。手先に家具面が近接していると考えられるため、候補線分抽出部121は、算出した2次元レーザー測域センサ11と手先との相対位置に基づいて、取得した2次元距離情報が示す複数の線形の点列から、手先位置の近くに存在する最も長い点列を抽出する。例えば、候補線分抽出部121は、手先位置の近くに存在する点列として、手先位置から所定範囲内に存在する複数の点列を抽出し、その複数の点列のうち、最も長い点列を抽出すればよい。これにより、ロボット1が操作対象とする物体の点列が抽出される。
ここで、ロボット構成情報は、制御部12の記憶部に予め格納されている。ロボット構成情報は、ロボット1の構成として、ロボット1の各部(本体10、アーム30の各リンク、頭部40及び把持部50等)の物理形状、関節構成、及び、センサ構成などを示している。ロボット構成情報は、例えば、URDF(Unified Robot Description Format)のようなロボット記述言語によって記述された情報である。
また、候補線分抽出部121は、ロボット構成情報が示すロボット1の構成と、頭部40の関節角度取得部43から取得した関節角度情報が示す関節角度とに基づいて、2次元レーザー測域センサ11に対するRGBセンサ41の相対位置姿勢を算出する。候補線分抽出部121は、算出した相対位置姿勢に基づいて、抽出した点列を、RGBセンサ41から取得したRGB画像情報が示すRGB画像に投影する。すなわち、候補線分抽出部121は、2次元レーザー測域センサ11に対するRGBセンサ41の相対位置姿勢から、RGB画像内において、抽出した点列に対応する位置を特定する。この際に、候補線分抽出部121は、RGB画像に投影する点列として、抽出した点列の近似線分となる線分を、RGB画像に投影する。この近似線分の導出は、例えばNURBS(Non-Uniform Rational Basis Spline)フィッティングなどの各種技術のうち、任意の技術を採用して実施するようにしてよい。
候補線分抽出部121は、RGB画像を解析して、例えば図5に示すような、複数のエッジを検出する。候補線分抽出部121は、検出した複数のエッジのうち、RGB画像に投影した点列(線分)をRGB画像内で並進させた場合に、その並進させた点列(線分)との一致度が所定閾値以上であるエッジの全てを、家具面候補の線分として抽出する。例えば、図5に示す例では、エッジ(A)〜(C)が、家具面候補の線分として抽出される。なお、エッジの検出は、例えばCanny法などの各種技術のうち、任意の技術を採用して実施するようにしてよい。
以下、位置姿勢変化推定部122は、ロボット1が家具操作を完了するまで、所定時間間隔毎に、新たに生成されるRGB画像情報、2次元距離情報、及び、関節角度情報を取得し、ステップS4、S5の処理を繰り返す。
制御部12の位置姿勢変化推定部122は、家具操作を実行中、家具面候補として抽出した線分(エッジ)の変化を追跡し、追跡した線分(エッジ)の変化に基づいて、家具面の位置姿勢変化を推定する(S4)。
より具体的には、位置姿勢変化推定部122は、2次元レーダー測域センサ11から新たに取得した2次元距離情報が示す周辺の各物体までの距離に基づいて、レーザーオドメトリによって、ステップS3の実行時からのロボット1の移動距離を算出する。位置姿勢変化推定部122は、ロボット構成情報が示すロボット1の構成と、頭部40の関節角度取得部43から新たに取得した関節角度情報が示す関節角度とに基づいて、2次元レーザー測域センサ11に対するRGBセンサ41の相対位置姿勢を新たに算出する。すなわち、位置姿勢変化推定部122は、2次元レーザー測域センサ11に対するRGBセンサ41の相対位置姿勢を更新する。
位置姿勢変化推定部122は、算出したロボット1の移動距離と、ステップS3で算出した相対位置姿勢に対する新たに算出した相対位置姿勢に基づいて、基準とする点列(基準点列)を更新する。すなわち、家具操作の実行中に、頭部40の動作、及び、家具操作を実行するための車輪22a、22bの回転によるロボット1の移動が行われる場合があるため、ステップS3の実行時から今回のステップS4の実行までのロボット1の動作に応じて、基準となる点列(基準点列)を、ステップS3で抽出した点列を現在のロボット1の状態で測定した場合における点列となるように更新する。
位置姿勢変化推定部122は、RGBセンサ41から新たに取得したRGB画像情報が示すRGB画像を解析して、例えば図6に示すような、複数のエッジを検出する。位置姿勢変化推定部122は、ステップS3で抽出した家具面候補の線分のそれぞれについて、ステップS3で抽出した家具面候補の線分との一致度が所定閾値よりも高いエッジのうち、その家具面候補の線分との距離が最小のエッジを抽出し、抽出したエッジを新たな家具面候補の線分とするように、家具面候補の線分を更新する。すなわち、例えば図6に示すように、ステップS3で予め抽出した家具面候補の線分(A)〜(C)のそれぞれに対応する線分(A)〜(C)が抽出される。
位置姿勢変化推定部122は、例えば図6に示すように、更新後の基準点列を、並進方向に一定量動かした場合、基準点列の端点を軸に点列全体を一定量回転させた場合における点列を、それらの一定量を変化させながら何通りか算出する。位置姿勢変化推定部122は、算出した点列のそれぞれを、新たに取得したRGB画像情報が示すRGB画像に投影する。この際、位置姿勢変化推定部122は、ステップS3での説明と同様に、RGB画像に投影する点列として、算出した点列の近似線分となる線分を、RGB画像に投影する。
位置姿勢変化推定部122は、新たな家具面候補の線分として抽出した複数の線分のそれぞれと、基準点列から算出した複数の点列のそれぞれとのフィッティング(マッチング)を行う。これにより、位置姿勢変化推定部122は、新たな家具面候補の線分のそれぞれについて、新たな家具面候補の線分と最も一致度が高い点列を取得する。
これによれば、位置姿勢変化推定部122は、基準点列に対する、取得した点列の位置姿勢変化を、家具面の位置姿勢変化として算出することができる。言い換えると、家具面候補の線分の形状変化に基づいて、家具面の位置姿勢変化が推定されることになる。
位置姿勢変化推定部122は、家具操作によって期待される家具面の位置姿勢変化と、ステップS4で推定した家具面の位置姿勢変化とを比較し、家具操作の成否を判定する(S5)。
ここで、家具面が手先に合せて移動することを考慮すると、期待される家具面の位置姿勢変化は、手先位置姿勢の変化から算出することができる。すなわち、位置姿勢変化推定部122は、ロボット構成情報が示すロボット1の構成と、ステップS3でアーム30の関節角度取得部32a、32bのそれぞれから取得した関節角度情報が示す関節角度と、ステップS5でアーム30の関節角度取得部32a、32bのそれぞれから取得した関節角度情報が示す関節角度とに基づいて、期待される家具面の位置姿勢変化として、ステップS3からステップS5までの手先位置姿勢の変化を算出する。
そして、位置姿勢変化推定部122は、期待される家具面の位置姿勢変化として算出した家具面の位置姿勢変化が、ステップS4で推定した家具面の位置姿勢変化と一致する場合、家具操作が成功していると判定する。
このように、ロボット1は、ロボットハンド機構を用いて、取っ手を把持する等の家具操作の準備を行った後、家具を映し込んだRGB画像を取得し、エッジを検出する。また、ロボット1の各関節の現在角度から分かる手先位置近くの2次元距離情報を抽出し、RGB画像に投影する。この投影結果に基づいて、検出したエッジから家具面の候補となる線分を抽出する。さらに、この線分の形状変化を追跡することで、家具の位置姿勢変化を推定することができる。また、推定した家具の位置姿勢変化と、期待される家具の位置姿勢変化とを比較することで、家具操作の成否を判断することができる。
以上に説明したように、本実施の形態に係る操作対象物(家具に対応)の状態推定装置(ロボット1に対応)では、ロボットハンド(アーム30及び把持部50に対応)は、操作対象物を操作する。関節角度取得部32a、32bは、ロボットハンドの関節角度を検出し、検出した関節角度を示す関節角度情報を生成する。2次元距離センサ(2次元レーダー測域センサ11に対応)は、操作対象物までの距離を検出し、検出した距離を2次元空間上の点列で示す2次元距離情報を生成する。撮像センサ(RGBセンサ41に対応)は、操作対象物を撮像し、撮像した操作対象物を画像で示す画像情報を生成する。候補線分抽出部121は、関節角度取得部32a、32bが生成した関節角度情報が示す関節角度に基づいて、2次元距離センサが生成した2次元距離情報が示す点列から、操作対象物の点列を抽出するとともに、撮像センサが生成した画像情報が示す画像におけるエッジを検出し、検出したエッジのうち、抽出した点列を画像上に投影した場合における、その投影した点列との一致度が所定基準を満たすエッジを抽出する。位置姿勢変化推定部122は、抽出したエッジの形状変化に基づいて、操作対象物の位置姿勢変化を推定する。
これによれば、操作対象物と、それを操作する状態推定装置との位置が近く、状態推定装置から家具までの距離を2次元距離センサによって正確に測定することができない場合であっても、画像における操作対象物のエッジの形状変化に基づいて、操作対象物の位置姿勢変化を推定するようにしているため、操作対象物の位置姿勢変化を、より正確に推定することができる。
なお、本発明は上記の実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
上述の実施の形態では、ロボット1が操作対象とする物体を撮像することで生成する画像が、RGB画像である例について説明したが、RGB画像以外の種類の画像を生成するようにしてもよい。すなわち、ロボット1の前方の物体を撮像し、撮像した物体を画像で示す撮像センサであれば、ロボット1に搭載される撮像センサは、RGBセンサ41に限られない。
1 ロボット
10 本体
11 2次元レーダー測域センサ
12 制御部
20 移動台車
21a、21b アクチュエータ
22a、22b 車輪
30 アーム
31a、31b アクチュエータ
32a、32b 関節角度取得部
40 頭部
41 RGBセンサ
42 アクチュエータ
43 関節角度取得部
50 把持部
121 候補線分抽出部
122 位置姿勢変化推定部

Claims (1)

  1. 操作対象物を操作するロボットハンドと、
    前記ロボットハンドの関節角度を検出し、検出した関節角度を示す関節角度情報を生成する関節角度取得部と、
    前記操作対象物までの距離を検出し、検出した距離を2次元空間上の点列で示す2次元距離情報を生成する2次元距離センサと、
    前記操作対象物を撮像し、撮像した操作対象物を画像で示す画像情報を生成する撮像センサと、
    前記関節角度取得部が生成した関節角度情報が示す関節角度に基づいて、前記2次元距離センサが生成した2次元距離情報が示す点列から、前記操作対象物の点列を抽出するとともに、前記撮像センサが生成した画像情報が示す画像におけるエッジを検出し、検出したエッジのうち、前記抽出した点列を前記画像上に投影した場合における当該投影した点列との一致度が所定基準を満たすエッジを抽出する候補線分抽出部と、
    前記抽出したエッジの形状変化に基づいて、前記操作対象物の位置姿勢変化を推定する位置姿勢変化推定部と、を備えた
    操作対象物の状態推定装置。
JP2015217051A 2015-11-04 2015-11-04 操作対象物の状態推定装置 Active JP6604147B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015217051A JP6604147B2 (ja) 2015-11-04 2015-11-04 操作対象物の状態推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015217051A JP6604147B2 (ja) 2015-11-04 2015-11-04 操作対象物の状態推定装置

Publications (2)

Publication Number Publication Date
JP2017087317A JP2017087317A (ja) 2017-05-25
JP6604147B2 true JP6604147B2 (ja) 2019-11-13

Family

ID=58771268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015217051A Active JP6604147B2 (ja) 2015-11-04 2015-11-04 操作対象物の状態推定装置

Country Status (1)

Country Link
JP (1) JP6604147B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7074447B2 (ja) * 2017-10-05 2022-05-24 国立大学法人 東京大学 モデル推定装置
JP7438734B2 (ja) 2019-12-05 2024-02-27 倉敷紡績株式会社 先端部材の向き認識方法、先端部材向き合わせ方法、先端部材挿入方法、先端部材向き認識装置及び先端部材向き合わせシステム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5458885B2 (ja) * 2007-08-30 2014-04-02 株式会社安川電機 物体検出方法と物体検出装置およびロボットシステム
WO2013099104A1 (ja) * 2011-12-28 2013-07-04 パナソニック株式会社 ロボットアーム
JP6054831B2 (ja) * 2013-09-03 2016-12-27 国立大学法人 東京大学 画像処理装置、画像処理方法及び画像処理プログラム

Also Published As

Publication number Publication date
JP2017087317A (ja) 2017-05-25

Similar Documents

Publication Publication Date Title
JP5949242B2 (ja) ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP5410795B2 (ja) ロボット及びその地図作成方法
TWI620627B (zh) 機器人及用於機器人之定位之方法
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP6978454B2 (ja) 物体検出装置、制御装置及び物体検出用コンピュータプログラム
JP5276931B2 (ja) 移動体および移動体の位置推定誤り状態からの復帰方法
JP2013215866A (ja) ロボットシステム、ロボットシステムのキャリブレーション方法、キャリブレーション装置およびデジタルカメラ
JP2011027724A (ja) 3次元計測装置、その計測方法及びプログラム
JP2013036988A (ja) 情報処理装置及び情報処理方法
JP2011140077A (ja) 加工システム及び加工方法
CN114174006A (zh) 机器人手眼标定方法、装置、计算设备、介质以及产品
JP6328796B2 (ja) マニプレータ制御方法、システム、およびマニプレータ
JP6075888B2 (ja) 画像処理方法、ロボットの制御方法
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
WO2019165561A1 (en) Method of calibrating a mobile manipulator
JP6604147B2 (ja) 操作対象物の状態推定装置
Kuo et al. Pose determination of a robot manipulator based on monocular vision
JP6325507B2 (ja) 嵌合部品と被嵌合部品とをロボットによって嵌合する方法
JP5698815B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP6217322B2 (ja) ロボット制御装置、ロボット及びロボット制御方法
JP6040264B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2015007639A (ja) 情報処理装置、情報処理方法およびプログラム
Schiebener et al. Discovery, segmentation and reactive grasping of unknown objects
JP2015016527A5 (ja)
JP2015114933A (ja) 物体認識装置、ロボット及び物体認識方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190930

R151 Written notification of patent or utility model registration

Ref document number: 6604147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151