JP2015125725A - 物体範囲推定方法、物体範囲推定装置及びロボット - Google Patents

物体範囲推定方法、物体範囲推定装置及びロボット Download PDF

Info

Publication number
JP2015125725A
JP2015125725A JP2013271873A JP2013271873A JP2015125725A JP 2015125725 A JP2015125725 A JP 2015125725A JP 2013271873 A JP2013271873 A JP 2013271873A JP 2013271873 A JP2013271873 A JP 2013271873A JP 2015125725 A JP2015125725 A JP 2015125725A
Authority
JP
Japan
Prior art keywords
range
robot
sensor
taken
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013271873A
Other languages
English (en)
Inventor
国松 橋本
Kunimatsu Hashimoto
国松 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2013271873A priority Critical patent/JP2015125725A/ja
Publication of JP2015125725A publication Critical patent/JP2015125725A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】物体の一部しか観測できていない場合であっても、物体との接触の可能性を低減する。【解決手段】所定範囲に制限された観測範囲において、周辺の物体を観測する観測ステップと、記憶部に格納された物体形状データが示す物体の形状に基づいて、観測ステップで観測された物体の一部を基準として物体がとり得る範囲を特定する特定ステップと、特定ステップで新たに特定された物体がとり得る範囲と、現在認識している物体がとり得る範囲とを統合し、統合結果を現在認識している物体がとり得る範囲として更新する統合ステップと、を備える。【選択図】図3

Description

本発明は、物体範囲推定方法、物体範囲推定装置及びロボットに関し、特に、所定範囲に制限された観測範囲で物体を認識する技術に関する。
特許文献1には、自己推定の精度が悪い状況に陥ること防ぐことができるロボットが開示されている。このロボットは、外界センサによって取得した外界情報に基づいて、自己位置の推定のしやすさを示す自己位置推定容易性パラメータを算出し、自己位置推定容易性パラメータの値に応じて、自己位置推定の容易性をモニタに表示する。ユーザは、その表示を参考に、ロボットによる自己位置推定が容易になるように障害物を設置する操作をロボットに対して行うことができる。これによれば、ユーザに自己位置推定の困難な場所の改善を促すことができ、ロボットが自己位置推定の精度が悪い状況に陥ってしまうことを回避することができる。
特開2012−141662号公報
しかしながら、上述したように周辺環境を示すセンサデータ(外界情報)を取得するセンサは、一般的に、観測可能な範囲が一定範囲に制限されている。したがって、ロボット(センサ)と障害物との距離が近い場合には、センサによって障害物の一部しか観測することができなくなってしまう。この場合、ロボットは、障害物が存在する範囲も正確に認識することができない場合がある。
例えば、ロボットがテーブルを横方向から観測したときに、テーブルの天板の側面のうち、その左端及び右端を含まない一部しかセンサの観測範囲に含まれていない場合には、天板の側面において、どの辺りの位置を観測しているのか分からないため、テーブルの位置を正確に特定することができない。よって、ロボットが事前にテーブルの形状を把握していたとしても、テーブルの位置を特定することができないため、テーブルが存在する範囲(テーブルが存在する領域)も特定することができない。
このように、障害物の存在する範囲を正確に認識することができないため、ロボットが移動した際に障害物と接触してしまう可能性があるという問題があった。すなわち、上述したテーブルの例であれば、テーブルが存在する範囲を特定することができないため、ロボットがセンサの観測範囲外に存在するテーブルと接触してしまう可能性があった。
本発明は、上述した知見に基づいてなされたものであって、物体の一部しか観測できていない場合であっても、物体との接触の可能性を低減することができる物体範囲推定方法、物体範囲推定装置及びロボットを提供することを目的とする。
本発明の第1の態様に係る物体範囲推定方法は、所定範囲にある物体を観測することができるセンサで周辺の物体を観測する観測ステップと、前記センサで観測された結果と、記憶部に格納しておいた物体モデルデータが示す物体のモデルと、に基づき、前記センサで観測された結果において物体の一部を認識した場合には、前記記憶部に格納された物体形状データが示す物体の形状に基づいて、当該認識した物体の一部を基準として当該物体がとり得る範囲を特定する特定ステップと、前記特定ステップで新たに特定された前記物体がとり得る範囲と、現在認識している当該物体がとり得る範囲とを統合し、統合結果を前記現在認識している当該物体がとり得る範囲として更新する統合ステップと、を備えることを特徴とするものである。
本発明の第2の態様に係る物体範囲推定装置は、所定範囲にある物体を観測することができるセンサと、前記物体のモデルを示す物体モデルデータと、前記物体の形状を示す物体形状データが格納された記憶部と、前記センサで観測された結果と、前記記憶部に格納された物体モデルデータが示す物体のモデルと、に基づき、前記センサで観測された結果において物体の一部を認識した場合には、前記記憶部に格納された物体形状データが示す物体の形状に基づいて、当該認識した物体の一部を基準として当該物体がとり得る範囲を特定する特定部と、前記特定部によって新たに特定された物体がとり得る範囲と、現在認識している当該物体がとり得る範囲とを統合し、統合結果を前記現在認識している当該物体がとり得る範囲として更新する統合部と、を備えることを特徴とするものである。
本発明の第3の態様に係るロボットは、上記第2の態様に係る物体範囲推定装置を備え、前記物体範囲推定装置において現在認識している物体がとり得る範囲に基づいて移動経路を決定して移動する、ことを特徴とするものである。
本発明の第4の態様に係るロボットは、上記第2の態様に係る物体範囲推定装置と、物体を把持するアームと、を備え、前記物体範囲推定装置において現在認識している物体がとり得る範囲に基づいて前記アームの移動経路を決定し、前記アームを動作させる、ことを特徴とするものである。
上述した本発明の各態様によれば、物体の一部しか観測できていない場合であっても、物体との接触の可能性を低減することができる物体範囲推定方法、物体範囲推定装置及びロボットを提供することができる。
実施の形態に係るロボットの外部構成図である。 実施の形態に係るロボットの内部構成図である。 実施の形態に係るロボットの処理ブロック図である。 実施の形態に係るロボットによる物体の観測例を示す図である。 図4の観測例においてテーブルがとり得る状態を示す図である。 図4の観測例においてテーブルがとり得る範囲を示す図である。 実施の形態に係るロボットによる統合処理の一例を示す図である。
以下に図面を参照しながら、本発明の好適な実施の形態について説明する。以下の実施の形態に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、それに限定されるものではない。また、以下の記載及び図面では、説明の明確化のため、当業者にとって自明な事項等については、適宜、省略及び簡略化がなされている。
<発明の実施の形態>
まず、本実施の形態に係るロボット1について説明する。図1を参照して、本実施の形態に係るロボット1の外部構成について説明する。図1は、本実施の形態に係るロボット1の外部構成図である。
ロボット1は、ロボット本体10、移動台車20、アーム30、及び頭部40を有している。ロボット1は、典型的には、家庭内において人が行う作業を、人に代わり実行するための生活支援ロボットである。ロボット1は、例えば、任意の場所に移動し、物を拾い人に届ける、窓を開ける等の作業を実行する。
移動台車20は、その上方でロボット本体10を支持するように、その上部がロボット本体10の下部に連結されている。移動台車20は、その下部に設けられた車輪(図示せず)を駆動することでロボット1を移動させる。
アーム30は、ロボット本体10の前方に突出するように、ロボット本体10の前部に接続されている。アーム30は、多関節のアームである。アーム30は、その先端部に、任意の物体を把持できるハンド(把持部)6を含む。これにより、ロボット1は、アーム30の各関節の角度を調整することで、ハンド60を所望の位置に移動させ、その位置に存在する物体を把持することができる。
頭部40は、ロボット本体10の上方でロボット本体10に支持されるように、ロボット本体10の上部に連結されている。頭部40は、その前方をセンサ50によって観測可能となるように、その前部にセンサ50が取り付けられている。センサ50は、ロボット1の周辺の環境を観測し、観測した環境を示すセンサデータを生成するセンサである。
センサ50は、測定可能な角度範囲(画角)が所定の角度に限られている。一方で、頭部40とロボット本体10との連結部は、頭部40を動作可能となるように多自由度の関節構造となっている。例えば、関節構造として少なくとも2自由度以上を有するようにすることで、頭部40は、少なくとも上下左右に動作させることが可能とされている。これにより、センサ50の測定可能な角度範囲が限られていても、頭部40を動作させることで広範囲を観測することを可能としている。
センサ50は、ロボット1の周辺の物体を観測可能なセンサであれば、3次元距離センサ及びカメラ等のセンサのうち、任意のセンサを利用するようにしてよい。センサ50として3次元距離センサを用いる場合、センサ50は、ロボット1からロボット1の周辺の物体までの距離を測定して、ロボット1の周辺の物体までの距離を示す距離データをセンサデータとして生成する。ここで、3次元距離センサは、光学式、超音波式、及びレーザ光線式等の各種方式のうち、任意の方式のものを使用するようにしてよい。例えば、レーザ光線式の3次元距離センサとして、レーザレンジファインダ(LRF:Laser range finder)がある。また、センサ50にカメラを用いる場合、センサ50は、ロボット1の周辺を撮像して、ロボット1の周辺の画像を示す画像データをセンサデータとして生成する。ここで、カメラは、RGBカメラ及びRGBDカメラ等のカメラのうち、カメラを使用するようにしてよい。すなわち、カメラとして、RGBDカメラのように、画像データに加えて、物体までの距離(深度)を示す距離データもセンサデータとして生成するカメラを使用するようにしてもよい。
しかしながら、好ましくは、センサ50として、LRFではなく、RGBカメラ及びRGBDカメラ等のカメラを使用するとよい。一般的に、LRFは、画角も大きく、コストが非常に高くなってしまう。それに対して、一般的に、RGBカメラ及びRGBDカメラ等のカメラは、LRFと比較して画角が狭く安価であり、コストを低減することができる。
操作端末9は、ロボット1と無線又は有線によって通信可能な情報処理端末である。なお、本実施の形態では、操作端末9とロボット1とが無線によって通信する例について説明する。操作端末9は、デスクトップPCのような据え置き型の情報処理端末であってもよいが、好ましくは、ユーザが生活空間において制限なくロボット1を操作可能とするために、携帯型の情報処理端末であるとよい。携帯型の情報処理端末は、スマートフォン、又はタブレット端末等である。
ユーザは、操作端末9によってロボット1に対して、上述したような人が行う作業を指示することができる。ロボット1は、ユーザから指示された作業をユーザに代わり実行する。このようにして、ロボット1によってユーザの生活が支援される。
上述した構成により、ロボット1は、ユーザから指示された作業を実行するにあたり、センサ50によってロボット1の周辺の環境を観測し、観測した環境における障害物となる物体を避けて行動する。
続いて、図2を参照して、本実施の形態に係るロボット1の内部構成について説明する。図2は、本実施の形態に係るロボット1の内部構成図である。
ロボット1は、制御部11、記憶部12、通信部13、アクチュエータ21a、21b、車輪22a、22b、アクチュエータ31a、31b、角度センサ(ポテンショメータ)32a、32b、及びアクチュエータ41を有する。制御部11、記憶部12、及び通信部13は、ロボット本体10に含まれる。アクチュエータ21a、21b及び車輪22a、22bは、移動台車20に含まれる。アクチュエータ31a、31b及び角度センサ32a、32bは、アーム30に含まれる。アクチュエータ41は、頭部40に含まれる。
制御部11は、ロボット1を統括的に制御する。制御部11は、CPU(Central Processing Unit)を有しており、そのCPUが記憶部12に格納されたプログラムを実行することで、制御部11としての各種処理を実現する。すなわち、このプログラムは、制御部11が有するCPUに制御部11としての各所処理を実行させるためのコードを含んでいる。
記憶部12は、上記プログラムや、その他の制御部11が使用する各種情報が格納される。記憶部12は、上記プログラムや各種情報を格納可能な記憶装置の少なくとも1つを含む。記憶装置として、例えば、メモリ及びハードディスク等の少なくとも1つを任意に使用してよい。
通信部13は、操作端末9に送信するために制御部11から出力された情報を、無線信号に変換し、操作端末9に送信する。通信部13は、操作端末9から受信した無線信号を、制御部11で処理可能な情報となるように電気信号に変換し、制御部11に出力する。
アクチュエータ21a、21bは、ロボット1の車輪22a、22bを駆動する。アクチュエータ21aは、制御部11からの制御によって駆動され、車輪22aを回転させる。アクチュエータ21bは、制御部11からの制御によって駆動され、車輪22bを回転させる。
車輪22a及び車輪22bは、上述した移動台車20の下部に取り付けられた車輪に該当する。すなわち、制御部11は、アクチュエータ21a、21bを制御して、車輪22a、22bを回転させることでロボット1を移動させる。
アクチュエータ31a、31bは、ロボット1のアーム30を駆動する。アクチュエータ31a、31bは、制御部11からの制御によって駆動され、アーム30を動作させるアクチュエータ31a、31bのそれぞれは、アーム30の関節として設けられている。なお、ここでは、アーム30が、アクチュエータ31aとアクチュエータ31bとの2つの関節を有する例について説明するが、アーム30の関節数は、これに限られない。
角度センサ32a、32bのそれぞれは、アーム30の各関節の角度を検出するセンサである。角度センサ32aは、アクチュエータ31aに取り付けられており、アクチュエータ31aの角度を検出する。角度センサ32aは、検出した角度を示す角度信号を制御部11に出力する。角度センサ32bは、アクチュエータ31aに取り付けられており、アクチュエータ31bの角度を検出する。角度センサ32bは、検出した角度を示す角度信号を制御部11に出力する。これにより、制御部11は、角度センサ32a、32bのそれぞれから出力された角度信号が示す角度に基づいて、アーム30の状態を認識することが可能となる。
アクチュエータ41は、ロボット1の頭部40を駆動する。アクチュエータ41は、制御部11からの制御によって駆動され、頭部40を動作させる。アクチュエータ41は、例えば、多自由度(2自由度以上の所定自由度)のアクチュエータとして、頭部40を上下左右に動作可能としてよい。また、頭部40を駆動するアクチュエータ41を複数有するようにして、頭部40の多自由度での駆動を実現するようにしてもよい。また、アクチュエータ41として1自由度のアクチュエータを1つだけ有するようにして、頭部40が上下又は左右のみに動作するようにされていてもよい。
続いて、図3〜図7を参照して、本実施の形態に係るロボット1の処理について説明する。図3は、本実施の形態に係るロボット1の処理ブロック図である。
図3に示すように、ロボット1は、処理ブロックとして、センサ50、認識器101、及び統合器102を有する。ここで、上述した制御部11が、認識器101及び統合器102として機能する。
センサ50、認識器101、及び統合器102は、物体の位置・姿勢がとり得る範囲を認識(推定)する物体範囲推定装置として機能する。認識器101は、センサ50で観測された物体の一部を基準としてその物体のとり得る範囲(物体の位置・姿勢がとり得る範囲)を特定する特定部として機能する。統合器102は、認識器101によって新たに特定された物体がとり得る範囲と、現在認識しているその物体がとり得る範囲とを統合し、統合結果を現在認識しているその物体がとり得る範囲として更新する。
センサ50は、上述のセンサデータを認識器101に出力する。具体的には、センサ50は、上述したように、好ましくは、RGBカメラ及びRGBDカメラ等のカメラを用いるとよい。以下、センサ50として、RGBDカメラを用いた場合について説明する。よって、センサデータには、センサ50の観測範囲において周辺を撮像した画像を示すRGB画像データ(画像データ)と、センサ50の観測範囲において周辺の物体までの深度を示す深度データ(距離データ、例えばポイントクラウド)が含まれる。
認識器101は、センサ50から出力されたセンサデータが示す環境において物体の一部のみが含まれている場合、その物体の一部を基準としてその物体の位置・姿勢がとり得る範囲(以下、「位置姿勢範囲」とも呼ぶ)を認識し、認識した物体に位置姿勢範囲を示す位置姿勢範囲データを生成し、統合器102に出力する。なお、物体の「位置」は、物体において予め任意に定めた点となる。例えば、物体の重心を、物体の位置として定めるようにしてよい。また、物体の「姿勢」は、物体の鉛直軸周りの回転角度となる。
ここで、物体の位置姿勢範囲を認識するために、記憶部12は、ロボット1の動作範囲となる環境に含まれる物体毎に、物体の形状を示す物体形状データが予め格納されている。認識器101は、一部のみが観測されている物体を特定し、記憶部12に格納された物体形状データのうち、特定した物体に対応する物体形状データが示すその物体の形状と、その物体の観測されている一部に基づいて、その物体の一部を基準として位置姿勢範囲を特定する。
統合器102は、認識器101が新たに認識した物体の位置姿勢範囲と、現在認識しているその物体の位置姿勢範囲とを統合した位置姿勢範囲を算出する。具体的には、統合器102は、統合として、新たに認識した物体の位置姿勢範囲と、現在認識している物体の位置姿勢範囲との論理積(AND)をとった位置姿勢範囲を算出する。統合器102は、統合によって算出した位置姿勢範囲を示す位置姿勢範囲データを生成し、出力する。ロボット1が認識している物体の位置姿勢範囲は、この出力された位置姿勢範囲データが示す位置姿勢範囲に更新される。これにより、ロボット1が認識している認識している物体の位置姿勢範囲が、新たに認識したその物体の位置姿勢範囲と統合される毎に狭い範囲に絞り込まれていくことになる。
ここで、統合器102は、位置姿勢範囲データを出力して、記憶部12に格納する。すなわち、記憶部12に格納された物体の位置姿勢範囲データは、統合器102から出力された最新のその物体の位置姿勢範囲データに更新される。これにより、統合器102は、現在認識している物体の位置姿勢範囲として、記憶部12に格納された位置姿勢範囲データが示す位置姿勢範囲を取得し、新たに認識した物体の位置姿勢範囲として、認識器101から出力された位置姿勢範囲データが示す位置姿勢範囲を取得し、それらの統合演算を行うことができる。
また、制御部11は、ロボット1の移動計画を立てる際に、記憶部12に格納された位置姿勢範囲データが示す物体の位置姿勢範囲に基づいて、物体が存在し得る範囲(物体が存在し得る領域)とロボット1とが重複してしまう移動経路を、移動経路から除外する。ここでの「移動経路」とは、ロボット1が部屋内を動き回るための経路、及び、アーム30が三次元空間中を動作するための経路のうち、少なくとも1つの経路を意味する。これにより、ロボット1の物体(障害物)との接触を回避することができる。ここで、制御部11は、物体の位置を基準としてその物体の物体形状データが示す形状をその物体の姿勢で配置した範囲を、その物体の存在し得る範囲として算出することができる。すなわち、位置姿勢範囲データにおいて物体の位置・姿勢が範囲をもつ場合には、その範囲内の位置・姿勢のそれぞれにおける物体が存在し得る範囲を重ね合わせた範囲が、その物体が存在し得る範囲として算出される。
以下、具体例を挙げて、ロボット1の処理について説明する。ここでは、ロボット1が移動対象とする部屋内の物体として、家具(冷蔵庫、テーブル、及びドア等)の位置・姿勢を認識する例について説明する。また、ロボット1は、家具の大まかな位置は把握しているものとする。例えば、ロボット1は、事前に部屋内を移動して各家具を観測し、各家具の大まかな位置・姿勢を把握するようにしてもよい。また、ユーザが、操作端末9を介して、ロボット1に対して各家具の大まかな位置・姿勢を登録することで、ロボット1が各家具の大まかな位置・姿勢を把握するようにしてもよい。また、各家具は、その家具がある位置から大きくずれることは無いものと仮定する。しかしながら、この例に限られず、事前の観測せずにロボット1の動作を開始するようにしてもよい。言い換えると、事前に家具の大まかな位置を把握せずとも、以下に説明する処理によれば、センサ50による観測結果によって家具を認識し、その家具の位置・姿勢絞り込んでいくことが可能である。
以下、図3に示す処理ブロックの処理順序に従って、各処理について説明する。
(センサ50の処理)
ユーザは、ロボット1に対して、部屋内に置かれている所望の物体をユーザに拾い届けることを指示する場合、操作端末9にその旨を入力する。この入力は、例えば、操作端末9が有する入力装置(例えば、キーボード又はタッチパネル等)を介して行われる。操作端末9は、ユーザからの入力に応じて、その物体を拾い届けることを指示する指示情報を生成し、無線通信を介してロボット1に送信する。
ロボット1は、操作端末9からの指示情報の受信に応じて、指示情報が示す物体の位置への移動を開始する。この際に、センサ50は、随時(例えば所定の時間間隔で)、その画角内で周辺の環境を観測し、観測結果となるセンサデータを生成して認識器101に出力する。
ここで、図4に示すように、ロボット1がテーブルの直前まで移動し、センサ50の画角内でテーブルの天板の一部のみを観測している例について説明する。より具体的には、ロボット1は、センサ50によって、テーブルを手前側から奥行き方向に斜め上方から見下ろすように観測しており、テーブルの天板の側面の左端及び右端はいずれも観測できていないが、その上端及び下端のエッジが観測できているものとする。すなわち、センサ50は、テーブルの天板の一部を含む環境を示すセンサデータを生成し、認識器101に出力している。よって、そのセンサデータに含まれるRGB画像データが示す画像には、図4に示すように、テーブルの天板の側面の一部と、そのエッジ(上端及び下端)が含まれている。
なお、図4及び以降に説明する図5〜図7で示すように、センサ50での観測方向に対して左右水平方向をX軸とし、センサ50での観測方向に対して上下鉛直方向をZ軸とし、かつセンサ50での観測方向に対して前後水平方向をY軸とした場合について説明する。テーブルの天板は、一辺がY軸と平行し、その一辺と直交する他辺がX軸と平行するものとする。すなわち、上述の例では、ロボット1のセンサ50による観測方向(センサ50の画角の中心方向)の前後水平成分と、テーブルのX軸に沿った天板の側面とが直交する関係にある。
(認識器101の処理)
認識器101は、センサ50から出力されたセンサデータに基づいて、そのセンサデータが示す画像において、家具の一部が含まれているか否かを判定する。
具体的には、認識器101は、各家具について予め用意したモデルと、センサデータのRGB画像データが示す画像における物体とをマッチングすることで、家具の一部を検出する。例えば、認識器101は、マッチングによる一致度が所定の閾値よりも高い部分を、家具の一部であると認識する。
ここで、各家具について、家具のモデルを示すモデル情報を記憶部12に予め格納しておくようにし、記憶部12に格納されたモデル情報が示すモデルと、センサデータのRGB画像データが示す画像における物体とを比較し、家具の一部を検出する。この比較は、例えば、家具のモデルとして特徴量を用意し、センサデータのRGB画像データが示す画像において特徴量を算出して、それらを比較する。そして、画像において、家具のモデルの一部と一致する部分を、家具の一部であると判定する。なお、特徴量として、SIFT、SURF、エッジ、コーナー、及び色情報等の特徴量のうち、任意の特徴量を用いるようにしてよい。なお、家具の一部の検出は、センサデータが示す情報であればRGB画像データのみに限られず、深度データ(距離データ)のみを使用してもよく、それらを総合的に使用して行ってもよい。また、深度データを使用する場合には、それに応じた特徴量を使用するようにすればよい。
また、認識器101は、上述したように、各家具の大まかな位置・姿勢を事前に把握している場合には、認識器101は、事前に把握している各家具の大まかな位置と、現在のロボット1の位置及びセンサ50が向いている方向等の少なくとも1つに基づいて、センサ50の観測範囲に含まれる、もしくは、最も近いと判定した家具のモデルについてマッチングを行うようにすればよい。さらに、認識器101は、事前に把握している各家具の大まかな姿勢と、現在のロボット1の位置及びセンサ50が向いている方向等の少なくとも1つに基づいて、センサ50の観測範囲に含まれる、もしくは、最も近いと判定した家具のモデルの面についてマッチングを行うようにしてもよい。なお、各家具の大まかな位置・姿勢を事前に把握していない場合には、記憶部12に格納された家具のモデルのそれぞれとマッチングを行えばよい。そして、一致度が最も高いモデルの家具が存在すると認識するようにすればよい。
ここで、現在のロボット1の位置及びセンサ50が向いている方向は、一般的な技術を用いて認識すればよいため、詳細な説明は省略する。例えば、センサ50からのセンサデータから導出した周辺の物体からのロボット1の相対位置や、累積計算したロボット1の移動量等によって特定するようにしてもよい。また、ロボット1が事前の観測をしていない場合には、例えば、全ての家具のモデルとマッチングを行うようにすればよい。しかしながら、この場合は、マッチング処理に時間がかかってしまうため、好ましくは、上述したように事前に観測を行うとよい。
認識器101は、家具の一部が含まれていると判定した場合、記憶部12に格納されたその家具の物体形状データに基づいて、その家具の位置姿勢範囲を特定する。
ここで、図4に示すようにテーブルの天板の側面の一部を観測している場合には、図5の上図に示すように天板の右端寄りの側面を観測しているのか、図5の下図に示すように天板の左端寄りの側面を観測しているのか特定することはできない。すなわち、X軸方向におけるテーブルの位置を一意に特定することができない。
一方で、上述したように、ロボット1のセンサ50による観測方向の前後水平成分と、テーブルのX軸に沿った天板の側面とが直交する関係にあるため、Y軸方向におけるテーブルの位置、及び、テーブルの姿勢は一意に特定することができる。例えば、認識器101は、センサデータに含まれる深度データが示すテーブルの天板の側面までの深度(距離)に基づいて、ロボット1に対するY軸方向におけるテーブルの位置を特定することができる。また、認識器101は、センサデータに含まれる深度データが示すテーブルまでの深度(距離)に基づいて、テーブルの天板の側面までの深度が観測範囲において左右対称となることから、ロボット1に対してテーブルの姿勢に傾きがないものとして、テーブルの姿勢を特定することができる。
そのため、認識器101は、テーブルの位置姿勢範囲として、X軸方向における位置については、観測したテーブルの天板の一部を基準としてX軸方向についてとり得る範囲を認識し、Y軸方向における位置及び姿勢については、一意な値を認識する。すなわち、テーブルの位置姿勢範囲は、次式(1)のように、X軸方向におけるテーブルの位置xを範囲をもった値とし、Y軸方向におけるテーブルの位置y、及び、テーブルの姿勢θを一意な値として認識される。なお、物体の位置x、yは、ロボット1が動作する環境におけて予め定めた任意の点を基準とした絶対的な値であってもよく、ロボット1の位置を基準とした相対的な値であってもよい。また、物体の姿勢θも、任意の方向を基準(0度)として予め定めるようにしてよい。
Figure 2015125725
具体的には、X軸方向におけるテーブルの位置xを、図6に示すように、観測したテーブルの天板の一部が最も左端である場合におけるテーブルの位置から、観測したテーブルの天板の一部が最も右端である場合におけるテーブルの位置までの範囲とする。すなわち、記憶部12に予め格納されたテーブルの物体形状データが示すテーブルの形状に基づいて、観測したテーブルの天板の一部が最も左端である場合におけるテーブルの位置を算出してxmaxとし、観測したテーブルの天板の一部が最も右端である場合におけるテーブルの位置を算出してxminとして決定する。このように、観測された物体の一部を基準として、その物体がとり得る最大の範囲を特定する。言い換えると、ある方向について物体の位置のとり得る範囲を特定する場合には、その物体の形状に基づいて、その物体がその方向に沿って最も負側にとり得る位置から、その物体がその方向に沿って最も正側にとり得る位置までの範囲を、物体の位置がとり得る範囲として認識する。
ここで、認識器101で生成される位置姿勢範囲データの形式は、式(1)に示した例に限られない。例えば、位置及び姿勢の全てを一意に特定することができない場合には、式(2)に示すように、X軸方向における位置x、Y軸方向における位置y、及び姿勢θの全てについて範囲をもった位置姿勢範囲データを生成するようにしてよい。
Figure 2015125725
式(2)に示す形式の位置姿勢範囲データは、例えば、テーブルの天板を斜め上方から観測し、かつ天板のエッジが1つも観測されていない場合に生成される。この場合、X軸方向における位置x、Y軸方向における位置y、及び姿勢θの全てを一意に特定することができないからである。
また、例えば、式(1)とは異なるパターンで、X軸方向における位置、Y軸方向における位置、及び姿勢のうちの一部を特定することができない場合には、特定できないものについて範囲をもった位置姿勢範囲データを生成するようにしてもよい。例えば、姿勢を一意に特定することができるが、位置を一意に特定することができない場合には、式(3)に示すように、X軸方向におけるテーブルの位置x及びY軸方向におけるテーブルの位置yを範囲もった値とし、テーブルの姿勢θを一意な値とした位置姿勢範囲データを生成するようにしてよい。
Figure 2015125725
また、例えば、観測された家具の一部に基づくと、複数の離散的な候補があるような場合には、式(4)に示すように、複数の位置・姿勢の範囲を示す位置姿勢範囲データを用意するようにしてもよい。なお、式(4)では、位置・姿勢の範囲を3つ以上として示しているが、2つであってもよい。
Figure 2015125725
Figure 2015125725
式(5)に示す形式の位置姿勢範囲データは、例えば、長方形のテーブルの天板を斜め上方から観測し、かつ天板のエッジが1つだけ観測されている場合に生成される。この場合、X軸方向における位置x、及びY軸方向における位置yは、一意に特定することができないが、姿勢θは、天板の側面の長手と短手の組み合わせがとり得る数として4通りの一意な値に特定される。よって、この場合における位置姿勢範囲データは、4つの離散的な範囲が示される。このように、認識器101は、物体がとり得る範囲として、物体の形状に応じた複数の離散的な範囲を認識するようにしてもよい。このように、長方形のテーブルのように、縦方向と横方向とで長さが異なる物体については、複数の離散的な位置姿勢範囲を認識するようにすることで、漏れなく位置姿勢範囲を認識することができる。尚、この表現形式を一般化すると式(4)のような表現となる。
そして、認識器101は、認識した家具の位置・姿勢のとり得る範囲を示す位置姿勢範囲データを統合器102に出力する。
(統合器102の処理)
統合器102は、認識器101から出力された位置姿勢範囲データが示す範囲と、前回の統合器102の出力となる位置姿勢範囲データが示す範囲とを統合する。この統合では、認識した家具の位置・姿勢のとり得る範囲として、それぞれの位置姿勢範囲データが示す範囲をANDをとった範囲を算出する。これにより、認識した家具の位置・姿勢のとり得る範囲が、より狭くなる方向に絞り込まれる。
具体的には、ロボット1がテーブルの天板の側面の一部を一箇所のみ観測した場合、認識器101は、図7の上図に示すように(図6と同様に)、その天板の側面の一部を基準として、テーブルがとり得る範囲を認識し、認識結果としてその位置姿勢範囲データを統合器102に出力する。統合器102は、この位置姿勢範囲データがそのテーブルに関して最初に出力されたものである場合、その位置姿勢範囲データが示す範囲を、テーブルがとり得る範囲として認識する。すなわち、統合器102においても、認識器101から出力された位置姿勢範囲データが示す範囲を、テーブルがとり得る範囲として認識し、その範囲を示す位置姿勢範囲データを出力する。
ここで、次にロボット1が少し右方向(X軸の正方向)に移動した一致からテーブルの天板の側面の一部を観測したものとする。また、この場合においても、最初の観測と同様に、センサ50から出力されたセンサデータが示す画像において、テーブルの天板の側面の左端及び右端はいずれも観測できていないが、その上端及び下端のエッジが観測できているものとする。
この場合、認識器101は、図7の中図に示すように(図6と同様に)、その天板の側面の一部を基準として、テーブルがとり得る範囲を認識し、認識結果としてその位置姿勢範囲データを統合器102に出力する。
統合器102は、認識器101から出力された位置姿勢範囲データが示す範囲と、前回の統合器102の出力となる位置姿勢範囲データが示す範囲との論理積(AND)をとり、図7の下図に示すように、論理積の結果を最新のテーブルがとり得る範囲として認識する。例えば、式(1)において、最初の認識結果としてxmin〜xmax=10〜20であり、次の認識結果としてxmin〜xmax=12〜22である場合、統合結果として、xmin〜xmax=12〜20が算出される。
そして、統合器102は、算出したテーブルのとり得る範囲を示す位置姿勢範囲データを出力する。これにより、制御部11は、ロボット1を移動させる場合には、ロボット1の移動計画において、統合器102から出力された位置姿勢範囲データが示すテーブルの位置姿勢範囲に基づいて、テーブルとの接触を避けた移動経路を導出することができる。具体的には、制御部11は、統合器102から出力された位置姿勢範囲データが示すテーブルの位置姿勢範囲と、記憶部12に格納された物体形状データが示すテーブルの形状とに基づいて、テーブルの存在し得る範囲を算出し、そのテーブルの存在し得る範囲とロボット1が重複しない移動経路を決定する。なお、テーブルの存在し得る範囲とロボット1とが重複するか否かは、ロボット1の形状を示す情報を記憶部12に予め格納しておくようにし、その情報が示すロボット1の形状に基づいて判定するようにすればよい。そして、制御部11は、決定した移動経路でアクチュエータ21a、21bを駆動してロボット1を移動させる。
また、制御部11は、ロボット1のアーム30を動作させる場合には、統合器102から出力された位置姿勢範囲データが示すテーブルの位置姿勢範囲に基づいて、テーブルとの接触を避けたアーム30の移動経路を導出することができる。具体的には、制御部11は、統合器102から出力された位置姿勢範囲データが示すテーブルの位置姿勢範囲と、記憶部12に格納された物体形状データが示すテーブルの形状とに基づいて、テーブルの存在し得る範囲を算出し、そのテーブルの存在し得る範囲とアーム30が重複しない移動経路を決定する。なお、テーブルの存在し得る範囲とアーム30が重複するか否かは、アーム30の関節間の各リンクの形状を示す情報を記憶部12に予め格納しておくようにし、その情報が示す各リンクの形状と、角度センサ32a、32bから出力された角度信号が示す角度に基づいてアーム30の形状を特定し、特定したアーム30の形状に基づいて判定するようにすればよい。そして、制御部11は、決定した移動経路でアクチュエータ31a、31bを駆動して、アーム30を移動させる。
これにより、テーブルの位置・姿勢が確定していない場合であっても、テーブルの存在し得る範囲を把握することができるため、ロボット1(アーム30)とテーブルとの接触を回避することができる。なお、以上の説明では、テーブルの例について説明したが、他の物体についても同様に回避することができることは自明である。
以上に説明したように、本実施の形態に係るロボット1は、物体形状データが示す物体の形状に基づいて、観測されたその物体の一部を基準としてその物体がとり得る範囲を認識し、新たに認識された物体がとり得る範囲と、現在認識しているその物体がとり得る範囲とを統合し、統合結果を現在認識しているその物体がとり得る範囲として更新するようにしている。
これによれば、物体の一部しか観測できていない場合であっても、その物体の位置・姿勢がとり得る範囲を認識することができるため、物体との接触の可能性を低減することができる。よって、物体を避けて移動するロボットの移動計画に好適に利用することができる。特に、生活支援ロボットにおいては、家具を操作する又は家具に置かれた物体を把持するために家具に接近してしまい、家具の一部しか観測することができないといった状況が容易に発生し得る。よって、本実施の形態は、そのような状況に非常に有効である。
また、本実施の形態では、ロボット1のセンサ50として、LRFではなく、上述したようにカメラ(例えばRGBDカメラ等)を使用するようにしてもよい。これによれば、高価なLRFを使用する場合と比較して、コストを低減することができる。
また、本実施の形態では、上述したように、物体の一部しか観測できていない場合であっても、物体のとり得る範囲を認識するようにしているため、物体の複数部分を観測してから物体の存在する範囲を認識する技術と比較し、即座に物体を認識することができる。よって、物体を避けて移動するロボットに適用することで、応答性を高めることができる。
また、統合によって、物体がとり得る範囲が絞り込むようにしているため、即座に物体を認識しつつも、認識精度も向上していくことができる。
<本発明の他の実施の形態>
上述した実施の形態において、現在認識している物体の位置・姿勢がとり得る範囲(統合器102の出力で示される範囲)を、より狭める方向に、ロボット1の位置もしくはセンサ50の向きを変更するようにしてもよい。すなわち、制御部11は、現在認識している物体の位置・姿勢がとり得る範囲に基づいて、その範囲が狭くなるように、アクチュエータ21a、21bを駆動してロボット1を移動させる、もしくは、アクチュエータ41を駆動して頭部40のセンサ50の向きを変えるようにしてもよい。
例えば、図4に示すように、テーブルの天板の側面の一部を観測しており、X軸方向における物体の位置が特定できていない場合には、図7を参照して説明したように、センサ50で観測する範囲をそのテーブルの位置が特定できていない方向(X軸方向)に移動させることで、テーブルの位置・姿勢がとり得る範囲を絞り込むことができる。言い換えると、ある方向について物体の位置が特定できていない場合には、観測範囲をその方向に沿って移動させることで、その方向についてその物体の位置がとり得る範囲を減少させることができる。
よって、制御部11は、ある方向について物体の位置の範囲が特定できていない場合には、その方向に沿ってセンサ50による観測範囲が変更されるように、アクチュエータ21a、21bを駆動してロボット1をその方向に沿って移動させる、もしくは、アクチュエータ41を駆動して頭部40のセンサ50の向きをその方向に沿って変えるようにしてもよい。
なお、本発明は上記の実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
例えば、上述の実施の形態では、物体の位置姿勢範囲として、X軸方向の位置、Y軸方向の位置、及び姿勢を認識するようにしていたが、これに限られない。例えば、X軸方向の位置、Y軸方向の位置、Z軸方向の位置、及び姿勢のうち、任意の1つ以上を認識するようにしてもよい。
また、上述の実施の形態では、記憶部12に格納されたモデル情報(物体モデルデータ)が示す物体のモデルに基づいて物体の一部を認識し、記憶部12に格納された物体形状データに基づいて物体の位置姿勢範囲を特定する場合について説明しているが、モデル情報と物体形状データとして同一のデータを利用するようにしてもよい。例えば、モデル情報及び物体形状データとして利用されるデータとして、1つの物体形状データを記憶部12に格納しておき、認識部101がセンサ50の観測結果を解析して物体の形状を抽出し、モデル情報としても利用される物体形状データに基づいて物体の一部を認識するようにしてもよい。
1 ロボット
9 操作端末
10 ロボット本体
20 移動台車
30 アーム
40 頭部
50 センサ
60 ハンド
11 制御部
12 記憶部
13 通信部
21a、21b アクチュエータ
22a、22b 車輪
23a、23b 角度センサ
31a、31b アクチュエータ
32a、32b 角度センサ
41 アクチュエータ
101 認識器
102 統合器

Claims (9)

  1. 所定範囲にある物体を観測することができるセンサで周辺の物体を観測する観測ステップと、
    前記センサで観測された結果と、記憶部に格納しておいた物体モデルデータが示す物体のモデルと、に基づき、前記センサで観測された結果において物体の一部を認識した場合には、前記記憶部に格納された物体形状データが示す物体の形状に基づいて、当該認識した物体の一部を基準として当該物体がとり得る範囲を特定する特定ステップと、
    前記特定ステップで新たに特定された前記物体がとり得る範囲と、現在認識している当該物体がとり得る範囲とを統合し、統合結果を前記現在認識している当該物体がとり得る範囲として更新する統合ステップと、
    を備えることを特徴とする物体範囲推定方法。
  2. 前記物体がとり得る範囲は、前記物体の位置がとり得る範囲、及び、前記物体の姿勢がとり得る範囲が含まれる、
    ことを特徴とする請求項1に記載の物体範囲推定方法。
  3. 前記特定ステップでは、前記物体がとり得る範囲として、当該物体の形状に応じた複数の離散的な範囲を特定する、
    ことを特徴とする請求項1又は2に記載の物体範囲推定方法。
  4. 前記物体がとり得る範囲は、所定の方向について前記物体の位置がとり得る範囲が含まれ、
    前記物体範囲推定方法は、さらに、前記所定の方向について前記物体の位置が一意に特定できていない場合には、前記所定の方向に前記観測範囲を移動させる制御ステップを備える、
    ことを特徴とする請求項1に記載の物体範囲推定方法。
  5. 前記センサは、カメラであり、
    前記観測ステップでは、前記周辺の物体の観測として、前記カメラによって前記観測範囲を撮像することで前記周辺の物体を含む画像を生成し、
    前記特定ステップでは、前記観測ステップで生成された画像において前記物体の一部を認識した場合に当該物体がとり得る範囲を特定する、
    ことを特徴とする請求項1乃至4のいずれか1項に記載の物体範囲推定方法。
  6. 前記統合ステップでは、前記統合として、前記特定ステップで新たに特定された物体がとり得る範囲と、現在認識している当該物体がとり得る範囲との論理積を算出する、
    ことを特徴とする請求項1乃至5のいずれか1項に記載の物体範囲推定方法。
  7. 所定範囲にある物体を観測することができるセンサと、
    前記物体のモデルを示す物体モデルデータと、前記物体の形状を示す物体形状データが格納された記憶部と、
    前記センサで観測された結果と、前記記憶部に格納された物体モデルデータが示す物体のモデルと、に基づき、前記センサで観測された結果において物体の一部を認識した場合には、前記記憶部に格納された物体形状データが示す物体の形状に基づいて、当該認識した物体の一部を基準として当該物体がとり得る範囲を特定する特定部と、
    前記特定部によって新たに特定された物体がとり得る範囲と、現在認識している当該物体がとり得る範囲とを統合し、統合結果を前記現在認識している当該物体がとり得る範囲として更新する統合部と、
    を備えることを特徴とする物体範囲推定装置。
  8. 請求項7に記載の物体範囲推定装置を備え、
    前記物体範囲推定装置において現在認識している物体がとり得る範囲に基づいて移動経路を決定して移動する、
    ことを特徴とするロボット。
  9. 請求項7に記載の物体範囲推定装置と、
    物体を把持するアームと、を備え、
    前記物体範囲推定装置において現在認識している物体がとり得る範囲に基づいて前記アームの移動経路を決定し、前記アームを動作させる、
    ことを特徴とするロボット。
JP2013271873A 2013-12-27 2013-12-27 物体範囲推定方法、物体範囲推定装置及びロボット Pending JP2015125725A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013271873A JP2015125725A (ja) 2013-12-27 2013-12-27 物体範囲推定方法、物体範囲推定装置及びロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013271873A JP2015125725A (ja) 2013-12-27 2013-12-27 物体範囲推定方法、物体範囲推定装置及びロボット

Publications (1)

Publication Number Publication Date
JP2015125725A true JP2015125725A (ja) 2015-07-06

Family

ID=53536357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013271873A Pending JP2015125725A (ja) 2013-12-27 2013-12-27 物体範囲推定方法、物体範囲推定装置及びロボット

Country Status (1)

Country Link
JP (1) JP2015125725A (ja)

Similar Documents

Publication Publication Date Title
US10800036B1 (en) Tooltip stabilization
CN109313417B (zh) 帮助机器人定位
TWI620627B (zh) 機器人及用於機器人之定位之方法
US11090814B2 (en) Robot control method
US10759051B2 (en) Architecture and methods for robotic mobile manipulation system
US11230016B1 (en) Multi-resolution localization system
US10166673B2 (en) Portable apparatus for controlling robot and method thereof
US10232519B2 (en) Robot and method of controlling the same
CN111061215B (zh) 控制机器人脱困的方法、装置、机器人
JP2016081264A (ja) 画像処理方法、画像処理装置及びロボットシステム
US11141866B2 (en) Grasping apparatus, grasping determination method and grasping determination program
JP2015114933A (ja) 物体認識装置、ロボット及び物体認識方法
CN114454176B (zh) 机器人的控制方法、控制装置、机器人和存储介质
JP7459253B2 (ja) 撮像システム、ロボットシステム及び撮像システムの制御方法
JP2015125725A (ja) 物体範囲推定方法、物体範囲推定装置及びロボット
CN117794704A (zh) 机器人控制设备、机器人控制系统以及机器人控制方法
JP6528641B2 (ja) 自己位置推定方法
JP6604147B2 (ja) 操作対象物の状態推定装置
CN115446844B (zh) 机器人的控制方法、机器人及控制终端
US20220016773A1 (en) Control apparatus, control method, and program
CN117769483A (zh) 机器人控制设备、机器人控制系统以及机器人控制方法
CN115922731A (zh) 一种机器人的控制方法以及机器人