JP2015123534A - 載置判断方法、載置方法、載置判断装置及びロボット - Google Patents

載置判断方法、載置方法、載置判断装置及びロボット Download PDF

Info

Publication number
JP2015123534A
JP2015123534A JP2013269541A JP2013269541A JP2015123534A JP 2015123534 A JP2015123534 A JP 2015123534A JP 2013269541 A JP2013269541 A JP 2013269541A JP 2013269541 A JP2013269541 A JP 2013269541A JP 2015123534 A JP2015123534 A JP 2015123534A
Authority
JP
Japan
Prior art keywords
placement
image information
plane
dimensional image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013269541A
Other languages
English (en)
Inventor
佳佑 竹下
Keisuke Takeshita
佳佑 竹下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2013269541A priority Critical patent/JP2015123534A/ja
Publication of JP2015123534A publication Critical patent/JP2015123534A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】載置物を載置対象物に載置できるか否かを判断することができる載置判断方法、載置方法、載置判断装置及びロボットを提供する。
【解決手段】載置判断装置21は、載置物が載置される載置対象物の3次元画像情報を取得する点群取得部22と、載置する載置物の形状情報を取得する形状取得部23と、上記3次元画像情報に基づいて平面を検出する平面検出部24と、上記平面より上方の3次元画像情報を取得する上方抽出部28と、上記平面と、上記平面より上方の3次元画像情報と、上記形状情報とに基づいて、載置対象物に載置物を載置できるか判断する載置判断部31とを備える。
【選択図】図2

Description

本発明は載置判断方法、載置方法、載置判断装置及びロボットに関する。
作業環境内に存在する物体を認識して把持動作を実行するロボットなど、外部環境に応じた動作を実行するロボットが従来から提案されている。特許文献1には、作業環境の3次元情報を取得し、作業環境内に存在する把持対象物の位置及び姿勢を認識し、把持対象物に対する把持動作を実行するロボットが開示されている。
特開2004−001122号公報
上述のように、背景技術に係るロボットは、作業環境内で対象物を認識して把持することができる。しかしながら、このロボットは、作業台のような載置対象物に、把持した工具のような載置物を載置することを求められたときに、載置できるか否かを判断できるようには構成されていない。この点に関しては、載置物の種類や載置対象物上での障害物の配置が頻繁に変化する家庭環境内で動作する生活支援ロボットにおいて、より顕著な問題となる。
本発明は、このような問題を解決するためになされたものであり、載置物を載置対象物に載置できるか否かを判断することができる載置判断方法、載置方法、載置判断装置及びロボットを提供することを目的とする。
本発明に係る載置判断方法は、載置する載置物の形状情報を取得するステップと、前記載置物が載置される載置対象物の3次元画像情報を取得するステップと、前記3次元画像情報に基づいて平面を検出するステップと、前記平面より上方の3次元画像情報を取得するステップと、前記平面と、前記平面より上方の3次元画像情報と、前記形状情報とに基づいて、前記載置対象物に前記載置物を載置できるか判断するステップとを有するものである。このような構成により、載置対象物上の障害物及び載置物の形状を考慮して載置対象物に載置物を載置できるか判断することができる。
また、本発明に係る載置判断方法は、前記載置対象物の3次元画像情報を取得するステップにより3次元画像情報を取得できない範囲に物体が存在することを示す3次元画像情報を追加するステップを更に有し、前記判断するステップは、前記平面と、前記平面より上方の3次元画像情報と、前記形状情報と、前記追加した3次元画像情報とに基づいて、前記載置対象物に前記載置物を載置できるか判断することが好ましい。このような構成により、3次元画像情報を取得できない範囲の障害物も考慮して、精度良く、載置対象物に載置物を載置できるか判断することができる。
また、本発明に係る載置判断方法は、前記3次元画像情報を取得できない範囲は、前記載置対象物の3次元画像情報を取得するステップにおいて、隠れとなる範囲と、画角外となる範囲との少なくとも一つである。このような構成により、隠れや画角外の障害物も考慮して、より精度良く、載置対象物に載置物を載置できるか判断することができる。
また、本発明に係る載置判断方法の前記判断するステップは、前記平面より上方の3次元画像情報に基づいて、前記平面に前記載置物を載置できない領域を導出するステップと、前記載置できない領域を除いた領域において、前記形状情報に基づいて前記載置対象物に前記載置物を載置できるか判断するステップとを有し、前記載置できない領域は、上方に前記3次元画像情報が存在する領域と、前記3次元画像情報が存在する領域の周辺領域とを有することが好ましい。このような構成により、3次元画像情報の取得精度や載置対象物に載置物を載置するときの動作精度などを考慮して、載置対象物に載置物を載置できるか判断することができる。
本発明に係る載置方法は、前記載置判断方法によって前記載置物を前記載置対象物に載置できるか否かを判断するステップと、前記載置物を前記載置対象物に載置できると判断したときに、前記載置物を前記載置対象物に載置するステップとを有するものである。このような構成により、載置対象物に載置できると判断された載置物を、載置対象物に載置することができる。
本発明により、載置物を載置対象物に載置できるか否かを判断することができる載置判断方法、載置方法、載置判断装置及びロボットを提供することができる。
実施の形態1に係る載置判断装置を内蔵するロボット11とその作業環境を示す図である。 実施の形態1に係る載置判断装置21の構成を示すブロック図である。 実施の形態1に係る載置判断装置21が行う載置判断方法の処理手順を示すフローチャートである。 実施の形態1に係る点群取得部22が取得した3次元点群を示す図である。 実施の形態1に係る平面検出部24が検出した平面51を示す図である。 実施の形態1に係る領域取得部27が取得した平面領域61を示す図である。 実施の形態1に係る隠れ補完部25が補完した3次元点群73の一例を示す図である。 実施の形態1に係る画角外補完部26が補完した3次元点群83の一例を示す図である。 実施の形態1に係る上方抽出部28が抽出した3次元点群91〜96を示す図である。 実施の形態1に係る非載置導出部29が導出した非載置領域101を示す図である。 実施の形態1に係る載置導出部30が導出した載置領域111を示す図である。
発明の実施の形態1
以下、図面を参照して本実施の形態1について説明する。
まず、本実施の形態1に係る載置判断装置を内蔵するロボット11とその動作について概略を説明する。
図1は、本実施の形態1に係る載置判断装置を内蔵するロボット11とその作業環境を示す図である。ロボット11は載置判断装置(図示せず)を内蔵している。また、ロボット11は頭部に複数台のカメラからなるセンサ12を備えている。ロボット11の把持部13は載置物であるペットボトル14を把持している。載置対象物であるテーブル15の上面16には、ロボット11がペットボトル14を載置するときに障害物となるデスクライト17が載置されている。
このような作業環境において、ロボット11の載置判断装置は、センサ12が撮像したテーブル15の画像を用いて、ペットボトル14をテーブル15の上面16に載置できるか否かの判断を行う。そして、ロボット11のアーム18をテーブル15の上面16の載置可能位置にまで移動して、把持部13がペットボトル14を解放し、載置可能位置にペットボトル14を載置する。
なお、本明細書において、載置物とは、ペットボトル14やコップなどのように、ロボット11がテーブル15などに載置する物をいう。載置物の当接面とは、ペットボトル14の底面のように、載置物をテーブル15などに載置したときに、載置物のテーブル15などと当接する側の面をいい、当接する部分に限らず、当接する部分を含む面をいう。倒して載置することができる載置物であれば、底面や側面などのように複数の当接面を有することになる。載置対象物とは、テーブル15や作業台などのように、ロボット11がペットボトル14などを載置する対象物をいう。載置領域とは、テーブル15の上面16の一部分などのように、物を載置できる領域をいう。非載置領域とは、物を載置できない領域をいう。
次に、本実施の形態1に係る載置判断装置21の構成を説明する。
図2は、本実施の形態1に係る載置判断装置21の構成を示すブロック図である。載置判断装置21は、点群取得部22、形状取得部23、平面検出部24、隠れ補完部25、画角外補完部26、領域取得部27、上方抽出部28、非載置導出部29、載置導出部30、載置判断部31などを備えている。これらの構成の詳細は、その動作と合わせて後述する。
なお、載置判断装置21が実現する各構成要素は、例えば、コンピュータである載置判断装置21が備える演算装置(図示せず)の制御によって、プログラムを実行させることによって実現できる。より具体的には、載置判断装置21は、記憶部(図示せず)に格納されたプログラムを主記憶装置(図示せず)にロードし、演算装置の制御によってプログラムを実行して実現する。また、各構成要素は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現しても良い
上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。
また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されても良い。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
次に、本実施の形態1に係る載置判断装置21の動作について説明する。
図3は、本実施の形態1に係る載置判断装置21が行う載置判断方法の処理手順を示すフローチャートである。
まず、点群取得部22が、ロボット11のセンサ12が取得した載置対象物の3次元画像を用いて3次元画像情報、例えば、3次元点群を取得する(ステップS010)。
図4は、本実施の形態1に係る点群取得部22が取得した3次元点群を示す図である。載置対象物であるテーブル41の斜め上方向の視点からの3次元点群であり、テーブル41及びテーブル41上の箱42、コップ43、ハンドバッグ44などによる3次元点群である。
また、形状取得部23が載置物の形状情報を取得する(ステップS020)。形状情報には載置物の高さ及び当接面の形状が含まれる。例えば、載置物がペットボトルであるならば、形状情報には、ペットボトルの高さと、ペットボトルの底面形状とが含まれる。形状情報に3次元形状が含まれても良い。形状取得部23は、予めデータベースに登録されている形状情報を当該データベースにアクセスして取得する。
次に、平面検出部24は、RANSAC(Random Sample Consensus)法などの平面抽出法を用いて、点群取得部22が取得した3次元点群から最も多くの3次元点群を含む平面、つまり、最も3次元点群が存在する領域が広い平面を検出する(ステップS030)。
図5は、本実施の形態1に係る平面検出部24が検出した平面51を示す図である。図4に示した3次元点群に対して平面抽出を行い、テーブル41の上面を含むような面を平面51として検出している。
次に、領域取得部27は、平面検出部が検出した平面51において3次元点群が存在する領域、すなわち、障害物の存在する領域を除くテーブル41の上面に相当する領域を平面領域として取得する(ステップS040)。
図6は、本実施の形態1に係る領域取得部27が取得した平面領域61を示す図である。平面領域61の上方向(略垂直方向)の視点からの図であり、領域取得部27は、箱42が存在する領域62、コップ43が存在する領域63、及び、ハンドバッグ44が存在する領域64を除いたテーブル41の上面に相当する領域を平面領域61として取得する。
載置判断部31は、形状取得部23が取得した形状情報と、領域取得部27が取得した平面領域61とを用いて、載置物を載置対象物であるテーブル41に載置できるか否かを判断することもできる。しかしながら、平面領域61を取得するときの基礎データとなった図4に示した3次元点群には箱42、コップ43、ハンドバッグ44によるセンサ12の死角、つまり、隠れがあり、その部分に障害物が有るのか無いのか不明である。また、図1に示したデスクライト17のように上部が大きくなっている物もあり、テーブル41の上面に相当する平面領域61だけを考慮して載置しようとすると、載置物がデスクライト17の上部のような物と接触、または、干渉することがある。更に、センサ12には有効範囲の外、すなわち、画角の外となる範囲があり、その範囲に障害物が有るのか無いのか不明である。
本実施の形態1に係る載置判断装置21は、このような隠れ、障害物の立体形状、センサの画角なども考慮に入れて載置物を載置できるか否かを判断し、載置判断の精度を高めようとするものである。
まず、隠れ補完部25は、隠れによって3次元点群が取得できない範囲、すなわち、未観測領域について、当該範囲には障害物が存在するという推定の元に、当該範囲に物体が存在することを示す3次元点群を追加して補完する(ステップS050)。
図7は、本実施の形態1に係る隠れ補完部25が補完した3次元点群73の一例を示す図である。センサ71が棚を撮像したときに側板72の隠れとなった範囲に、隠れ補完部25が3次元点群73(三角印)を補完する。
隠れ補完部25は、3次元点群を取得するためのセンサ71と点群取得部22が取得した側板72による3次元点群74(丸印)とを結ぶ直線75上で、センサ71から見て3次元点群74の向こう側の範囲には隠れがあると判断する。隠れ補完部25は、当該範囲に新たに3次元点群73を生成して、隠れを補完する。隠れ補完部25は3次元点群73を直線75上に所定の間隔または所定の頻度などの適切な間隔で生成する。隠れ補完部25は、点群取得部22が取得したほぼすべての3次元点群について隠れを補完する。図7に示した棚の場合には、隠れ補完部25は棚の棚板76についても隠れの範囲の3次元点群を補完する。
また、画角外補完部26は、センサの画角の外側について、画角の外側には障害物が存在するという推定の元に、画角の外側に物体が存在することを示す3次元点群を追加して補完する(ステップS060)。
図8は、本実施の形態1に係る画角外補完部26が補完した3次元点群83の一例を示す図である。棚82の横方向(略水平方向)の視点からの図である。センサ81が棚82を撮像したときに、センサ81の画角(太実線の内側)の外側となった上方向と下方向の範囲に、画角外補完部26が3次元点群83(三角印)を適切な間隔で生成して補完する。画角外補完部26は、センサ81の画角の外側であれば上方向と下方向の範囲に限らず3次元点群を補完する。図8では、画角外補完部26は画角外の範囲において3次元点群83をセンサ81から放射状に生成しているが、画角外補完部26は画角外の空間において格子状に3次元点群を生成しても良い。
次に、上方抽出部28は、点群取得部22が取得した3次元点群、隠れ補完部25が補完した3次元点群、及び、画角外補完部26が補完した3次元点群を合成し、合成した3次元点群のうち、平面検出部24が検出した平面51の上方にある3次元点群を抽出する(ステップS070)。このとき、上方抽出部28は、平面検出部24が検出した平面51からの距離が載置物の形状に基づく一定範囲の3次元点群を抽出する。一定範囲の下限は、3次元点群を取得するときのセンサの誤差や平面検出部24の平面抽出のパラメータなどを考慮して設定する。例えば、センサの誤差は無視できるレベルにあり、平面抽出のパラメータは3次元点が平面から1mm離れていても平面上の点とみなすことになっているのであれば、一定範囲の下限は1mmよりも少し大きい値とすれば良い。また、一定範囲の上限は、形状取得部23が取得した載置物の高さなどを考慮して設定する。例えば、載置物の高さが15cmなら一定範囲の上限は15cmまたは16cmとすれば良い。
図9は、本実施の形態1に係る上方抽出部28が抽出した3次元点群91〜96を示す図である。図5に示した平面検出部24が検出した平面51の上方の視点からの図である。平面上に存在する箱42、コップ43、ハンドバッグ44にそれぞれ対応する3次元点群91、3次元点群92、3次元点群93と、箱42の隠れ範囲、コップ43の隠れ範囲、ハンドバッグ44の隠れ範囲のそれぞれに隠れ補完部25が補完した3次元点群94、3次元点群95、3次元点群96とがある。上方抽出部28は、点群取得部22が取得した3次元点群から、図1に示したデスクライト17の上部のような平面領域61に障害物として反映されない部分に対応する3次元点群を抽出することもある。そのような場合には、デスクライト17の上部の形状に対応する3次元点群が図9に現れることになる。また、上方抽出部28は、図7に示した棚の側板72や棚板76の隠れの範囲の補完した3次元点群を抽出することもある。このような場合にも、隠れの範囲に対応する3次元点群が図9に現れることになる。
つまり、上方抽出部28は、点群取得部22が取得した、障害物の立体形状を反映する3次元点群と、隠れによって3次元点群が取得できない範囲には障害物が存在するという推定の元に、隠れ補完部25が補完した3次元点群と、センサの画角の外側には障害物が存在するという推定の元に、画角外補完部26が補完した3次元点群とを用いて、ロボット11が、平面51に物を載置するときに障害となる3次元点群を抽出する。
非載置導出部29は、上方抽出部28が抽出した3次元点群を用いて、平面51にロボット11が物を載置できない領域である非載置領域を導出する(ステップS080)。
図10は、本実施の形態1に係る非載置導出部29が平面51に導出した非載置領域101を示す図である。図5に示した平面51の上方の視点からの図である。非載置導出部29は、上方抽出部28が抽出した3次元点群91〜96の存在する領域と、当該領域の周辺領域とを合わせて非載置領域101として導出する。周辺領域の大きさは3次元点群を取得するときのセンサ12の誤差やロボット11が載置物を載置するときの動作精度などを考慮して導出する。例えば、センサの誤差は無視できるレベルにあり、載置物を載置するときにロボット11の把持部13が最大1cmずれるのであれば、周辺領域は3次元点群の存在する領域の周囲1cmまたは2cmに設定すれば良い。3次元点群の存在する領域と周辺領域とを合わせて非載置領域101を導出することにより、実際にロボット11が載置動作を実行するときに、載置物、把持部13、アーム18等が障害物と接触することがなくなり、円滑、確実な載置動作を実行できる。
載置導出部30は、ロボット11が物を載置できる領域である載置領域を導出する(ステップS090)。
図11は、本実施の形態1に係る載置導出部30が導出した載置領域111を示す図である。図5に示した平面51の上方の視点からの図である。載置導出部30は、図6に示した領域取得部27が取得した平面領域61と、図10に示した非載置導出部29が導出した非載置領域101との差分をとり、残った領域を載置領域111として導出する。
最後に、載置判断部31が、載置導出部30が導出した載置領域111の形状と、形状取得部が取得した載置物の底面などの当接面の形状とを比較して、載置物を載置領域111に載置できるか否かを判断する(ステップS100)。載置判断部31は、載置領域111の形状と載置物の当接面の形状とを比較するときに、両者をそれぞれ正方形群で表現してグリッド化したグリッド情報を取得し、グリッド情報同士を比較するようにしても良い。また、載置判断部31は、載置できると判断したときには載置可能位置を決定する。
なお、本実施の形態1において、ステップS090で載置領域を導出できなかった場合、例えば、平面領域61と非載置領域101との差分をとったときに領域が残らなかった場合や、ステップS100で載置できないと判断した場合、例えば、載置領域111よりも載置物の当接面が大きかった場合には、載置判断装置21は、ステップS030の平面検出に戻って、ステップS030〜ステップS100を改めて実行し、別の載置領域を導出して載置判断を行うようにしても良い。
上述したように、本実施の形態1に係る載置判断装置21は、載置物が載置される載置対象物の3次元画像情報を取得する点群取得部22と、載置する載置物の形状情報を取得する形状取得部23と、上記3次元画像情報に基づいて平面を検出する平面検出部24と、上記平面より上方の3次元画像情報を取得する上方抽出部28と、上記平面と、上記平面より上方の3次元画像情報と、上記形状情報とに基づいて、載置対象物に載置物を載置できるか判断する載置判断部31とを備えるものである。このような構成により、載置対象物上の障害物及び載置物の形状を考慮して載置対象物に載置物を載置できるか判断することができる。
また、本実施の形態1に係る載置判断装置21は、点群取得部22が3次元画像情報を取得できない範囲に物体が存在することを示す3次元画像情報を追加する隠れ補完部25または画角外補完部26を更に備え、載置判断部31は、上記平面と、上記平面より上方の3次元画像情報と、上記形状情報と、追加した3次元画像情報とに基づいて、載置対象物に載置物を載置できるか判断することが好ましい。このような構成により、3次元画像情報を取得できない範囲の障害物も考慮して、精度良く、載置対象物に載置物を載置できるか判断することができる。
また、本実施の形態1に係る載置判断装置21の点群取得部22が3次元画像情報を取得できない範囲は、隠れとなる範囲と、画角外となる範囲との少なくとも一つである。このような構成により、隠れや画角外の障害物も考慮して、より精度良く、載置対象物に載置物を載置できるか判断することができる。
また、本実施の形態1に係る載置判断装置21の非載置導出部29は、上記平面に載置物を載置できない領域を導出するもので、載置できない領域は、上方に3次元画像情報が存在する領域と、3次元画像情報が存在する領域の周辺領域とを有し、また、載置判断装置21の載置判断部31は当該載置できない領域を除いた領域において、載置物の形状に基づいて載置対象物に前記載置物を載置できるか判断することが好ましい。このような構成により、実際に載置対象物に載置物を載置するときの動作精度などを考慮して、載置対象物に載置物を載置できるか判断することができる。
また、本実施の形態1に係るロボット11は、載置判断装置21と、載置物を把持するための把持部13とを備え、載置判断装置21の載置判断部31が載置対象物に載置物を載置できると判断したときに、把持部13が載置物を載置対象物に載置するものである。このような構成により、載置対象物に載置できると判断された載置物を、載置対象物に載置することができる。
その他の実施の形態
なお、本発明は上記実施の形態1に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
例えば、実施の形態1では、上方抽出部28は、点群取得部22が取得した3次元点群、隠れ補完部25が補完した3次元点群、及び、画角外補完部26が補完した3次元点群を合成し、合成した3次元点群のうち、平面検出部24が検出した平面51の上方にある3次元点群を抽出したが、上方抽出部28は、点群取得部22が取得した3次元点群、隠れ補完部25が補完した3次元点群、または、画角外補完部26が補完した3次元点群の1つまたは2つの3次元点群を用いて平面51の上方にある3次元点群を抽出しても良い。
また、実施の形態1では、上方抽出部28は、平面検出部24が検出した平面51の上方にある3次元点群を抽出したが、領域取得部27が取得した平面領域61と平面領域61内部の障害物が存在する領域との上方にある3次元点群を抽出しても良い。
また、実施の形態1では、上方抽出部28は、ステップS010で点群取得部22が取得した3次元点群を用いて平面51の上方にある3次元点群を抽出したが、上方抽出部28が用いる3次元点群は、ステップS010で取得した3次元点群とは別の、新たに取得した3次元点群であっても良い。
また、実施の形態1では、センサ12に複数台のカメラを用いたが、センサ12にレーザスキャナなどの3次元点群を取得できる装置を用いても良い。
また、実施の形態1では、形状取得部23が、載置物の形状情報をデータベースにアクセスして取得したが、ロボット11がセンサ12で取得した載置物の画像を用いて形状を認識して載置物の形状情報を取得しても良い。この場合には、ステップS070で3次元点群を抽出するときの一定範囲の上限または下限や、ステップS080で非載置領域101を導出するときの周辺領域の大きさに、形状認識の誤差を考慮に加えた値を設定しても良い。
また、実施の形態1では、形状取得部23が、載置物の形状情報をデータベースにアクセスして取得したが、ロボット11が動作する作業環境内での載置物の高さの最大値が決まっている場合には、形状取得部23は載置物の形状情報として載置物の高さを取得しなくとも良い。
また、実施の形態1では、載置判断装置21はロボット11に内蔵されていたが、載置判断装置21の各構成を、ロボット11を含む複数の装置、または、ロボット11を含まない一または複数の装置で分担する載置判断システムとして構成しても良い。
11 ロボット
13 把持部
14 ペットボトル
15、41 テーブル
17 テーブルライト
21 載置判断装置
22 点群取得部
23 形状取得部
24 平面検出部
25 隠れ補完部
26 画角外補完部
28 上方抽出部
29 非載置導出部
31 載置判断部
42 箱
43 コップ
44 ハンドバッグ
51 平面
73、74、83、91〜96 3次元点群
101 非載置領域

Claims (7)

  1. 載置する載置物の形状情報を取得するステップと、
    前記載置物が載置される載置対象物の3次元画像情報を取得するステップと、
    前記3次元画像情報に基づいて平面を検出するステップと、
    前記平面より上方の3次元画像情報を取得するステップと、
    前記平面と、前記平面より上方の3次元画像情報と、前記形状情報とに基づいて、前記載置対象物に前記載置物を載置できるか判断するステップとを有する
    載置判断方法。
  2. 前記載置対象物の3次元画像情報を取得するステップにより3次元画像情報を取得できない範囲に物体が存在することを示す3次元画像情報を追加するステップを更に有し、
    前記判断するステップは、前記平面と、前記平面より上方の3次元画像情報と、前記形状情報と、前記追加した3次元画像情報とに基づいて、前記載置対象物に前記載置物を載置できるか判断する
    請求項1記載の載置判断方法。
  3. 前記3次元画像情報を取得できない範囲は、前記載置対象物の3次元画像情報を取得するステップにおいて隠れとなる範囲と、画角外となる範囲との少なくとも一つである
    請求項2記載の載置判断方法。
  4. 前記判断するステップは、
    前記平面より上方の3次元画像情報に基づいて、前記平面に前記載置物を載置できない領域を導出するステップと、
    前記載置できない領域を除いた領域において、前記形状情報に基づいて前記載置対象物に前記載置物を載置できるか判断するステップとを有し、
    前記載置できない領域は、上方に前記3次元画像情報が存在する領域と、前記3次元画像情報が存在する領域の周辺領域とを有する
    請求項1乃至請求項3のいずれか1項に記載の載置判断方法。
  5. 請求項1乃至請求項4のいずれか1項に記載の載置判断方法によって前記載置物を前記載置対象物に載置できるか否かを判断するステップと、
    前記載置物を前記載置対象物に載置できると判断したときに、前記載置物を前記載置対象物に載置するステップと
    を有する載置方法。
  6. 載置する載置物の形状情報を取得する形状取得部と、
    前記載置物が載置される載置対象物の3次元画像情報を取得する点群取得部と、
    前記3次元画像情報に基づいて平面を検出する平面検出部と、
    前記平面より上方の3次元画像情報を取得する上方抽出部と、
    前記平面と、前記平面より上方の3次元画像情報と、前記形状情報とに基づいて、前記載置対象物に前記載置物を載置できるか判断する載置判断部とを備える
    載置判断装置。
  7. 請求項6記載の載置判断装置と、
    前記載置物を把持するための把持部とを備えるロボットであって、
    前記載置判断部が前記載置対象物に前記載置物を載置できると判断したときに、前記把持部が前記載置物を前記載置対象物に載置するロボット。
JP2013269541A 2013-12-26 2013-12-26 載置判断方法、載置方法、載置判断装置及びロボット Pending JP2015123534A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013269541A JP2015123534A (ja) 2013-12-26 2013-12-26 載置判断方法、載置方法、載置判断装置及びロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013269541A JP2015123534A (ja) 2013-12-26 2013-12-26 載置判断方法、載置方法、載置判断装置及びロボット

Publications (1)

Publication Number Publication Date
JP2015123534A true JP2015123534A (ja) 2015-07-06

Family

ID=53534645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013269541A Pending JP2015123534A (ja) 2013-12-26 2013-12-26 載置判断方法、載置方法、載置判断装置及びロボット

Country Status (1)

Country Link
JP (1) JP2015123534A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017181401A (ja) * 2016-03-31 2017-10-05 セコム株式会社 物体検出センサ
JP2018124973A (ja) * 2017-01-27 2018-08-09 株式会社デンソーアイティーラボラトリ 物体検出システム、物体検出装置、物体検出プログラム、及び物体検出方法
JP2021074799A (ja) * 2019-11-06 2021-05-20 ファナック株式会社 制御装置、その制御方法、及び制御システム
US11762394B2 (en) 2018-11-01 2023-09-19 Nec Corporation Position detection apparatus, position detection system, remote control apparatus, remote control system, position detection method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017181401A (ja) * 2016-03-31 2017-10-05 セコム株式会社 物体検出センサ
JP2018124973A (ja) * 2017-01-27 2018-08-09 株式会社デンソーアイティーラボラトリ 物体検出システム、物体検出装置、物体検出プログラム、及び物体検出方法
US11762394B2 (en) 2018-11-01 2023-09-19 Nec Corporation Position detection apparatus, position detection system, remote control apparatus, remote control system, position detection method, and program
JP2021074799A (ja) * 2019-11-06 2021-05-20 ファナック株式会社 制御装置、その制御方法、及び制御システム
US11717970B2 (en) 2019-11-06 2023-08-08 Fanuc Corporation Controller, control method using controller, and control system
JP7424800B2 (ja) 2019-11-06 2024-01-30 ファナック株式会社 制御装置、その制御方法、及び制御システム

Similar Documents

Publication Publication Date Title
KR102326097B1 (ko) 물리적 길이의 단위를 사용하는 팔렛 검출
TWI758459B (zh) 凹陷部檢測裝置、搬送裝置及凹陷部檢測方法
CN109843752B (zh) 机器人驱动单元及其系统
JP2015123534A (ja) 載置判断方法、載置方法、載置判断装置及びロボット
CN105091885B (zh) 机器人及自身位置推定方法
JP5937469B2 (ja) 物体認識装置、物体認識方法及び物体認識プログラム
JP6988704B2 (ja) センサ制御装置、物体探索システム、物体探索方法及びプログラム
US11604281B2 (en) Position and posture estimation apparatus of a forklift pallet
US10957067B2 (en) Control apparatus, object detection system, object detection method and program
JP2017166933A (ja) 情報処理装置及び情報合成プログラム
US11559895B2 (en) Predictive robotic obstacle detection
JP2016078180A (ja) 異常原因推定装置、ピッキング装置及びピッキング装置における異常原因推定方法
CN116137831A (zh) 信息处理装置以及信息处理方法
JP2015024453A (ja) 載置判断方法、載置方法、載置判断装置及びロボット
US9062975B2 (en) Carrier
US11823414B2 (en) Information processing device, information processing method, and information processing non-transitory computer readable medium
CA2979214C (en) Vision system with tail positioner
WO2014192061A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2020067692A (ja) 学習適否判定方法、および、学習適否判定装置
WO2022213749A1 (zh) 移动控制方法、装置、清洁机器人及存储介质
US20230182289A1 (en) Picking device, picking method, and program
TW202411139A (zh) 貨箱存放方法和機器人
JP2023172871A (ja) キャリブレーション方法およびプログラム
US8867044B2 (en) Computing device and method for scanning edges of an object
JP2020148550A (ja) 潜水艦推定装置