JP2015145055A - ロボット、ロボットシステム、制御装置および制御方法 - Google Patents

ロボット、ロボットシステム、制御装置および制御方法 Download PDF

Info

Publication number
JP2015145055A
JP2015145055A JP2014019263A JP2014019263A JP2015145055A JP 2015145055 A JP2015145055 A JP 2015145055A JP 2014019263 A JP2014019263 A JP 2014019263A JP 2014019263 A JP2014019263 A JP 2014019263A JP 2015145055 A JP2015145055 A JP 2015145055A
Authority
JP
Japan
Prior art keywords
robot
value
objects
evaluation
gripping position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014019263A
Other languages
English (en)
Other versions
JP6357785B2 (ja
Inventor
智紀 原田
Tomonori Harada
智紀 原田
政司 相磯
Masashi Aiiso
政司 相磯
橋本 浩一
Koichi Hashimoto
浩一 橋本
翔悟 荒井
Shogo Arai
翔悟 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014019263A priority Critical patent/JP6357785B2/ja
Publication of JP2015145055A publication Critical patent/JP2015145055A/ja
Application granted granted Critical
Publication of JP6357785B2 publication Critical patent/JP6357785B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】ロボット(ロボットのハンド)にとって対象を把持しやすい把持位置で対象を把持する。【解決手段】載置された複数の物体のうちの一の物体を把持するロボットであって、前記一の物体を把持するハンドと、前記ハンドを動作させる制御部と、を含み、前記制御部は、前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標により前記ハンドが前記一の物体を把持する把持位置を決定し、前記ハンドに前記一の物体の前記把持位置を把持させる。【選択図】図1

Description

本発明は、ロボット、ロボットシステム、制御装置および制御方法に関する。
ロボットが用いられる現場では、重要な作業の一つとして、ビンピッキングに代表されるように、乱雑に積まれた複数の対象のそれぞれを一つ一つ取り出して組み付けを行う作業がある。通常は、治具や専用の装置を用いることで、乱雑に積まれた複数の対象を整列し直し、常に対象が同じ位置姿勢になるようにすることで、産業用ロボットアームに対象を把持させることを可能としている。しかし、このような治具や装置を用いる場合、対象の形や大きさが変化する度に、当該対象に専用のものを用意する必要があり、金銭的なコストや時間的なコストがかかってしまうという問題がある。
このような問題を解消するために、プロジェクターやレーザーの光を対象に照射して、その反射情報を処理することで3次元情報を得ることが可能であるが、この場合、位置姿勢認識の処理に時間がかかってしまうという問題がある。また、実際に対象の位置姿勢を正確に推定した場合においても、その対象が把持可能な状態であるか否かの評価が必要となる。
特開2009−128201号公報
従来では、ロボットのハンド(把持部)にとって対象を把持しやすい把持位置の評価が行われていなかった。このため、ハンドにとって把持しづらい把持位置で対象を把持しようとして、対象を把持できないことなどがあった。
本発明は、前記の点に鑑み為されたものであり、ロボット(ロボットのハンド)にとって対象を把持しやすい把持位置で対象を把持することができるロボット、ロボットシステム、制御装置および制御方法を提供することを目的とする。
本発明の一態様は、上記の課題を解決するためになされたものであり、載置された複数の物体のうちの一の物体を把持するロボットであって、前記一の物体を把持するハンドと、前記ハンドを動作させる制御部と、を含み、前記制御部は、前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標により前記ハンドが前記一の物体を把持する把持位置を決定し、前記ハンドに前記一の物体の前記把持位置を把持させる、ロボットである。
この構成により、ロボットでは、制御部が、複数の物体のうちの一の物体と他の物体との位置関係を含む評価指標によりハンドが前記一の物体を把持する把持位置を決定し、当該ハンドに前記一の物体の前記把持位置を把持させる。これにより、ロボットでは、ハンドにとって対象(物体)を把持しやすい把持位置で対象を把持することができる。
本発明の一態様は、ロボットにおいて、前記制御部は、前記複数の物体のうちの前記一の物体に対して複数の領域を設定し、設定されたそれぞれの領域ごとに前記評価指標を演算し、演算された前記評価指標に基づいて前記複数の領域のうちの一の領域に対応する把持位置を決定する、構成が用いられてもよい。
この構成により、ロボットでは、制御部は、複数の物体のうちの一の物体に対して複数の領域を設定し、設定されたそれぞれの領域ごとに評価指標を演算し、演算された評価指標に基づいて前記複数の領域のうちの一の領域に対応する把持位置を決定する。これにより、ロボットでは、一の物体について、領域ごとの評価指標に基づいて、複数の領域のうちで、把持するために良好な領域に対応する把持位置を決定することができる。
本発明の一態様は、ロボットにおいて、前記制御部は、前記一の物体における所定の軸の長手方向に沿って前記複数の領域を設定する、構成が用いられてもよい。
この構成により、ロボットでは、制御部は、一の物体における所定の軸の長手方向に沿って複数の領域を設定する。これにより、ロボットでは、一の物体における所定の軸の長手方向に沿って設定された複数の領域のうちで、把持するために良好な領域に対応する把持位置を決定することができる。
本発明の一態様は、ロボットにおいて、前記一の物体と他の物体との位置関係は、前記一の物体と周囲の他の物体との高低差である、構成が用いられてもよい。
この構成により、ロボットでは、制御部は、一の物体と周囲の他の物体との高低差を含む評価指標によりハンドが前記一の物体を把持する把持位置を決定する。これにより、ロボットでは、一の物体と周囲の他の物体との高低差に基づいて、ハンドにとって対象(物体)を把持しやすい把持位置を決定することができる。
本発明の一態様は、ロボットにおいて、前記評価指標は、前記一の物体の角度、前記一の物体における所定の軸の検出誤差、または、前記一の物体について抽出される点の数のうちの1つ以上を更に含む、構成が用いられてもよい。
この構成により、ロボットでは、制御部は、一の物体の角度、一の物体における所定の軸の検出誤差、または、一の物体について抽出される点の数のうちの1つ以上を含む評価指標によりハンドが前記一の物体を把持する把持位置を決定する。これにより、ロボットでは、ハンドにとって対象(物体)を把持しやすい把持位置を決定することができる。
本発明の一態様は、上記の課題を解決するためになされたものであり、載置された複数の物体を撮像する撮像部と、前記複数の物体のうちの一の物体を把持するロボットと、前記ロボットを動作させる制御部と、を含み、前記制御部は、前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標により前記ロボットが前記一の物体を把持する把持位置を決定し、前記ロボットに前記一の物体の前記把持位置を把持させる、ロボットシステムである。
この構成により、ロボットシステムでは、制御部が、複数の物体のうちの一の物体と他の物体との位置関係を含む評価指標によりロボットが前記一の物体を把持する把持位置を決定し、当該ロボットに前記一の物体の前記把持位置を把持させる。これにより、ロボットシステムでは、ロボットにとって対象(物体)を把持しやすい把持位置で対象を把持することができる。
本発明の一態様は、上記の課題を解決するためになされたものであり、載置された複数の物体のうちの一の物体を把持するロボットを動作させる制御装置であって、撮像部が前記複数の物体を撮像した撮像画像を受け付ける画像受付部と、前記ロボットを動作させる処理部と、を含み、前記処理部は、前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標により前記ロボットが前記一の物体を把持する把持位置を決定し、前記ロボットに前記一の物体の前記把持位置を把持させる、制御装置である。
この構成により、制御装置では、処理部が、複数の物体のうちの一の物体と他の物体との位置関係を含む評価指標によりロボットが前記一の物体を把持する把持位置を決定し、当該ロボットに前記一の物体の前記把持位置を把持させる。これにより、制御装置では、ロボットにとって対象(物体)を把持しやすい把持位置で対象を把持させることができる。
本発明の一態様は、上記の課題を解決するためになされたものであり、載置された複数の物体のうちの一の物体を把持するロボットを動作させる制御方法であって、前記複数の物体を撮像することと、前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標を用いて、前記ロボットが前記一の物体を把持する把持位置を決定することと、前記ロボットに前記一の物体の前記把持位置を把持させることと、を含む制御方法である。この構成により、制御方法では、複数の物体のうちの一の物体と他の物体との位置関係を含む評価指標を用いて、ロボットが前記一の物体を把持する把持位置を決定し、当該ロボットに前記一の物体の前記把持位置を把持させる。これにより、制御方法では、ロボットにとって対象(物体)を把持しやすい把持位置で対象を把持させることができる。
以上のように、本発明に係るロボット、ロボットシステム、制御装置および制御方法では、複数の物体のうちの一の物体と他の物体との位置関係を含む評価指標により、前記一の物体を把持する把持位置を決定し、ロボット(ロボットのハンド)により、前記一の物体の前記把持位置を把持させる。これにより、ロボット、ロボットシステム、制御装置および制御方法では、ロボット(ロボットのハンド)にとって対象(物体)を把持しやすい把持位置で対象を把持することができる。
本発明の一実施形態に係るロボットシステムの概略的な構成を示す図である。 本発明の一実施形態に係る制御部の概略的な機能ブロックを示す図である。 本発明の一実施形態に係る対象の構造を示す図である。 本発明の一実施形態に係る対象に対して設定された複数の領域の一例を示す図である。 本発明の一実施形態に係る複数の対象のうちの1個の対象に対して設定された複数の領域の一例を示す図である。 (A)および(B)は対象に対して設定される複数の領域の他の例を示す図である。 本発明の一実施形態に係る対象の角度と指標値との対応の一例を示す図である。 本発明の一実施形態に係る高低差/中心軸推定誤差と指標値との対応の一例を示す図である。 本発明の一実施形態に係る抽出点群数と指標値との対応の一例を示す図である。 本発明の一実施形態に係るロボットの制御部において行われる処理の手順の一例を示すフローチャートである。 本発明の実施形態の第1の変形例に係るロボットの概略的な構成を示す図である。 本発明の実施形態の第2の変形例に係るロボットシステムの概略的な構成を示す図である。
本発明の実施形態について図面を参照して詳細に説明する。
[本実施形態に係るロボットシステムの概要]
図1は、本発明の一実施形態に係るロボットシステム1の概略的な構成を示す図である。
本実施形態に係るロボットシステム1は、ロボット11と、カメラ12と、これらを接続して通信可能にする回線13を備える。ロボット11は、1本のマニピュレーター(アーム)を備える単腕のロボットであり、マニピュレーターの先端部に取り付けられたハンド(ロボットのハンド)21と、制御部41を備える。
マニピュレーターとしては、6軸のマニピュレーターが用いられており、他の構成例として、7軸のマニピュレーターまたは5軸以下のマニピュレーターが用いられてもよい。
図1には、テーブル(作業机)81の上に戴置(配置)された複数の対象82(図1では、1個の対象のみに符号を付してある。)を示してある。複数の対象82は、ロボット11により作業を行う対象となる物体であり、本実施形態では、複数の同一のボルトである。複数の対象82は、例えば、ランダムに積まれている。なお、複数の対象82は、例えば、所定の容器(ビン)に入れられていてもよい。
本実施形態では、ロボット11は、ハンド21により対象82を把持することが可能な配置で設置されており、また、カメラ12は、対象82を撮像することが可能な配置で設置されている。
ハンド21は、任意の形状を有してもよく、本実施形態では、ピッキング作業に適する形状を有するハンドを想定しており、具体的には、ピッキング対象となるボルトを精密に把持することができる開閉可能な2本の指(棒状の部位)を有する。ハンド21が有する指の数は、任意であってもよい。また、ハンド21が有する指は、例えば、直線状であってもよく、または、一部又は全部が曲線状や折れ線状であってもよい。
制御部41は、ロボット11(ハンド21を含む。)やカメラ12の動作の制御などを行う。
図2は、本発明の一実施形態に係る制御部41の概略的な機能ブロックを示す図である。
本実施形態に係る制御部41は、ロボット動作処理部101と、画像情報受付部102と、記憶部103と、入力部104と、出力部105を備える。
ロボット動作処理部101は、評価領域設定部111と、評価指標演算部112と、把持位置決定部113と、把持制御部114を備える。ロボット動作処理部101は、例えば、画像処理や、ロボット11の制御処理を行う。
画像情報受付部102は、カメラ12から出力される画像の情報を、回線13を介して、受信することで、当該画像の情報を受け付けて取得する。また、画像情報受付部102は、回線13を介してカメラ12との間で信号を通信することで、カメラ12の動作を制御してもよい。
本実施形態では、カメラ12は、画像を撮像し、撮像した画像について3次元点群の情報を取得し、取得した3次元点群の情報を画像の情報として回線13を介して画像情報受付部102に出力する。例えば、ロボット動作処理部101では、3次元点群の情報に基づいて、画像に写る物体の3次元の位置や姿勢を検出(例えば、推定)することができる。
記憶部103は、各種の情報を記憶する記憶媒体を含んで構成される。記憶部103は、例えば、ロボット動作処理部101で使用されるプログラムの情報や、各種の処理で使用されるパラメーター(例えば、数値)の情報などを記憶する。
入力部104は、外部からの入力を受け付ける。入力部104は、例えば、ユーザーにより操作された操作入力を受け付けるキーボードやマウスなどを含んで構成される。また、入力部104は、例えば、外部の装置からの入力を受け付ける機能を含んで構成されてもよい。
出力部105は、外部への出力を行う。出力部105は、例えば、ユーザーに対して各種の情報を画像で表示する画面(例えば、液晶ディスプレイ)や、ユーザーに対して音声の情報を出力するスピーカーなどを含んで構成される。また、出力部105は、例えば、外部の装置へ情報を出力する機能を含んで構成されてもよい。
ロボット動作処理部101は、例えば、CPU(Central Processing Unit)などを用いて構成されており、各種の処理を行う。
評価領域設定部111は、画像情報受付部102により受け付けられた画像の情報において、対象82に対して評価を行う複数の領域(評価領域)を設定する。
評価指標演算部112は、評価領域設定部111により設定された領域ごとに、評価の指標となる値を演算する。
把持位置決定部113は、評価指標演算部112により演算された評価の指標となる値に基づいて、領域ごとに評価を行い、その結果、ハンド21にとって対象82を把持しやすい把持位置を決定する。本実施形態では、この把持位置として、領域ごとに対応する把持位置が用いられる。つまり、本実施形態では、把持位置決定部113は、ハンド21にとって対象82を把持しやすい領域に対応する把持位置を、ハンド21にとって対象82を把持しやすい把持位置として、決定する。
把持制御部114は、把持位置決定部113により決定された対象82の把持位置をハンド21により把持させるように制御する。
[本実施形態に係る対象に設定される領域(評価領域)の説明]
図3は、本発明の一実施形態に係る対象82の構造を示す図である。
本実施形態に係る対象82は、ボルトの頭部151と、ボルトの軸部152を有する。また、図3には、ボルトの軸部152の形状である円柱の中心軸153を示してある。
円柱状の形状を有する軸部152について、その端面の円の半径はr(rは正の値)であり、その円柱の高さ(長さ)はh(hは正の値)である。頭部151は、軸部152と同様に円柱状の形状を有しており、軸部152に対して、その円の半径が大きく、その円柱の高さが小さい。軸部152と頭部151とで、中心軸153は一致する。
このように、本実施形態に係る対象82は、慨して、全体的に円柱状の物体であり、特に、ハンド21により把持する軸部152が円柱状である。本実施形態に係る対象82は、位置や姿勢を推定する対象となる。
図4は、本発明の一実施形態に係る対象82に対して設定された複数の領域201−1〜201−3の一例を示す図である。
本例では、対象82の軸部152に、3個の同一の楕円状の領域201−1〜201−3が軸部152の長手方向に接せられて設定されている。それぞれの楕円状の領域201−1〜201−3では、軸部152の長手方向に短軸が設けられ、当該長手方向に対して垂直な方向に長軸が設けられている。それぞれの楕円状の領域201−1〜201−3の中心は、軸部152の長手方向の中心線上に設けられている。
図5は、本発明の一実施形態に係る複数の対象82、301〜302のうちの1個の対象82に対して設定された複数の領域201−1〜201−3の一例を示す図である。
ここで、対象82および当該対象82に設定された複数の領域201−1〜201−3は、図4に示されるものと同様である。対象82の周囲に、他の対象301〜302が存在する。
図6(A)および図6(B)を参照して、対象401〜402に対して設定される複数の領域501−1〜501−5、511−1〜511−9の他の例を示す。
図6(A)には、頭部411および軸部412を有する対象401に対して設定された複数の領域501−1〜501−5の一例を示してある。本例では、対象401の軸部412に、5個の同一の長方形状の領域501−1〜501−5が軸部412の長手方向に接せられて設定されている。それぞれの長方形状の領域501−1〜501−3では、軸部412の長手方向に短辺が設けられ、当該長手方向に対して垂直な方向に長辺が設けられている。それぞれの長方形状の領域501−1〜501−3では、短辺の長さLはハンド21が軸部412を把持するときにおける当該短辺方向のハンド21の厚さ以上に設定されており、また、長辺の長さWは当該長辺方向の軸部412の長さ(直径)の所定数倍(例えば、2〜3倍など)に設定されている。それぞれの長方形状の領域501−1〜501−5の中心は、軸部412の長手方向の中心線上に設けられている。
図6(B)には、頭部451および軸部452を有する対象402に対して設定された複数の領域511−1〜511−9の一例を示してある。対象402は、図6(A)に示される対象401と同じ形状を有する。それぞれの領域511−1〜511−9は、図6(A)に示される領域501−1〜501−5と同じ形状を有する。本例では、対象402の軸部452に、9個の同一の長方形状の領域511−1〜511−9が軸部452の長手方向に一部重複させられて設定されている。それぞれの長方形状の領域511−1〜511−9では、軸部452の長手方向に短辺が設けられ、当該長手方向に対して垂直な方向に長辺が設けられている。複数の領域511−1〜511−9のうちで隣り合う2個の領域は、互いに半分の領域だけ重複させられている。それぞれの長方形状の領域511−1〜511−9の中心は、軸部452の長手方向の中心線上に設けられている。
本実施形態に係るロボットシステム1では、図4〜図5、図6(A)、図6(B)に示されるように、対象82(対象401〜402も同様)に対して複数の領域を設定し、それぞれの領域ごとに、対象82の把持しやすさについて評価を行い、その結果、最も把持しやすいと評価された領域をハンド21により把持するように制御する。
ここで、1個の対象82に対して設定される複数の領域の数や形状は、それぞれ、様々であってもよい。
また、1個の対象82に対して設定される複数の領域の形状は、必ずしも同一でなくてもよく、異なる形状を有する領域が含まれてもよい。
また、1個の対象82に対して設定される複数の領域の配置(設定される位置、他の領域との重複の有無、他の領域と重複する場合における重複の程度など)は、様々であってもよい。
[本実施形態に係る評価の詳細]
本実施形態に係るロボットシステム1では、図3に示される対象82の軸部152について3次元の位置や姿勢を検出する。本実施形態では、この検出の対象は円柱物体であり、その半径rと長さhがパラメータとして既知である必要がある。
評価領域設定部111は、まず、画像情報受付部102により取得された画像情報に相当する3次元点群の情報に基づいて、検出の対象82(本実施形態では、複数のボルトのうちの1個のボルト)に含まれる点群(検出の対象に含まれると推定される点群)を分離し、当該対象82の位置や姿勢を検出し、当該対象82に対して複数の領域(評価領域)を設定する。ここで、評価領域設定部111が、検出の対象82に含まれる点群を分離する手法や、当該対象82の位置や姿勢を検出する手法としては、それぞれ、任意の手法が用いられてもよく、例えば、公知の手法が用いられてもよい。
本実施形態では、評価指標演算部112は、対象82に対して設定された領域ごとに、下記の4個のパラメーターである<第1の評価の指標となる値>〜<第4の評価の指標となる値>を計算して、これら4個の値を積算した結果を総合的な評価の指標となる値(評価値)として計算する。把持位置決定部113は、この評価値に基づいて、把持位置を決定する。
ここで、<第1の評価の指標となる値>〜<第4の評価の指標となる値>は、それぞれ、0〜1の範囲の値を取り、総合的な評価の指標となる値(評価値)も0〜1の範囲の値を取る。
<第1の評価の指標となる値:対象の角度>
評価指標演算部112は、第1の評価の指標となる値として、対象82の角度に関する指標値を計算する。
図7は、本発明の一実施形態に係る対象82の角度(本実施形態では、軸部152の角度)と指標値1001との対応の一例を示す図である。図7に示されるグラフにおいて、横軸は角度(deg)を表しており、縦軸は指標値を表している。
本例の指標値1001は、ハンド21により対象82を把持するために最適な角度(一例として、水平であり、他の例として、垂直など)を中央値とする正規分布によって決定される。この正規分布の分散は、使用されるハンド21がどれだけの傾きに対して把持可能であるかに応じて決定される。また、パラメーターの値(指標値1001)を0とする角度の範囲は、ハンド21の形状や、対象82が容器に入っている場合における当該容器などに応じて決定される。
<第2の評価の指標となる値:周囲の点群との高低差>
評価指標演算部112は、第2の評価の指標となる値として、周囲の点群との高低差に関する指標値を計算する。
本例では、この指標値を決定するために、評価指標演算部112は、所定範囲内における対象82の点群分割後の「分離した対象82の点群の高さの平均」と「それ以外の点群の高さの平均」との差の値を用いる。ここで、この所定範囲は、例えば、対象82の大きさや検出手法、ハンド21の仕様に依存して決定される。一例として、この所定範囲として、対象82(あるいは、その一部である軸部152など)に外接する所定の形状(例えば、矩形など)よりも大きい所定の形状の範囲が用いられる。この指標値は、検出されたピッキング対象が、山積みされている場合に、山に埋もれてしまっているか否かを評価するための指標となる。
図8は、本発明の一実施形態に係る高低差/中心軸推定誤差(ここの例では、高低差)と指標値1011との対応の一例を示す図である。
本例では、図8に示されるグラフにおいて、横軸は(前記した差の値の逆数)または(前記した差の値より大きい所定値−前記した差の値)などを表しており、縦軸は評価値を表している。本例では、前記した差の値が大きいほど、ハンド21により対象82を把持しやすいと評価される。
ここで、図8に示されるグラフにおける指標値1011の特性は、式(1)の特性である。式(1)において、xはグラフの横軸の値を表しており、yはグラフの縦軸の値を表わしている。一例として、Aの値は1であるとする。ρの値とαの値は、環境に依存し、ρの値を大きくすることで厳しく評価値の計算(厳しい評価)を行うか、または、ρの値を小さくすることで緩く評価値の計算(緩い評価)を行うかを操作して調整することが可能である。本例では、ρの値としては、1以上の値が用いられる。
Figure 2015145055
<第3の評価の指標となる値:中心軸推定誤差>
評価指標演算部112は、第3の評価の指標となる値として、中心軸推定誤差に関する指標値を計算する。
本例では、この指標値を計算するために、分離された対象82の点群が、対象82について検出(本実施形態では、推定的に検出)された中心軸および当該対象82の半径に対してどれだけ誤差を持つかを示す値(中心軸推定誤差の値)を計算して用いる。この指標値は、中心軸の検出精度(本実施形態では、推定精度)がどの程度であったかを評価するための指標となる。
ここで、中心軸および半径は、図3の例では、軸部152の中心軸153および半径rに相当する。
図8は、本発明の一実施形態に係る高低差/中心軸推定誤差(ここの例では、中心軸推定誤差)と指標値1011との対応の一例を示す図である。なお、図8に示されるグラフは、第2の評価の指標となる値と第3の評価の指標となる値とで概要は共通であるため、両方の説明に用いている。
本例では、図8に示されるグラフにおいて、横軸は(前記した中心軸推定誤差の値)を表しており、縦軸は評価値を表している。本例では、前記した中心軸推定誤差の値が小さいほど、ハンド21により対象82を把持しやすいと評価される。
ここで、図8に示されるグラフにおける指標値1011の特性は、式(1)の特性である。なお、式(1)は、第2の評価の指標となる値と第3の評価の指標となる値とで共通であるため、両方の説明に用いている。
式(1)において、xはグラフの横軸の値を表しており、yはグラフの縦軸の値を表わしている。一例として、Aの値は1であるとする。ρの値とαの値は、環境に依存し、ρの値を大きくすることで厳しく評価値の計算(厳しい評価)を行うか、または、ρの値を小さくすることで緩く評価値の計算(緩い評価)を行うかを操作して調整することが可能である。
また、ρの値は、対象82の半径によって決定されるが、例えば、半径rの50%程度またはそれ以下の値が望ましい。ρの値については、例えば、点群の取得精度や、対象82の表面の粗さ等によって、最適な値が変化し得る。本例では、ρの値としては、1以上の値が用いられる。
<第4の評価の指標となる値:抽出点群数>
評価指標演算部112は、第4の評価の指標となる値として、抽出される点群における点の数(抽出点群数)に関する指標値を計算する。
本例では、この評価値を計算するために、最適な条件であればどの程度の点の数(点群数)が対象82に見込めるかを示す値をあらかじめ計算しておき、その値に対してどれだけ実際の値に差があるかを示す値(抽出点群数の値)を計算して指標とする。なお、この差としては、例えば、2つの値の差分に限られず、2つの値の割合が用いられてもよい。この評価値は、分離された対象82について、3次元点群における点の数をどれだけ得ることができたか、つまり中心軸の検出(本実施形態では、推定)にどれだけ信頼性があるかを評価するための指標となる。
図9は、本発明の一実施形態に係る抽出点群数と指標値1021との対応の一例を示す図である。
本例では、図9に示されるグラフにおいて、横軸は(前記した抽出点群数の値)を表しており、縦軸は評価値を表している。本例では、前記した抽出点群数の値が大きいほど、ハンド21により対象82を把持しやすいと評価される。
ここで、図9に示されるグラフにおける指標値1021の特性は、式(1)の特性であり、本例では、ρの値としては、1以下の値が用いられる。なお、式(1)は、第2の評価の指標となる値〜第4の評価の指標となる値で共通であるため、両方の説明に用いている。図9に示されるグラフでは、ρの値が1以下であることから、図8に示されるグラフに対して、評価値の形状(グラフの形状)が異なっている。
式(1)において、xはグラフの横軸の値を表しており、yはグラフの縦軸の値を表わしている。一例として、Aの値は1であるとする。ρの値とαの値は、環境に依存し、ρの値を大きくすることで厳しく評価値の計算(厳しい評価)を行うか、または、ρの値を小さくすることで緩く評価値の計算(緩い評価)を行うかを操作して調整することが可能である。
なお、抽出点群数の値として前記した割合の値が用いられる場合には、例えば、ρの値は0.5程度に設定される。この理由は、点群数そのものが一定値以下である場合はそもそも正確な検出や推定に失敗していることを示すためである。
<総合的な評価の指標となる値>
評価指標演算部112は、対象82に対して設定された領域ごとに、4個のパラメーターである<第1の評価の指標となる値>〜<第4の評価の指標となる値>を積算した結果を総合的な評価の指標となる値(評価値)として計算する。この評価値は、ハンド21による対象82の各領域の把持しやすさを評価するための値として用いられる。本実施形態では、この評価値が大きい方が、ハンド21により対象82を把持しやすいと判定される。
他の構成例として、評価指標演算部112は、対象82に対して設定された領域ごとに、4個のパラメーターである<第1の評価の指標となる値>〜<第4の評価の指標となる値>を重み付けして総和した結果を総合的な評価の指標となる値(評価値)として計算することも可能である。
なお、評価値を算出するために用いられる評価の指標となる値の種類としては、1種類以上で任意の複数の種類であってもよい。また、それぞれの評価の指標の種類としては、環境などに応じて、様々であってもよく、例えば、本実施形態で用いられる種類以外に、高さ(例えば、テーブル81の面(例えば、水平面)に対する高さ方向を表すZ軸の座標値)に応じて算出される値などが用いられてもよい。
[本実施形態に係る処理の手順]
図10は、本発明の一実施形態に係るロボット11の制御部41において行われる処理の手順の一例を示すフローチャートである。
(ステップS1)
画像情報受付部102は、カメラ12から出力された画像の情報を受け付けて取得する。
(ステップS2)
評価領域設定部111は、画像情報受付部102により取得された画像の情報に基づいて、当該画像において、検出対象とする1個の対象82を選択し、選択した対象82について複数の領域(評価領域)を設定する。
ここで、評価領域設定部111が、画像に複数の対象が映っている場合に1個の対象82を選択する手法としては、任意であってもよい。一例として、この手法として、本実施形態において複数の領域のそれぞれごとに評価値(または、任意の評価の指標となる値でもよい。)を計算した結果に基づいて1個の領域を選択する手法と同様な手法が用いられてもよい。他の例として、この手法として、画像に映る複数の対象のうちの1個の対象をランダムに選択する手法が用いられてもよく、または、画像に映る複数の対象のうちで最も占有領域が大きい1個の対象を選択する手法などが用いられてもよい。
(ステップS3)
評価指標演算部112は、評価領域設定部111により1個の対象82に対して設定された複数の領域のそれぞれごとに評価の指標となる値を演算(計算)し、その結果に基づいて複数の領域のそれぞれごとに評価値を演算(計算)する。
(ステップS4)
把持位置決定部113は、評価指標演算部112による演算結果に基づいて、対象82に対して設定された複数の領域のそれぞれごとに求められた評価値を比較して、最も把持しやすいと判定される1個の領域(本実施形態では、評価値が最も大きい1個の領域)を、ハンド21により把持する位置(把持位置)の領域として、選択して決定する。
(ステップS5)
把持制御部114は、把持位置決定部113により決定された把持位置の領域で対象82をハンド21により把持するように、ロボット11のマニピュレーターおよびハンド21の位置や姿勢を制御する。
ここで、位置や姿勢の制御としては、例えば、位置と姿勢のうちの任意の一方のみの制御が行われてもよく、または、両方の制御が行われてもよい。
ここで、本実施形態に係るロボットシステム1では、単一の対象82について複数の箇所(本実施形態では、領域)で把持しやすさを評価するようにアルゴリズムを工夫することで、把持しやすい把持位置を決定する。本実施形態に係るロボットシステム1では、対象82の所定の軸(本実施形態では、ボルトの軸)に沿って数箇所に分割して、それぞれの箇所ごとに評価値を計算する。この場合、通常、箇所(本実施形態では、領域)によって大きく評価値が変わるものは、<第2の評価の指標となる値:周囲の点群との高低差>である。一例として、この評価値(および、さらに他の評価値を併用してもよい。)を使用して、より良い箇所を特定して把持するようにすることにより、例えば、ばら積みされた対象82を把持する状況で、周囲の対象によって把持を邪魔されるという状況を極力減らし、把持しやすい把持位置を選択することができる。
なお、ロボット動作処理部101では、単一の対象82について複数の箇所(本実施形態では、領域)で把持しやすさを評価する処理と同様に、複数の対象82のそれぞれについて把持しやすさを評価する処理を行い、複数の対象82のうちで最も把持しやすい対象82を選択して把持する対象とすることが可能である。
また、ロボット動作処理部101(把持位置決定部113)は、複数の候補(例えば、複数の領域や、複数の対象など)のうちで、評価値が2番目以降の所定の順番の候補を選択する、構成が用いられてもよい。
また、ロボット動作処理部101(把持位置決定部113)は、ある候補(例えば、領域や、対象など)について評価値が所定の閾値以下(または、所定の閾値未満)である場合には、当該候補については次の処理(例えば、把持など)を行わずに、候補の検出(または、設定など)をやり直す、構成が用いられてもよい。
また、ロボット動作処理部101(把持位置決定部113)は、ある候補(例えば、領域や、対象など)について評価値が所定の閾値以下(または、所定の閾値未満)である場合には、次に候補の検出(または、設定など)をやり直すときに、前記した評価値が所定の閾値以下(または、所定の閾値未満)であった候補については処理対象(ここでは、検出対象)から外す、構成が用いられてもよい。
なお、評価値の基準としては、本実施形態では、評価値が大きい方が良好である構成が用いられているが、他の構成例として、評価値が小さい方が良好である構成が用いられてもよく、この場合には、本実施形態における所定の閾値以下(または、所定の閾値未満)という条件の代わりに、所定の閾値以上(または、所定の閾値を超える)という条件が用いられる。
一例として、本実施形態で示されるような評価値を、並列計算に適用することが可能である。具体例として、ロボット動作処理部101は、対象82の検出時などに幾つか複数の結果を導出するようにし、それらの中から最終的な結果を選択する際に、本実施形態で示されるような評価値を用いることが可能である。このように、評価値を並列計算時の結果の比較に利用することにより、最終的に検出される結果がより正確なものとなる可能性が高くなる。また、ロボット動作処理部101は、いったん計算した評価値を保存(記憶)しておき、次回以降の検出や評価時などに、保存された評価値を利用する(他の評価値とともに併用してもよい。)ことも可能である。
[本実施形態のまとめ]
以上のように、本実施形態に係るロボットシステム1では、カメラ12により得られた3次元点群情報に対して、対象82のパラメーターを利用することで、点群中に存在する対象82の中心軸や、その位置を示す座標や、その傾き(姿勢)を求める。さらに、本実施形態に係るロボットシステム1では、求められた対象82の位置や姿勢、その検出精度(例えば、推定精度)、周囲の環境(周囲の情報)などのうちの1つ以上を考慮することで、対象82の把持のしやすさを評価する指標となる値を複数の領域のそれぞれごとに計算し、その値を利用することで把持しやすい対象82を選択して、対象82の確実な把持や処理の高速化を実現する。また、本実施形態に係るロボットシステム1では、例えば、領域(または、対象82などでもよい。)を複数の結果に基づいて選択することで、より正確な位置や姿勢の検出結果(例えば、推定結果)を選択することも可能となる。
本実施形態では、一例として、対象82はボルトまたはネジなどに代表される円柱状の物体であり、この円柱物体(円柱に近似することが可能な物体でもよい。)のパラメーター(本実施形態では、半径r、高さh)は、例えば、事前にユーザーによって制御部41(例えば、記憶部103)に入力されて記憶される。
本実施形態に係るロボットシステム1によると、撮像画像から検出した対象82をハンド21により把持する際に、当該対象82と周囲の他の対象との位置関係などを考慮して把持のしやすさ(本実施形態では、領域ごとの把持のしやすさ)を評価することで、ハンド21により把持しやすい位置や姿勢で対象82を把持することができる。本実施形態に係るロボットシステム1によると、例えば、対象82のいずれの部位(領域)を把持したら良いかということを考慮しない場合と比べて、対象82のいずれの部位(領域)を把持したら良いかを考慮することで、対象82の把持を効果的に行うことができる。
なお、本実施形態では、カメラ12により3次元の点群の情報を取得する構成が示されたが、他の構成例として、カメラ12により2次元の点群の情報を取得し、2次元の点群の情報に基づいて、評価領域設定部111が領域を設定し、評価指標演算部112が評価の指標となる値を演算する、構成が用いられてもよい。
[本実施形態の変形例に係るロボットシステムの概要]
<第1の変形例>
図11は、本発明の実施形態の第1の変形例に係るロボット601の概略的な構成を示す図である。
ロボット601は、格納部611と、胴体部分612〜614と、左側のマニピュレーター621およびハンド631と、右側のマニピュレーター622およびハンド632と、左側の車輪641と、右側の車輪642と、カメラ651と、制御部661を備える。
ロボット601は、それぞれ腕(アーム)を構成する2本のマニピュレーター621、622を備える双腕ロボットである。ロボット601は、カメラ651および制御部661と一体に構成されており、制御部661から入力された制御信号により動作が制御される。また、ロボット601は、自己の状態等を示す信号を、制御部661に出力してもよい。
格納部611の上面には、胴体部材612、胴体部材613、胴体部材614が順に上側に取り付けられており、最も上部の胴体部材614の左側に左腕を構成するマニピュレーター621が取り付けられており、当該胴体部材614の右側に右腕を構成するマニピュレーター622が取り付けられており、格納部611の底面の左側に車輪641が取り付けられており、格納部611の底面の右側に車輪642が取り付けられており、格納部611の上面にカメラ651が取り付けられている。
なお、ロボット601は、人手により外力を加えることで、または、装置により自動的に、左側の車輪641および右側の車輪642を回転させて、移動させることが可能である。
格納部611には、制御部661が格納されている。
マニピュレーター621、622は、それぞれ、例えば、垂直多関節ロボットの一種であり、ロボットアームとして機能する。それぞれのマニピュレーター621、622は、その先端にハンド631、632を備える。
なお、図11の例では、カメラ651を格納部611の上面に備えたが、他の構成例として、カメラ651は、他の任意の場所に備えられてもよく、例えば、ロボットにおける他の任意の場所に備えられてもよく、または、ロボット以外の場所として、床面、天井、壁面などに固定されて備えられてもよい。
また、カメラ651は、例えば、人手により外力を加えることで、または、装置により自動的に、撮像方向や撮像角度などを変化させることが可能な構成であってもよい。
制御部661は、左腕のマニピュレーター621(およびハンド631)と、右腕のマニピュレーター622(およびハンド632)を制御する。制御部661とそれぞれのマニピュレーター621、631とは、例えば、有線または無線の回線を介して、制御信号などを伝送することが可能に接続される。
なお、制御部661は、例えば、左腕のマニピュレーター621(およびハンド631)と、右腕のマニピュレーター622(およびハンド632)とを、同時に関連付けて制御してもよく、または、左腕のマニピュレーター621(およびハンド631)と、右腕のマニピュレーター622(およびハンド632)とを、それぞれ別個に制御してもよい。
<第2の変形例>
図12は、本発明の実施形態の第2の変形例に係るロボットシステム701の概略的な構成を示す図である。
ロボットシステム701は、ロボット711と、カメラ712と、制御装置713と、カメラ712と制御装置713を接続して通信可能にする回線714と、ロボット711と制御装置713を接続して通信可能にする回線715を備える。ロボット711は、1本のマニピュレーター(アーム)を備える単腕のロボットであり、マニピュレーターの先端部に取り付けられたハンド(ロボットのハンド)721を備える。制御装置713は、図1に示される制御部41と同様な機能を備える。
図12には、テーブル(作業机)81の上に戴置(配置)された複数の対象82(図12では、1個の対象のみに符号を付してある。)を示してある。なお、テーブル81および対象82は、図1に示されるものと同様であり、図1と同一の符号を用いてある。
ここで、図1に示されるロボットシステム1と比べて、図12に示されるロボットシステム701では、ロボット711と制御装置713(図1に示される制御部41に対応するもの)とが別体で構成されている。制御装置713は、回線714を介してカメラ712との間で通信する機能や、回線715を介してロボット711との間で通信する機能を備える。
図12の例のように、ロボット711と制御装置713とが別体で構成されるロボットシステム701においても、これらが一体で構成されるロボットシステム(例えば、図1に示されるロボットシステム1や、図11に示されるロボット601を含むロボットシステム)と同様な効果を得ることができる。
なお、図11に示されるロボット601についても、他の構成例として、ロボット601の制御部661以外の部分と、制御部661とが別体で構成されてもよい。
[以上の実施形態に関する構成例]
一構成例として、載置された複数の物体(図1の例では、対象82)のうちの一の物体を把持するロボット(図1の例では、ロボット11であり、図11の例では、ロボット601)であって、前記一の物体を把持するハンド(図1の例では、ハンド21であり、図11の例では、ハンド631、632)と、前記ハンドを動作させる制御部(図1の例では、制御部41であり、図11の例では、制御部661)と、を含み、前記制御部は、前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標(以上の実施形態では、例えば、<第2の評価の指標となる値:周囲の点群との高低差>)により前記ハンドが前記一の物体を把持する把持位置(図4および図5の例では、領域201−1〜201−3に対応する把持位置であり、図6(A)および図6(B)の例では、領域501−1〜501−5、511−1〜511−9に対応する把持位置)を決定し、前記ハンドに前記一の物体の前記把持位置を把持させる、ロボットである。
一構成例として、ロボットにおいて、前記制御部は、前記複数の物体のうちの前記一の物体に対して複数の領域(図4および図5の例では、領域201−1〜201−3であり、図6(A)および図6(B)の例では、領域501−1〜501−5、511−1〜511−9)を設定し、設定されたそれぞれの領域ごとに前記評価指標を演算し、演算された前記評価指標に基づいて前記複数の領域のうちの一の領域に対応する把持位置を決定する。
一構成例として、ロボットにおいて、前記制御部は、前記一の物体における所定の軸(図4および図5の例では、円柱状の軸部152の中心軸であり、図6(A)および図6B)では、円柱状の軸部412、452の中心軸)の長手方向に沿って前記複数の領域を設定する。
一構成例として、ロボットにおいて、前記一の物体と他の物体との位置関係は、前記一の物体と周囲の他の物体との高低差(以上の実施形態では、例えば、<第2の評価の指標となる値:周囲の点群との高低差>)である。
一構成例として、ロボットにおいて、前記評価指標は、前記一の物体の角度(以上の実施形態では、<第1の評価の指標となる値:対象の角度>)、前記一の物体における所定の軸の検出誤差(以上の実施形態では、<第3の評価の指標となる値:中心軸推定誤差>)、または、前記一の物体について抽出される点の数(以上の実施形態では、<第4の評価の指標となる値:抽出点群数>)のうちの1つ以上を更に含む。
なお、例えば、2種類以上の指標となる値を総合した値(以上の実施形態では、評価値)に基づいて前記一の物体を把持する把持位置を決定する、構成が用いられてもよい。
一構成例として、載置された複数の物体を撮像する撮像部(図1の例では、カメラ12であり、図11の例では、カメラ651であり、図12の例では、カメラ712)と、前記複数の物体のうちの一の物体を把持するロボット(図1の例では、ロボット11であり、図11の例では、ロボット601であり、図12の例では、ロボット711)と、前記ロボットを動作させる制御部(図1の例では、制御部41であり、図11の例では、制御部661であり、図12の例では、制御装置713)と、を含み、前記制御部は、前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標により前記ロボットが前記一の物体を把持する把持位置を決定し、前記ロボットに前記一の物体の前記把持位置を把持させる、ロボットシステムである。
一構成例として、載置された複数の物体のうちの一の物体を把持するロボット(図12の例では、ロボット711)を動作させる制御装置(図12の例では、制御装置713)であって、撮像部(図12の例では、カメラ712)が前記複数の物体を撮像した撮像画像を受け付ける画像受付部(図2に示される制御部41の例を引用すると、画像情報受付部102)と、前記ロボットを動作させる処理部(図2に示される制御部41の例を引用すると、ロボット動作処理部101)と、を含み、前記処理部は、前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標により前記ロボットが前記一の物体を把持する把持位置を決定し、前記ロボットに前記一の物体の前記把持位置を把持させる、制御装置である。
一構成例として、載置された複数の物体のうちの一の物体を把持するロボット(図1の例では、ロボット11であり、図11の例では、ロボット601であり、図12の例では、ロボット711)を動作させる制御方法(図1の例では、カメラ12や制御部41により行われる制御方法であり、図11の例では、カメラ651や制御部661により行われる制御方法であり、図12の例では、カメラ712や制御装置713により行われる制御方法)であって、前記複数の物体を撮像することと、前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標を用いて、前記ロボットが前記一の物体を把持する把持位置を決定することと、前記ロボットに前記一の物体の前記把持位置を把持させることと、を含む制御方法である。
[以上の実施形態について]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
なお、以上に説明した装置(例えば、制御部41、661や制御装置713など)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM:Random Access Memory)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
1、701…ロボットシステム、11、601、711…ロボット、12、651、712…カメラ、13、714〜715…回線、21、631〜632、721…ハンド、41、661…制御部、81…テーブル、82、301〜302、401〜402…対象、101…ロボット動作処理部、102…画像情報受付部、103…記憶部、104…入力部、105…出力部、111…評価領域設定部、112…評価指標演算部、113…把持位置決定部、114…把持制御部、151、411、451…頭部、152、412、452…軸部、153…中心軸、201−1〜201−3、501−1〜501−5、511−1〜511−9…領域、1001、1011、1021…指標値、611…格納部、612〜614…胴体部分、621〜622…マニピュレーター、641〜642…車輪、713…制御装置

Claims (8)

  1. 載置された複数の物体のうちの一の物体を把持するロボットであって、
    前記一の物体を把持するハンドと、
    前記ハンドを動作させる制御部と、を含み、
    前記制御部は、前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標により前記ハンドが前記一の物体を把持する把持位置を決定し、前記ハンドに前記一の物体の前記把持位置を把持させる、
    ロボット。
  2. 前記制御部は、前記複数の物体のうちの前記一の物体に対して複数の領域を設定し、設定されたそれぞれの領域ごとに前記評価指標を演算し、演算された前記評価指標に基づいて前記複数の領域のうちの一の領域に対応する把持位置を決定する、
    請求項1に記載のロボット。
  3. 前記制御部は、前記一の物体における所定の軸の長手方向に沿って前記複数の領域を設定する、
    請求項2に記載のロボット。
  4. 前記一の物体と他の物体との位置関係は、前記一の物体と周囲の他の物体との高低差である、
    請求項1から請求項3のいずれか1項に記載のロボット。
  5. 前記評価指標は、前記一の物体の角度、前記一の物体における所定の軸の検出誤差、または、前記一の物体について抽出される点の数のうちの1つ以上を更に含む、
    請求項1から請求項4のいずれか1項に記載のロボット。
  6. 載置された複数の物体を撮像する撮像部と、
    前記複数の物体のうちの一の物体を把持するロボットと、
    前記ロボットを動作させる制御部と、を含み、
    前記制御部は、前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標により前記ロボットが前記一の物体を把持する把持位置を決定し、前記ロボットに前記一の物体の前記把持位置を把持させる、
    ロボットシステム。
  7. 載置された複数の物体のうちの一の物体を把持するロボットを動作させる制御装置であって、
    撮像部が前記複数の物体を撮像した撮像画像を受け付ける画像受付部と、
    前記ロボットを動作させる処理部と、を含み、
    前記処理部は、前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標により前記ロボットが前記一の物体を把持する把持位置を決定し、前記ロボットに前記一の物体の前記把持位置を把持させる、
    制御装置。
  8. 載置された複数の物体のうちの一の物体を把持するロボットを動作させる制御方法であって、
    前記複数の物体を撮像することと、
    前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標を用いて、前記ロボットが前記一の物体を把持する把持位置を決定することと、
    前記ロボットに前記一の物体の前記把持位置を把持させることと、
    を含む制御方法。
JP2014019263A 2014-02-04 2014-02-04 ロボット、ロボットシステム、制御装置および制御方法 Expired - Fee Related JP6357785B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014019263A JP6357785B2 (ja) 2014-02-04 2014-02-04 ロボット、ロボットシステム、制御装置および制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014019263A JP6357785B2 (ja) 2014-02-04 2014-02-04 ロボット、ロボットシステム、制御装置および制御方法

Publications (2)

Publication Number Publication Date
JP2015145055A true JP2015145055A (ja) 2015-08-13
JP6357785B2 JP6357785B2 (ja) 2018-07-18

Family

ID=53889620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014019263A Expired - Fee Related JP6357785B2 (ja) 2014-02-04 2014-02-04 ロボット、ロボットシステム、制御装置および制御方法

Country Status (1)

Country Link
JP (1) JP6357785B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017209746A (ja) * 2016-05-25 2017-11-30 ファナック株式会社 ワイヤ放電加工システム
WO2018131108A1 (ja) * 2017-01-12 2018-07-19 株式会社Fuji 作業機および採取位置選択方法
JP2019181573A (ja) * 2018-04-02 2019-10-24 Kyoto Robotics株式会社 ピッキング装置及びその方法
JP2020059078A (ja) * 2018-10-09 2020-04-16 株式会社Fuji ピッキング装置
JP2020093341A (ja) * 2018-12-12 2020-06-18 アズビル株式会社 容易度判定装置及び容易度判定方法
WO2020188646A1 (ja) 2019-03-15 2020-09-24 オムロン株式会社 パラメータ調整装置、パラメータ調整方法及びプログラム
JPWO2019130429A1 (ja) * 2017-12-26 2021-04-01 Kyoto Robotics株式会社 ピッキング対象物把持情報登録システム
JP2021074799A (ja) * 2019-11-06 2021-05-20 ファナック株式会社 制御装置、その制御方法、及び制御システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11485015B2 (en) 2019-02-21 2022-11-01 Hiwin Technologies Corp. System for eliminating interference of randomly stacked workpieces
KR102214434B1 (ko) * 2019-03-14 2021-02-09 하이윈 테크놀로지스 코포레이션 랜덤으로 적치되는 복수 개의 부품 간섭을 제거하는 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010089238A (ja) * 2008-10-10 2010-04-22 Honda Motor Co Ltd ワーク取り出し方法
US20100274391A1 (en) * 2007-12-15 2010-10-28 Abb Ag Determining the position of an object
WO2012066819A1 (ja) * 2010-11-17 2012-05-24 三菱電機株式会社 ワーク取り出し装置
JP2012125886A (ja) * 2010-12-15 2012-07-05 Canon Inc 物体把持装置、物体把持装置の制御方法、およびプログラム
JP2012187666A (ja) * 2011-03-10 2012-10-04 Fuji Electric Co Ltd ロボット制御装置、物品取り出しシステム、プログラムおよびロボットの制御方法
JP2014180704A (ja) * 2013-03-18 2014-09-29 Yaskawa Electric Corp ロボットピッキングシステム及び被加工物の製造方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100274391A1 (en) * 2007-12-15 2010-10-28 Abb Ag Determining the position of an object
JP2010089238A (ja) * 2008-10-10 2010-04-22 Honda Motor Co Ltd ワーク取り出し方法
WO2012066819A1 (ja) * 2010-11-17 2012-05-24 三菱電機株式会社 ワーク取り出し装置
JP2012125886A (ja) * 2010-12-15 2012-07-05 Canon Inc 物体把持装置、物体把持装置の制御方法、およびプログラム
JP2012187666A (ja) * 2011-03-10 2012-10-04 Fuji Electric Co Ltd ロボット制御装置、物品取り出しシステム、プログラムおよびロボットの制御方法
JP2014180704A (ja) * 2013-03-18 2014-09-29 Yaskawa Electric Corp ロボットピッキングシステム及び被加工物の製造方法

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10780513B2 (en) 2016-05-25 2020-09-22 Fanuc Corporation Wire electrical discharge machining system
JP2017209746A (ja) * 2016-05-25 2017-11-30 ファナック株式会社 ワイヤ放電加工システム
US11305432B2 (en) 2017-01-12 2022-04-19 Fuji Corporation Work machine and pick-up position selection method
WO2018131108A1 (ja) * 2017-01-12 2018-07-19 株式会社Fuji 作業機および採取位置選択方法
JPWO2018131108A1 (ja) * 2017-01-12 2019-11-07 株式会社Fuji 作業機および採取位置選択方法
CN110167723A (zh) * 2017-01-12 2019-08-23 株式会社富士 作业机及拾取位置选择方法
JPWO2019130429A1 (ja) * 2017-12-26 2021-04-01 Kyoto Robotics株式会社 ピッキング対象物把持情報登録システム
JP2019181573A (ja) * 2018-04-02 2019-10-24 Kyoto Robotics株式会社 ピッキング装置及びその方法
JP7117126B2 (ja) 2018-04-02 2022-08-12 Kyoto Robotics株式会社 ピッキング装置及びその方法
JP2020059078A (ja) * 2018-10-09 2020-04-16 株式会社Fuji ピッキング装置
JP7185473B2 (ja) 2018-10-09 2022-12-07 株式会社Fuji ピッキング装置
JP2020093341A (ja) * 2018-12-12 2020-06-18 アズビル株式会社 容易度判定装置及び容易度判定方法
JP7296719B2 (ja) 2018-12-12 2023-06-23 アズビル株式会社 容易度判定装置及び容易度判定方法
CN112584986A (zh) * 2019-03-15 2021-03-30 欧姆龙株式会社 参数调整装置、参数调整方法以及程序
WO2020188646A1 (ja) 2019-03-15 2020-09-24 オムロン株式会社 パラメータ調整装置、パラメータ調整方法及びプログラム
US11945113B2 (en) 2019-03-15 2024-04-02 Omron Corporation Parameter adjustment device, parameter adjustment method, and program
JP2021074799A (ja) * 2019-11-06 2021-05-20 ファナック株式会社 制御装置、その制御方法、及び制御システム
JP7424800B2 (ja) 2019-11-06 2024-01-30 ファナック株式会社 制御装置、その制御方法、及び制御システム

Also Published As

Publication number Publication date
JP6357785B2 (ja) 2018-07-18

Similar Documents

Publication Publication Date Title
JP6357785B2 (ja) ロボット、ロボットシステム、制御装置および制御方法
US10589424B2 (en) Robot control device, robot, and robot system
US10350768B2 (en) Control device, robot, and robot system
EP3650181B1 (en) Route output method, route output system and route output program
JP2020532440A (ja) オブジェクトをロバストに把持し、ターゲティングするためのロボットシステムおよび方法
US10286557B2 (en) Workpiece position/posture calculation system and handling system
JP2015199155A (ja) 情報処理装置および情報処理方法、プログラム
JP5560948B2 (ja) ロボット装置
JP2015147256A (ja) ロボット、ロボットシステム、制御装置、及び制御方法
JP2017071018A (ja) ロボットシステム、ロボット、及びロボット制御装置
CN104597891A (zh) 信息处理装置及信息处理方法
JP2018144144A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP7377627B2 (ja) 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム
US11097414B1 (en) Monitoring of surface touch points for precision cleaning
JP2016196077A (ja) 情報処理装置、情報処理方法、およびプログラム
US20180215044A1 (en) Image processing device, robot control device, and robot
JP2020163502A (ja) 物体検出方法、物体検出装置およびロボットシステム
JP2015182212A (ja) ロボットシステム、ロボット、制御装置、及び制御方法
JP2015160257A (ja) ロボット、ロボットシステム、制御装置および制御方法
JP2018017654A (ja) 検出装置、ロボットおよびロボット制御装置
JP2015157343A (ja) ロボット、ロボットシステム、制御装置、および制御方法
CN113284129B (zh) 基于3d包围盒的压箱检测方法及装置
JP2010236893A (ja) 複数の物体間の相対移動を検出する方法
JP6528641B2 (ja) 自己位置推定方法
JP5862382B2 (ja) 作業支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180604

R150 Certificate of patent or registration of utility model

Ref document number: 6357785

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees