JP2015145055A - ロボット、ロボットシステム、制御装置および制御方法 - Google Patents
ロボット、ロボットシステム、制御装置および制御方法 Download PDFInfo
- Publication number
- JP2015145055A JP2015145055A JP2014019263A JP2014019263A JP2015145055A JP 2015145055 A JP2015145055 A JP 2015145055A JP 2014019263 A JP2014019263 A JP 2014019263A JP 2014019263 A JP2014019263 A JP 2014019263A JP 2015145055 A JP2015145055 A JP 2015145055A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- value
- objects
- evaluation
- gripping position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 33
- 238000011156 evaluation Methods 0.000 claims abstract description 151
- 238000012545 processing Methods 0.000 claims description 30
- 238000001514 detection method Methods 0.000 claims description 18
- 238000003384 imaging method Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003746 surface roughness Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
この構成により、ロボットでは、制御部が、複数の物体のうちの一の物体と他の物体との位置関係を含む評価指標によりハンドが前記一の物体を把持する把持位置を決定し、当該ハンドに前記一の物体の前記把持位置を把持させる。これにより、ロボットでは、ハンドにとって対象(物体)を把持しやすい把持位置で対象を把持することができる。
この構成により、ロボットでは、制御部は、複数の物体のうちの一の物体に対して複数の領域を設定し、設定されたそれぞれの領域ごとに評価指標を演算し、演算された評価指標に基づいて前記複数の領域のうちの一の領域に対応する把持位置を決定する。これにより、ロボットでは、一の物体について、領域ごとの評価指標に基づいて、複数の領域のうちで、把持するために良好な領域に対応する把持位置を決定することができる。
この構成により、ロボットでは、制御部は、一の物体における所定の軸の長手方向に沿って複数の領域を設定する。これにより、ロボットでは、一の物体における所定の軸の長手方向に沿って設定された複数の領域のうちで、把持するために良好な領域に対応する把持位置を決定することができる。
この構成により、ロボットでは、制御部は、一の物体と周囲の他の物体との高低差を含む評価指標によりハンドが前記一の物体を把持する把持位置を決定する。これにより、ロボットでは、一の物体と周囲の他の物体との高低差に基づいて、ハンドにとって対象(物体)を把持しやすい把持位置を決定することができる。
この構成により、ロボットでは、制御部は、一の物体の角度、一の物体における所定の軸の検出誤差、または、一の物体について抽出される点の数のうちの1つ以上を含む評価指標によりハンドが前記一の物体を把持する把持位置を決定する。これにより、ロボットでは、ハンドにとって対象(物体)を把持しやすい把持位置を決定することができる。
この構成により、ロボットシステムでは、制御部が、複数の物体のうちの一の物体と他の物体との位置関係を含む評価指標によりロボットが前記一の物体を把持する把持位置を決定し、当該ロボットに前記一の物体の前記把持位置を把持させる。これにより、ロボットシステムでは、ロボットにとって対象(物体)を把持しやすい把持位置で対象を把持することができる。
この構成により、制御装置では、処理部が、複数の物体のうちの一の物体と他の物体との位置関係を含む評価指標によりロボットが前記一の物体を把持する把持位置を決定し、当該ロボットに前記一の物体の前記把持位置を把持させる。これにより、制御装置では、ロボットにとって対象(物体)を把持しやすい把持位置で対象を把持させることができる。
[本実施形態に係るロボットシステムの概要]
図1は、本発明の一実施形態に係るロボットシステム1の概略的な構成を示す図である。
本実施形態に係るロボットシステム1は、ロボット11と、カメラ12と、これらを接続して通信可能にする回線13を備える。ロボット11は、1本のマニピュレーター(アーム)を備える単腕のロボットであり、マニピュレーターの先端部に取り付けられたハンド(ロボットのハンド)21と、制御部41を備える。
マニピュレーターとしては、6軸のマニピュレーターが用いられており、他の構成例として、7軸のマニピュレーターまたは5軸以下のマニピュレーターが用いられてもよい。
本実施形態では、ロボット11は、ハンド21により対象82を把持することが可能な配置で設置されており、また、カメラ12は、対象82を撮像することが可能な配置で設置されている。
ハンド21は、任意の形状を有してもよく、本実施形態では、ピッキング作業に適する形状を有するハンドを想定しており、具体的には、ピッキング対象となるボルトを精密に把持することができる開閉可能な2本の指(棒状の部位)を有する。ハンド21が有する指の数は、任意であってもよい。また、ハンド21が有する指は、例えば、直線状であってもよく、または、一部又は全部が曲線状や折れ線状であってもよい。
制御部41は、ロボット11(ハンド21を含む。)やカメラ12の動作の制御などを行う。
本実施形態に係る制御部41は、ロボット動作処理部101と、画像情報受付部102と、記憶部103と、入力部104と、出力部105を備える。
ロボット動作処理部101は、評価領域設定部111と、評価指標演算部112と、把持位置決定部113と、把持制御部114を備える。ロボット動作処理部101は、例えば、画像処理や、ロボット11の制御処理を行う。
本実施形態では、カメラ12は、画像を撮像し、撮像した画像について3次元点群の情報を取得し、取得した3次元点群の情報を画像の情報として回線13を介して画像情報受付部102に出力する。例えば、ロボット動作処理部101では、3次元点群の情報に基づいて、画像に写る物体の3次元の位置や姿勢を検出(例えば、推定)することができる。
入力部104は、外部からの入力を受け付ける。入力部104は、例えば、ユーザーにより操作された操作入力を受け付けるキーボードやマウスなどを含んで構成される。また、入力部104は、例えば、外部の装置からの入力を受け付ける機能を含んで構成されてもよい。
出力部105は、外部への出力を行う。出力部105は、例えば、ユーザーに対して各種の情報を画像で表示する画面(例えば、液晶ディスプレイ)や、ユーザーに対して音声の情報を出力するスピーカーなどを含んで構成される。また、出力部105は、例えば、外部の装置へ情報を出力する機能を含んで構成されてもよい。
評価領域設定部111は、画像情報受付部102により受け付けられた画像の情報において、対象82に対して評価を行う複数の領域(評価領域)を設定する。
評価指標演算部112は、評価領域設定部111により設定された領域ごとに、評価の指標となる値を演算する。
把持位置決定部113は、評価指標演算部112により演算された評価の指標となる値に基づいて、領域ごとに評価を行い、その結果、ハンド21にとって対象82を把持しやすい把持位置を決定する。本実施形態では、この把持位置として、領域ごとに対応する把持位置が用いられる。つまり、本実施形態では、把持位置決定部113は、ハンド21にとって対象82を把持しやすい領域に対応する把持位置を、ハンド21にとって対象82を把持しやすい把持位置として、決定する。
把持制御部114は、把持位置決定部113により決定された対象82の把持位置をハンド21により把持させるように制御する。
図3は、本発明の一実施形態に係る対象82の構造を示す図である。
本実施形態に係る対象82は、ボルトの頭部151と、ボルトの軸部152を有する。また、図3には、ボルトの軸部152の形状である円柱の中心軸153を示してある。
円柱状の形状を有する軸部152について、その端面の円の半径はr(rは正の値)であり、その円柱の高さ(長さ)はh(hは正の値)である。頭部151は、軸部152と同様に円柱状の形状を有しており、軸部152に対して、その円の半径が大きく、その円柱の高さが小さい。軸部152と頭部151とで、中心軸153は一致する。
このように、本実施形態に係る対象82は、慨して、全体的に円柱状の物体であり、特に、ハンド21により把持する軸部152が円柱状である。本実施形態に係る対象82は、位置や姿勢を推定する対象となる。
本例では、対象82の軸部152に、3個の同一の楕円状の領域201−1〜201−3が軸部152の長手方向に接せられて設定されている。それぞれの楕円状の領域201−1〜201−3では、軸部152の長手方向に短軸が設けられ、当該長手方向に対して垂直な方向に長軸が設けられている。それぞれの楕円状の領域201−1〜201−3の中心は、軸部152の長手方向の中心線上に設けられている。
ここで、対象82および当該対象82に設定された複数の領域201−1〜201−3は、図4に示されるものと同様である。対象82の周囲に、他の対象301〜302が存在する。
図6(A)には、頭部411および軸部412を有する対象401に対して設定された複数の領域501−1〜501−5の一例を示してある。本例では、対象401の軸部412に、5個の同一の長方形状の領域501−1〜501−5が軸部412の長手方向に接せられて設定されている。それぞれの長方形状の領域501−1〜501−3では、軸部412の長手方向に短辺が設けられ、当該長手方向に対して垂直な方向に長辺が設けられている。それぞれの長方形状の領域501−1〜501−3では、短辺の長さLはハンド21が軸部412を把持するときにおける当該短辺方向のハンド21の厚さ以上に設定されており、また、長辺の長さWは当該長辺方向の軸部412の長さ(直径)の所定数倍(例えば、2〜3倍など)に設定されている。それぞれの長方形状の領域501−1〜501−5の中心は、軸部412の長手方向の中心線上に設けられている。
ここで、1個の対象82に対して設定される複数の領域の数や形状は、それぞれ、様々であってもよい。
また、1個の対象82に対して設定される複数の領域の形状は、必ずしも同一でなくてもよく、異なる形状を有する領域が含まれてもよい。
また、1個の対象82に対して設定される複数の領域の配置(設定される位置、他の領域との重複の有無、他の領域と重複する場合における重複の程度など)は、様々であってもよい。
本実施形態に係るロボットシステム1では、図3に示される対象82の軸部152について3次元の位置や姿勢を検出する。本実施形態では、この検出の対象は円柱物体であり、その半径rと長さhがパラメータとして既知である必要がある。
評価領域設定部111は、まず、画像情報受付部102により取得された画像情報に相当する3次元点群の情報に基づいて、検出の対象82(本実施形態では、複数のボルトのうちの1個のボルト)に含まれる点群(検出の対象に含まれると推定される点群)を分離し、当該対象82の位置や姿勢を検出し、当該対象82に対して複数の領域(評価領域)を設定する。ここで、評価領域設定部111が、検出の対象82に含まれる点群を分離する手法や、当該対象82の位置や姿勢を検出する手法としては、それぞれ、任意の手法が用いられてもよく、例えば、公知の手法が用いられてもよい。
ここで、<第1の評価の指標となる値>〜<第4の評価の指標となる値>は、それぞれ、0〜1の範囲の値を取り、総合的な評価の指標となる値(評価値)も0〜1の範囲の値を取る。
評価指標演算部112は、第1の評価の指標となる値として、対象82の角度に関する指標値を計算する。
図7は、本発明の一実施形態に係る対象82の角度(本実施形態では、軸部152の角度)と指標値1001との対応の一例を示す図である。図7に示されるグラフにおいて、横軸は角度(deg)を表しており、縦軸は指標値を表している。
本例の指標値1001は、ハンド21により対象82を把持するために最適な角度(一例として、水平であり、他の例として、垂直など)を中央値とする正規分布によって決定される。この正規分布の分散は、使用されるハンド21がどれだけの傾きに対して把持可能であるかに応じて決定される。また、パラメーターの値(指標値1001)を0とする角度の範囲は、ハンド21の形状や、対象82が容器に入っている場合における当該容器などに応じて決定される。
評価指標演算部112は、第2の評価の指標となる値として、周囲の点群との高低差に関する指標値を計算する。
本例では、この指標値を決定するために、評価指標演算部112は、所定範囲内における対象82の点群分割後の「分離した対象82の点群の高さの平均」と「それ以外の点群の高さの平均」との差の値を用いる。ここで、この所定範囲は、例えば、対象82の大きさや検出手法、ハンド21の仕様に依存して決定される。一例として、この所定範囲として、対象82(あるいは、その一部である軸部152など)に外接する所定の形状(例えば、矩形など)よりも大きい所定の形状の範囲が用いられる。この指標値は、検出されたピッキング対象が、山積みされている場合に、山に埋もれてしまっているか否かを評価するための指標となる。
本例では、図8に示されるグラフにおいて、横軸は(前記した差の値の逆数)または(前記した差の値より大きい所定値−前記した差の値)などを表しており、縦軸は評価値を表している。本例では、前記した差の値が大きいほど、ハンド21により対象82を把持しやすいと評価される。
評価指標演算部112は、第3の評価の指標となる値として、中心軸推定誤差に関する指標値を計算する。
本例では、この指標値を計算するために、分離された対象82の点群が、対象82について検出(本実施形態では、推定的に検出)された中心軸および当該対象82の半径に対してどれだけ誤差を持つかを示す値(中心軸推定誤差の値)を計算して用いる。この指標値は、中心軸の検出精度(本実施形態では、推定精度)がどの程度であったかを評価するための指標となる。
ここで、中心軸および半径は、図3の例では、軸部152の中心軸153および半径rに相当する。
本例では、図8に示されるグラフにおいて、横軸は(前記した中心軸推定誤差の値)を表しており、縦軸は評価値を表している。本例では、前記した中心軸推定誤差の値が小さいほど、ハンド21により対象82を把持しやすいと評価される。
式(1)において、xはグラフの横軸の値を表しており、yはグラフの縦軸の値を表わしている。一例として、Aの値は1であるとする。ρの値とαの値は、環境に依存し、ρの値を大きくすることで厳しく評価値の計算(厳しい評価)を行うか、または、ρの値を小さくすることで緩く評価値の計算(緩い評価)を行うかを操作して調整することが可能である。
また、ρの値は、対象82の半径によって決定されるが、例えば、半径rの50%程度またはそれ以下の値が望ましい。ρの値については、例えば、点群の取得精度や、対象82の表面の粗さ等によって、最適な値が変化し得る。本例では、ρの値としては、1以上の値が用いられる。
評価指標演算部112は、第4の評価の指標となる値として、抽出される点群における点の数(抽出点群数)に関する指標値を計算する。
本例では、この評価値を計算するために、最適な条件であればどの程度の点の数(点群数)が対象82に見込めるかを示す値をあらかじめ計算しておき、その値に対してどれだけ実際の値に差があるかを示す値(抽出点群数の値)を計算して指標とする。なお、この差としては、例えば、2つの値の差分に限られず、2つの値の割合が用いられてもよい。この評価値は、分離された対象82について、3次元点群における点の数をどれだけ得ることができたか、つまり中心軸の検出(本実施形態では、推定)にどれだけ信頼性があるかを評価するための指標となる。
本例では、図9に示されるグラフにおいて、横軸は(前記した抽出点群数の値)を表しており、縦軸は評価値を表している。本例では、前記した抽出点群数の値が大きいほど、ハンド21により対象82を把持しやすいと評価される。
式(1)において、xはグラフの横軸の値を表しており、yはグラフの縦軸の値を表わしている。一例として、Aの値は1であるとする。ρの値とαの値は、環境に依存し、ρの値を大きくすることで厳しく評価値の計算(厳しい評価)を行うか、または、ρの値を小さくすることで緩く評価値の計算(緩い評価)を行うかを操作して調整することが可能である。
なお、抽出点群数の値として前記した割合の値が用いられる場合には、例えば、ρの値は0.5程度に設定される。この理由は、点群数そのものが一定値以下である場合はそもそも正確な検出や推定に失敗していることを示すためである。
評価指標演算部112は、対象82に対して設定された領域ごとに、4個のパラメーターである<第1の評価の指標となる値>〜<第4の評価の指標となる値>を積算した結果を総合的な評価の指標となる値(評価値)として計算する。この評価値は、ハンド21による対象82の各領域の把持しやすさを評価するための値として用いられる。本実施形態では、この評価値が大きい方が、ハンド21により対象82を把持しやすいと判定される。
他の構成例として、評価指標演算部112は、対象82に対して設定された領域ごとに、4個のパラメーターである<第1の評価の指標となる値>〜<第4の評価の指標となる値>を重み付けして総和した結果を総合的な評価の指標となる値(評価値)として計算することも可能である。
図10は、本発明の一実施形態に係るロボット11の制御部41において行われる処理の手順の一例を示すフローチャートである。
(ステップS1)
画像情報受付部102は、カメラ12から出力された画像の情報を受け付けて取得する。
(ステップS2)
評価領域設定部111は、画像情報受付部102により取得された画像の情報に基づいて、当該画像において、検出対象とする1個の対象82を選択し、選択した対象82について複数の領域(評価領域)を設定する。
ここで、評価領域設定部111が、画像に複数の対象が映っている場合に1個の対象82を選択する手法としては、任意であってもよい。一例として、この手法として、本実施形態において複数の領域のそれぞれごとに評価値(または、任意の評価の指標となる値でもよい。)を計算した結果に基づいて1個の領域を選択する手法と同様な手法が用いられてもよい。他の例として、この手法として、画像に映る複数の対象のうちの1個の対象をランダムに選択する手法が用いられてもよく、または、画像に映る複数の対象のうちで最も占有領域が大きい1個の対象を選択する手法などが用いられてもよい。
評価指標演算部112は、評価領域設定部111により1個の対象82に対して設定された複数の領域のそれぞれごとに評価の指標となる値を演算(計算)し、その結果に基づいて複数の領域のそれぞれごとに評価値を演算(計算)する。
(ステップS4)
把持位置決定部113は、評価指標演算部112による演算結果に基づいて、対象82に対して設定された複数の領域のそれぞれごとに求められた評価値を比較して、最も把持しやすいと判定される1個の領域(本実施形態では、評価値が最も大きい1個の領域)を、ハンド21により把持する位置(把持位置)の領域として、選択して決定する。
把持制御部114は、把持位置決定部113により決定された把持位置の領域で対象82をハンド21により把持するように、ロボット11のマニピュレーターおよびハンド21の位置や姿勢を制御する。
ここで、位置や姿勢の制御としては、例えば、位置と姿勢のうちの任意の一方のみの制御が行われてもよく、または、両方の制御が行われてもよい。
また、ロボット動作処理部101(把持位置決定部113)は、複数の候補(例えば、複数の領域や、複数の対象など)のうちで、評価値が2番目以降の所定の順番の候補を選択する、構成が用いられてもよい。
また、ロボット動作処理部101(把持位置決定部113)は、ある候補(例えば、領域や、対象など)について評価値が所定の閾値以下(または、所定の閾値未満)である場合には、次に候補の検出(または、設定など)をやり直すときに、前記した評価値が所定の閾値以下(または、所定の閾値未満)であった候補については処理対象(ここでは、検出対象)から外す、構成が用いられてもよい。
なお、評価値の基準としては、本実施形態では、評価値が大きい方が良好である構成が用いられているが、他の構成例として、評価値が小さい方が良好である構成が用いられてもよく、この場合には、本実施形態における所定の閾値以下(または、所定の閾値未満)という条件の代わりに、所定の閾値以上(または、所定の閾値を超える)という条件が用いられる。
以上のように、本実施形態に係るロボットシステム1では、カメラ12により得られた3次元点群情報に対して、対象82のパラメーターを利用することで、点群中に存在する対象82の中心軸や、その位置を示す座標や、その傾き(姿勢)を求める。さらに、本実施形態に係るロボットシステム1では、求められた対象82の位置や姿勢、その検出精度(例えば、推定精度)、周囲の環境(周囲の情報)などのうちの1つ以上を考慮することで、対象82の把持のしやすさを評価する指標となる値を複数の領域のそれぞれごとに計算し、その値を利用することで把持しやすい対象82を選択して、対象82の確実な把持や処理の高速化を実現する。また、本実施形態に係るロボットシステム1では、例えば、領域(または、対象82などでもよい。)を複数の結果に基づいて選択することで、より正確な位置や姿勢の検出結果(例えば、推定結果)を選択することも可能となる。
本実施形態では、一例として、対象82はボルトまたはネジなどに代表される円柱状の物体であり、この円柱物体(円柱に近似することが可能な物体でもよい。)のパラメーター(本実施形態では、半径r、高さh)は、例えば、事前にユーザーによって制御部41(例えば、記憶部103)に入力されて記憶される。
<第1の変形例>
図11は、本発明の実施形態の第1の変形例に係るロボット601の概略的な構成を示す図である。
ロボット601は、格納部611と、胴体部分612〜614と、左側のマニピュレーター621およびハンド631と、右側のマニピュレーター622およびハンド632と、左側の車輪641と、右側の車輪642と、カメラ651と、制御部661を備える。
なお、ロボット601は、人手により外力を加えることで、または、装置により自動的に、左側の車輪641および右側の車輪642を回転させて、移動させることが可能である。
格納部611には、制御部661が格納されている。
マニピュレーター621、622は、それぞれ、例えば、垂直多関節ロボットの一種であり、ロボットアームとして機能する。それぞれのマニピュレーター621、622は、その先端にハンド631、632を備える。
また、カメラ651は、例えば、人手により外力を加えることで、または、装置により自動的に、撮像方向や撮像角度などを変化させることが可能な構成であってもよい。
なお、制御部661は、例えば、左腕のマニピュレーター621(およびハンド631)と、右腕のマニピュレーター622(およびハンド632)とを、同時に関連付けて制御してもよく、または、左腕のマニピュレーター621(およびハンド631)と、右腕のマニピュレーター622(およびハンド632)とを、それぞれ別個に制御してもよい。
図12は、本発明の実施形態の第2の変形例に係るロボットシステム701の概略的な構成を示す図である。
ロボットシステム701は、ロボット711と、カメラ712と、制御装置713と、カメラ712と制御装置713を接続して通信可能にする回線714と、ロボット711と制御装置713を接続して通信可能にする回線715を備える。ロボット711は、1本のマニピュレーター(アーム)を備える単腕のロボットであり、マニピュレーターの先端部に取り付けられたハンド(ロボットのハンド)721を備える。制御装置713は、図1に示される制御部41と同様な機能を備える。
図12には、テーブル(作業机)81の上に戴置(配置)された複数の対象82(図12では、1個の対象のみに符号を付してある。)を示してある。なお、テーブル81および対象82は、図1に示されるものと同様であり、図1と同一の符号を用いてある。
なお、図11に示されるロボット601についても、他の構成例として、ロボット601の制御部661以外の部分と、制御部661とが別体で構成されてもよい。
一構成例として、載置された複数の物体(図1の例では、対象82)のうちの一の物体を把持するロボット(図1の例では、ロボット11であり、図11の例では、ロボット601)であって、前記一の物体を把持するハンド(図1の例では、ハンド21であり、図11の例では、ハンド631、632)と、前記ハンドを動作させる制御部(図1の例では、制御部41であり、図11の例では、制御部661)と、を含み、前記制御部は、前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標(以上の実施形態では、例えば、<第2の評価の指標となる値:周囲の点群との高低差>)により前記ハンドが前記一の物体を把持する把持位置(図4および図5の例では、領域201−1〜201−3に対応する把持位置であり、図6(A)および図6(B)の例では、領域501−1〜501−5、511−1〜511−9に対応する把持位置)を決定し、前記ハンドに前記一の物体の前記把持位置を把持させる、ロボットである。
一構成例として、ロボットにおいて、前記制御部は、前記一の物体における所定の軸(図4および図5の例では、円柱状の軸部152の中心軸であり、図6(A)および図6B)では、円柱状の軸部412、452の中心軸)の長手方向に沿って前記複数の領域を設定する。
一構成例として、ロボットにおいて、前記一の物体と他の物体との位置関係は、前記一の物体と周囲の他の物体との高低差(以上の実施形態では、例えば、<第2の評価の指標となる値:周囲の点群との高低差>)である。
一構成例として、ロボットにおいて、前記評価指標は、前記一の物体の角度(以上の実施形態では、<第1の評価の指標となる値:対象の角度>)、前記一の物体における所定の軸の検出誤差(以上の実施形態では、<第3の評価の指標となる値:中心軸推定誤差>)、または、前記一の物体について抽出される点の数(以上の実施形態では、<第4の評価の指標となる値:抽出点群数>)のうちの1つ以上を更に含む。
なお、例えば、2種類以上の指標となる値を総合した値(以上の実施形態では、評価値)に基づいて前記一の物体を把持する把持位置を決定する、構成が用いられてもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
Claims (8)
- 載置された複数の物体のうちの一の物体を把持するロボットであって、
前記一の物体を把持するハンドと、
前記ハンドを動作させる制御部と、を含み、
前記制御部は、前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標により前記ハンドが前記一の物体を把持する把持位置を決定し、前記ハンドに前記一の物体の前記把持位置を把持させる、
ロボット。 - 前記制御部は、前記複数の物体のうちの前記一の物体に対して複数の領域を設定し、設定されたそれぞれの領域ごとに前記評価指標を演算し、演算された前記評価指標に基づいて前記複数の領域のうちの一の領域に対応する把持位置を決定する、
請求項1に記載のロボット。 - 前記制御部は、前記一の物体における所定の軸の長手方向に沿って前記複数の領域を設定する、
請求項2に記載のロボット。 - 前記一の物体と他の物体との位置関係は、前記一の物体と周囲の他の物体との高低差である、
請求項1から請求項3のいずれか1項に記載のロボット。 - 前記評価指標は、前記一の物体の角度、前記一の物体における所定の軸の検出誤差、または、前記一の物体について抽出される点の数のうちの1つ以上を更に含む、
請求項1から請求項4のいずれか1項に記載のロボット。 - 載置された複数の物体を撮像する撮像部と、
前記複数の物体のうちの一の物体を把持するロボットと、
前記ロボットを動作させる制御部と、を含み、
前記制御部は、前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標により前記ロボットが前記一の物体を把持する把持位置を決定し、前記ロボットに前記一の物体の前記把持位置を把持させる、
ロボットシステム。 - 載置された複数の物体のうちの一の物体を把持するロボットを動作させる制御装置であって、
撮像部が前記複数の物体を撮像した撮像画像を受け付ける画像受付部と、
前記ロボットを動作させる処理部と、を含み、
前記処理部は、前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標により前記ロボットが前記一の物体を把持する把持位置を決定し、前記ロボットに前記一の物体の前記把持位置を把持させる、
制御装置。 - 載置された複数の物体のうちの一の物体を把持するロボットを動作させる制御方法であって、
前記複数の物体を撮像することと、
前記複数の物体のうちの前記一の物体と他の物体との位置関係を含む評価指標を用いて、前記ロボットが前記一の物体を把持する把持位置を決定することと、
前記ロボットに前記一の物体の前記把持位置を把持させることと、
を含む制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014019263A JP6357785B2 (ja) | 2014-02-04 | 2014-02-04 | ロボット、ロボットシステム、制御装置および制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014019263A JP6357785B2 (ja) | 2014-02-04 | 2014-02-04 | ロボット、ロボットシステム、制御装置および制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015145055A true JP2015145055A (ja) | 2015-08-13 |
JP6357785B2 JP6357785B2 (ja) | 2018-07-18 |
Family
ID=53889620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014019263A Expired - Fee Related JP6357785B2 (ja) | 2014-02-04 | 2014-02-04 | ロボット、ロボットシステム、制御装置および制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6357785B2 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017209746A (ja) * | 2016-05-25 | 2017-11-30 | ファナック株式会社 | ワイヤ放電加工システム |
WO2018131108A1 (ja) * | 2017-01-12 | 2018-07-19 | 株式会社Fuji | 作業機および採取位置選択方法 |
JP2019181573A (ja) * | 2018-04-02 | 2019-10-24 | Kyoto Robotics株式会社 | ピッキング装置及びその方法 |
JP2020059078A (ja) * | 2018-10-09 | 2020-04-16 | 株式会社Fuji | ピッキング装置 |
JP2020093341A (ja) * | 2018-12-12 | 2020-06-18 | アズビル株式会社 | 容易度判定装置及び容易度判定方法 |
WO2020188646A1 (ja) | 2019-03-15 | 2020-09-24 | オムロン株式会社 | パラメータ調整装置、パラメータ調整方法及びプログラム |
JPWO2019130429A1 (ja) * | 2017-12-26 | 2021-04-01 | Kyoto Robotics株式会社 | ピッキング対象物把持情報登録システム |
JP2021074799A (ja) * | 2019-11-06 | 2021-05-20 | ファナック株式会社 | 制御装置、その制御方法、及び制御システム |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11485015B2 (en) | 2019-02-21 | 2022-11-01 | Hiwin Technologies Corp. | System for eliminating interference of randomly stacked workpieces |
KR102214434B1 (ko) * | 2019-03-14 | 2021-02-09 | 하이윈 테크놀로지스 코포레이션 | 랜덤으로 적치되는 복수 개의 부품 간섭을 제거하는 시스템 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010089238A (ja) * | 2008-10-10 | 2010-04-22 | Honda Motor Co Ltd | ワーク取り出し方法 |
US20100274391A1 (en) * | 2007-12-15 | 2010-10-28 | Abb Ag | Determining the position of an object |
WO2012066819A1 (ja) * | 2010-11-17 | 2012-05-24 | 三菱電機株式会社 | ワーク取り出し装置 |
JP2012125886A (ja) * | 2010-12-15 | 2012-07-05 | Canon Inc | 物体把持装置、物体把持装置の制御方法、およびプログラム |
JP2012187666A (ja) * | 2011-03-10 | 2012-10-04 | Fuji Electric Co Ltd | ロボット制御装置、物品取り出しシステム、プログラムおよびロボットの制御方法 |
JP2014180704A (ja) * | 2013-03-18 | 2014-09-29 | Yaskawa Electric Corp | ロボットピッキングシステム及び被加工物の製造方法 |
-
2014
- 2014-02-04 JP JP2014019263A patent/JP6357785B2/ja not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100274391A1 (en) * | 2007-12-15 | 2010-10-28 | Abb Ag | Determining the position of an object |
JP2010089238A (ja) * | 2008-10-10 | 2010-04-22 | Honda Motor Co Ltd | ワーク取り出し方法 |
WO2012066819A1 (ja) * | 2010-11-17 | 2012-05-24 | 三菱電機株式会社 | ワーク取り出し装置 |
JP2012125886A (ja) * | 2010-12-15 | 2012-07-05 | Canon Inc | 物体把持装置、物体把持装置の制御方法、およびプログラム |
JP2012187666A (ja) * | 2011-03-10 | 2012-10-04 | Fuji Electric Co Ltd | ロボット制御装置、物品取り出しシステム、プログラムおよびロボットの制御方法 |
JP2014180704A (ja) * | 2013-03-18 | 2014-09-29 | Yaskawa Electric Corp | ロボットピッキングシステム及び被加工物の製造方法 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10780513B2 (en) | 2016-05-25 | 2020-09-22 | Fanuc Corporation | Wire electrical discharge machining system |
JP2017209746A (ja) * | 2016-05-25 | 2017-11-30 | ファナック株式会社 | ワイヤ放電加工システム |
US11305432B2 (en) | 2017-01-12 | 2022-04-19 | Fuji Corporation | Work machine and pick-up position selection method |
WO2018131108A1 (ja) * | 2017-01-12 | 2018-07-19 | 株式会社Fuji | 作業機および採取位置選択方法 |
JPWO2018131108A1 (ja) * | 2017-01-12 | 2019-11-07 | 株式会社Fuji | 作業機および採取位置選択方法 |
CN110167723A (zh) * | 2017-01-12 | 2019-08-23 | 株式会社富士 | 作业机及拾取位置选择方法 |
JPWO2019130429A1 (ja) * | 2017-12-26 | 2021-04-01 | Kyoto Robotics株式会社 | ピッキング対象物把持情報登録システム |
JP2019181573A (ja) * | 2018-04-02 | 2019-10-24 | Kyoto Robotics株式会社 | ピッキング装置及びその方法 |
JP7117126B2 (ja) | 2018-04-02 | 2022-08-12 | Kyoto Robotics株式会社 | ピッキング装置及びその方法 |
JP2020059078A (ja) * | 2018-10-09 | 2020-04-16 | 株式会社Fuji | ピッキング装置 |
JP7185473B2 (ja) | 2018-10-09 | 2022-12-07 | 株式会社Fuji | ピッキング装置 |
JP2020093341A (ja) * | 2018-12-12 | 2020-06-18 | アズビル株式会社 | 容易度判定装置及び容易度判定方法 |
JP7296719B2 (ja) | 2018-12-12 | 2023-06-23 | アズビル株式会社 | 容易度判定装置及び容易度判定方法 |
CN112584986A (zh) * | 2019-03-15 | 2021-03-30 | 欧姆龙株式会社 | 参数调整装置、参数调整方法以及程序 |
WO2020188646A1 (ja) | 2019-03-15 | 2020-09-24 | オムロン株式会社 | パラメータ調整装置、パラメータ調整方法及びプログラム |
US11945113B2 (en) | 2019-03-15 | 2024-04-02 | Omron Corporation | Parameter adjustment device, parameter adjustment method, and program |
JP2021074799A (ja) * | 2019-11-06 | 2021-05-20 | ファナック株式会社 | 制御装置、その制御方法、及び制御システム |
JP7424800B2 (ja) | 2019-11-06 | 2024-01-30 | ファナック株式会社 | 制御装置、その制御方法、及び制御システム |
Also Published As
Publication number | Publication date |
---|---|
JP6357785B2 (ja) | 2018-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6357785B2 (ja) | ロボット、ロボットシステム、制御装置および制御方法 | |
US10589424B2 (en) | Robot control device, robot, and robot system | |
US10350768B2 (en) | Control device, robot, and robot system | |
EP3650181B1 (en) | Route output method, route output system and route output program | |
JP2020532440A (ja) | オブジェクトをロバストに把持し、ターゲティングするためのロボットシステムおよび方法 | |
US10286557B2 (en) | Workpiece position/posture calculation system and handling system | |
JP2015199155A (ja) | 情報処理装置および情報処理方法、プログラム | |
JP5560948B2 (ja) | ロボット装置 | |
JP2015147256A (ja) | ロボット、ロボットシステム、制御装置、及び制御方法 | |
JP2017071018A (ja) | ロボットシステム、ロボット、及びロボット制御装置 | |
CN104597891A (zh) | 信息处理装置及信息处理方法 | |
JP2018144144A (ja) | 画像処理装置、画像処理方法、及びコンピュータプログラム | |
JP7377627B2 (ja) | 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム | |
US11097414B1 (en) | Monitoring of surface touch points for precision cleaning | |
JP2016196077A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20180215044A1 (en) | Image processing device, robot control device, and robot | |
JP2020163502A (ja) | 物体検出方法、物体検出装置およびロボットシステム | |
JP2015182212A (ja) | ロボットシステム、ロボット、制御装置、及び制御方法 | |
JP2015160257A (ja) | ロボット、ロボットシステム、制御装置および制御方法 | |
JP2018017654A (ja) | 検出装置、ロボットおよびロボット制御装置 | |
JP2015157343A (ja) | ロボット、ロボットシステム、制御装置、および制御方法 | |
CN113284129B (zh) | 基于3d包围盒的压箱检测方法及装置 | |
JP2010236893A (ja) | 複数の物体間の相対移動を検出する方法 | |
JP6528641B2 (ja) | 自己位置推定方法 | |
JP5862382B2 (ja) | 作業支援装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171010 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180522 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180604 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6357785 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |