JP2017217726A - robot - Google Patents
robot Download PDFInfo
- Publication number
- JP2017217726A JP2017217726A JP2016113714A JP2016113714A JP2017217726A JP 2017217726 A JP2017217726 A JP 2017217726A JP 2016113714 A JP2016113714 A JP 2016113714A JP 2016113714 A JP2016113714 A JP 2016113714A JP 2017217726 A JP2017217726 A JP 2017217726A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- distance measurement
- cells
- workpiece
- work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、ロボットに関する。 The present invention relates to a robot.
この種の技術として、特許文献1は、ロボットがハンドなどのエンドエフェクタを用いて部品を把持して組み立てを行なうに際し、部品とロボットとの間の相対的な位置及び姿勢を計測する技術を開示している。ロボットは、撮像装置によって部品を撮像して得られた二次元画像と、距離センサによって計測された部品の距離データと、を用いて部品の位置及び姿勢の計測を行なうとしている。
As this type of technology,
しかしながら、複数の部品がバラ積み状態で箱に収容されている場合、撮像装置や距離センサにとっての死角が不可避的に発生する。また、その死角は、部品が箱から取り出されるたびに変化する場合もある。従って、上記特許文献1の技術では、部品の位置及び姿勢の計測に改善の余地が残されていた。
However, when a plurality of components are housed in a box in a stacked state, a blind spot for the imaging device and the distance sensor inevitably occurs. The blind spot may also change each time a part is removed from the box. Therefore, the technique of
本発明の目的は、バラ積み状態で収容されている複数のワークの位置及び姿勢の認識精度を向上させる技術を提供することにある。 The objective of this invention is providing the technique which improves the recognition accuracy of the position and attitude | position of the some workpiece | work accommodated in the piled-up state.
測距センサを用いたセンシング結果に基づいて所望の対象物を検出し、検出した前記対象物をハンドで取り出す、ロボットであって、計測領域を複数のセルに分割して認識した上で、当該分割したセルの中から、前記測距センサの前記センシング結果を用いて物体が検出される位置のセルである第1セルの位置に基づいて前記対象物の位置を検出する処理を実行する検出処理手段と、前記分割したセルのうち、前記第1セルを除くセル、及び、前記検出処理手段によって前記対象物が検出された位置のセル、の少なくとも何れかのセルである第2セルを特定し、前記第2セルのうち、前記測距センサのセンシング範囲に入る前記第2セルの数が増加するような前記測距センサの移動位置を算出する算出手段と、前記算出手段によって算出された前記移動位置に対応付けて、前記測距センサを移動させる移動手段と、を備えたロボットが提供される。以上の方法によれば、前記第3のステップにおいて、前記複数のワークの位置及び姿勢の認識精度が向上する。 A robot that detects a desired object based on a sensing result using a distance measuring sensor and takes out the detected object with a hand. The robot divides a measurement area into a plurality of cells, recognizes the object, A detection process for executing the process of detecting the position of the object based on the position of the first cell, which is a cell where the object is detected using the sensing result of the distance measuring sensor, from among the divided cells And a second cell that is at least one of the divided cells, the cell excluding the first cell, and the cell at which the object is detected by the detection processing unit. The calculation means for calculating the movement position of the distance measuring sensor such that the number of the second cells in the sensing range of the distance measurement sensor among the second cells increases, and is calculated by the calculation means. In association with the movement position, the robot comprising a moving unit, the moving the distance measuring sensor is provided. According to the above method, the recognition accuracy of the positions and postures of the plurality of workpieces is improved in the third step.
本発明によれば、前記複数のワークの位置及び姿勢の認識精度が向上する。 According to the present invention, the recognition accuracy of the positions and postures of the plurality of workpieces is improved.
以下、図面を参照しつつ、一実施形態を説明する。 Hereinafter, an embodiment will be described with reference to the drawings.
図1には、複数のワーク1がバラ積み状態で収容された箱2から、ワーク1を1つずつ取り出すロボット3を示している。
FIG. 1 shows a
本実施形態において、複数のワーク1は、何れも、形状及び大きさが同じである。
In the present embodiment, the plurality of
本実施形態において、箱2は、上方が開口する有底角筒状である。しかしながら、箱2の形状は、例えば有底円筒状であってもよい。
In the present embodiment, the
ロボット3は、ロボット本体4と、測距センサ5と、測距センサアーム6と、ハンド7と、ハンドアーム8と、を備えている。
The
測距センサ5は、計測対象までの距離を示す距離画像を生成し、生成した距離画像をロボット本体4に出力する。距離画像は、各画素が視点位置(測距センサ5の位置)からの奥行きの情報を持つ画像であって、測距センサ5から計測対象までの距離データを表現する。測距センサ5として、対象に照射したレーザ光やスリット光の反射光をカメラで撮像し、三角測量により距離を計測するアクティブ式の測距センサを採用することができる。また、測距センサ5として、光の飛行時間を利用するTime−of−flight方式の測距センサを採用することもできる。また、測距センサ5として、ステレオカメラが撮像した画像から三角測量によって各画素の奥行きを計算するパッシブ式の測距センサを採用しても良い。
The
測距センサアーム6は、測距センサ5を保持するアームである。ロボット本体4は、測距センサアーム6を駆動することで、測距センサ5の位置及び姿勢を自在に制御可能である。
The distance measuring
ハンド7は、ワーク1を把持又は吸着する部分である。
The hand 7 is a part that holds or sucks the
ハンドアーム8は、ハンド7を保持するアームである。ロボット本体4は、ハンドアーム8を駆動することで、ハンド7の位置及び姿勢を自在に制御可能である。 The hand arm 8 is an arm that holds the hand 7. The robot body 4 can freely control the position and posture of the hand 7 by driving the hand arm 8.
図2は、ロボット3の機能ブロック図である。図2に示すように、ロボット3は、更に、センサアーム駆動部9と、ハンドアーム駆動部10と、を備える。
FIG. 2 is a functional block diagram of the
ロボット本体4は、中央演算処理器としてのCPU11(Central Processing Unit)と、読み書き自由のRAM12(Random Access Memory)、読み出し専用のROM13(Read Only Memory)を備えている。そして、CPU11がROM13に記憶されている制御プログラムを読み出して実行することで、制御プログラムは、CPU11などのハードウェアを、測距条件決定部14、測距実行部15、ワーク認識部16、ワーク取出実行部17、として機能させる。
The robot body 4 includes a CPU 11 (Central Processing Unit) as a central processing unit, a read / write RAM 12 (Random Access Memory), and a read-only ROM 13 (Read Only Memory). Then, the
図3には、ロボット3の動作のフローチャートを示している。図3に示すように、ロボット3による取り出し作業が開始すると、先ず、測距条件決定部14が、測距センサ5から複数のワーク1までの距離を測距センサ5で測定するとき測距条件を決定する(S100、第1のステップ)。ここで、測距条件とは、測距センサ5から複数のワーク1までの距離を測距センサ5で測定するときの測距センサ5の位置及び姿勢を意味する。次に、測距実行部15は、S100で決定した測距条件に基づいて、測距センサ5から複数のワーク1までの距離を測距センサ5で測定する(S110、第2のステップ)。次に、ワーク認識部16は、測距センサ5による測定の結果に基づいて、複数のワーク1の位置及び姿勢を認識する(S120、第3のステップ)。そして、ワーク取出実行部17は、ワーク認識部16による認識の結果に基づいて、ワーク1を1つ取り出す(S130、第4のステップ)。そして、ロボット3は、すべてのワーク1を取り出したかを判定し(S140)、すべてのワーク1を取り出したと判定した場合は(S140:YES)、処理を終了する。一方で、すべてのワーク1を取り出していないと判定した場合は(S140:NO)、ロボット3は、処理をS100に戻す。即ち、ロボット3は、すべてのワーク1を取り出すまで、S100からS130の処理を順に繰り返す。以下、ロボット3の動作を更に詳細に説明する。
FIG. 3 shows a flowchart of the operation of the
(測距条件決定部14の動作)
次に、初回(N-1回目)のS100において、測距条件決定部14が測距条件を決定することについて詳細に説明する。
(Operation of distance measurement condition determination unit 14)
Next, it will be described in detail that the distance measurement
図4に示すように、測距条件決定部14は、複数のワーク1が収容される箱2の内底面18の幾何学的中心点19の三次元座標を算出する。次に、測距条件決定部14は、任意の正m面体20のモデルを生成し、正m面体20の幾何学的中心点21が箱2の内底面18の幾何学的中心点19に一致するように正m面体20を位置決めする。次に、測距条件決定部14は、正m面体20の幾何学的中心点21を通り、正m面体20を構成する何れかの面22と直交する直線23を算出する。そして、測距条件決定部14は、直線23上に所定の間隔で複数の観測点24を定義する。測距条件決定部14は、正m面体20を構成する他の面22についても同様に、複数の観測点24を定義する。測距センサ5は、何れかの観測点24に配置され、その観測点24から正m面体20の幾何学的中心点21に向かって測距することになる。従って、測距条件決定部14は、測距センサ5の測距条件として、測距センサ5の位置は何れかの観測点24とし、測距センサ5の姿勢はその観測点24から正m面体20の幾何学的中心点21に向かう姿勢である、とする複数の測距条件をRAM12に記憶する。そして、測距条件決定部14は、RAM12に記憶した複数の測距条件を以下の条件により絞り込む。即ち、測距条件決定部14は、測距センサ5の位置がロボット3の作業エリア内でない測距条件をRAM12から削除する。また、測距条件決定部14は、逆運動学の解を持たない測距条件をRAM12から削除する。また、測距条件決定部14は、測距条件を満たすように測距センサ5を移動させた際にロボット3が外部環境と物理的に干渉してしまう場合、また、所謂自己干渉が起こる場合、その測距条件をRAM12から削除する。また、測距条件決定部14は、測距条件を満たすように測距センサ5を移動させることがロボット3の可動範囲から外れるものである場合、その測距条件をRAM12から削除する。次に、測距条件決定部14は、RAM12に記憶されている測距条件のうち、既知の形状を有する箱2の内底面18を測距し易い測距条件を選択する。図5には、測距センサ5が箱2の内底面18を測距している様子を示している。図5に示すように、必ずしも箱2の上方から箱2の内底面18を測距センサ5で測距できるとは限らない。従って、測距センサ5で箱2の内底面18を測距した場合、箱2の側壁25の存在により測距できない遮蔽領域uneが存在する。また、箱2の上方に障害物26が存在する場合、測距センサ5で箱2の内底面18を測距した際、障害物26の背後には、測距できない遮蔽領域uneが発生する。そこで、測距条件決定部14は、遮蔽領域uneの面積が最小化するような測距条件を選択する。なお、遮蔽領域uneの面積が最小化するような測距条件が複数存在する場合は、測距条件決定部14は、第1優先条件として、箱2の内底面18が測距センサ5の焦点距離により近い方を選択し、第2優先条件として、箱2の内底面18の幾何学的中心点19を通り内底面18に対して直交する法線と、箱2の内底面18の幾何学的中心点19と測距センサ5を結んだ直線と、が成す角がより小さい方を選択する。測距条件決定部14は、選択することにより決定した測距条件をRAM12に記録する。
As shown in FIG. 4, the distance measurement
(測距実行部15の動作)
次に、初回(N-1回目)のS110において、測距実行部15が、測距条件決定部14がS100で決定した測距条件に基づいて、測距センサ5から複数のワーク1までの距離を測距センサ5で測定することについて詳細に説明する。
(Operation of the distance measurement execution unit 15)
Next, in the first (N-1) th time S110, the distance
先ず、測距実行部15は、測距条件決定部14が決定した測距条件を満たすように、センサアーム駆動部9を制御して、測距センサ5の位置及び姿勢を変更する。次に、測距実行部15は、測距センサ5に測距指令を送信する。測距センサ5は、測距指令を受信すると測距を実行して距離画像を生成し、生成した距離画像をロボット本体4に送信する。測距実行部15は、受信した距離画像をRAM12に記憶する。
First, the distance
(ワーク認識部16の動作)
次に、初回(N-1回目)のS120において、ワーク認識部16が、距離画像に基づいて複数のワーク1の位置及び姿勢を認識することについて詳細に説明する。
(Operation of workpiece recognition unit 16)
Next, it will be described in detail that the
先ず、ワーク認識部16は、RAM12に記憶されている距離画像を読み込み、距離画像を三次元座標を有するポイントの集合に変換する。三次元座標を有するポイントの集合は、一般に、ポイントクラウドとも称される。ワーク認識部16は、初回のポイントクラウドをRAM12に記憶する。ワーク認識部16は、初回のポイントクラウドをセグメンテーションし、各セグメントに属する複数のポイントと、ワーク1のAABB(Axis Aligned Bounding Box)とを比較する。そして、ワーク認識部16は、上記比較の結果、ワーク1のAABBとの一致度が高いセグメントに属する複数のポイントに基づいて、各ワーク1の位置及び姿勢を認識する。なお、このとき、ワーク認識部16は、箱2に収容されているすべてのワーク1の位置及び姿勢を認識することが好ましい。しかしながら、ワーク認識部16は、箱2に収容されているすべてのワーク1の位置及び姿勢を認識することに代えて、箱2に収容されている複数のワーク1のうち少なくとも何れか1つの位置及び姿勢を認識することが考えられる。
First, the
(ワーク取出実行部17の動作)
次に、初回(N-1回目)のS130において、ワーク取出実行部17は、前述したように、ワーク認識部16による認識の結果に基づいて、ワーク1を1つ取り出す。
(Operation of work removal execution unit 17)
Next, in the first (N-1th) S130, the workpiece
(測距条件決定部14の動作)
次に、2回目(N回目)のS100において、測距条件決定部14が測距条件を決定することについて詳細に説明する。
(Operation of distance measurement condition determination unit 14)
Next, it will be described in detail that the distance measurement
先ず、測距条件決定部14は、図6に示すように、箱2の内部空間を格子状に分割することにより、三次元状に並ぶ複数のセル27を定義する。そして、測距条件決定部14は、RAM12に記憶されている初回のポイントクラウドを読み込み、初回のポイントクラウドを上記複数のセル27にそれぞれ格納する。そして、初回のポイントクラウドのうち少なくとも何れか1つのポイントが存在するセル27に「Occupied」というラベルを付す。「Occupied」というラベルが付されたセル27(第1セル30)を図6では、アルファベット「o」で特定している。そして、測距条件決定部14は、測距センサ5から見て、「Occupied」というラベルが付されたセル27の存在により測距センサ5によって測距不能となる領域に存在するセル27に「Occluded」というラベルを付す。「Occupied」というラベルが付されたセル27の存在により測距センサ5によって測距不能となる領域を、以下、死角とも称する。「Occluded」というラベルが付されたセル27を図6では、アルファベット「x」で特定している。なお、図6に示す測距センサ5は、初回の測距条件を満足する位置及び姿勢のものである。図6によれば、初回の測距条件では、死角28が発生していたことが判る。
First, as shown in FIG. 6, the distance measurement
また、測距条件決定部14は、初回にワーク取出実行部17が取り出したワーク1に対応するセル27のラベルを「Occluded」に書き換える。本実施形態では、紙面左側のワーク1が初回に取り出されたので、図7に示すように、紙面左側のセル27のラベルは、符号29で示すように、「Occupied」から「Occluded」に書き換えられている。
In addition, the distance measurement
そして、測距条件決定部14は、「Occluded」というラベルが付されたセル27(第2セル31)をより多く測距できるように、測距センサ5の測距条件を決定する。詳しくは、測距条件決定部14は、N回目においては、初回に死角28となった領域(セル27)と、初回において取り出されたワーク1が存在していた符号29で示す領域(セル27)と、を含む特定領域(特定セル)のうち測距センサ5が測距可能となる領域(セル27)が前回と比較して増えるように、好ましくは最大化するように、測距センサ5の測距条件を決定する。図7には、このようにして決定された測距条件を満足する位置及び姿勢とされた測距センサ5を図示している。これによれば、測距対象を満遍なく把握できるようになるので、N回目にワーク認識部16が複数のワーク1の位置及び姿勢を認識する精度が向上する。特に、初回において取り出されたワーク1が存在していた領域を死角28と同等に取り扱うことで、ワーク1の取り出しに伴う箱2内での状態の変化を十分に把握した上でワーク認識部16による認識が行われることになる。
Then, the distance measurement
(測距実行部15の動作)
次に、二回目(N回目)のS110において、測距実行部15は、測距条件決定部14が二回目のS100で決定した測距条件に基づいて、測距センサ5から複数のワーク1までの距離を測距センサ5で測定する。測距実行部15は、二回目の距離画像をRAM12に記憶する。
(Operation of the distance measurement execution unit 15)
Next, in the second (Nth) S110, the distance
(ワーク認識部16の動作)
次に、二回目(N回目)のS120において、ワーク認識部16が、距離画像に基づいて複数のワーク1の位置及び姿勢を認識することについて詳細に説明する。
(Operation of workpiece recognition unit 16)
Next, it will be described in detail that the
先ず、ワーク認識部16は、RAM12に記憶されている二回目の距離画像を読み込み、二回目の距離画像を三次元座標を有するポイントの集合に変換する。ワーク認識部16は、二回目のポイントクラウドをRAM12に記憶する。この状態で、RAM12には、初回のポイントクラウドと、二回目のポイントクラウドと、が記憶されている。
First, the
二回目のS120において、ワーク認識部16は、第1に、初回のポイントクラウドを二回目のポイントクラウドに統合する(統合工程)。第2に、ワーク認識部16は、統合後の二回目のポイントクラウドに対してセグメンテーションを実行する(セグメンテーション工程)。第3に、セグメンテーションの結果に基づいて、ワーク1の位置及び姿勢を認識する(認識工程)。以下、上記の統合工程、セグメンテーション工程、認識工程を順に詳細に説明する。
In the second S120, the
(統合工程)
先ず、初回のポイントクラウドを二回目のポイントクラウドに統合する統合工程について説明する。初回のポイントクラウドを二回目のポイントクラウドに統合すれば、異なる測距条件からの測距によって得られた死角の少ないポイントクラウドが得られるので、ワーク認識部16によるワーク1の認識精度の向上に寄与する。しかしながら、初回のポイントクラウドをすべて二回目のポイントクラウドに統合するのは合理的ではない。なぜなら、初回のワーク1の取り出しによって、初回のポイントクラウドは、必ずしもすべてが、二回目の時点における複数のワーク1と整合するとは限らないからである。従って、本実施形態では、初回のポイントクラウドのうち、二回目のポイントクラウドに統合可能なものと、二回目のポイントクラウドに統合不能なものと、に切り分け、統合可能なポイントクラウドのみ、二回目のポイントクラウドに統合するものとする。この切り分けは、初回のポイントクラウドをセグメンテーションして得られたセグメントごとに行われる。
(Integration process)
First, an integration process for integrating the first point cloud into the second point cloud will be described. If the first point cloud is integrated into the second point cloud, a point cloud with few blind spots obtained by ranging from different ranging conditions can be obtained, so that the
図8には、初回のポイントPN-1(j)を示している。図9には、初回のポイントPN-1(j)に対してワーク認識部16がセグメンテーションを実行した結果得られた複数のセグメントSN-1(t)を示している。図10には、二回目のポイントPN(i)を示している。図9に示すように、1つのセグメントSN-1(t)には、複数のポイントPN-1(j)が属している。換言すれば、1つのセグメントSN-1(t)は、複数のポイントPN-1(j)によって構成されている。
FIG. 8 shows the first point P N-1 (j). FIG. 9 shows a plurality of segments S N-1 (t) obtained as a result of the
ワーク認識部16は、初回のポイントPN-1(j)のそれぞれが、二回目のポイントPN(i)に統合可能なものかどうかを、初回のセグメントSN-1(t)ごとに判定する。そこで、判定のために用いるカウンタとして、初回のセグメントSN-1(t)のそれぞれに対してNearN-1(t),FarN-1(t)というカウンタを定義し、その初期値をゼロとする。図11には、説明の理解を促進させるために、初回のセグメントSN-1(t)のすべてと、二回目のポイントPN(i)と、を重ねて表示している。なお、図11において、二回目のポイントPN(i)は、太丸で示している。
The
まず、ワーク認識部16は、二回目で1番目のポイントPN(i)であるポイントPN(1)と、初回のポイントPN-1(j)のすべてと、を対比させ、初回のポイントPN-1(j)のうち、ポイントPN(1)に最も近いポイントPN-1(j)を特定する。特定したポイントPN-1(j)をポイントPN-1(k)とする。そして、ワーク認識部16は、ポイントPN(1)とポイントPN-1(k)との間の距離dを算出し、距離dに応じて、ポイントPN-1(k)が属するセグメントSN-1(t)のカウンタをインクリメントする。具体的には、ワーク認識部16は、上記の距離dが所定値以下の場合は、ポイントPN-1(k)が属するセグメントSN-1(t)のNearN-1(t)を1つインクリメントする。一方、ワーク認識部16は、上記の距離dが所定値を超える場合は、ポイントPN-1(k)が属するセグメントSN-1(t)のFarN-1(t)を1つインクリメントする。次に、ワーク認識部16は、二回目で2番目以降のポイントPN(i)についても同様に処理する。
First, the
次に、ワーク認識部16は、初回の1番目のセグメントSN-1(t)であるセグメントSN-1(1)に属する初回のポイントPN-1(j)が二回目のポイントPN(i)に統合可能なものか判定する。具体的には、ワーク認識部16は、セグメントSN-1(1)の変数であるNearN-1(1)及びFarN-1(1)に基づいて上記の判定を行なう。即ち、ワーク認識部16は、NearN-1(1)及びFarN-1(1)の合計値が所定値以下であるとき、セグメントSN-1(1)に属するポイントPN-1(j)は、二回目の測距において死角に相当するとして、セグメントSN-1(1)に属するポイントPN-1(j)を二回目のポイントPN(i)にそっくりそのまま統合(追加、合算、編入)する。一方、ワーク認識部16は、NearN-1(1)及びFarN-1(1)の合計値が所定値を超えるとき、更に条件分岐するものとし、FarN-1(1)/NearN-1(1)が所定値以下であるとき、セグメントSN-1(1)に属するポイントPN-1(j)に対応するワーク1は初回のワーク1の取り出し時に動かなかったとして、セグメントSN-1(1)に属するポイントPN-1(j)を二回目のポイントPN(i)にそっくりそのまま統合し、一方で、FarN-1(1)/NearN-1(1)が所定値を超えるとき、又は、NearN-1(1)がゼロであるとき、セグメントSN-1(1)に属するポイントPN-1(j)に対応するワーク1は初回のワーク1の取り出し時に取り出されたものとして、セグメントSN-1(1)に属するポイントPN-1(j)を二回目のポイントPN(i)に統合しない。次に、ワーク認識部16は、初回の2番目以降のセグメントSN-1(t)についても同様に処理する。図12には、統合の結果を示している。図12において、同じ座標に複数のポイントPN(i)が重複している。この重複自体は、処理の単純化の側面ではそのまま重複したままとしておくことがよく、処理の高速化の側面では重複状態を解消し何れか一方のみを残すようにするとよい。本実施形態では、処理の単純化を優先し、重複状態はそのままとしている。
Next, the
(セグメンテーション工程)
次に、ワーク認識部16は、図12に示す統合後の二回目のポイントPN(i)に対してセグメンテーションを実行する。このセグメンテーションにより得られた二回目のセグメントSN(t)を図13に示す。
(Segmentation process)
Next, the
(認識工程)
次に、ワーク認識部16は、二回目のセグメントSN(t)に基づいて、複数のワーク1の位置及び姿勢を認識する。一般に、ワーク1の位置及び姿勢を認識するのに必要となる計算コストは高く、毎回、セグメントSN(t)に基づいてすべてのワーク1の位置及び姿勢を認識するのは計算コストの側面から好ましくない。従って、本実施形態では、毎回、セグメントSN(t)に基づいてすべてのワーク1の位置及び姿勢を認識するのに代えて、前回の認識結果のうち流用できる分については流用することにする。以下、前回の認識結果のうち、どのワーク1についての認識結果が流用可能であるかを判定することについて詳細に説明する。
(Recognition process)
Next, the
先ず、ワーク認識部16は、初回に得られたワークN-1(r)の認識結果が二回目の認識工程に際し流用可能なものかどうかをセグメントSN(t)ごとに判定する。そこで、判定のために用いるカウンタとして、初回に位置及び姿勢が認識されたワークN-1(r)のそれぞれに対してNearN-1(r),FarN-1(r)というカウンタを定義し、その初期値をゼロとする。
First, the
次に、ワーク認識部16は、二回目で1番目のセグメントSN(t)であるセグメントSN(1)のAABBを算出し、セグメントSN(1)のAABBと、初回のワークN-1(r)のAABBのすべてと、の衝突の有無を判定する。そして、ワーク認識部16は、セグメントSN(1)のAABBと衝突した初回のワークN-1(r)を特定し、特定したワークN-1(r)をワークN-1(s)とする。そして、ワーク認識部16は、セグメントSN(1)に属するポイントPN(i)のうち1番目のポイントPN(i)であるポイントPN(1)と、ワークN-1(s)と、の間の最短距離dを求め、最短距離dに応じて、ワークN-1(s)のカウンタをインクリメントする。具体的には、ワーク認識部16は、上記の最短距離dが所定値以下の場合は、ワークN-1(s)のNearN-1(s)をインクリメントする。一方、ワーク認識部16は、上記の最短距離dが所定値を超える場合は、ワークN-1(s)のFarN-1(s)をインクリメントする。セグメントSN(1)のAABBと衝突した初回のワークN-1(r)が複数ある場合は、他のワークN-1(r)についても同様に処理する。
Next,
次に、ワーク認識部16は、ワークN-1(s)の認識結果が、二回目の認定に際し流用可能なものかどうか判定する。具体的には、ワークN-1(s)の変数であるNearN-1(s)及びFarN-1(s)に基づいて上記の判定を行なう。即ち、ワーク認識部16は、FarN-1(s)/NearN-1(s)が所定値以下であるときは、ワークN-1(s)の認識結果が二回目の認定に際し流用可能であると判定し、二回目で1番目のセグメントSN(t)に含まれるポイントポイントPN(i)に基づいてワーク1の位置及び姿勢を認識することを省略することにする。一方、FarN-1(s)/NearN-1(s)が所定値を越え、又は、NearN-1(s)がゼロである場合は、ワーク認識部16は、ワークN-1(s)の認識結果が二回目の認定に際し流用不能であると判定し、二回目で1番目のセグメントSN(t)に含まれるポイントポイントPN(i)に基づいてワーク1の位置及び姿勢を認識する。次に、ワーク認識部16は、二回目で2番目以降のセグメントSN(t)についても同様に処理する。
Next, the
(ワーク取出実行部17の動作)
次に、二回目(N回目)のS130において、ワーク取出実行部17は、ワーク認識部16による認識の結果に基づいて、ワーク1を1つ取り出す。
(Operation of work removal execution unit 17)
Next, in the second (N-th) S130, the workpiece take-out
以上に、好適な実施形態を説明したが、上記実施形態は、以下の特徴を有する。 Although the preferred embodiment has been described above, the above embodiment has the following features.
距離画像(測距センサ5を用いたセンシング結果)に基づいて所望のワーク1(対象物)を検出し、検出したワーク1をハンド7で取り出す、ロボット3は、箱2の内部空間(計測領域)を複数のセル27に分割して認識した上で、当該分割したセル27の中から、距離画像(測距センサ5のセンシング結果)を用いてポイントクラウド(物体)が検出される位置のセル27である第1セル30(第1セル30は、「Occupied」とラベル付けされたセル27である。)の位置に基づいてワーク1の位置を検出する処理を実行するワーク認識部16(検出処理手段)と、分割したセル27のうち、第1セル30を除くセル27、及び、ワーク認識部16によってワーク1が検出された位置のセル27、の少なくとも何れかのセルである第2セル(「Occluded」とラベル付けされたセル27)を特定し、第2セル31のうち、測距センサ5のセンシング範囲に入る第2セル31の数が前回の測距時と比較して増加するような測距センサ5の測距条件(移動位置)を算出する測距条件決定部14(算出手段)と、測距条件決定部14によって算出された移動位置に対応付けて、測距センサ5を移動させる測距実行部15(移動手段)と、を備える。これによれば、測距対象を満遍なく把握できるようになるので、N回目にワーク認識部16が複数のワーク1の位置及び姿勢を認識する精度が向上する。特に、初回において取り出されたワーク1が存在していた領域を死角28と同等に取り扱うことで、ワーク1の取り出しに伴う箱2内での状態の変化を十分に把握した上でワーク認識部16による認識が行われることになる。
The
複数のワークがバラ積み状態で収容された箱から、前記ワークを1つずつ取り出すロボットの制御方法であって、測距センサで前記測距センサから前記複数のワークまでの距離を測定するときの前記測距センサの位置及び姿勢を決定する第1のステップと、前記第1のステップにおける決定の結果に基づいて、前記測距センサから前記複数のワークまでの距離を前記測距センサで測定する第2のステップと、前記第2のステップにおける測定の結果に基づいて、前記複数のワークの位置及び姿勢を認識する第3のステップと、前記第3のステップにおける認識の結果に基づいて、前記ワークを取り出す第4のステップと、を順に繰り返す制御方法であり、N回目の前記第1のステップにおいては、N-1回目の前記第2のステップにおいて死角となった領域と、N-1回目の前記第4のステップにおいて取り出された前記ワークが存在していた領域と、を含む特定領域のうち前記測距センサが測距可能となる領域が前回の測距時と比較して増加するように前記測距センサの位置及び姿勢を決定する、制御方法が提供される。 A control method for a robot that takes out the workpieces one by one from a box in which a plurality of workpieces are stored in a stacked state, and when measuring distances from the ranging sensors to the plurality of workpieces by a ranging sensor. Based on the first step of determining the position and orientation of the distance measuring sensor and the result of the determination in the first step, the distance from the distance measuring sensor to the plurality of workpieces is measured by the distance measuring sensor. Based on the second step, the third step for recognizing the positions and postures of the plurality of workpieces based on the measurement result in the second step, and the recognition result in the third step, And a fourth step of sequentially taking out the workpiece, and in the first step of the Nth time, a blind spot is formed in the second step of the (N-1) th time. The area where the distance measurement sensor can measure the distance is the previous area of the specific area including the area where the workpiece has been taken out in the fourth step of the (N-1) th time. There is provided a control method for determining the position and orientation of the distance measuring sensor so as to increase as compared with the distance.
1 ワーク
2 箱
3 ロボット
4 ロボット本体
5 測距センサ
6 測距センサアーム
7 ハンド
8 ハンドアーム
9 センサアーム駆動部
10 ハンドアーム駆動部
14 測距条件決定部
15 測距実行部
16 ワーク認識部
17 ワーク取出実行部
27 セル
28 死角
30 第1セル
31 第2セル
DESCRIPTION OF
Claims (1)
計測領域を複数のセルに分割して認識した上で、当該分割したセルの中から、前記測距センサの前記センシング結果を用いて物体が検出される位置のセルである第1セルの位置に基づいて前記対象物の位置を検出する処理を実行する検出処理手段と、
前記分割したセルのうち、前記第1セルを除くセル、及び、前記検出処理手段によって前記対象物が検出された位置のセル、の少なくとも何れかのセルである第2セルを特定し、前記第2セルのうち、前記測距センサのセンシング範囲に入る前記第2セルの数が増加するような前記測距センサの移動位置を算出する算出手段と、
前記算出手段によって算出された前記移動位置に対応付けて、前記測距センサを移動させる移動手段と、
を備えたロボット。 A robot that detects a desired object based on a sensing result using a distance sensor and takes out the detected object with a hand,
After dividing the measurement area into a plurality of cells and recognizing, the position of the first cell, which is the cell where the object is detected using the sensing result of the distance measuring sensor, is selected from the divided cells. Detection processing means for executing processing for detecting the position of the object based on the above;
Among the divided cells, a second cell that is at least one of a cell excluding the first cell and a cell at a position where the object is detected by the detection processing unit is specified, and the first cell A calculating means for calculating a movement position of the distance measuring sensor such that the number of the second cells entering the sensing range of the distance measuring sensor among the two cells increases;
Moving means for moving the distance measuring sensor in association with the moving position calculated by the calculating means;
Robot equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016113714A JP6747665B2 (en) | 2016-06-07 | 2016-06-07 | robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016113714A JP6747665B2 (en) | 2016-06-07 | 2016-06-07 | robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017217726A true JP2017217726A (en) | 2017-12-14 |
JP6747665B2 JP6747665B2 (en) | 2020-08-26 |
Family
ID=60658224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016113714A Active JP6747665B2 (en) | 2016-06-07 | 2016-06-07 | robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6747665B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108528897A (en) * | 2018-06-11 | 2018-09-14 | 珠海格力智能装备有限公司 | Fixture and robot with it |
JP2019091545A (en) * | 2017-11-10 | 2019-06-13 | 本田技研工業株式会社 | Control arrangement of plant for vehicle |
JP2019144040A (en) * | 2018-02-19 | 2019-08-29 | ファナック株式会社 | Object monitoring device using sensor |
JP6723628B1 (en) * | 2020-02-13 | 2020-07-15 | 株式会社Mujin | Method and system for determining occlusion in the field of view of a camera |
JP2021085683A (en) * | 2019-11-25 | 2021-06-03 | ファナック株式会社 | Object detection system using TOF sensor |
US11396101B2 (en) | 2018-11-08 | 2022-07-26 | Kabushiki Kaisha Toshiba | Operating system, control device, and computer program product |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112102397B (en) * | 2020-09-10 | 2021-05-11 | 敬科(深圳)机器人科技有限公司 | Method, equipment and system for positioning multilayer part and readable storage medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6334094A (en) * | 1986-07-29 | 1988-02-13 | シャープ株式会社 | Visual device |
JPS6478103A (en) * | 1987-09-19 | 1989-03-23 | Nissan Motor | Work recognizing method by image processing |
JPH10128686A (en) * | 1996-10-30 | 1998-05-19 | Nippon Telegr & Teleph Corp <Ntt> | Control method for robot manipulator and control device for robot manipulator |
JP2010207989A (en) * | 2009-03-11 | 2010-09-24 | Honda Motor Co Ltd | Holding system of object and method of detecting interference in the same system |
US20140100696A1 (en) * | 2012-10-04 | 2014-04-10 | Electronics And Telecommunications Research Institute | Working method using sensor and working system for performing same |
JP2015009314A (en) * | 2013-06-28 | 2015-01-19 | キヤノン株式会社 | Interference determination apparatus, interference determination method, and computer program |
-
2016
- 2016-06-07 JP JP2016113714A patent/JP6747665B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6334094A (en) * | 1986-07-29 | 1988-02-13 | シャープ株式会社 | Visual device |
JPS6478103A (en) * | 1987-09-19 | 1989-03-23 | Nissan Motor | Work recognizing method by image processing |
JPH10128686A (en) * | 1996-10-30 | 1998-05-19 | Nippon Telegr & Teleph Corp <Ntt> | Control method for robot manipulator and control device for robot manipulator |
JP2010207989A (en) * | 2009-03-11 | 2010-09-24 | Honda Motor Co Ltd | Holding system of object and method of detecting interference in the same system |
US20140100696A1 (en) * | 2012-10-04 | 2014-04-10 | Electronics And Telecommunications Research Institute | Working method using sensor and working system for performing same |
JP2015009314A (en) * | 2013-06-28 | 2015-01-19 | キヤノン株式会社 | Interference determination apparatus, interference determination method, and computer program |
Non-Patent Citations (1)
Title |
---|
原田 研介,外5名: "隣接する対象物との干渉を許容した学習型バラ積みビンピッキング", 第33回日本ロボット学会学術講演会予稿集DVD−ROM 2015年, vol. 第33巻, JPN6020007722, 3 September 2015 (2015-09-03), JP, pages 1 - 3, ISSN: 0004223046 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019091545A (en) * | 2017-11-10 | 2019-06-13 | 本田技研工業株式会社 | Control arrangement of plant for vehicle |
JP2019144040A (en) * | 2018-02-19 | 2019-08-29 | ファナック株式会社 | Object monitoring device using sensor |
CN108528897A (en) * | 2018-06-11 | 2018-09-14 | 珠海格力智能装备有限公司 | Fixture and robot with it |
CN108528897B (en) * | 2018-06-11 | 2024-04-02 | 珠海格力智能装备有限公司 | Clamp and robot with same |
US11396101B2 (en) | 2018-11-08 | 2022-07-26 | Kabushiki Kaisha Toshiba | Operating system, control device, and computer program product |
JP2021085683A (en) * | 2019-11-25 | 2021-06-03 | ファナック株式会社 | Object detection system using TOF sensor |
JP7364439B2 (en) | 2019-11-25 | 2023-10-18 | ファナック株式会社 | Object detection system using TOF sensor |
JP6723628B1 (en) * | 2020-02-13 | 2020-07-15 | 株式会社Mujin | Method and system for determining occlusion in the field of view of a camera |
US11006039B1 (en) | 2020-02-13 | 2021-05-11 | Mujin, Inc. | Method and system for determining occlusion within a camera field of view |
JP2021126761A (en) * | 2020-02-13 | 2021-09-02 | 株式会社Mujin | Method and system for determining occlusion within camera field of view |
US11924559B2 (en) | 2020-02-13 | 2024-03-05 | Mujin, Inc. | Method and system for determining occlusion within a camera field of view |
Also Published As
Publication number | Publication date |
---|---|
JP6747665B2 (en) | 2020-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6747665B2 (en) | robot | |
US10894324B2 (en) | Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method | |
JP6117901B1 (en) | Position / orientation measuring apparatus for a plurality of articles and a robot system including the position / orientation measuring apparatus | |
US10532459B2 (en) | Information processing apparatus, information processing method, and storage medium for grasping an object | |
EP1905548B1 (en) | Workpiece picking apparatus | |
CN110807350B (en) | System and method for scan-matching oriented visual SLAM | |
US11065767B2 (en) | Object manipulation apparatus and object manipulation method for automatic machine that picks up and manipulates an object | |
CN106808472B (en) | Location of workpiece posture computing device and handling system | |
US10127677B1 (en) | Using observations from one or more robots to generate a spatio-temporal model that defines pose values for a plurality of objects in an environment | |
JP5558585B2 (en) | Work picking device | |
KR101003168B1 (en) | Multidimensional Evidence Grids and System and Methods for Applying Same | |
Nieuwenhuisen et al. | Mobile bin picking with an anthropomorphic service robot | |
CN109773776B (en) | Gripping method, gripping system, and storage medium | |
JP2014161965A (en) | Article takeout device | |
JP6632208B2 (en) | Information processing apparatus, information processing method, and program | |
US10957067B2 (en) | Control apparatus, object detection system, object detection method and program | |
US10778902B2 (en) | Sensor control device, object search system, object search method, and program | |
JP2017526083A (en) | Positioning and mapping apparatus and method | |
CN109983299A (en) | The measuring system and method for industrial robot | |
JP2021139882A5 (en) | ||
Kim et al. | Improvement of Door Recognition Algorithm using Lidar and RGB-D camera for Mobile Manipulator | |
Chemweno et al. | Innovative safety zoning for collaborative robots utilizing Kinect and LiDAR sensory approaches | |
CN111742349B (en) | Information processing apparatus, information processing method, and information processing storage medium | |
US20220297292A1 (en) | Information processing device and information processing method | |
CN113768420A (en) | Sweeper and control method and device thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190403 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200707 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200730 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6747665 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |