JP7561590B2 - Information processing device, picking device, and program - Google Patents
Information processing device, picking device, and program Download PDFInfo
- Publication number
- JP7561590B2 JP7561590B2 JP2020198602A JP2020198602A JP7561590B2 JP 7561590 B2 JP7561590 B2 JP 7561590B2 JP 2020198602 A JP2020198602 A JP 2020198602A JP 2020198602 A JP2020198602 A JP 2020198602A JP 7561590 B2 JP7561590 B2 JP 7561590B2
- Authority
- JP
- Japan
- Prior art keywords
- contact
- force sensor
- posture
- candidates
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 17
- 238000001514 detection method Methods 0.000 claims description 30
- 230000007246 mechanism Effects 0.000 claims description 4
- 230000036544 posture Effects 0.000 description 91
- 238000000034 method Methods 0.000 description 56
- 230000008569 process Effects 0.000 description 33
- 238000013519 translation Methods 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000032258 transport Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、情報処理装置、ピッキング装置及びプログラムに関する。 The present invention relates to an information processing device , a picking device , and a program .
特許文献1には、物体の映像と、物体への接触位置の計測情報とから、物体の姿勢を認識するシステムが示されている。
透明及び黒色の物体、表面が鏡面である物体、あるいは、布などで覆われている物体は、映像のみから物体の姿勢を認識することが困難である。特許文献1のシステムでは、物体への接触による計測情報を併用することで、ビニール袋や緩衝材に包まれた物体の位置の認識を可能としている。しかしながら、接触によって物体の姿勢を推定する装置において、効率的な推定を行うには、物体への接触の仕方に改善の余地がある。
It is difficult to recognize the orientation of transparent or black objects, objects with mirror-like surfaces, or objects covered with cloth or the like from images alone. The system in
本発明は、接触により得られる検出情報を利用して効率的に物体の姿勢を推定できる情報処理装置及びピッキング装置を提供することを目的とする。 The present invention aims to provide an information processing device and a picking device that can efficiently estimate the orientation of an object by using detection information obtained by contact.
本発明に係る情報処理装置は、
物体の姿勢を推定する情報処理装置であって、
前記物体の形状及び大きさを示す物体情報を記憶する記憶部と、
接触により接触点の検出情報を取得する力覚センサと、
前記力覚センサを移動させる移動制御部と、
前記力覚センサによる前記物体への複数回の接触で得られた前記検出情報と前記物体情報とに基づいて前記物体の姿勢を推定する推定部と、
を備え、
前記推定部は、前記複数回の接触が遂行される前に前記物体の姿勢について複数の候補を推定し、
前記移動制御部は、前記複数回の接触において、前記力覚センサが前記物体の異なる面に接触するように、更に、前記複数の候補に含まれる面の位置の不確かさの度合いが、前記複数の候補に含まれる他の面よりも高い面に接触するように、前記力覚センサを移動させる。
本発明に係るプログラムは、
物体の形状及び大きさを示す物体情報を記憶する記憶部を備えた情報処理装置に、
力覚センサを移動させる手段と、
前記力覚センサから接触により接触点の検出情報を取得する手段と、
前記力覚センサによる前記物体への複数回の接触で得られた前記検出情報と前記物体情報とに基づいて前記物体の姿勢を推定する手段と、
を実行させるためのプログラムであって、
前記推定する手段は、前記複数回の接触が遂行される前に前記物体の姿勢について複数の候補を推定し、
前記移動させる手段は、前記複数回の接触において、前記力覚センサが前記物体の異なる面に接触するように、更に、前記複数の候補に含まれる面の位置の不確かさの度合いが、前記複数の候補に含まれる他の面よりも高い面に接触するように、前記力覚センサを移動させる。
The information processing device according to the present invention comprises:
An information processing device that estimates a posture of an object,
A storage unit that stores object information indicating a shape and a size of the object;
a force sensor for acquiring detection information of a contact point by contact;
A movement control unit that moves the force sensor;
an estimation unit that estimates a posture of the object based on the detection information obtained by the force sensor contacting the object multiple times and the object information;
Equipped with
The estimation unit estimates a plurality of candidates for a pose of the object before the plurality of contacts are performed,
The movement control unit moves the force sensor so that, during the multiple contacts, the force sensor comes into contact with different surfaces of the object, and further so that the force sensor comes into contact with a surface included in the multiple candidates having a higher degree of positional uncertainty than other surfaces included in the multiple candidates .
The program according to the present invention comprises:
An information processing device including a storage unit that stores object information indicating the shape and size of an object,
A means for moving the force sensor;
a means for acquiring detection information of a contact point from the force sensor;
a means for estimating a posture of the object based on the detection information obtained by the force sensor contacting the object multiple times and the object information;
A program for executing
the estimating means estimates a plurality of candidates for the pose of the object before the plurality of contacts are performed;
The moving means moves the force sensor so that, during the multiple contacts, the force sensor comes into contact with different surfaces of the object, and further so that the force sensor comes into contact with a surface included in the multiple candidates having a higher degree of positional uncertainty than other surfaces included in the multiple candidates.
本発明に係るピッキング装置は、
上記の情報処理装置と、
前記推定部の推定結果を用いて前記物体を取り出す取出し機構と、
を備える。
The picking device according to the present invention comprises:
The above information processing device;
a take-out mechanism that takes out the object using the estimation result of the estimation unit;
Equipped with.
本発明によれば、接触を利用して効率的に物体の姿勢を推定できる情報処理装置、ピッキング装置及びプログラムを提供できる。 According to the present invention, it is possible to provide an information processing device , a picking device , and a program capable of efficiently estimating the orientation of an object by utilizing contact.
以下、本発明の実施形態について図面を参照して詳細に説明する。図1は、本発明の実施形態に係るピッキング装置を示すブロック図である。本実施形態に係るピッキング装置1は、形状及び大きさが既知の物体の姿勢を推定し、当該物体を把持等により収容箇所から取り出す装置である。ピッキング装置1は、物体の映像を取得する撮影部21と、物体に接触することにより接触点の検出情報を取得可能な力覚センサ22と、力覚センサ22を動かす駆動装置23と、物体を把持及び搬送する取出し機構としてのロボットアーム24と、これらを制御する制御部10とを備える。ピッキング装置1は、本発明に係る情報処理装置の一例に相当する。
Below, an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a picking device according to an embodiment of the present invention. The
撮影部21は、撮像素子及び結像レンズを有し、デジタル信号の映像を取得する。撮影部21は、物体の大まかな位置を把握できる映像を取得できればよい。その他、撮影部21は、二次元の映像に加えて映像上の各点の奥行の情報が得られるデプスセンサであってもよい。
The
力覚センサ22は、接触子が任意の面に接触したときに、接触点の検出情報を取得する。検出情報には、接触点の位置の情報と、接触点から接触子に加わる反力の向きを示す情報すなわち接触点を含む面の向き(面の法線)の情報とが含まれる。力覚センサ22は、非常に小さな反力を受けた段階で停止することで、接触する物体を動かすことなく、接触点の検出情報を取得することができる。
The
駆動装置23は、任意の経路で力覚センサ22(具体的にはその接触子)を動かすことが可能な三次元駆動装置である。力覚センサ22を動かす駆動装置23と、ロボットアーム24の駆動部とが兼用されていてもよい。
The
制御部10は、CPU(Central Processing Unit)と、CPUがデータを展開するRAM(Random access memory)と、CPUが実行する制御プログラムを格納した記憶装置と、撮影部21、力覚センサ22、駆動装置23及びロボットアーム24と信号をやり取りするインタフェース16と、を備えたコンピュータである。制御部10では、CPUが制御プログラムを実行することで複数の機能モジュールが実現される。複数の機能モジュールには、撮影部21を制御する撮影制御部12と、物体の形状及び大きさを示す物体情報が記憶された物体情報記憶部11と、駆動装置23を制御して力覚センサ22を移動させる移動制御部13と、物体の姿勢を推定する推定部14と、ロボットアーム24の駆動制御を行うロボット制御部15とが含まれる。
The
物体情報は、例えば、物体の表面に一様に分布する複数の点の位置データ(相対的な位置データ)を含む。物体情報は、各点の位置データに加えて、各点の法線データが含まれていてもよい。法線データは、各点が含まれる面に垂直で、当該点を通る法線の方向を示す。なお、各点の法線データは、予め与えられず、上記の複数の点の位置データから制御部10が計算により求めてもよい。
The object information includes, for example, position data (relative position data) of multiple points uniformly distributed on the surface of the object. In addition to the position data of each point, the object information may also include normal data for each point. The normal data indicates the direction of a normal that is perpendicular to the surface on which each point is included and passes through that point. Note that the normal data for each point does not need to be given in advance, and may be calculated by the
推定部14は、撮影部21が取得した映像から物体のおおまかな位置を推定する。映像に基づく推定は、物体のいずれかの箇所に力覚センサ22を接触できる程度の比較的に精度の低い推定であってよい。具体的な手法は限定されないが、例えば、推定部14は、映像から画像認識処理を行うことで、大きな許容誤差で物体の中央点又は物体が位置する点を推定することができる。
The
推定部14は、さらに、1回又は複数回の力覚センサ22による物体への接触によって得られた接触点の検出情報に基づき、当該物体の姿勢を推定する。ここで、物体の姿勢とは、物体の位置及び向きを含む概念であるが、本発明に係る姿勢の推定とは向きのみの推定であってもよい。力覚センサ22による接触回数が少なく、物体の姿勢を1つに絞ることができない段階では、接触点の検出情報に基づき、推定部14は、複数の姿勢の候補を推定する。そして、力覚センサ22の接触回数が増えるごとに、姿勢の候補が絞られることで、推定部14は、最終的に1つの姿勢を推定することができる。
The
移動制御部13は、推定部14が効率的に物体の姿勢を推定できるように、力覚センサ22が物体に接触する際の接触経路を決定し、決定された接触経路で力覚センサ22を移動させる。接触経路の決定方法については、後に詳述する。
The
ロボット制御部15は、推定部14が推定した物体の姿勢の情報に基づいて、当該姿勢の物体をロボットアーム24が把持及び搬送するように、ロボットアーム24を駆動する。
The
<姿勢の推定方法>
続いて、推定部14による物体の姿勢の推定方法の具体的な一例を説明する。なお、推定部14による物体の姿勢の推定方法は、下記の例に限定されるものではない。ここでは、式(1)のコスト関数G(r,t)を用いて、推定部14が物体の姿勢、あるいは、複数の姿勢の候補を推定する方法を説明する。
<Posture Estimation Method>
Next, a specific example of a method for estimating the orientation of an object by the
上記のロボット座標系とは、ロボットアーム24の基部を基準とした座標系であり、ロボットアーム24の基部が移動しない場合において座標系の原点及び三軸方向が固定される座標系を意味する。物体座標系とは、物体を基準とした座標系であり、物体の位置及び向きが変わればこれらに応じて座標の原点及び三軸方向が基準座標系(例えば地球の座標系)に対して回転及び並進する座標系を意味する。回転r及び並進tは、ロボット座標系において物体の位置及び向きを表わす量であり、例えば、ロボット座標系の原点と物体座標系の原点との差が並進tで表わされ、ロボット座標系の三軸と物体座標系の三軸との回転方向における差が回転rで表わされてもよい。
The robot coordinate system is a coordinate system based on the base of the
上記の調整係数は、式(1)の右辺鉤括弧内の第1項目と第2項目とがコスト関数に影響する度合いを調整する係数である。当該第1項は、物体の表面を示す点群Mの中に接触点に近い点mが含まれればコスト関数を小さくし、点群Mの中の接触点に最も近い点mと接触点との距離が大きいほどコスト関数を大きくする要素である。上記の第2項は、点群Mの中に接触点の面の向きと同じ法線方向の点mがあればコスト関数を小さくし、接触点の面の向きに最も近い法線を有する点mにおける当該法線が接触点の面の向きと異なるほどコスト関数を大きくする要素である。絶対値記号はベクトルの長さを表わし、“〈a,b〉”はベクトルaとベクトルbの内積を表わす。“min[]”は各点mにおける鉤括弧内の値のうちの最小値を示す。よって、総和記号Σ内の値は、点群Mに、接触点に近い点が含まれ、当該点の法線方向が接触点の面の向きに近い場合にゼロに近づき、このような点が含まれていなければ、ゼロから正の方へ離れる値となる。 The above adjustment coefficient is a coefficient that adjusts the degree to which the first and second terms in the brackets on the right side of formula (1) affect the cost function. The first term is an element that reduces the cost function if a point m close to the contact point is included in the point group M that indicates the surface of the object, and increases the cost function as the distance between the point m closest to the contact point in the point group M and the contact point increases. The above second term is an element that reduces the cost function if a point m in the point group M has the same normal direction as the surface orientation of the contact point, and increases the cost function as the normal at point m that has the closest normal to the surface orientation of the contact point differs from the surface orientation of the contact point. The absolute value symbol represents the length of the vector, and "〈a, b〉" represents the inner product of vector a and vector b. "min [ ]" indicates the minimum value of the values in brackets at each point m. Therefore, the value in the summation symbol Σ approaches zero if the point cloud M contains a point close to the contact point and the normal direction of that point is close to the direction of the surface of the contact point; if no such point is contained, the value moves away from zero in the positive direction.
推定部14は、コスト関数G(r,t)の値がゼロ近傍の小さい値となる引数(並進r、回転t)を探索することで、探索された回転及び並進{r,t}を、物体の姿勢又は物体の姿勢の候補として推定する。
The
<推定手順>
推定部14は、まず、撮影部21から得られた映像と、物体の大きさ及び形状が示された物体情報とに基づいて、物体の姿勢を探索する初期領域を設定する。初期領域は、物体が当該領域からはみ出す可能性がほぼゼロとなるように余裕を持った大きさに設定される。例えば、推定部14は、映像の画像認識により得られた物体の中央点と、物体情報とに基づいて、当該中央点に中心が位置する物体の外接球を求め、画像認識の推定精度に対応する誤差分、外接球の径を大きくし、当該外接球の内側を初期領域とする。
<Estimation procedure>
The
次に、推定部14は、初期領域に含まれる物体の位置及び向きとしてあり得る全姿勢を、初期の姿勢の候補とする。各姿勢は回転rと並進tとの組合せで表わされる。したがって、姿勢の初期の候補は、回転及び並進の組合せ{r,t}の集合となる。ただし、並進又は回転の非常に小さな差異を、別の姿勢と見なすと、初期の姿勢の候補が非常に多くなる。したがって、推定部14は、並進の最小差異Δtと回転の最小差異Δrとを適宜設定し、並進又は回転の差異が最小差異Δt、Δr以上となる姿勢を異なる姿勢として、初期の姿勢の複数の候補を表わす集合I0={(r,t)i,i=1、2・・・}を作成する。
Next, the
なお、物体が載置されるテーブルなど、物体の姿勢が規制される要素が存在する場合、推定部14は、複数の姿勢の初期の候補(集合I0)から、上記規制により生じえない姿勢の候補を除外する処理を行ってもよい。この処理により候補が減ることで、その後の推定処理の計算負荷を減らし、より少ない接触で、候補を1通りに絞ることが可能となる。下記では、この除外を行わない例を示す。
In addition, when there is an element that restricts the posture of the object, such as a table on which the object is placed, the
1回目の力覚センサ22の接触が行われると、接触点の位置と反力の方向(接触点が含まれる面の向き)を示す検出情報が、推定部14に送られる。推定部14は、これらの情報を当てはめて、集合I0={(r、t)i,i=1、2・・・}の全ての要素について、コスト関数G(r,t)を計算する。そして、コスト関数G(r,t)がゼロに近い閾値以下となる集合I0の要素を、姿勢の候補として抽出する。そして、姿勢の候補が、上記閾値に対応する一定の幅に収まる一連の要素のみを含んでいれば、これらの一連の要素の中からコスト関数Gを最小にする要素を、物体の姿勢の最終的な推定結果として抽出する。一連の要素とは、並進の最小差異Δt又は回転の最小差異Δrで連続している複数の要素を意味する。一方、姿勢の候補が一連の要素のみでなけば、複数の姿勢の候補が残っていることを意味するので、推定部14は、推定処理を継続し、次の力覚センサ22の接触を待つ。
When the
次の力覚センサ22の接触が行われると、推定部14は、1回目の接触のときと同様の処理(初期の候補を、初回の接触で絞られた姿勢の候補に置き換えた同様の処理)を行って、物体の姿勢の候補をより絞っていく。そして、このような処理を繰り返すことで、推定部14は、一つに絞られた物体の姿勢を、最終的な推定結果として得ることができる。
When the
<接触経路の条件>
移動制御部13は、上記の推定部14による推定処理の途中、力覚センサ22を物体に接触させる前に、いずれの位置にいずれの向きから力覚センサ22(具体的にはその接触子)を移動させて物体へ接触させるか、その経路を接触経路として計算する。接触経路は、次の第1~第3の接触条件に基づき決定される。
<Conditions for contact route>
During the estimation process by the
第1の接触条件は、複数回目の接触の場合に、以前に接触した面と、異なる面に接触するという条件である。物体における異なる面とは、物体に含まれる峰部又はV溝部を境界として分けられる各面を意味する。曲面を有さない物体であれば、各平面が異なる面となる。第1接触条件に応じた接触経路は、以前の接触で検出された接触点の法線と交差(例えば直交)する方向に進む経路として決定されてもよい。 The first contact condition is a condition that, in the case of multiple contacts, the surface that is in contact with the previous contact is a different surface. Different surfaces of an object refer to each surface that is separated by a ridge or V-groove portion included in the object. If the object does not have a curved surface, each flat surface is a different surface. The contact path according to the first contact condition may be determined as a path that proceeds in a direction that intersects (e.g., perpendicular to) the normal of the contact point detected in the previous contact.
あるいは、第1の接触条件に応じた接触経路は、推定部14によって現段階で推定されている物体の姿勢の候補に基づき、以前に接触していない面が位置する可能性が高い箇所に向かって、当該面に交差する方向から進む経路として決定されてもよい。
Alternatively, the contact path according to the first contact condition may be determined as a path that proceeds from a direction intersecting a previously uncontacted surface toward a location where the previously uncontacted surface is likely to be located, based on the candidate object postures currently estimated by the
第2の接触条件は、物体に非対称な箇所がある場合に、非対称な箇所に高い確率で接触するという条件である。物体の非対称な箇所とは、例えば、物体の中心点、中心軸あるいは中心面を基準とした点対称、軸対象又は面対称の度合いが低い箇所を意味する。例えば、ボルトであれば頭部側縁部と軸端部とが非対称な箇所に相当する。また、長手方向の中央を除く所定箇所の径が小さくされたピン部材であれば、上記所定箇所が非対称な箇所に相当する。このような非対称な箇所は、移動制御部13が、前述した物体情報から計算により求めてもよいし、物体情報に予め含まれていてもよい。
The second contact condition is a condition that, when an object has an asymmetrical portion, there is a high probability of contacting the asymmetrical portion. An asymmetrical portion of an object means, for example, a portion that has a low degree of point symmetry, axial symmetry, or plane symmetry with respect to the center point, central axis, or central plane of the object. For example, in the case of a bolt, the head side edge and the shaft end portion correspond to the asymmetrical portion. Also, in the case of a pin member in which the diameter of a specified portion excluding the center in the longitudinal direction is reduced, the specified portion corresponds to the asymmetrical portion. Such asymmetrical portions may be calculated by the
第2の接触条件に応じた接触経路は、物体へ接触が未だ行われていない段階では、撮影部21の撮影で得られた映像に基づき推定部14が推定した姿勢と、上記の非対称な面の情報とから求めることができる。
When contact with the object has not yet been made, the contact path according to the second contact condition can be found from the posture estimated by the
第2の接触条件に応じた接触経路は、1回又は複数回の接触が行われている段階では、現段階で推定されている複数の姿勢の候補に基づいて、非対称な箇所が位置する可能性の高い箇所を計算し、当該箇所へ向かう経路として求めることができる。 When one or more contacts have been made, the contact path according to the second contact condition can be determined by calculating a location where an asymmetric part is likely to be located based on multiple candidate postures estimated at the current stage, and determining the path to that location.
第3の接触条件は、1回又は複数回の接触が行われている段階において、推定部14の推定により得られた複数の姿勢の候補の間で、物体の面の位置の不確かさの度合いが高い面に接触するという条件である。
The third contact condition is that, at the stage where one or more contacts have been made, contact is made with a surface of the object with a high degree of positional uncertainty among the multiple pose candidates obtained by estimation by the
位置の不確かさの度合いが高い面は、特に限定されないが、例えば次のように求められてもよい。すなわち、まず、移動制御部13が、映像から推定された物体の中心点と、複数の姿勢の候補の点群Mに含まれる各点との距離を計算し、当該距離が長くかつ分散されたn個の代表点を選択する。そして、移動制御部13は、選択されたn個の代表点の各々の法線を中心軸とした同一形状及び同一体積の円柱を局所領域として設定する。さらに、移動制御部13が、複数の姿勢の候補に含まれる全ての点群Mの中から、各局所領域に含まれる全ての点を抽出し、これらの点の軸方向(円柱の中心軸に沿った方向)における位置の平均値及び分散値を計算する。そして、移動制御部13が、n個の局所領域から分散値が大きい局所領域を、面の位置の不確かさの度合いが高い箇所として求め、当該局所領域に含まれる面を位置の不確かさの度合いが高い面として求める。
The surface with a high degree of positional uncertainty may be obtained, for example, as follows, but is not limited to this. That is, first, the
なお、上記の例では、n個の局所領域を、映像から推定された物体の中心点からの距離が大きいn個の代表点に基づき設定しているが、n個の局所領域の設定方法は、上記の例に限定されない。例えばランダムに選択されたn個の代表点、等方に分散されたn個の代表点などから、n個の局所領域が設定されてもよい。また、上記の例では、局所領域として円柱領域を設定し、局所領域に含まれる各点の軸方向の位置の分散を計算しているが、局所領域は球領域などどのような形状としてもよいし、また、分散は軸方向の位置の分散に限られず、例えば局所領域に含まれる複数の点の中央位置からの分散であってもよいなど、分散の方向は限定されない。また、上記の例では、各局所領域に含まれる点の分散値を求めたが、各局所領域において軸方向に最も離れた2点間距離を計算し、当該2点間距離が大きい領域を不確かさの度合いの高い面を含む領域として求めても良いなど、不確かさの度合いを求める方法としては、様々な方法を採用できる。また、上記の例では、複数の局所領域を設定し、当該局所領域の間で不確かさを示す値を比較して、不確かさの度合いの高い面を含む領域を求めたが、局所領域を設定せずに、複数の姿勢の候補の全ての点群Mの散らばり度合いの高いところを不確かさの度合いの高い面を含む箇所として求めるなど、不確かさの度合いの高い面を含む箇所が求められれば、どのような方法が採用されてもよい。 In the above example, the n local regions are set based on the n representative points that are far from the center point of the object estimated from the image, but the method of setting the n local regions is not limited to the above example. For example, the n local regions may be set from n representative points selected randomly or n representative points that are distributed isotropically. In the above example, a cylindrical region is set as the local region, and the variance of the axial position of each point included in the local region is calculated, but the local region may have any shape, such as a spherical region, and the variance is not limited to the axial position variance, but may be from the center position of multiple points included in the local region, for example, and the direction of the variance is not limited. In the above example, the variance value of the points included in each local region is calculated, but various methods can be used to calculate the distance between two points farthest from each other in the axial direction in each local region, and the area with a large distance between the two points may be determined as the area including a surface with a high degree of uncertainty. Furthermore, in the above example, multiple local regions were set, and values indicating uncertainty were compared between the local regions to determine regions containing surfaces with a high degree of uncertainty. However, any method may be used as long as it can determine regions containing surfaces with a high degree of uncertainty, such as determining regions with a high degree of scattering of all point clouds M of multiple pose candidates as regions containing surfaces with a high degree of uncertainty without setting local regions.
第3の接触条件に応じた接触経路の方向は、上記のように求められた不確かさの度合いが高い面を含む箇所に向かって、当該箇所に含まれる面と交差する方向へ進む経路として計算されればよい。当該方向は、不確かさの度合いが高い局所領域に含まれる代表点の法線方向としても良いし、当該局所領域に含まれる全ての点の法線方向から計算される方向(平均の方向など)としても良い。 The direction of the contact path according to the third contact condition may be calculated as a path that moves toward a location that includes a surface with a high degree of uncertainty determined as described above, in a direction that intersects with the surface included in that location. The direction may be the normal direction of a representative point included in the local area with a high degree of uncertainty, or may be a direction calculated from the normal directions of all points included in the local area (such as an average direction).
<接触経路の決定方法>
上記の第1~第3の接触条件を全て満たす接触経路は、幾通りにも求められることがある。あるいは、第1~第3の接触条件のうち、いずれか1つ又は2つの接触条件に応じたが、他の接触条件に応じない接触経路が求められることもある。したがって、移動制御部13は、第1~第3の接触条件に基づき求められた接触経路から、適宜1つの接触経路を選択し、選択された接触経路を、次に力覚センサ22を移動させる接触経路として決定する。
<How to determine contact route>
There may be many different contact paths that satisfy all of the first to third contact conditions. Alternatively, a contact path that satisfies one or two of the first to third contact conditions but does not satisfy the other contact conditions may be obtained. Therefore, the
1つの接触経路を選択する方法は、例えば、各接触経路に優先度を付与し、優先度の高い接触経路が選択される方法としてもよい。優先度は、第1~第3の接触条件に応じて異なる値としてもよいし、この値に各接触条件に合致する可能性(確率)を乗算して得られた値としてもよい。あるいは、1つの接触経路を選択する方法は、ランダムな選択であってもよいなど、どのような方法であってもよい。 The method of selecting one contact route may be, for example, a method of assigning a priority to each contact route and selecting the contact route with the highest priority. The priority may be a different value depending on the first to third contact conditions, or may be a value obtained by multiplying this value by the possibility (probability) of meeting each contact condition. Alternatively, the method of selecting one contact route may be any method, such as random selection.
なお、上記の例では、移動制御部13が、第1~第3の接触条件の全てに基づき接触経路を決定したが、移動制御部13は、1つ又は2つの接触条件を省き、残りの2つ又は1つの接触条件から接触経路を決定してもよい。
In the above example, the
<ピッキング処理>
図2は、制御部10が実行するピッキング処理の手順の一例を示すフローチャートである。ピッキングとは物体を取り出すことを意味する。図2のピッキング処理は、撮影部21の画角内にピッキング対象の物体が含まれた状態で開始される。
<Picking process>
Fig. 2 is a flowchart showing an example of the procedure of the picking process executed by the
ピッキング処理が開始されると、まず、撮影制御部12が、撮影部21を介して映像を取得し、得られた映像を推定部14へ送る(ステップS1)。推定部14は、映像から画像認識処理を行って物体の中心位置を推定し、中心位置と物体情報とから物体が余裕を持って包含される前述した初期領域R0(図3(A)を参照)を設定する(ステップS2)。
When the picking process is started, first, the
初期領域R0が設定されたら、制御部10は、物体に接触することで物体の姿勢の候補を絞り込むループ処理(ステップS3~S13)へ処理を進める。すなわち、移動制御部13は、初回目の接触であるか否かを判別し(ステップS3)、初回目であれば第2の接触条件(非対称部位に接触する可能性の高い接触)に合致する接触経路を計算し、当該接触経路に優先度を付す処理を行う(ステップS6)。当該接触経路は、その時点で推定されている物体の姿勢の候補と、物体情報から計算された物体の非対称性を有する箇所の計算結果とから、当該箇所に位置する面に、当該面に交差する方向から進む経路として計算される。計算された接触経路に付される優先度は、第1~第3の接触条件の優先度を区別するために第2の接触条件に予め設定された値であってもよい。あるいは、優先度は、第2の接触条件に予め設定された値と、当該接触経路が接触条件に合致する可能性を示す値(例えば確率)とを乗算して得られる値であってもよい。
Once the initial region R0 is set, the
一方、ステップS3の判別処理で、2回目以降の接触であると判別されたら、移動制御部13は、その時点で推定されている物体の姿勢の候補に基づいて、第1の接触条件(前回以前に接触した面と異なる面への接触)に合致する接触経路を計算する(ステップS4)。加えて、移動制御部13は、当該接触経路に優先度を付す処理を行う(ステップS4)。当該接触経路は、仮にj個の姿勢の候補があるのであれば、各候補において前回以前の接触で、未だ接触されていないと推定される面を抽出し、当該面内の1点又は複数の点に向かって、当該点に対応づけられた法線方向に進む経路として計算される。接触経路の方向は、前回以前に接触した面の法線に交差する方向として計算されてもよい。当該接触経路に付される優先度は、第1~第3の接触条件の有線度を区別するために第1の接触条件用に予め設定された値であってもよい。あるいは、優先度は、第1の接触条件に予め設定された値と、当該接触経路が接触条件に合致する可能性を示す値(例えば確率)とを乗算して得られる値であってもよい。
On the other hand, if the determination process in step S3 determines that the contact is the second or subsequent contact, the
続いて、移動制御部13は、その時点で推定されている物体の姿勢の候補に基づいて、第3の接触条件(位置の不確かさの度合いが高い面への接触)に合致する接触経路を計算し、さらに、接触経路に優先度を付す処理を行う(ステップS5)。当該接触経路の求め方は、前述した通りである。優先度は、第1~第3の接触条件の優先度を区別するために第3の接触条件に予め設定された値であってもよい。あるいは、優先度は、第3の接触条件に予め設定された値と、当該経路が接触条件に合致する可能性を示す値(例えば確率)とを乗算して得られる値であってもよい。ステップS5の計算が終了したら、移動制御部13は、前述したステップS6の接触経路の計算及び優先度を付加する処理を行う。
Then, the
そして、移動制御部13は、接触経路が求められたか否かを判別し(ステップS7)、YESであれば、計算された接触経路のうち優先度が高いものを抽出する(ステップS8)。当該抽出の際、移動制御部13は、計算された複数の接触経路が、複数の接触条件を同時に満たす経路として集約可能であるか判別し、集約できる場合には、当該複数の接触経路の優先度を合算して、合算結果の優先度が付加された1つの接触経路として扱うようにしてもよい。
Then, the
一方、ステップS7の判別結果がNOであれば、移動制御部13は、物体に接触可能な任意の接触経路を計算する(ステップS9)。例えば、移動制御部13は、初期領域R0(図3(A))の球面上の任意な点から中心に向かう接触経路を計算する。
On the other hand, if the result of the determination in step S7 is NO, the
接触経路が決まったら、移動制御部13は、当該接触経路で力覚センサ22を移動させて、力覚センサ22(その接触子)を物体に接触させる(ステップS10)。当該接触は、物体を動かすことのない弱い接触である。そして、推定部14は力覚センサ22から接触点の位置及び面の向きの情報を取得し(ステップS11)、物体の姿勢の推定処理を実行する(ステップS12)。推定処理は、上述した通りにコスト関数G(r,t)を用いて行われる。
Once the contact path has been determined, the
そして、物体の姿勢の推定結果が得られたら、推定部14は、姿勢が1つに絞り込まれたか否かを判別し(ステップS13)、NOであれば、処理をステップS3に戻す。一方、姿勢が1つに絞り込まれたら、制御部10は、姿勢を推定するループ処理(ステップS3~S13)から抜けて、処理を次に進める。
When an estimation result of the object's posture is obtained, the
ループ処理を抜けると、ロボット制御部15は、推定された物体の姿勢(回転及び並進を示すパラメータ{r,t})に基づき、物体の位置及び向き、並びに、ロボットアーム24で物体をつかむ動作手順を計算する(ステップS14)。そして、ロボット制御部15は、ロボットアーム24を計算した手順動作で駆動し、物体を取り出す(ステップS15)。そして、1回のピッキング処理が終了する。
After exiting the loop process, the
<姿勢の推定処理の第1例>
続いて、上記のピッキング処理中に実行される物体の姿勢の推定処理の具体的な一例を説明する。図3は、当該推定処理の第1例を説明する第1工程(A)~第4工程(D)、(E)の説明図である。第1例では、姿勢を推定する物体Q1がナットでありテーブル上に載置されている。
<First example of posture estimation process>
Next, a specific example of the estimation process of the posture of an object executed during the above-mentioned picking process will be described. Fig. 3 is an explanatory diagram of the first step (A) to the fourth step (D) and (E) explaining a first example of the estimation process. In the first example, the object Q1 whose posture is to be estimated is a nut placed on a table.
図3(A)は、力覚センサ22による物体Q1への接触が1回も行われていない初期段階を示す。この段階では、ステップS2において、映像に基づき推定部14が初期領域R0を設定し、また、ステップS6において、移動制御部13が、物体Q1情報に基づき物体Q1の外面のうち非対称性を有する箇所の面を求め、接触経路h1が計算されている。ナットの場合、ネジ穴の中心軸を中心とする回転対称の度合いが閾値以下となり、ナットの外周面が非対称性を有する箇所の面と計算される。一方、第1例では、映像による姿勢の推定精度が低いことで、非対称性を有する面へ接触する経路が計算できずに、移動制御部13はステップS9で任意な接触経路h1を計算している。任意に選択される接触経路h1は、球状の初期領域R0の外周面内の一点から初期領域R0の中心に向かう経路であってもよい。
3A shows an initial stage where the
図3(B)は、ステップS10~S12において、接触経路h1に沿って力覚センサ22が移動した後、1回目の接触に基づき物体Q1の姿勢の推定が行われた段階を示す。当該接触により、接触点p1の位置と、接触点p1を含む面s1の向き(法線k1)とが検出され、推定部14により、これらの検出情報からコスト関数G(r,t)をゼロ近傍とする並進t及び回転rの候補が絞られている。図3(B)において、絞られた姿勢の候補を含む範囲を二点鎖線により示している。二点鎖線の範囲には、接触点p1が物体Q1のいずれかの面の点に相当し、当該点を含む面が法線k1に対して垂直である全ての姿勢が含まれる。推定部14は、当該範囲を占める多数の姿勢を候補として求めている。なお、初期領域R0から物体Q1がはみ出ている候補は、物体Q1の姿勢の候補から除外されてもよいが、図3では、除外されない例を示す。
Figure 3 (B) shows the stage where the posture of object Q1 is estimated based on the first contact after the
図3(C)は、ステップS4~S8において、2回目の接触の接触経路h2が計算された段階を示す。当該段階では、移動制御部13は、前回の接触により得られた物体Q1の姿勢の候補(二点鎖線で示す)に基づき、第1の接触条件に応じた接触経路と、第2の接触条件に応じた接触経路と、第3の接触条件に応じた接触経路とを計算し、その中で、優先度が高い接触経路h2を抽出している。接触経路h2は、1回目の接触面s1の法線に交差する方向に進む経路であるため、1回目の接触面s1と異なる面に接触する可能性が高く、さらに、接触する面が非対称性を有するナットの外周面である可能性が、例えば別の接触経路c1よりも高い。さらに、物体Q1の姿勢の候補において、接触経路h2に交差する可能性のある面は広い範囲X1に分散する一方、別の接触経路c1に交差する可能性のある面は狭い範囲X2に分散する。したがって、接触経路h2は位置の不確かさの度合いが高い面に接触する可能性が高い経路として計算される。
Figure 3 (C) shows the stage where the contact path h2 of the second contact is calculated in steps S4 to S8. At this stage, the
図3(D)、(E)は、ステップS10~S12において、接触経路h2に沿って力覚センサ22が移動した後、2回目の接触に基づき物体Q1の姿勢の推定が行われた段階を示す。2回目の接触により、接触点p2の位置と、接触点p2を含む面s2の向き(法線k2)とが検出され、推定部14が、1回目及び2回目の接触で得られた検出情報からコスト関数G(r,t)をゼロ近傍とする並進t及び回転rの候補を絞っている。図3(E)の平面図に2点鎖線で示すように、2回目の接触により、接触点p1、p2が物体Q1の2つの面s1、s2に含まれ、かつ、2つの面s1、s2に共に平行な方向へナットがずれる複数の姿勢の候補(図3(E)に二点鎖線で示す)が絞られている。
Figures 3(D) and (E) show the stage where the posture of object Q1 is estimated based on the second contact after the
このように接触回数が増すごとに、物体Q1の姿勢の候補が絞られ、推定部14は、最終的に物体Q1の姿勢を一つに推定できる。
In this way, as the number of contacts increases, the number of candidates for the posture of object Q1 is narrowed down, and the
<姿勢の推定処理の第2例>
図4は、物体の姿勢の推定処理の第2例を説明する第1工程(A)~第6工程(F)の説明図である。第2例では、姿勢を推定する物体Q2がボルトである例を示す。
<Second Example of Posture Estimation Processing>
4 is an explanatory diagram of the first step (A) to the sixth step (F) illustrating a second example of the object posture estimation process. In the second example, an object Q2 whose posture is to be estimated is a bolt.
図4(A)では、力覚センサ22による物体Q2への接触が1回も行われていない初期段階において、推定部14が、映像に基づき初期領域R0を設定し(ステップS2)、また、移動制御部13が、物体Q2情報に基づき物体Q2の外面のうち非対称性を有する面を求め、第2の接触条件に応じるように接触経路h11が計算されている(ステップS6)。ボルトの場合、軸方向においてボルトを2つに分割する中心面を基準とした面対称の対称性の度合が閾値以下となり、ボルト頭部の側面s21とボルト軸端部の側面s11aとが非対称性を有する箇所の面として求められる。一方、図4(A)の例では、映像に基づく物体Q2の姿勢の初期の推定精度が低いことで、非対称性を有する面から外れた軸部中央の側面に向かう接触経路h11が計算されている。
In FIG. 4(A), in the initial stage before the
図4(B)では、接触経路h11に沿って力覚センサ22が移動し(ステップS10)、1回目の接触による検出と(ステップS11)と、当該検出に基づく物体Q2の姿勢の推定が行われている(ステップS12)。当該接触により、接触点p11及び接触点p11を含む面s11の向き(法線k11)が検出され、推定部14が、これらの検出情報からコスト関数G(r,t)を計算して、物体Q2の複数の姿勢の候補を探索している。ここで、絞られた姿勢の候補には、図4(B)の二点鎖線に示すように、面s11及び接触点p11が、ボルトの頭部側面、頭部上面、軸部端面又は軸部側面、並びに、その中のいずれかの点となる全ての姿勢が含まれる。なお、初期領域R0から物体Q2がはみ出ている候補は、物体Q2の姿勢の候補から除外されてもよいが、図4では、除外されていない例を示している。
In FIG. 4B, the
図4(C)では、移動制御部13が、第1の接触条件~第3の接触条件に基づき優先度の高い接触経路h12を計算している(ステップS4~S8)。接触経路h12は、1回目の接触が行われた面s11と異なる面への接触を実現し、かつ、位置の不確かさの度合いが高い面への接触を実現する経路である。例えば、物体Q2の姿勢の候補(二点鎖線に示す)のうち、接触経路h12と交差する可能性のある面は、ボルトの軸部の長さ以上に分散している一方、別の接触経路c12と交差する可能性のある面は、ボルトの頭部の幅の分だけ分散しており、前者の方が分散値が大きく、不確かさの度合いが高い。
In FIG. 4(C), the
そして、図4(D)のように、2回目の接触が行われることで(ステップS10)、接触点p12及び接触点p12を含む面s12の向き(法線k12)が検出され(ステップS11)、これらの検出結果に基づき、推定部14により、物体Q2の姿勢の候補がより絞られている(ステップS12)。図4(D)の二点鎖線に示すように、2回目の接触により、ボルトの頭部と軸端部とが逆転される2つの姿勢に候補に絞られている。なお、一回目の接触が、非対称性を有するボルトの頭部側面s21又は軸端部側面s11aに行われていれば、推定部14は、2回目の接触の段階で物体Q2の姿勢を1つに絞ることができている。
Then, as shown in FIG. 4(D), the second contact is made (step S10), the contact point p12 and the orientation (normal k12) of the surface s12 including the contact point p12 are detected (step S11), and based on these detection results, the
図4(E)では、移動制御部13は、第1~第3の接触条件を実現する可能性が高い接触経路h13を計算している(ステップS4~S8)。この時点の姿勢の候補では、ボルトの頭部側面s21又は軸端部側面s11aが、位置の不確かさの度合いが高い面であり、かつ、ボルトの頭部側面s21及び軸端部側面s11aが非対称性を有する箇所の面である。したがって、接触経路h13は、第2の接触条件及び第3の接触条件に応じた経路となっている。さらに、接触経路h13は、1回目で接触した面s11、並びに、2回目で接触した面s12と異なる面(ボルト頭部側面s21)へ接触する可能性がある経路となっており、第1の接触条件に応じた経路にもなっている。接触経路h13は、実際には、1回目に接触した面s11と同一面である軸端部側面s11aに接触するが、この段階で推定されている姿勢の候補に対しては、ボルト頭部側面s21へ接触する可能性を50%程度有する。
In FIG. 4(E), the
そして、図4(F)のように、3回目の接触が行われることで(ステップS10)、接触点p13及び接触点p13を含む面s11aの向きが検出され(ステップS11)、これらの検出結果から物体Q2の姿勢の候補が1つに絞られている(ステップS12)。 Then, as shown in FIG. 4(F), a third contact is made (step S10), and the orientation of contact point p13 and surface s11a including contact point p13 are detected (step S11), and from these detection results, the number of candidates for the orientation of object Q2 is narrowed down to one (step S12).
以上のように、本実施形態のピッキング装置1によれば、力覚センサ22による物体への複数回の接触で得られた検出情報と物体情報とに基づいて推定部14が物体の姿勢を推定する。したがって、布等に覆われた物体、透明や黒色の物体、鏡面を有する物体など、映像だけでは姿勢を推定し難いものであっても、物体の姿勢を推定することができる。
As described above, according to the
さらに、本実施形態のピッキング装置1によれば、移動制御部13が、物体への力覚センサ22の複数回の接触が、物体の異なる面に行われるように、力覚センサ22の接触経路を計算する。したがって、推定部14は、少ない接触の検出情報を用いて物体の姿勢の候補をより少ない候補に絞ることができ、高効率な姿勢の推定を実現できる。
Furthermore, according to the
さらに、本実施形態のピッキング装置1によれば、力覚センサ22の接触により接触点の位置の情報と接触点を含む面の向きの情報とを、検出情報として取得する。加えて、移動制御部13は、n回目の接触の際に、n回目より前に接触された接触点の面の法線と交差する方向に力覚センサ22を移動させる接触経路を計算する。このような接触経路の進む方向の決定方法により、移動制御部13は、物体への力覚センサ22の複数回の接触が、物体の異なる面に行われるように、力覚センサ22の接触経路を計算することができる。
Furthermore, according to the
さらに、本実施形態のピッキング装置1によれば、移動制御部13は、その時点で絞られている物体の姿勢の複数の候補の中から、位置の不確かさの度合いが高い面に接触する可能性が高い接触経路(第3の接触条件に応じた接触経路)を計算する。したがって、当該接触経路に沿った力覚センサ22の移動で得られる検出情報に基づいて、推定部14は、物体の姿勢の候補をより少ない候補に絞ることができる。したがって、推定部14は、少ない接触の検出情報を用いて物体の姿勢を一つに絞ることができ、高効率な姿勢の推定を実現できる。
Furthermore, according to the
さらに、本実施形態のピッキング装置1によれば、移動制御部13は、物体の非対称な箇所の面に接触するように接触経路(第2の接触条件に応じた接触経路)を計算する。したがって、当該接触経路に沿った力覚センサ22の移動で得られる、物体の非対称な面の検出情報に基づいて、物体の向きを効率的に特定できる。したがって、推定部14は、少ない接触の検出情報を用いて物体の姿勢を一つに絞ることができ、高効率な姿勢の推定を実現できる。
Furthermore, according to the
さらに、本実施形態のピッキング装置1によれば、物体の映像を取得する撮影部21を備え、推定部14は、撮影部21により取得された映像に基づいて物体の大まかな位置を推定し、一回目の接触を可能とする。すなわち、推定部14は、映像に基づいて物体に接触可能な位置を推定する。したがって、物体の位置が広い範囲で不明な状態からでも、映像から物体に接触する位置を推定でき、接触することで物体の姿勢を推定することが可能となる。よって、物体の位置が広い範囲で不明な状態からでも、物体の取出しが可能となる。
Furthermore, the
以上、本発明の実施形態について説明した。しかし、本発明は上記の実施形態に限られない。例えば、上記実施形態では、物体の外面に一様に分布された点群Mの情報と、コスト関数G(r,t)とを用いて物体の姿勢を推定する方法を説明したが、上記の方法に限られず、接触により検出された情報から物体の姿勢を推定できれば、どのような方法が採用されてもよい。また、前述したように、上記実施形態では、物体が載置されるテーブルなど、物体の姿勢が規制させる要素の存在を考慮せずに、姿勢の推定処理を行う例を示したが、物体の姿勢が規制される要素がある場合には、例えば、当該要素と相いれない姿勢の候補を除外するなどの処理が追加されてもよい。 The above describes the embodiments of the present invention. However, the present invention is not limited to the above embodiments. For example, in the above embodiment, a method for estimating the posture of an object using information on a point group M uniformly distributed on the outer surface of the object and a cost function G(r, t) was described. However, the present invention is not limited to the above method, and any method may be adopted as long as it can estimate the posture of an object from information detected by contact. Also, as described above, in the above embodiment, an example of performing posture estimation processing without considering the presence of an element that restricts the posture of the object, such as a table on which the object is placed, was shown. However, if there is an element that restricts the posture of the object, for example, a process of excluding candidates for postures that are incompatible with the element may be added.
また、上記実施形態では、物体情報記憶部11(物体の形状及び大きさを示す物体情報を記憶する記憶部)が装置内に位置する例を示した。しかし、物体情報記憶部11は、通信ネットワークを介して接続されたサーバコンピュータに設けられ、通信を介して装置に物体情報が送られる構成であってもよい。また、上記実施形態では、物体を棚等から取り出すピッキング装置1に本発明を適用した例を示したが、本発明の情報処理装置は、物体を取り出す制御及び動作を伴わなくてもよく、物体の姿勢を推定する様々な装置に適用可能である。その他、実施の形態で示した細部は、発明の趣旨を逸脱しない範囲で適宜変更可能である。
In the above embodiment, an example was shown in which the object information storage unit 11 (a storage unit that stores object information indicating the shape and size of an object) is located within the device. However, the object
1 ピッキング装置(情報処理装置)
10 制御部
11 物体情報記憶部
12 撮影制御部
13 移動制御部
14 推定部
15 ロボット制御部
16 インタフェース
21 撮影部
22 力覚センサ
23 駆動装置
24 ロボットアーム(取出し機構)
Q1、Q2 物体
R0 初期領域
h1、h2、h11~h13 接触経路
p1、p2、p11~p13 接触点
s11a、s21 非対称性を有する箇所の面
1. Picking device (information processing device)
REFERENCE SIGNS
Q1, Q2 Object R0 Initial region h1, h2, h11-h13 Contact path p1, p2, p11-p13 Contact points s11a, s21 Surfaces with asymmetry
Claims (5)
前記物体の形状及び大きさを示す物体情報を記憶する記憶部と、
接触により接触点の検出情報を取得する力覚センサと、
前記力覚センサを移動させる移動制御部と、
前記力覚センサによる前記物体への複数回の接触で得られた前記検出情報と前記物体情報とに基づいて前記物体の姿勢を推定する推定部と、
を備え、
前記推定部は、前記複数回の接触が遂行される前に前記物体の姿勢について複数の候補を推定し、
前記移動制御部は、前記複数回の接触において、前記力覚センサが前記物体の異なる面に接触するように、更に、前記複数の候補に含まれる面の位置の不確かさの度合いが、前記複数の候補に含まれる他の面よりも高い面に接触するように、前記力覚センサを移動させる、
情報処理装置。 An information processing device that estimates a posture of an object,
A storage unit that stores object information indicating a shape and a size of the object;
a force sensor for acquiring detection information of a contact point by contact;
A movement control unit that moves the force sensor;
an estimation unit that estimates a posture of the object based on the detection information obtained by the force sensor contacting the object multiple times and the object information;
Equipped with
The estimation unit estimates a plurality of candidates for a pose of the object before the plurality of contacts are performed,
the movement control unit moves the force sensor so that, during the multiple contacts, the force sensor comes into contact with different faces of the object, and further so that the force sensor comes into contact with a face included in the multiple candidates having a higher degree of positional uncertainty than other faces included in the multiple candidates .
Information processing device.
前記移動制御部は、前記複数回の接触のうち第n回目の接触の際に、前記第n回目より前に接触された接触点を含む面の法線と交差する方向に前記力覚センサを移動させる、
請求項1記載の情報処理装置。 the detection information includes information on a position of the contact point and a normal of a surface including the contact point;
the movement control unit moves the force sensor in a direction intersecting a normal to a plane including a contact point that was contacted before the nth contact, when an nth contact occurs among the multiple contacts.
2. The information processing device according to claim 1.
前記推定部は、前記映像に基づいて前記物体に接触可能な位置を推定する、
請求項1又は請求項2に記載の情報処理装置。 A photographing unit is provided for capturing an image of an object,
The estimation unit estimates a contactable position of the object based on the image.
3. The information processing device according to claim 1 or 2 .
前記推定部の推定結果を用いて前記物体を取り出す取出し機構と、
を備えたピッキング装置。 An information processing device according to any one of claims 1 to 3 ;
a take-out mechanism that takes out the object using the estimation result of the estimation unit;
A picking device comprising:
力覚センサを移動させる手段と、A means for moving the force sensor;
前記力覚センサから接触により接触点の検出情報を取得する手段と、a means for acquiring detection information of a contact point from the force sensor;
前記力覚センサによる前記物体への複数回の接触で得られた前記検出情報と前記物体情報とに基づいて前記物体の姿勢を推定する手段と、a means for estimating a posture of the object based on the detection information obtained by the force sensor contacting the object multiple times and the object information;
を実行させるためのプログラムであって、A program for executing
前記推定する手段は、前記複数回の接触が遂行される前に前記物体の姿勢について複数の候補を推定し、the estimating means estimates a plurality of candidates for the pose of the object before the plurality of contacts are performed;
前記移動させる手段は、前記複数回の接触において、前記力覚センサが前記物体の異なる面に接触するように、更に、前記複数の候補に含まれる面の位置の不確かさの度合いが、前記複数の候補に含まれる他の面よりも高い面に接触するように、前記力覚センサを移動させる、the moving means moves the force sensor so that the force sensor comes into contact with different faces of the object during the multiple contacts, and further so that the force sensor comes into contact with a face included in the multiple candidates having a higher degree of positional uncertainty than other faces included in the multiple candidates.
プログラム。Program.
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020198602A JP7561590B2 (en) | 2020-11-30 | 2020-11-30 | Information processing device, picking device, and program |
| CN202180074266.9A CN116457161B (en) | 2020-11-30 | 2021-11-25 | Information processing device and picking device |
| EP21898014.2A EP4252975A4 (en) | 2020-11-30 | 2021-11-25 | INFORMATION PROCESSING DEVICE AND ORDER PICKING DEVICE |
| PCT/JP2021/043129 WO2022114042A1 (en) | 2020-11-30 | 2021-11-25 | Information processing device, and picking device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020198602A JP7561590B2 (en) | 2020-11-30 | 2020-11-30 | Information processing device, picking device, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022086536A JP2022086536A (en) | 2022-06-09 |
| JP7561590B2 true JP7561590B2 (en) | 2024-10-04 |
Family
ID=81894110
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020198602A Active JP7561590B2 (en) | 2020-11-30 | 2020-11-30 | Information processing device, picking device, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7561590B2 (en) |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5685027B2 (en) * | 2010-09-07 | 2015-03-18 | キヤノン株式会社 | Information processing apparatus, object gripping system, robot system, information processing method, object gripping method, and program |
| JP2015071207A (en) * | 2013-10-03 | 2015-04-16 | 株式会社豊田自動織機 | Robot hand and control method thereof |
-
2020
- 2020-11-30 JP JP2020198602A patent/JP7561590B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022086536A (en) | 2022-06-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN110992356B (en) | Target object detection method, device and computer equipment | |
| CN109727288B (en) | System and method for monocular simultaneous localization and mapping | |
| US8818039B2 (en) | Information processing apparatus, information processing method, and computer program | |
| CN110796671B (en) | Data processing method and related device | |
| US9044858B2 (en) | Target object gripping apparatus, method for controlling the same and storage medium | |
| US10217221B2 (en) | Place recognition algorithm | |
| CN107953329B (en) | Object recognition and attitude estimation method, device and robotic arm grasping system | |
| JP2019032830A (en) | Systems and methods for detecting grasp poses for handling target objects | |
| WO2018221614A1 (en) | Learning device, learning method, learning model, estimation device, and grip system | |
| EP2915138A1 (en) | Systems and methods of merging multiple maps for computer vision based tracking | |
| JP2002008040A (en) | Three-dimensional information detection device and three-dimensional information detection method | |
| JP6922348B2 (en) | Information processing equipment, methods, and programs | |
| JP4938748B2 (en) | Image recognition apparatus and program | |
| CN114049318A (en) | Multi-mode fusion feature-based grabbing pose detection method | |
| JP2018169660A (en) | Object attitude detection apparatus, control apparatus, robot and robot system | |
| CN116330306B (en) | Object grabbing method and device, storage medium and electronic equipment | |
| CN111665490B (en) | Target tracking method and device, storage medium and electronic device | |
| JP7561590B2 (en) | Information processing device, picking device, and program | |
| JP6606340B2 (en) | Image detection apparatus, image detection method, and program | |
| JP6955081B2 (en) | Electronic devices, systems and methods for determining object orientation | |
| CN111179342B (en) | Object pose estimation method, device, storage medium and robot | |
| JP5978996B2 (en) | Object region extraction apparatus, method, and program | |
| JP2017042897A (en) | Robot system, robot, and robot control device | |
| Aini et al. | Object detection of surgical instruments for assistant robot surgeon using knn | |
| CN113051424A (en) | Positioning method and device based on SLAM map |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230612 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240305 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240507 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240827 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240924 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7561590 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
