JP7561590B2 - Information processing device, picking device, and program - Google Patents

Information processing device, picking device, and program Download PDF

Info

Publication number
JP7561590B2
JP7561590B2 JP2020198602A JP2020198602A JP7561590B2 JP 7561590 B2 JP7561590 B2 JP 7561590B2 JP 2020198602 A JP2020198602 A JP 2020198602A JP 2020198602 A JP2020198602 A JP 2020198602A JP 7561590 B2 JP7561590 B2 JP 7561590B2
Authority
JP
Japan
Prior art keywords
contact
force sensor
posture
candidates
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020198602A
Other languages
Japanese (ja)
Other versions
JP2022086536A (en
Inventor
宣嗣 宮澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP2020198602A priority Critical patent/JP7561590B2/en
Priority to CN202180074266.9A priority patent/CN116457161B/en
Priority to EP21898014.2A priority patent/EP4252975A4/en
Priority to PCT/JP2021/043129 priority patent/WO2022114042A1/en
Publication of JP2022086536A publication Critical patent/JP2022086536A/en
Application granted granted Critical
Publication of JP7561590B2 publication Critical patent/JP7561590B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、情報処理装置ピッキング装置及びプログラムに関する。 The present invention relates to an information processing device , a picking device , and a program .

特許文献1には、物体の映像と、物体への接触位置の計測情報とから、物体の姿勢を認識するシステムが示されている。 Patent document 1 shows a system that recognizes the orientation of an object from an image of the object and measurement information of the contact position on the object.

特開2017-136677号公報JP 2017-136677 A

透明及び黒色の物体、表面が鏡面である物体、あるいは、布などで覆われている物体は、映像のみから物体の姿勢を認識することが困難である。特許文献1のシステムでは、物体への接触による計測情報を併用することで、ビニール袋や緩衝材に包まれた物体の位置の認識を可能としている。しかしながら、接触によって物体の姿勢を推定する装置において、効率的な推定を行うには、物体への接触の仕方に改善の余地がある。 It is difficult to recognize the orientation of transparent or black objects, objects with mirror-like surfaces, or objects covered with cloth or the like from images alone. The system in Patent Document 1 makes it possible to recognize the position of objects wrapped in plastic bags or cushioning material by also using measurement information obtained by contacting the object. However, in a device that estimates the orientation of an object by contact, there is room for improvement in the way the object is contacted in order to perform efficient estimation.

本発明は、接触により得られる検出情報を利用して効率的に物体の姿勢を推定できる情報処理装置及びピッキング装置を提供することを目的とする。 The present invention aims to provide an information processing device and a picking device that can efficiently estimate the orientation of an object by using detection information obtained by contact.

本発明に係る情報処理装置は、
物体の姿勢を推定する情報処理装置であって、
前記物体の形状及び大きさを示す物体情報を記憶する記憶部と、
接触により接触点の検出情報を取得する力覚センサと、
前記力覚センサを移動させる移動制御部と、
前記力覚センサによる前記物体への複数回の接触で得られた前記検出情報と前記物体情報とに基づいて前記物体の姿勢を推定する推定部と、
を備え、
前記推定部は、前記複数回の接触が遂行される前に前記物体の姿勢について複数の候補を推定し、
前記移動制御部は、前記複数回の接触において、前記力覚センサが前記物体の異なる面に接触するように、更に、前記複数の候補に含まれる面の位置の不確かさの度合いが、前記複数の候補に含まれる他の面よりも高い面に接触するように、前記力覚センサを移動させる。
本発明に係るプログラムは、
物体の形状及び大きさを示す物体情報を記憶する記憶部を備えた情報処理装置に、
力覚センサを移動させる手段と、
前記力覚センサから接触により接触点の検出情報を取得する手段と、
前記力覚センサによる前記物体への複数回の接触で得られた前記検出情報と前記物体情報とに基づいて前記物体の姿勢を推定する手段と、
を実行させるためのプログラムであって、
前記推定する手段は、前記複数回の接触が遂行される前に前記物体の姿勢について複数の候補を推定し、
前記移動させる手段は、前記複数回の接触において、前記力覚センサが前記物体の異なる面に接触するように、更に、前記複数の候補に含まれる面の位置の不確かさの度合いが、前記複数の候補に含まれる他の面よりも高い面に接触するように、前記力覚センサを移動させる。
The information processing device according to the present invention comprises:
An information processing device that estimates a posture of an object,
A storage unit that stores object information indicating a shape and a size of the object;
a force sensor for acquiring detection information of a contact point by contact;
A movement control unit that moves the force sensor;
an estimation unit that estimates a posture of the object based on the detection information obtained by the force sensor contacting the object multiple times and the object information;
Equipped with
The estimation unit estimates a plurality of candidates for a pose of the object before the plurality of contacts are performed,
The movement control unit moves the force sensor so that, during the multiple contacts, the force sensor comes into contact with different surfaces of the object, and further so that the force sensor comes into contact with a surface included in the multiple candidates having a higher degree of positional uncertainty than other surfaces included in the multiple candidates .
The program according to the present invention comprises:
An information processing device including a storage unit that stores object information indicating the shape and size of an object,
A means for moving the force sensor;
a means for acquiring detection information of a contact point from the force sensor;
a means for estimating a posture of the object based on the detection information obtained by the force sensor contacting the object multiple times and the object information;
A program for executing
the estimating means estimates a plurality of candidates for the pose of the object before the plurality of contacts are performed;
The moving means moves the force sensor so that, during the multiple contacts, the force sensor comes into contact with different surfaces of the object, and further so that the force sensor comes into contact with a surface included in the multiple candidates having a higher degree of positional uncertainty than other surfaces included in the multiple candidates.

本発明に係るピッキング装置は、
上記の情報処理装置と、
前記推定部の推定結果を用いて前記物体を取り出す取出し機構と、
を備える。
The picking device according to the present invention comprises:
The above information processing device;
a take-out mechanism that takes out the object using the estimation result of the estimation unit;
Equipped with.

本発明によれば、接触を利用して効率的に物体の姿勢を推定できる情報処理装置ピッキング装置及びプログラムを提供できる。 According to the present invention, it is possible to provide an information processing device , a picking device , and a program capable of efficiently estimating the orientation of an object by utilizing contact.

本発明の実施形態に係るピッキング装置を示すブロック図である。1 is a block diagram showing a picking device according to an embodiment of the present invention. 制御部が実行するピッキング処理の手順の一例を示すフローチャートである。10 is a flowchart illustrating an example of a procedure of a picking process executed by a control unit. 物体の姿勢を推定する処理の第1例を説明する第1工程(A)~第4工程(D)、(E)の説明図である。1A to 1E are explanatory diagrams illustrating a first example of a process for estimating the orientation of an object, the diagram illustrating a first step (A) to a fourth step (D) (E). 物体の姿勢を推定する処理の第2例を説明する第1工程(A)~第6工程(F)の説明図である。11A to 11F are explanatory diagrams illustrating a first step (A) to a sixth step (F) of a second example of a process for estimating the orientation of an object.

以下、本発明の実施形態について図面を参照して詳細に説明する。図1は、本発明の実施形態に係るピッキング装置を示すブロック図である。本実施形態に係るピッキング装置1は、形状及び大きさが既知の物体の姿勢を推定し、当該物体を把持等により収容箇所から取り出す装置である。ピッキング装置1は、物体の映像を取得する撮影部21と、物体に接触することにより接触点の検出情報を取得可能な力覚センサ22と、力覚センサ22を動かす駆動装置23と、物体を把持及び搬送する取出し機構としてのロボットアーム24と、これらを制御する制御部10とを備える。ピッキング装置1は、本発明に係る情報処理装置の一例に相当する。 Below, an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a picking device according to an embodiment of the present invention. The picking device 1 according to this embodiment is a device that estimates the posture of an object whose shape and size are known, and removes the object from a storage location by gripping or the like. The picking device 1 includes an imaging unit 21 that captures an image of the object, a force sensor 22 that can obtain detection information of a contact point by contacting the object, a driving device 23 that moves the force sensor 22, a robot arm 24 as a removal mechanism that grips and transports the object, and a control unit 10 that controls these. The picking device 1 corresponds to an example of an information processing device according to the present invention.

撮影部21は、撮像素子及び結像レンズを有し、デジタル信号の映像を取得する。撮影部21は、物体の大まかな位置を把握できる映像を取得できればよい。その他、撮影部21は、二次元の映像に加えて映像上の各点の奥行の情報が得られるデプスセンサであってもよい。 The image capturing unit 21 has an image sensor and an imaging lens, and captures an image as a digital signal. It is sufficient for the image capturing unit 21 to capture an image that allows the rough position of an object to be grasped. Alternatively, the image capturing unit 21 may be a depth sensor that can obtain depth information of each point on the image in addition to a two-dimensional image.

力覚センサ22は、接触子が任意の面に接触したときに、接触点の検出情報を取得する。検出情報には、接触点の位置の情報と、接触点から接触子に加わる反力の向きを示す情報すなわち接触点を含む面の向き(面の法線)の情報とが含まれる。力覚センサ22は、非常に小さな反力を受けた段階で停止することで、接触する物体を動かすことなく、接触点の検出情報を取得することができる。 The force sensor 22 acquires detection information of the contact point when the contactor comes into contact with any surface. The detection information includes information on the position of the contact point and information indicating the direction of the reaction force applied to the contactor from the contact point, i.e., information on the orientation of the surface that includes the contact point (the surface normal). The force sensor 22 stops when it receives a very small reaction force, making it possible to acquire detection information of the contact point without moving the object in contact.

駆動装置23は、任意の経路で力覚センサ22(具体的にはその接触子)を動かすことが可能な三次元駆動装置である。力覚センサ22を動かす駆動装置23と、ロボットアーム24の駆動部とが兼用されていてもよい。 The driving device 23 is a three-dimensional driving device capable of moving the force sensor 22 (specifically, its contact) along any path. The driving device 23 that moves the force sensor 22 may also serve as the driving unit of the robot arm 24.

制御部10は、CPU(Central Processing Unit)と、CPUがデータを展開するRAM(Random access memory)と、CPUが実行する制御プログラムを格納した記憶装置と、撮影部21、力覚センサ22、駆動装置23及びロボットアーム24と信号をやり取りするインタフェース16と、を備えたコンピュータである。制御部10では、CPUが制御プログラムを実行することで複数の機能モジュールが実現される。複数の機能モジュールには、撮影部21を制御する撮影制御部12と、物体の形状及び大きさを示す物体情報が記憶された物体情報記憶部11と、駆動装置23を制御して力覚センサ22を移動させる移動制御部13と、物体の姿勢を推定する推定部14と、ロボットアーム24の駆動制御を行うロボット制御部15とが含まれる。 The control unit 10 is a computer equipped with a CPU (Central Processing Unit), a RAM (Random access memory) in which the CPU expands data, a storage device that stores a control program executed by the CPU, and an interface 16 that exchanges signals with the imaging unit 21, the force sensor 22, the drive device 23, and the robot arm 24. In the control unit 10, a plurality of functional modules are realized by the CPU executing the control program. The plurality of functional modules include an imaging control unit 12 that controls the imaging unit 21, an object information storage unit 11 that stores object information indicating the shape and size of an object, a movement control unit 13 that controls the drive device 23 to move the force sensor 22, an estimation unit 14 that estimates the posture of the object, and a robot control unit 15 that controls the drive of the robot arm 24.

物体情報は、例えば、物体の表面に一様に分布する複数の点の位置データ(相対的な位置データ)を含む。物体情報は、各点の位置データに加えて、各点の法線データが含まれていてもよい。法線データは、各点が含まれる面に垂直で、当該点を通る法線の方向を示す。なお、各点の法線データは、予め与えられず、上記の複数の点の位置データから制御部10が計算により求めてもよい。 The object information includes, for example, position data (relative position data) of multiple points uniformly distributed on the surface of the object. In addition to the position data of each point, the object information may also include normal data for each point. The normal data indicates the direction of a normal that is perpendicular to the surface on which each point is included and passes through that point. Note that the normal data for each point does not need to be given in advance, and may be calculated by the control unit 10 from the position data of the multiple points.

推定部14は、撮影部21が取得した映像から物体のおおまかな位置を推定する。映像に基づく推定は、物体のいずれかの箇所に力覚センサ22を接触できる程度の比較的に精度の低い推定であってよい。具体的な手法は限定されないが、例えば、推定部14は、映像から画像認識処理を行うことで、大きな許容誤差で物体の中央点又は物体が位置する点を推定することができる。 The estimation unit 14 estimates the approximate position of the object from the image captured by the imaging unit 21. The estimation based on the image may be a relatively low-precision estimation to the extent that the force sensor 22 can contact any part of the object. The specific method is not limited, but for example, the estimation unit 14 can estimate the center point of the object or the point where the object is located with a large tolerance by performing image recognition processing from the image.

推定部14は、さらに、1回又は複数回の力覚センサ22による物体への接触によって得られた接触点の検出情報に基づき、当該物体の姿勢を推定する。ここで、物体の姿勢とは、物体の位置及び向きを含む概念であるが、本発明に係る姿勢の推定とは向きのみの推定であってもよい。力覚センサ22による接触回数が少なく、物体の姿勢を1つに絞ることができない段階では、接触点の検出情報に基づき、推定部14は、複数の姿勢の候補を推定する。そして、力覚センサ22の接触回数が増えるごとに、姿勢の候補が絞られることで、推定部14は、最終的に1つの姿勢を推定することができる。 The estimation unit 14 further estimates the posture of the object based on the detection information of the contact point obtained by the force sensor 22 contacting the object once or multiple times. Here, the posture of the object is a concept that includes the position and orientation of the object, but the estimation of the posture according to the present invention may be an estimation of only the orientation. When the number of contacts by the force sensor 22 is small and the posture of the object cannot be narrowed down to one, the estimation unit 14 estimates multiple candidate postures based on the detection information of the contact point. Then, as the number of contacts by the force sensor 22 increases, the candidate postures are narrowed down, and the estimation unit 14 can finally estimate one posture.

移動制御部13は、推定部14が効率的に物体の姿勢を推定できるように、力覚センサ22が物体に接触する際の接触経路を決定し、決定された接触経路で力覚センサ22を移動させる。接触経路の決定方法については、後に詳述する。 The movement control unit 13 determines a contact path along which the force sensor 22 comes into contact with an object, and moves the force sensor 22 along the determined contact path, so that the estimation unit 14 can efficiently estimate the posture of the object. The method of determining the contact path will be described in detail later.

ロボット制御部15は、推定部14が推定した物体の姿勢の情報に基づいて、当該姿勢の物体をロボットアーム24が把持及び搬送するように、ロボットアーム24を駆動する。 The robot control unit 15 drives the robot arm 24 so that the robot arm 24 grasps and transports the object in the posture estimated by the estimation unit 14 based on the information on the posture of the object.

<姿勢の推定方法>
続いて、推定部14による物体の姿勢の推定方法の具体的な一例を説明する。なお、推定部14による物体の姿勢の推定方法は、下記の例に限定されるものではない。ここでは、式(1)のコスト関数G(r,t)を用いて、推定部14が物体の姿勢、あるいは、複数の姿勢の候補を推定する方法を説明する。
<Posture Estimation Method>
Next, a specific example of a method for estimating the orientation of an object by the estimation unit 14 will be described. Note that the method for estimating the orientation of an object by the estimation unit 14 is not limited to the following example. Here, a method for the estimation unit 14 to estimate the orientation of an object or multiple orientation candidates using the cost function G(r, t) of equation (1) will be described.

Figure 0007561590000001
Figure 0007561590000001

上記のロボット座標系とは、ロボットアーム24の基部を基準とした座標系であり、ロボットアーム24の基部が移動しない場合において座標系の原点及び三軸方向が固定される座標系を意味する。物体座標系とは、物体を基準とした座標系であり、物体の位置及び向きが変わればこれらに応じて座標の原点及び三軸方向が基準座標系(例えば地球の座標系)に対して回転及び並進する座標系を意味する。回転r及び並進tは、ロボット座標系において物体の位置及び向きを表わす量であり、例えば、ロボット座標系の原点と物体座標系の原点との差が並進tで表わされ、ロボット座標系の三軸と物体座標系の三軸との回転方向における差が回転rで表わされてもよい。 The robot coordinate system is a coordinate system based on the base of the robot arm 24, and refers to a coordinate system in which the origin and three axis directions of the coordinate system are fixed when the base of the robot arm 24 does not move. The object coordinate system is a coordinate system based on an object, and refers to a coordinate system in which the origin and three axis directions of the coordinate system rotate and translate relative to a reference coordinate system (e.g., the Earth's coordinate system) when the position and orientation of the object change. The rotation r and translation t are amounts that represent the position and orientation of an object in the robot coordinate system. For example, the difference between the origin of the robot coordinate system and the origin of the object coordinate system may be represented by the translation t, and the difference in the rotational direction between the three axes of the robot coordinate system and the three axes of the object coordinate system may be represented by the rotation r.

上記の調整係数は、式(1)の右辺鉤括弧内の第1項目と第2項目とがコスト関数に影響する度合いを調整する係数である。当該第1項は、物体の表面を示す点群Mの中に接触点に近い点mが含まれればコスト関数を小さくし、点群Mの中の接触点に最も近い点mと接触点との距離が大きいほどコスト関数を大きくする要素である。上記の第2項は、点群Mの中に接触点の面の向きと同じ法線方向の点mがあればコスト関数を小さくし、接触点の面の向きに最も近い法線を有する点mにおける当該法線が接触点の面の向きと異なるほどコスト関数を大きくする要素である。絶対値記号はベクトルの長さを表わし、“〈a,b〉”はベクトルaとベクトルbの内積を表わす。“min[]”は各点mにおける鉤括弧内の値のうちの最小値を示す。よって、総和記号Σ内の値は、点群Mに、接触点に近い点が含まれ、当該点の法線方向が接触点の面の向きに近い場合にゼロに近づき、このような点が含まれていなければ、ゼロから正の方へ離れる値となる。 The above adjustment coefficient is a coefficient that adjusts the degree to which the first and second terms in the brackets on the right side of formula (1) affect the cost function. The first term is an element that reduces the cost function if a point m close to the contact point is included in the point group M that indicates the surface of the object, and increases the cost function as the distance between the point m closest to the contact point in the point group M and the contact point increases. The above second term is an element that reduces the cost function if a point m in the point group M has the same normal direction as the surface orientation of the contact point, and increases the cost function as the normal at point m that has the closest normal to the surface orientation of the contact point differs from the surface orientation of the contact point. The absolute value symbol represents the length of the vector, and "〈a, b〉" represents the inner product of vector a and vector b. "min [ ]" indicates the minimum value of the values in brackets at each point m. Therefore, the value in the summation symbol Σ approaches zero if the point cloud M contains a point close to the contact point and the normal direction of that point is close to the direction of the surface of the contact point; if no such point is contained, the value moves away from zero in the positive direction.

推定部14は、コスト関数G(r,t)の値がゼロ近傍の小さい値となる引数(並進r、回転t)を探索することで、探索された回転及び並進{r,t}を、物体の姿勢又は物体の姿勢の候補として推定する。 The estimation unit 14 searches for arguments (translation r, rotation t) that result in a small value near zero for the cost function G(r, t), and estimates the searched rotation and translation {r, t} as the object's pose or a candidate for the object's pose.

<推定手順>
推定部14は、まず、撮影部21から得られた映像と、物体の大きさ及び形状が示された物体情報とに基づいて、物体の姿勢を探索する初期領域を設定する。初期領域は、物体が当該領域からはみ出す可能性がほぼゼロとなるように余裕を持った大きさに設定される。例えば、推定部14は、映像の画像認識により得られた物体の中央点と、物体情報とに基づいて、当該中央点に中心が位置する物体の外接球を求め、画像認識の推定精度に対応する誤差分、外接球の径を大きくし、当該外接球の内側を初期領域とする。
<Estimation procedure>
The estimation unit 14 first sets an initial region for searching the posture of the object based on the image obtained from the imaging unit 21 and the object information indicating the size and shape of the object. The initial region is set to a size with a margin so that the possibility of the object going out of the region is almost zero. For example, the estimation unit 14 obtains a circumscribing sphere of the object whose center is located at the center point based on the center point of the object obtained by image recognition of the image and the object information, increases the diameter of the circumscribing sphere by an error amount corresponding to the estimation accuracy of the image recognition, and sets the inside of the circumscribing sphere as the initial region.

次に、推定部14は、初期領域に含まれる物体の位置及び向きとしてあり得る全姿勢を、初期の姿勢の候補とする。各姿勢は回転rと並進tとの組合せで表わされる。したがって、姿勢の初期の候補は、回転及び並進の組合せ{r,t}の集合となる。ただし、並進又は回転の非常に小さな差異を、別の姿勢と見なすと、初期の姿勢の候補が非常に多くなる。したがって、推定部14は、並進の最小差異Δtと回転の最小差異Δrとを適宜設定し、並進又は回転の差異が最小差異Δt、Δr以上となる姿勢を異なる姿勢として、初期の姿勢の複数の候補を表わす集合I={(r,t),i=1、2・・・}を作成する。 Next, the estimation unit 14 sets all possible postures as the position and orientation of the object included in the initial region as candidates for the initial posture. Each posture is represented by a combination of rotation r and translation t. Therefore, the initial posture candidates are a set of rotation and translation combinations {r, t}. However, if a very small difference in translation or rotation is considered as a different posture, the number of candidates for the initial posture will be very large. Therefore, the estimation unit 14 appropriately sets the minimum difference Δt in translation and the minimum difference Δr in rotation, and creates a set I 0 ={(r, t) i , i=1, 2, ...} representing multiple candidates for the initial posture, with postures whose translation or rotation difference is equal to or greater than the minimum difference Δt, Δr being considered as different postures.

なお、物体が載置されるテーブルなど、物体の姿勢が規制される要素が存在する場合、推定部14は、複数の姿勢の初期の候補(集合I)から、上記規制により生じえない姿勢の候補を除外する処理を行ってもよい。この処理により候補が減ることで、その後の推定処理の計算負荷を減らし、より少ない接触で、候補を1通りに絞ることが可能となる。下記では、この除外を行わない例を示す。 In addition, when there is an element that restricts the posture of the object, such as a table on which the object is placed, the estimation unit 14 may perform a process of excluding posture candidates that cannot occur due to the above restriction from the initial posture candidates (set I 0 ). By reducing the number of candidates through this process, the calculation load of the subsequent estimation process can be reduced, and it becomes possible to narrow down the candidates to one with less contact. An example in which this exclusion is not performed is shown below.

1回目の力覚センサ22の接触が行われると、接触点の位置と反力の方向(接触点が含まれる面の向き)を示す検出情報が、推定部14に送られる。推定部14は、これらの情報を当てはめて、集合I={(r、t),i=1、2・・・}の全ての要素について、コスト関数G(r,t)を計算する。そして、コスト関数G(r,t)がゼロに近い閾値以下となる集合Iの要素を、姿勢の候補として抽出する。そして、姿勢の候補が、上記閾値に対応する一定の幅に収まる一連の要素のみを含んでいれば、これらの一連の要素の中からコスト関数Gを最小にする要素を、物体の姿勢の最終的な推定結果として抽出する。一連の要素とは、並進の最小差異Δt又は回転の最小差異Δrで連続している複数の要素を意味する。一方、姿勢の候補が一連の要素のみでなけば、複数の姿勢の候補が残っていることを意味するので、推定部14は、推定処理を継続し、次の力覚センサ22の接触を待つ。 When the force sensor 22 makes a first contact, detection information indicating the position of the contact point and the direction of the reaction force (the orientation of the surface including the contact point) is sent to the estimation unit 14. The estimation unit 14 applies these pieces of information to calculate a cost function G(r, t) for all elements of the set I 0 = {(r, t) i , i = 1, 2, ...}. Then, the estimation unit 14 extracts elements of the set I 0 for which the cost function G(r, t) is equal to or less than a threshold close to zero as orientation candidates. Then, if the orientation candidates include only a series of elements that fall within a certain width corresponding to the threshold, the element that minimizes the cost function G from among these series of elements is extracted as the final estimation result of the orientation of the object. A series of elements means multiple elements that are consecutive with a minimum translation difference Δt or a minimum rotation difference Δr. On the other hand, if the orientation candidates are not only a series of elements, this means that multiple orientation candidates remain, so the estimation unit 14 continues the estimation process and waits for the next contact of the force sensor 22.

次の力覚センサ22の接触が行われると、推定部14は、1回目の接触のときと同様の処理(初期の候補を、初回の接触で絞られた姿勢の候補に置き換えた同様の処理)を行って、物体の姿勢の候補をより絞っていく。そして、このような処理を繰り返すことで、推定部14は、一つに絞られた物体の姿勢を、最終的な推定結果として得ることができる。 When the force sensor 22 makes the next contact, the estimation unit 14 performs the same process as the first contact (replacing the initial candidates with the orientation candidates narrowed down by the first contact) to further narrow down the candidates for the orientation of the object. Then, by repeating this process, the estimation unit 14 can obtain the single orientation of the object as the final estimation result.

<接触経路の条件>
移動制御部13は、上記の推定部14による推定処理の途中、力覚センサ22を物体に接触させる前に、いずれの位置にいずれの向きから力覚センサ22(具体的にはその接触子)を移動させて物体へ接触させるか、その経路を接触経路として計算する。接触経路は、次の第1~第3の接触条件に基づき決定される。
<Conditions for contact route>
During the estimation process by the estimation unit 14, the movement control unit 13 calculates a path, which is a position and a direction from which the force sensor 22 (specifically, its contact) is moved to contact the object before the force sensor 22 contacts the object, as a contact path. The contact path is determined based on the following first to third contact conditions.

第1の接触条件は、複数回目の接触の場合に、以前に接触した面と、異なる面に接触するという条件である。物体における異なる面とは、物体に含まれる峰部又はV溝部を境界として分けられる各面を意味する。曲面を有さない物体であれば、各平面が異なる面となる。第1接触条件に応じた接触経路は、以前の接触で検出された接触点の法線と交差(例えば直交)する方向に進む経路として決定されてもよい。 The first contact condition is a condition that, in the case of multiple contacts, the surface that is in contact with the previous contact is a different surface. Different surfaces of an object refer to each surface that is separated by a ridge or V-groove portion included in the object. If the object does not have a curved surface, each flat surface is a different surface. The contact path according to the first contact condition may be determined as a path that proceeds in a direction that intersects (e.g., perpendicular to) the normal of the contact point detected in the previous contact.

あるいは、第1の接触条件に応じた接触経路は、推定部14によって現段階で推定されている物体の姿勢の候補に基づき、以前に接触していない面が位置する可能性が高い箇所に向かって、当該面に交差する方向から進む経路として決定されてもよい。 Alternatively, the contact path according to the first contact condition may be determined as a path that proceeds from a direction intersecting a previously uncontacted surface toward a location where the previously uncontacted surface is likely to be located, based on the candidate object postures currently estimated by the estimation unit 14.

第2の接触条件は、物体に非対称な箇所がある場合に、非対称な箇所に高い確率で接触するという条件である。物体の非対称な箇所とは、例えば、物体の中心点、中心軸あるいは中心面を基準とした点対称、軸対象又は面対称の度合いが低い箇所を意味する。例えば、ボルトであれば頭部側縁部と軸端部とが非対称な箇所に相当する。また、長手方向の中央を除く所定箇所の径が小さくされたピン部材であれば、上記所定箇所が非対称な箇所に相当する。このような非対称な箇所は、移動制御部13が、前述した物体情報から計算により求めてもよいし、物体情報に予め含まれていてもよい。 The second contact condition is a condition that, when an object has an asymmetrical portion, there is a high probability of contacting the asymmetrical portion. An asymmetrical portion of an object means, for example, a portion that has a low degree of point symmetry, axial symmetry, or plane symmetry with respect to the center point, central axis, or central plane of the object. For example, in the case of a bolt, the head side edge and the shaft end portion correspond to the asymmetrical portion. Also, in the case of a pin member in which the diameter of a specified portion excluding the center in the longitudinal direction is reduced, the specified portion corresponds to the asymmetrical portion. Such asymmetrical portions may be calculated by the movement control unit 13 from the object information described above, or may be included in the object information in advance.

第2の接触条件に応じた接触経路は、物体へ接触が未だ行われていない段階では、撮影部21の撮影で得られた映像に基づき推定部14が推定した姿勢と、上記の非対称な面の情報とから求めることができる。 When contact with the object has not yet been made, the contact path according to the second contact condition can be found from the posture estimated by the estimation unit 14 based on the image captured by the imaging unit 21 and the information on the asymmetric surface described above.

第2の接触条件に応じた接触経路は、1回又は複数回の接触が行われている段階では、現段階で推定されている複数の姿勢の候補に基づいて、非対称な箇所が位置する可能性の高い箇所を計算し、当該箇所へ向かう経路として求めることができる。 When one or more contacts have been made, the contact path according to the second contact condition can be determined by calculating a location where an asymmetric part is likely to be located based on multiple candidate postures estimated at the current stage, and determining the path to that location.

第3の接触条件は、1回又は複数回の接触が行われている段階において、推定部14の推定により得られた複数の姿勢の候補の間で、物体の面の位置の不確かさの度合いが高い面に接触するという条件である。 The third contact condition is that, at the stage where one or more contacts have been made, contact is made with a surface of the object with a high degree of positional uncertainty among the multiple pose candidates obtained by estimation by the estimation unit 14.

位置の不確かさの度合いが高い面は、特に限定されないが、例えば次のように求められてもよい。すなわち、まず、移動制御部13が、映像から推定された物体の中心点と、複数の姿勢の候補の点群Mに含まれる各点との距離を計算し、当該距離が長くかつ分散されたn個の代表点を選択する。そして、移動制御部13は、選択されたn個の代表点の各々の法線を中心軸とした同一形状及び同一体積の円柱を局所領域として設定する。さらに、移動制御部13が、複数の姿勢の候補に含まれる全ての点群Mの中から、各局所領域に含まれる全ての点を抽出し、これらの点の軸方向(円柱の中心軸に沿った方向)における位置の平均値及び分散値を計算する。そして、移動制御部13が、n個の局所領域から分散値が大きい局所領域を、面の位置の不確かさの度合いが高い箇所として求め、当該局所領域に含まれる面を位置の不確かさの度合いが高い面として求める。 The surface with a high degree of positional uncertainty may be obtained, for example, as follows, but is not limited to this. That is, first, the movement control unit 13 calculates the distance between the center point of the object estimated from the video and each point included in the point cloud M of the multiple posture candidates, and selects n representative points with long distances and dispersion. Then, the movement control unit 13 sets a cylinder of the same shape and volume with the normal of each of the selected n representative points as a central axis as a local region. Furthermore, the movement control unit 13 extracts all points included in each local region from all point clouds M included in the multiple posture candidates, and calculates the average value and variance value of the positions of these points in the axial direction (direction along the central axis of the cylinder). Then, the movement control unit 13 determines a local region with a large variance value from the n local regions as a place where the surface position has a high degree of uncertainty, and determines the surface included in the local region as a surface with a high degree of positional uncertainty.

なお、上記の例では、n個の局所領域を、映像から推定された物体の中心点からの距離が大きいn個の代表点に基づき設定しているが、n個の局所領域の設定方法は、上記の例に限定されない。例えばランダムに選択されたn個の代表点、等方に分散されたn個の代表点などから、n個の局所領域が設定されてもよい。また、上記の例では、局所領域として円柱領域を設定し、局所領域に含まれる各点の軸方向の位置の分散を計算しているが、局所領域は球領域などどのような形状としてもよいし、また、分散は軸方向の位置の分散に限られず、例えば局所領域に含まれる複数の点の中央位置からの分散であってもよいなど、分散の方向は限定されない。また、上記の例では、各局所領域に含まれる点の分散値を求めたが、各局所領域において軸方向に最も離れた2点間距離を計算し、当該2点間距離が大きい領域を不確かさの度合いの高い面を含む領域として求めても良いなど、不確かさの度合いを求める方法としては、様々な方法を採用できる。また、上記の例では、複数の局所領域を設定し、当該局所領域の間で不確かさを示す値を比較して、不確かさの度合いの高い面を含む領域を求めたが、局所領域を設定せずに、複数の姿勢の候補の全ての点群Mの散らばり度合いの高いところを不確かさの度合いの高い面を含む箇所として求めるなど、不確かさの度合いの高い面を含む箇所が求められれば、どのような方法が採用されてもよい。 In the above example, the n local regions are set based on the n representative points that are far from the center point of the object estimated from the image, but the method of setting the n local regions is not limited to the above example. For example, the n local regions may be set from n representative points selected randomly or n representative points that are distributed isotropically. In the above example, a cylindrical region is set as the local region, and the variance of the axial position of each point included in the local region is calculated, but the local region may have any shape, such as a spherical region, and the variance is not limited to the axial position variance, but may be from the center position of multiple points included in the local region, for example, and the direction of the variance is not limited. In the above example, the variance value of the points included in each local region is calculated, but various methods can be used to calculate the distance between two points farthest from each other in the axial direction in each local region, and the area with a large distance between the two points may be determined as the area including a surface with a high degree of uncertainty. Furthermore, in the above example, multiple local regions were set, and values indicating uncertainty were compared between the local regions to determine regions containing surfaces with a high degree of uncertainty. However, any method may be used as long as it can determine regions containing surfaces with a high degree of uncertainty, such as determining regions with a high degree of scattering of all point clouds M of multiple pose candidates as regions containing surfaces with a high degree of uncertainty without setting local regions.

第3の接触条件に応じた接触経路の方向は、上記のように求められた不確かさの度合いが高い面を含む箇所に向かって、当該箇所に含まれる面と交差する方向へ進む経路として計算されればよい。当該方向は、不確かさの度合いが高い局所領域に含まれる代表点の法線方向としても良いし、当該局所領域に含まれる全ての点の法線方向から計算される方向(平均の方向など)としても良い。 The direction of the contact path according to the third contact condition may be calculated as a path that moves toward a location that includes a surface with a high degree of uncertainty determined as described above, in a direction that intersects with the surface included in that location. The direction may be the normal direction of a representative point included in the local area with a high degree of uncertainty, or may be a direction calculated from the normal directions of all points included in the local area (such as an average direction).

<接触経路の決定方法>
上記の第1~第3の接触条件を全て満たす接触経路は、幾通りにも求められることがある。あるいは、第1~第3の接触条件のうち、いずれか1つ又は2つの接触条件に応じたが、他の接触条件に応じない接触経路が求められることもある。したがって、移動制御部13は、第1~第3の接触条件に基づき求められた接触経路から、適宜1つの接触経路を選択し、選択された接触経路を、次に力覚センサ22を移動させる接触経路として決定する。
<How to determine contact route>
There may be many different contact paths that satisfy all of the first to third contact conditions. Alternatively, a contact path that satisfies one or two of the first to third contact conditions but does not satisfy the other contact conditions may be obtained. Therefore, the movement control unit 13 appropriately selects one contact path from the contact paths obtained based on the first to third contact conditions, and determines the selected contact path as the contact path along which the force sensor 22 will be moved next.

1つの接触経路を選択する方法は、例えば、各接触経路に優先度を付与し、優先度の高い接触経路が選択される方法としてもよい。優先度は、第1~第3の接触条件に応じて異なる値としてもよいし、この値に各接触条件に合致する可能性(確率)を乗算して得られた値としてもよい。あるいは、1つの接触経路を選択する方法は、ランダムな選択であってもよいなど、どのような方法であってもよい。 The method of selecting one contact route may be, for example, a method of assigning a priority to each contact route and selecting the contact route with the highest priority. The priority may be a different value depending on the first to third contact conditions, or may be a value obtained by multiplying this value by the possibility (probability) of meeting each contact condition. Alternatively, the method of selecting one contact route may be any method, such as random selection.

なお、上記の例では、移動制御部13が、第1~第3の接触条件の全てに基づき接触経路を決定したが、移動制御部13は、1つ又は2つの接触条件を省き、残りの2つ又は1つの接触条件から接触経路を決定してもよい。 In the above example, the movement control unit 13 determines the contact path based on all of the first to third contact conditions, but the movement control unit 13 may omit one or two contact conditions and determine the contact path from the remaining two or one contact condition.

<ピッキング処理>
図2は、制御部10が実行するピッキング処理の手順の一例を示すフローチャートである。ピッキングとは物体を取り出すことを意味する。図2のピッキング処理は、撮影部21の画角内にピッキング対象の物体が含まれた状態で開始される。
<Picking process>
Fig. 2 is a flowchart showing an example of the procedure of the picking process executed by the control unit 10. Picking means taking out an object. The picking process in Fig. 2 is started in a state where the object to be picked is included within the angle of view of the imaging unit 21.

ピッキング処理が開始されると、まず、撮影制御部12が、撮影部21を介して映像を取得し、得られた映像を推定部14へ送る(ステップS1)。推定部14は、映像から画像認識処理を行って物体の中心位置を推定し、中心位置と物体情報とから物体が余裕を持って包含される前述した初期領域R0(図3(A)を参照)を設定する(ステップS2)。 When the picking process is started, first, the imaging control unit 12 acquires an image via the imaging unit 21 and sends the acquired image to the estimation unit 14 (step S1). The estimation unit 14 performs image recognition processing on the image to estimate the center position of the object, and sets the aforementioned initial region R0 (see FIG. 3(A)) that contains the object with a margin based on the center position and the object information (step S2).

初期領域R0が設定されたら、制御部10は、物体に接触することで物体の姿勢の候補を絞り込むループ処理(ステップS3~S13)へ処理を進める。すなわち、移動制御部13は、初回目の接触であるか否かを判別し(ステップS3)、初回目であれば第2の接触条件(非対称部位に接触する可能性の高い接触)に合致する接触経路を計算し、当該接触経路に優先度を付す処理を行う(ステップS6)。当該接触経路は、その時点で推定されている物体の姿勢の候補と、物体情報から計算された物体の非対称性を有する箇所の計算結果とから、当該箇所に位置する面に、当該面に交差する方向から進む経路として計算される。計算された接触経路に付される優先度は、第1~第3の接触条件の優先度を区別するために第2の接触条件に予め設定された値であってもよい。あるいは、優先度は、第2の接触条件に予め設定された値と、当該接触経路が接触条件に合致する可能性を示す値(例えば確率)とを乗算して得られる値であってもよい。 Once the initial region R0 is set, the control unit 10 proceeds to a loop process (steps S3 to S13) in which candidates for the object's posture are narrowed down by contacting the object. That is, the movement control unit 13 determines whether or not it is the first contact (step S3), and if it is the first contact, calculates a contact path that matches the second contact condition (contact that is likely to contact an asymmetric part), and performs a process of assigning a priority to the contact path (step S6). The contact path is calculated as a path that proceeds from a direction intersecting the surface located at the part, based on the candidate object posture estimated at that time and the calculation result of the part having the asymmetric property of the object calculated from the object information. The priority assigned to the calculated contact path may be a value preset in the second contact condition to distinguish the priority of the first to third contact conditions. Alternatively, the priority may be a value obtained by multiplying a value preset in the second contact condition by a value (e.g., a probability) indicating the possibility that the contact path matches the contact condition.

一方、ステップS3の判別処理で、2回目以降の接触であると判別されたら、移動制御部13は、その時点で推定されている物体の姿勢の候補に基づいて、第1の接触条件(前回以前に接触した面と異なる面への接触)に合致する接触経路を計算する(ステップS4)。加えて、移動制御部13は、当該接触経路に優先度を付す処理を行う(ステップS4)。当該接触経路は、仮にj個の姿勢の候補があるのであれば、各候補において前回以前の接触で、未だ接触されていないと推定される面を抽出し、当該面内の1点又は複数の点に向かって、当該点に対応づけられた法線方向に進む経路として計算される。接触経路の方向は、前回以前に接触した面の法線に交差する方向として計算されてもよい。当該接触経路に付される優先度は、第1~第3の接触条件の有線度を区別するために第1の接触条件用に予め設定された値であってもよい。あるいは、優先度は、第1の接触条件に予め設定された値と、当該接触経路が接触条件に合致する可能性を示す値(例えば確率)とを乗算して得られる値であってもよい。 On the other hand, if the determination process in step S3 determines that the contact is the second or subsequent contact, the movement control unit 13 calculates a contact path that matches the first contact condition (contact with a surface different from the surface that was previously contacted) based on the candidate posture of the object estimated at that time (step S4). In addition, the movement control unit 13 performs a process of assigning a priority to the contact path (step S4). If there are j posture candidates, the contact path is calculated as a path that extracts a surface that is estimated not to have been contacted in the previous contact in each candidate, and proceeds toward one or more points in the surface in the normal direction associated with the point. The direction of the contact path may be calculated as a direction that intersects with the normal of the surface that was previously contacted. The priority assigned to the contact path may be a value previously set for the first contact condition in order to distinguish the degree of wiredness of the first to third contact conditions. Alternatively, the priority may be a value obtained by multiplying a value preset for the first contact condition by a value (e.g., a probability) indicating the possibility that the contact path meets the contact condition.

続いて、移動制御部13は、その時点で推定されている物体の姿勢の候補に基づいて、第3の接触条件(位置の不確かさの度合いが高い面への接触)に合致する接触経路を計算し、さらに、接触経路に優先度を付す処理を行う(ステップS5)。当該接触経路の求め方は、前述した通りである。優先度は、第1~第3の接触条件の優先度を区別するために第3の接触条件に予め設定された値であってもよい。あるいは、優先度は、第3の接触条件に予め設定された値と、当該経路が接触条件に合致する可能性を示す値(例えば確率)とを乗算して得られる値であってもよい。ステップS5の計算が終了したら、移動制御部13は、前述したステップS6の接触経路の計算及び優先度を付加する処理を行う。 Then, the movement control unit 13 calculates a contact path that matches the third contact condition (contact with a surface with a high degree of positional uncertainty) based on the candidate posture of the object estimated at that time, and further performs a process of assigning a priority to the contact path (step S5). The method of determining the contact path is as described above. The priority may be a value that is preset for the third contact condition in order to distinguish the priorities of the first to third contact conditions. Alternatively, the priority may be a value obtained by multiplying a value that is preset for the third contact condition by a value (e.g., a probability) indicating the possibility that the path matches the contact condition. After the calculation in step S5 is completed, the movement control unit 13 performs the process of calculating the contact path and assigning a priority in step S6 described above.

そして、移動制御部13は、接触経路が求められたか否かを判別し(ステップS7)、YESであれば、計算された接触経路のうち優先度が高いものを抽出する(ステップS8)。当該抽出の際、移動制御部13は、計算された複数の接触経路が、複数の接触条件を同時に満たす経路として集約可能であるか判別し、集約できる場合には、当該複数の接触経路の優先度を合算して、合算結果の優先度が付加された1つの接触経路として扱うようにしてもよい。 Then, the movement control unit 13 determines whether a contact route has been determined (step S7), and if YES, extracts the calculated contact route with the highest priority (step S8). During this extraction, the movement control unit 13 determines whether the calculated multiple contact routes can be aggregated as a route that simultaneously satisfies multiple contact conditions, and if so, may add up the priorities of the multiple contact routes and treat them as a single contact route to which the priority of the combined result has been added.

一方、ステップS7の判別結果がNOであれば、移動制御部13は、物体に接触可能な任意の接触経路を計算する(ステップS9)。例えば、移動制御部13は、初期領域R0(図3(A))の球面上の任意な点から中心に向かう接触経路を計算する。 On the other hand, if the result of the determination in step S7 is NO, the movement control unit 13 calculates an arbitrary contact path that can contact the object (step S9). For example, the movement control unit 13 calculates a contact path from an arbitrary point on the spherical surface of the initial region R0 (FIG. 3(A)) toward the center.

接触経路が決まったら、移動制御部13は、当該接触経路で力覚センサ22を移動させて、力覚センサ22(その接触子)を物体に接触させる(ステップS10)。当該接触は、物体を動かすことのない弱い接触である。そして、推定部14は力覚センサ22から接触点の位置及び面の向きの情報を取得し(ステップS11)、物体の姿勢の推定処理を実行する(ステップS12)。推定処理は、上述した通りにコスト関数G(r,t)を用いて行われる。 Once the contact path has been determined, the movement control unit 13 moves the force sensor 22 along the contact path to bring the force sensor 22 (its contact) into contact with the object (step S10). The contact is weak and does not move the object. The estimation unit 14 then obtains information on the position of the contact point and the orientation of the surface from the force sensor 22 (step S11) and executes an estimation process for the posture of the object (step S12). The estimation process is performed using the cost function G(r, t) as described above.

そして、物体の姿勢の推定結果が得られたら、推定部14は、姿勢が1つに絞り込まれたか否かを判別し(ステップS13)、NOであれば、処理をステップS3に戻す。一方、姿勢が1つに絞り込まれたら、制御部10は、姿勢を推定するループ処理(ステップS3~S13)から抜けて、処理を次に進める。 When an estimation result of the object's posture is obtained, the estimation unit 14 determines whether the postures have been narrowed down to one (step S13), and if NO, returns the process to step S3. On the other hand, if the postures have been narrowed down to one, the control unit 10 exits the posture estimation loop process (steps S3 to S13) and proceeds to the next process.

ループ処理を抜けると、ロボット制御部15は、推定された物体の姿勢(回転及び並進を示すパラメータ{r,t})に基づき、物体の位置及び向き、並びに、ロボットアーム24で物体をつかむ動作手順を計算する(ステップS14)。そして、ロボット制御部15は、ロボットアーム24を計算した手順動作で駆動し、物体を取り出す(ステップS15)。そして、1回のピッキング処理が終了する。 After exiting the loop process, the robot control unit 15 calculates the position and orientation of the object, and the operation procedure for picking up the object with the robot arm 24, based on the estimated object posture (parameters {r, t} indicating rotation and translation) (step S14). Then, the robot control unit 15 drives the robot arm 24 according to the calculated operation procedure and picks up the object (step S15). Then, one picking process is completed.

<姿勢の推定処理の第1例>
続いて、上記のピッキング処理中に実行される物体の姿勢の推定処理の具体的な一例を説明する。図3は、当該推定処理の第1例を説明する第1工程(A)~第4工程(D)、(E)の説明図である。第1例では、姿勢を推定する物体Q1がナットでありテーブル上に載置されている。
<First example of posture estimation process>
Next, a specific example of the estimation process of the posture of an object executed during the above-mentioned picking process will be described. Fig. 3 is an explanatory diagram of the first step (A) to the fourth step (D) and (E) explaining a first example of the estimation process. In the first example, the object Q1 whose posture is to be estimated is a nut placed on a table.

図3(A)は、力覚センサ22による物体Q1への接触が1回も行われていない初期段階を示す。この段階では、ステップS2において、映像に基づき推定部14が初期領域R0を設定し、また、ステップS6において、移動制御部13が、物体Q1情報に基づき物体Q1の外面のうち非対称性を有する箇所の面を求め、接触経路h1が計算されている。ナットの場合、ネジ穴の中心軸を中心とする回転対称の度合いが閾値以下となり、ナットの外周面が非対称性を有する箇所の面と計算される。一方、第1例では、映像による姿勢の推定精度が低いことで、非対称性を有する面へ接触する経路が計算できずに、移動制御部13はステップS9で任意な接触経路h1を計算している。任意に選択される接触経路h1は、球状の初期領域R0の外周面内の一点から初期領域R0の中心に向かう経路であってもよい。 3A shows an initial stage where the force sensor 22 has not made contact with the object Q1 even once. At this stage, in step S2, the estimation unit 14 sets the initial region R0 based on the image, and in step S6, the movement control unit 13 determines the surface of the outer surface of the object Q1 that has asymmetrical properties based on the object Q1 information, and calculates the contact path h1. In the case of a nut, the degree of rotational symmetry around the central axis of the screw hole is below a threshold, and the outer peripheral surface of the nut is calculated to be the surface that has asymmetrical properties. On the other hand, in the first example, the estimation accuracy of the posture based on the image is low, so that the path to contact the asymmetrical surface cannot be calculated, and the movement control unit 13 calculates an arbitrary contact path h1 in step S9. The arbitrarily selected contact path h1 may be a path from a point on the outer peripheral surface of the spherical initial region R0 to the center of the initial region R0.

図3(B)は、ステップS10~S12において、接触経路h1に沿って力覚センサ22が移動した後、1回目の接触に基づき物体Q1の姿勢の推定が行われた段階を示す。当該接触により、接触点p1の位置と、接触点p1を含む面s1の向き(法線k1)とが検出され、推定部14により、これらの検出情報からコスト関数G(r,t)をゼロ近傍とする並進t及び回転rの候補が絞られている。図3(B)において、絞られた姿勢の候補を含む範囲を二点鎖線により示している。二点鎖線の範囲には、接触点p1が物体Q1のいずれかの面の点に相当し、当該点を含む面が法線k1に対して垂直である全ての姿勢が含まれる。推定部14は、当該範囲を占める多数の姿勢を候補として求めている。なお、初期領域R0から物体Q1がはみ出ている候補は、物体Q1の姿勢の候補から除外されてもよいが、図3では、除外されない例を示す。 Figure 3 (B) shows the stage where the posture of object Q1 is estimated based on the first contact after the force sensor 22 moves along the contact path h1 in steps S10 to S12. The position of contact point p1 and the orientation (normal k1) of the surface s1 including contact point p1 are detected by this contact, and the estimation unit 14 narrows down the candidates of translation t and rotation r that make the cost function G(r, t) near zero from this detection information. In Figure 3 (B), the range including the narrowed down posture candidates is shown by a two-dot chain line. The two-dot chain line range includes all postures in which contact point p1 corresponds to a point on any surface of object Q1 and the surface including this point is perpendicular to the normal k1. The estimation unit 14 finds many postures that occupy this range as candidates. Note that candidates in which object Q1 protrudes from the initial region R0 may be excluded from the candidates of the posture of object Q1, but Figure 3 shows an example in which they are not excluded.

図3(C)は、ステップS4~S8において、2回目の接触の接触経路h2が計算された段階を示す。当該段階では、移動制御部13は、前回の接触により得られた物体Q1の姿勢の候補(二点鎖線で示す)に基づき、第1の接触条件に応じた接触経路と、第2の接触条件に応じた接触経路と、第3の接触条件に応じた接触経路とを計算し、その中で、優先度が高い接触経路h2を抽出している。接触経路h2は、1回目の接触面s1の法線に交差する方向に進む経路であるため、1回目の接触面s1と異なる面に接触する可能性が高く、さらに、接触する面が非対称性を有するナットの外周面である可能性が、例えば別の接触経路c1よりも高い。さらに、物体Q1の姿勢の候補において、接触経路h2に交差する可能性のある面は広い範囲X1に分散する一方、別の接触経路c1に交差する可能性のある面は狭い範囲X2に分散する。したがって、接触経路h2は位置の不確かさの度合いが高い面に接触する可能性が高い経路として計算される。 Figure 3 (C) shows the stage where the contact path h2 of the second contact is calculated in steps S4 to S8. At this stage, the movement control unit 13 calculates the contact path according to the first contact condition, the contact path according to the second contact condition, and the contact path according to the third contact condition based on the candidate posture of the object Q1 obtained by the previous contact (shown by the two-dot chain line), and extracts the contact path h2 with the highest priority among them. Since the contact path h2 is a path that proceeds in a direction that intersects with the normal line of the first contact surface s1, it is highly likely to contact a surface different from the first contact surface s1, and further, the possibility that the contact surface is the outer peripheral surface of a nut having asymmetrical properties is higher than, for example, another contact path c1. Furthermore, in the candidate posture of the object Q1, the surfaces that may intersect with the contact path h2 are distributed in a wide range X1, while the surfaces that may intersect with another contact path c1 are distributed in a narrow range X2. Therefore, the contact path h2 is calculated as a path that is highly likely to contact a surface with a high degree of positional uncertainty.

図3(D)、(E)は、ステップS10~S12において、接触経路h2に沿って力覚センサ22が移動した後、2回目の接触に基づき物体Q1の姿勢の推定が行われた段階を示す。2回目の接触により、接触点p2の位置と、接触点p2を含む面s2の向き(法線k2)とが検出され、推定部14が、1回目及び2回目の接触で得られた検出情報からコスト関数G(r,t)をゼロ近傍とする並進t及び回転rの候補を絞っている。図3(E)の平面図に2点鎖線で示すように、2回目の接触により、接触点p1、p2が物体Q1の2つの面s1、s2に含まれ、かつ、2つの面s1、s2に共に平行な方向へナットがずれる複数の姿勢の候補(図3(E)に二点鎖線で示す)が絞られている。 Figures 3(D) and (E) show the stage where the posture of object Q1 is estimated based on the second contact after the force sensor 22 moves along the contact path h2 in steps S10 to S12. The second contact detects the position of contact point p2 and the orientation (normal k2) of surface s2 including contact point p2, and the estimation unit 14 narrows down candidates for translation t and rotation r that make the cost function G(r, t) close to zero from the detection information obtained in the first and second contacts. As shown by the two-dot chain lines in the plan view of Figure 3(E), the second contact narrows down multiple posture candidates (shown by the two-dot chain lines in Figure 3(E)) in which contact points p1 and p2 are included in the two surfaces s1 and s2 of object Q1 and the nut shifts in a direction parallel to both surfaces s1 and s2.

このように接触回数が増すごとに、物体Q1の姿勢の候補が絞られ、推定部14は、最終的に物体Q1の姿勢を一つに推定できる。 In this way, as the number of contacts increases, the number of candidates for the posture of object Q1 is narrowed down, and the estimation unit 14 can ultimately estimate a single posture of object Q1.

<姿勢の推定処理の第2例>
図4は、物体の姿勢の推定処理の第2例を説明する第1工程(A)~第6工程(F)の説明図である。第2例では、姿勢を推定する物体Q2がボルトである例を示す。
<Second Example of Posture Estimation Processing>
4 is an explanatory diagram of the first step (A) to the sixth step (F) illustrating a second example of the object posture estimation process. In the second example, an object Q2 whose posture is to be estimated is a bolt.

図4(A)では、力覚センサ22による物体Q2への接触が1回も行われていない初期段階において、推定部14が、映像に基づき初期領域R0を設定し(ステップS2)、また、移動制御部13が、物体Q2情報に基づき物体Q2の外面のうち非対称性を有する面を求め、第2の接触条件に応じるように接触経路h11が計算されている(ステップS6)。ボルトの場合、軸方向においてボルトを2つに分割する中心面を基準とした面対称の対称性の度合が閾値以下となり、ボルト頭部の側面s21とボルト軸端部の側面s11aとが非対称性を有する箇所の面として求められる。一方、図4(A)の例では、映像に基づく物体Q2の姿勢の初期の推定精度が低いことで、非対称性を有する面から外れた軸部中央の側面に向かう接触経路h11が計算されている。 In FIG. 4(A), in the initial stage before the force sensor 22 has made contact with the object Q2 even once, the estimation unit 14 sets the initial region R0 based on the image (step S2), and the movement control unit 13 determines the asymmetric surface of the outer surface of the object Q2 based on the object Q2 information, and calculates the contact path h11 to comply with the second contact condition (step S6). In the case of a bolt, the degree of symmetry of the plane symmetry based on the central plane that divides the bolt into two in the axial direction is below the threshold, and the side surface s21 of the bolt head and the side surface s11a of the bolt shank end are determined as the surfaces that have asymmetricity. On the other hand, in the example of FIG. 4(A), the initial estimation accuracy of the posture of the object Q2 based on the image is low, so the contact path h11 is calculated to be toward the side surface at the center of the shank that is outside the asymmetric surface.

図4(B)では、接触経路h11に沿って力覚センサ22が移動し(ステップS10)、1回目の接触による検出と(ステップS11)と、当該検出に基づく物体Q2の姿勢の推定が行われている(ステップS12)。当該接触により、接触点p11及び接触点p11を含む面s11の向き(法線k11)が検出され、推定部14が、これらの検出情報からコスト関数G(r,t)を計算して、物体Q2の複数の姿勢の候補を探索している。ここで、絞られた姿勢の候補には、図4(B)の二点鎖線に示すように、面s11及び接触点p11が、ボルトの頭部側面、頭部上面、軸部端面又は軸部側面、並びに、その中のいずれかの点となる全ての姿勢が含まれる。なお、初期領域R0から物体Q2がはみ出ている候補は、物体Q2の姿勢の候補から除外されてもよいが、図4では、除外されていない例を示している。 In FIG. 4B, the force sensor 22 moves along the contact path h11 (step S10), and the first contact is detected (step S11), and the posture of the object Q2 is estimated based on the detection (step S12). The contact detects the contact point p11 and the orientation (normal k11) of the surface s11 including the contact point p11, and the estimation unit 14 calculates the cost function G(r, t) from the detection information to search for multiple posture candidates of the object Q2. Here, the narrowed-down posture candidates include all postures in which the surface s11 and the contact point p11 are on the head side surface, head top surface, shaft end surface, or shaft side surface of the bolt, as shown by the two-dot chain line in FIG. 4B. It should be noted that candidates in which the object Q2 protrudes from the initial region R0 may be excluded from the posture candidates of the object Q2, but FIG. 4 shows an example in which they are not excluded.

図4(C)では、移動制御部13が、第1の接触条件~第3の接触条件に基づき優先度の高い接触経路h12を計算している(ステップS4~S8)。接触経路h12は、1回目の接触が行われた面s11と異なる面への接触を実現し、かつ、位置の不確かさの度合いが高い面への接触を実現する経路である。例えば、物体Q2の姿勢の候補(二点鎖線に示す)のうち、接触経路h12と交差する可能性のある面は、ボルトの軸部の長さ以上に分散している一方、別の接触経路c12と交差する可能性のある面は、ボルトの頭部の幅の分だけ分散しており、前者の方が分散値が大きく、不確かさの度合いが高い。 In FIG. 4(C), the movement control unit 13 calculates a high-priority contact path h12 based on the first to third contact conditions (steps S4 to S8). The contact path h12 is a path that achieves contact with a surface different from the surface s11 where the first contact occurred, and achieves contact with a surface with a high degree of positional uncertainty. For example, among the candidates for the posture of the object Q2 (shown by the two-dot chain line), the surfaces that may intersect with the contact path h12 are dispersed over a distance greater than the length of the bolt shaft, while the surfaces that may intersect with another contact path c12 are dispersed by the width of the bolt head, with the former having a larger variance and a higher degree of uncertainty.

そして、図4(D)のように、2回目の接触が行われることで(ステップS10)、接触点p12及び接触点p12を含む面s12の向き(法線k12)が検出され(ステップS11)、これらの検出結果に基づき、推定部14により、物体Q2の姿勢の候補がより絞られている(ステップS12)。図4(D)の二点鎖線に示すように、2回目の接触により、ボルトの頭部と軸端部とが逆転される2つの姿勢に候補に絞られている。なお、一回目の接触が、非対称性を有するボルトの頭部側面s21又は軸端部側面s11aに行われていれば、推定部14は、2回目の接触の段階で物体Q2の姿勢を1つに絞ることができている。 Then, as shown in FIG. 4(D), the second contact is made (step S10), the contact point p12 and the orientation (normal k12) of the surface s12 including the contact point p12 are detected (step S11), and based on these detection results, the estimation unit 14 narrows down the candidates for the posture of the object Q2 further (step S12). As shown by the two-dot chain line in FIG. 4(D), the second contact narrows down the candidates to two postures in which the head and shank end of the bolt are reversed. Note that if the first contact is made on the head side surface s21 or shank end side surface s11a of the bolt, which has asymmetry, the estimation unit 14 can narrow down the posture of the object Q2 to one at the stage of the second contact.

図4(E)では、移動制御部13は、第1~第3の接触条件を実現する可能性が高い接触経路h13を計算している(ステップS4~S8)。この時点の姿勢の候補では、ボルトの頭部側面s21又は軸端部側面s11aが、位置の不確かさの度合いが高い面であり、かつ、ボルトの頭部側面s21及び軸端部側面s11aが非対称性を有する箇所の面である。したがって、接触経路h13は、第2の接触条件及び第3の接触条件に応じた経路となっている。さらに、接触経路h13は、1回目で接触した面s11、並びに、2回目で接触した面s12と異なる面(ボルト頭部側面s21)へ接触する可能性がある経路となっており、第1の接触条件に応じた経路にもなっている。接触経路h13は、実際には、1回目に接触した面s11と同一面である軸端部側面s11aに接触するが、この段階で推定されている姿勢の候補に対しては、ボルト頭部側面s21へ接触する可能性を50%程度有する。 In FIG. 4(E), the movement control unit 13 calculates a contact path h13 that is likely to realize the first to third contact conditions (steps S4 to S8). In the candidates for the posture at this point, the head side surface s21 or the shank end side surface s11a of the bolt are surfaces with a high degree of positional uncertainty, and the head side surface s21 and the shank end side surface s11a of the bolt are surfaces at a location where they have asymmetry. Therefore, the contact path h13 is a path that complies with the second contact condition and the third contact condition. Furthermore, the contact path h13 is a path that may contact a surface (bolt head side surface s21) different from the surface s11 that was contacted the first time and the surface s12 that was contacted the second time, and is also a path that complies with the first contact condition. Contact path h13 actually contacts the shaft end side surface s11a, which is the same surface as the surface s11 that made contact the first time, but for the orientation candidates estimated at this stage, there is about a 50% chance of contacting the bolt head side surface s21.

そして、図4(F)のように、3回目の接触が行われることで(ステップS10)、接触点p13及び接触点p13を含む面s11aの向きが検出され(ステップS11)、これらの検出結果から物体Q2の姿勢の候補が1つに絞られている(ステップS12)。 Then, as shown in FIG. 4(F), a third contact is made (step S10), and the orientation of contact point p13 and surface s11a including contact point p13 are detected (step S11), and from these detection results, the number of candidates for the orientation of object Q2 is narrowed down to one (step S12).

以上のように、本実施形態のピッキング装置1によれば、力覚センサ22による物体への複数回の接触で得られた検出情報と物体情報とに基づいて推定部14が物体の姿勢を推定する。したがって、布等に覆われた物体、透明や黒色の物体、鏡面を有する物体など、映像だけでは姿勢を推定し難いものであっても、物体の姿勢を推定することができる。 As described above, according to the picking device 1 of this embodiment, the estimation unit 14 estimates the posture of an object based on the detection information obtained by the force sensor 22 contacting the object multiple times and the object information. Therefore, it is possible to estimate the posture of an object even if it is difficult to estimate the posture of an object from video alone, such as an object covered with cloth, a transparent or black object, or an object with a mirror surface.

さらに、本実施形態のピッキング装置1によれば、移動制御部13が、物体への力覚センサ22の複数回の接触が、物体の異なる面に行われるように、力覚センサ22の接触経路を計算する。したがって、推定部14は、少ない接触の検出情報を用いて物体の姿勢の候補をより少ない候補に絞ることができ、高効率な姿勢の推定を実現できる。 Furthermore, according to the picking device 1 of this embodiment, the movement control unit 13 calculates the contact path of the force sensor 22 so that the multiple contacts of the force sensor 22 with the object are made on different surfaces of the object. Therefore, the estimation unit 14 can narrow down the candidates for the object's posture to a smaller number of candidates using detection information of fewer contacts, thereby achieving highly efficient posture estimation.

さらに、本実施形態のピッキング装置1によれば、力覚センサ22の接触により接触点の位置の情報と接触点を含む面の向きの情報とを、検出情報として取得する。加えて、移動制御部13は、n回目の接触の際に、n回目より前に接触された接触点の面の法線と交差する方向に力覚センサ22を移動させる接触経路を計算する。このような接触経路の進む方向の決定方法により、移動制御部13は、物体への力覚センサ22の複数回の接触が、物体の異なる面に行われるように、力覚センサ22の接触経路を計算することができる。 Furthermore, according to the picking device 1 of this embodiment, information on the position of the contact point and information on the orientation of the surface including the contact point are acquired as detection information when the force sensor 22 makes contact. In addition, the movement control unit 13 calculates a contact path that moves the force sensor 22 in a direction that intersects with the normal to the surface of the contact point that was contacted prior to the nth contact, at the time of the nth contact. By using this method of determining the direction of the contact path, the movement control unit 13 can calculate the contact path of the force sensor 22 so that multiple contacts of the force sensor 22 with an object are made on different surfaces of the object.

さらに、本実施形態のピッキング装置1によれば、移動制御部13は、その時点で絞られている物体の姿勢の複数の候補の中から、位置の不確かさの度合いが高い面に接触する可能性が高い接触経路(第3の接触条件に応じた接触経路)を計算する。したがって、当該接触経路に沿った力覚センサ22の移動で得られる検出情報に基づいて、推定部14は、物体の姿勢の候補をより少ない候補に絞ることができる。したがって、推定部14は、少ない接触の検出情報を用いて物体の姿勢を一つに絞ることができ、高効率な姿勢の推定を実現できる。 Furthermore, according to the picking device 1 of this embodiment, the movement control unit 13 calculates a contact path (a contact path according to the third contact condition) that is likely to contact a surface with a high degree of positional uncertainty from among multiple candidates for the object's posture that have been narrowed down at that time. Therefore, based on the detection information obtained by the movement of the force sensor 22 along that contact path, the estimation unit 14 can narrow down the candidates for the object's posture to fewer candidates. Therefore, the estimation unit 14 can narrow down the object's posture to one using detection information from few contacts, and can achieve highly efficient posture estimation.

さらに、本実施形態のピッキング装置1によれば、移動制御部13は、物体の非対称な箇所の面に接触するように接触経路(第2の接触条件に応じた接触経路)を計算する。したがって、当該接触経路に沿った力覚センサ22の移動で得られる、物体の非対称な面の検出情報に基づいて、物体の向きを効率的に特定できる。したがって、推定部14は、少ない接触の検出情報を用いて物体の姿勢を一つに絞ることができ、高効率な姿勢の推定を実現できる。 Furthermore, according to the picking device 1 of this embodiment, the movement control unit 13 calculates a contact path (a contact path according to the second contact condition) so as to contact a surface of an asymmetric part of the object. Therefore, the orientation of the object can be efficiently identified based on the detection information of the asymmetric surface of the object obtained by moving the force sensor 22 along the contact path. Therefore, the estimation unit 14 can narrow down the orientation of the object to one using detection information of a small number of contacts, and can realize highly efficient orientation estimation.

さらに、本実施形態のピッキング装置1によれば、物体の映像を取得する撮影部21を備え、推定部14は、撮影部21により取得された映像に基づいて物体の大まかな位置を推定し、一回目の接触を可能とする。すなわち、推定部14は、映像に基づいて物体に接触可能な位置を推定する。したがって、物体の位置が広い範囲で不明な状態からでも、映像から物体に接触する位置を推定でき、接触することで物体の姿勢を推定することが可能となる。よって、物体の位置が広い範囲で不明な状態からでも、物体の取出しが可能となる。 Furthermore, the picking device 1 of this embodiment is equipped with a photographing unit 21 that captures an image of the object, and the estimation unit 14 estimates the rough position of the object based on the image captured by the photographing unit 21, making it possible to make the first contact. That is, the estimation unit 14 estimates the position at which the object can be contacted based on the image. Therefore, even when the object's position is unknown over a wide range, it is possible to estimate the position at which to contact the object from the image, and it is possible to estimate the object's posture by contacting it. Therefore, it is possible to pick up the object even when the object's position is unknown over a wide range.

以上、本発明の実施形態について説明した。しかし、本発明は上記の実施形態に限られない。例えば、上記実施形態では、物体の外面に一様に分布された点群Mの情報と、コスト関数G(r,t)とを用いて物体の姿勢を推定する方法を説明したが、上記の方法に限られず、接触により検出された情報から物体の姿勢を推定できれば、どのような方法が採用されてもよい。また、前述したように、上記実施形態では、物体が載置されるテーブルなど、物体の姿勢が規制させる要素の存在を考慮せずに、姿勢の推定処理を行う例を示したが、物体の姿勢が規制される要素がある場合には、例えば、当該要素と相いれない姿勢の候補を除外するなどの処理が追加されてもよい。 The above describes the embodiments of the present invention. However, the present invention is not limited to the above embodiments. For example, in the above embodiment, a method for estimating the posture of an object using information on a point group M uniformly distributed on the outer surface of the object and a cost function G(r, t) was described. However, the present invention is not limited to the above method, and any method may be adopted as long as it can estimate the posture of an object from information detected by contact. Also, as described above, in the above embodiment, an example of performing posture estimation processing without considering the presence of an element that restricts the posture of the object, such as a table on which the object is placed, was shown. However, if there is an element that restricts the posture of the object, for example, a process of excluding candidates for postures that are incompatible with the element may be added.

また、上記実施形態では、物体情報記憶部11(物体の形状及び大きさを示す物体情報を記憶する記憶部)が装置内に位置する例を示した。しかし、物体情報記憶部11は、通信ネットワークを介して接続されたサーバコンピュータに設けられ、通信を介して装置に物体情報が送られる構成であってもよい。また、上記実施形態では、物体を棚等から取り出すピッキング装置1に本発明を適用した例を示したが、本発明の情報処理装置は、物体を取り出す制御及び動作を伴わなくてもよく、物体の姿勢を推定する様々な装置に適用可能である。その他、実施の形態で示した細部は、発明の趣旨を逸脱しない範囲で適宜変更可能である。 In the above embodiment, an example was shown in which the object information storage unit 11 (a storage unit that stores object information indicating the shape and size of an object) is located within the device. However, the object information storage unit 11 may be provided in a server computer connected via a communication network, and object information may be sent to the device via communication. In the above embodiment, an example was shown in which the present invention is applied to a picking device 1 that picks objects from shelves, etc., but the information processing device of the present invention does not need to involve control and operation to pick up objects, and can be applied to various devices that estimate the posture of an object. Other details shown in the embodiment can be changed as appropriate without departing from the spirit of the invention.

1 ピッキング装置(情報処理装置)
10 制御部
11 物体情報記憶部
12 撮影制御部
13 移動制御部
14 推定部
15 ロボット制御部
16 インタフェース
21 撮影部
22 力覚センサ
23 駆動装置
24 ロボットアーム(取出し機構)
Q1、Q2 物体
R0 初期領域
h1、h2、h11~h13 接触経路
p1、p2、p11~p13 接触点
s11a、s21 非対称性を有する箇所の面
1. Picking device (information processing device)
REFERENCE SIGNS LIST 10 Control unit 11 Object information storage unit 12 Photography control unit 13 Movement control unit 14 Estimation unit 15 Robot control unit 16 Interface 21 Photography unit 22 Force sensor 23 Driving device 24 Robot arm (removal mechanism)
Q1, Q2 Object R0 Initial region h1, h2, h11-h13 Contact path p1, p2, p11-p13 Contact points s11a, s21 Surfaces with asymmetry

Claims (5)

物体の姿勢を推定する情報処理装置であって、
前記物体の形状及び大きさを示す物体情報を記憶する記憶部と、
接触により接触点の検出情報を取得する力覚センサと、
前記力覚センサを移動させる移動制御部と、
前記力覚センサによる前記物体への複数回の接触で得られた前記検出情報と前記物体情報とに基づいて前記物体の姿勢を推定する推定部と、
を備え、
前記推定部は、前記複数回の接触が遂行される前に前記物体の姿勢について複数の候補を推定し、
前記移動制御部は、前記複数回の接触において、前記力覚センサが前記物体の異なる面に接触するように、更に、前記複数の候補に含まれる面の位置の不確かさの度合いが、前記複数の候補に含まれる他の面よりも高い面に接触するように、前記力覚センサを移動させる、
情報処理装置。
An information processing device that estimates a posture of an object,
A storage unit that stores object information indicating a shape and a size of the object;
a force sensor for acquiring detection information of a contact point by contact;
A movement control unit that moves the force sensor;
an estimation unit that estimates a posture of the object based on the detection information obtained by the force sensor contacting the object multiple times and the object information;
Equipped with
The estimation unit estimates a plurality of candidates for a pose of the object before the plurality of contacts are performed,
the movement control unit moves the force sensor so that, during the multiple contacts, the force sensor comes into contact with different faces of the object, and further so that the force sensor comes into contact with a face included in the multiple candidates having a higher degree of positional uncertainty than other faces included in the multiple candidates .
Information processing device.
前記検出情報は、前記接触点の位置及び前記接触点を含む面の法線の情報を含み、
前記移動制御部は、前記複数回の接触のうち第n回目の接触の際に、前記第n回目より前に接触された接触点を含む面の法線と交差する方向に前記力覚センサを移動させる、
請求項1記載の情報処理装置。
the detection information includes information on a position of the contact point and a normal of a surface including the contact point;
the movement control unit moves the force sensor in a direction intersecting a normal to a plane including a contact point that was contacted before the nth contact, when an nth contact occurs among the multiple contacts.
2. The information processing device according to claim 1.
物体の映像を取得する撮影部を備え、
前記推定部は、前記映像に基づいて前記物体に接触可能な位置を推定する、
請求項1又は請求項2に記載の情報処理装置。
A photographing unit is provided for capturing an image of an object,
The estimation unit estimates a contactable position of the object based on the image.
3. The information processing device according to claim 1 or 2 .
請求項1から請求項のいずれか一項に記載の情報処理装置と、
前記推定部の推定結果を用いて前記物体を取り出す取出し機構と、
を備えたピッキング装置。
An information processing device according to any one of claims 1 to 3 ;
a take-out mechanism that takes out the object using the estimation result of the estimation unit;
A picking device comprising:
物体の形状及び大きさを示す物体情報を記憶する記憶部を備えた情報処理装置に、An information processing device including a storage unit that stores object information indicating the shape and size of an object,
力覚センサを移動させる手段と、A means for moving the force sensor;
前記力覚センサから接触により接触点の検出情報を取得する手段と、a means for acquiring detection information of a contact point from the force sensor;
前記力覚センサによる前記物体への複数回の接触で得られた前記検出情報と前記物体情報とに基づいて前記物体の姿勢を推定する手段と、a means for estimating a posture of the object based on the detection information obtained by the force sensor contacting the object multiple times and the object information;
を実行させるためのプログラムであって、A program for executing
前記推定する手段は、前記複数回の接触が遂行される前に前記物体の姿勢について複数の候補を推定し、the estimating means estimates a plurality of candidates for the pose of the object before the plurality of contacts are performed;
前記移動させる手段は、前記複数回の接触において、前記力覚センサが前記物体の異なる面に接触するように、更に、前記複数の候補に含まれる面の位置の不確かさの度合いが、前記複数の候補に含まれる他の面よりも高い面に接触するように、前記力覚センサを移動させる、the moving means moves the force sensor so that the force sensor comes into contact with different faces of the object during the multiple contacts, and further so that the force sensor comes into contact with a face included in the multiple candidates having a higher degree of positional uncertainty than other faces included in the multiple candidates.
プログラム。Program.
JP2020198602A 2020-11-30 2020-11-30 Information processing device, picking device, and program Active JP7561590B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020198602A JP7561590B2 (en) 2020-11-30 2020-11-30 Information processing device, picking device, and program
CN202180074266.9A CN116457161B (en) 2020-11-30 2021-11-25 Information processing device and picking device
EP21898014.2A EP4252975A4 (en) 2020-11-30 2021-11-25 INFORMATION PROCESSING DEVICE AND ORDER PICKING DEVICE
PCT/JP2021/043129 WO2022114042A1 (en) 2020-11-30 2021-11-25 Information processing device, and picking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020198602A JP7561590B2 (en) 2020-11-30 2020-11-30 Information processing device, picking device, and program

Publications (2)

Publication Number Publication Date
JP2022086536A JP2022086536A (en) 2022-06-09
JP7561590B2 true JP7561590B2 (en) 2024-10-04

Family

ID=81894110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020198602A Active JP7561590B2 (en) 2020-11-30 2020-11-30 Information processing device, picking device, and program

Country Status (1)

Country Link
JP (1) JP7561590B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5685027B2 (en) * 2010-09-07 2015-03-18 キヤノン株式会社 Information processing apparatus, object gripping system, robot system, information processing method, object gripping method, and program
JP2015071207A (en) * 2013-10-03 2015-04-16 株式会社豊田自動織機 Robot hand and control method thereof

Also Published As

Publication number Publication date
JP2022086536A (en) 2022-06-09

Similar Documents

Publication Publication Date Title
CN110992356B (en) Target object detection method, device and computer equipment
CN109727288B (en) System and method for monocular simultaneous localization and mapping
US8818039B2 (en) Information processing apparatus, information processing method, and computer program
CN110796671B (en) Data processing method and related device
US9044858B2 (en) Target object gripping apparatus, method for controlling the same and storage medium
US10217221B2 (en) Place recognition algorithm
CN107953329B (en) Object recognition and attitude estimation method, device and robotic arm grasping system
JP2019032830A (en) Systems and methods for detecting grasp poses for handling target objects
WO2018221614A1 (en) Learning device, learning method, learning model, estimation device, and grip system
EP2915138A1 (en) Systems and methods of merging multiple maps for computer vision based tracking
JP2002008040A (en) Three-dimensional information detection device and three-dimensional information detection method
JP6922348B2 (en) Information processing equipment, methods, and programs
JP4938748B2 (en) Image recognition apparatus and program
CN114049318A (en) Multi-mode fusion feature-based grabbing pose detection method
JP2018169660A (en) Object attitude detection apparatus, control apparatus, robot and robot system
CN116330306B (en) Object grabbing method and device, storage medium and electronic equipment
CN111665490B (en) Target tracking method and device, storage medium and electronic device
JP7561590B2 (en) Information processing device, picking device, and program
JP6606340B2 (en) Image detection apparatus, image detection method, and program
JP6955081B2 (en) Electronic devices, systems and methods for determining object orientation
CN111179342B (en) Object pose estimation method, device, storage medium and robot
JP5978996B2 (en) Object region extraction apparatus, method, and program
JP2017042897A (en) Robot system, robot, and robot control device
Aini et al. Object detection of surgical instruments for assistant robot surgeon using knn
CN113051424A (en) Positioning method and device based on SLAM map

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240924

R150 Certificate of patent or registration of utility model

Ref document number: 7561590

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150