JP2020082217A - Control device and gripping method - Google Patents

Control device and gripping method Download PDF

Info

Publication number
JP2020082217A
JP2020082217A JP2018215309A JP2018215309A JP2020082217A JP 2020082217 A JP2020082217 A JP 2020082217A JP 2018215309 A JP2018215309 A JP 2018215309A JP 2018215309 A JP2018215309 A JP 2018215309A JP 2020082217 A JP2020082217 A JP 2020082217A
Authority
JP
Japan
Prior art keywords
center
revolution
control unit
control device
gravity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018215309A
Other languages
Japanese (ja)
Inventor
孝太 瀧上
Kota Takizawa
孝太 瀧上
松田 浩一
Koichi Matsuda
浩一 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MinebeaMitsumi Inc
Original Assignee
MinebeaMitsumi Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MinebeaMitsumi Inc filed Critical MinebeaMitsumi Inc
Priority to JP2018215309A priority Critical patent/JP2020082217A/en
Publication of JP2020082217A publication Critical patent/JP2020082217A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To easily determine a proper gripping position when an object of a given shape is gripped.SOLUTION: A control device in an embodiment is a control device for a robot hand that grips an object with a plurality of fingers arranged to be able to revolve around a prescribed revolution center, and includes a movement control unit and a gripping control unit. The movement control unit moves the robot hand so that the revolution center and a gravity center position of the object overlap. The gripping control unit positions the fingers at an intersection between a revolution circle centered at the revolution center and an offset line at which a contour line of the object is offset to the outer side by a prescribed quantity in a state where the revolution center and the gravity center position of the object overlap, and grips the object with the fingers.SELECTED DRAWING: Figure 3

Description

本発明は、制御装置および把持方法に関する。 The present invention relates to a control device and a gripping method.

従来、可動多指を有するロボットハンド(以下、単に「ハンド」と言う)を備え、かかるハンドによって任意形状の物体を把持するロボットが知られている(たとえば、特許文献1参照)。 BACKGROUND ART Conventionally, there is known a robot that includes a robot hand having movable multi-finger (hereinafter, simply referred to as “hand”) and that grips an object having an arbitrary shape by the hand (for example, refer to Patent Document 1).

特開2006−130580号公報JP 2006-130580 A

しかしながら、上述した従来の技術には、任意形状の物体を把持するに際し、適正な把持位置を容易に決定するうえで、更なる改善の余地がある。 However, the above-described conventional technique has room for further improvement in easily determining an appropriate gripping position when gripping an object having an arbitrary shape.

具体的には、上述した従来の技術では、把持対象となる物体を画像認識によりいくつかの所定の単純形状のうちの一つに当てはめ、当てはめた単純形状の種別に応じた所定の決定処理に基づいてハンド姿勢を決定する。 Specifically, in the above-described conventional technique, an object to be grasped is fitted to one of several predetermined simple shapes by image recognition, and a predetermined determination process is performed according to the type of the fitted simple shape. Based on this, the hand posture is determined.

ただし、かかる従来の技術によれば、単純形状の種別ごとに異なる決定処理を行わねばならず、制御が複雑化するという問題があった。また、任意形状の物体を少なくとも所定の単純形状のいずれかに当てはめるため、たとえば物体の形状によっては、必ずしも適正な把持位置で把持されない、すなわち安定した把持を行えないおそれがあった。 However, according to such a conventional technique, there is a problem in that control must be complicated because different determination processing must be performed for each type of simple shape. Further, since an object having an arbitrary shape is applied to at least one of the predetermined simple shapes, there is a risk that the object may not be gripped at an appropriate gripping position, that is, stable gripping may not be performed depending on the shape of the object.

本発明は、上記に鑑みてなされたものであって、任意形状の物体を把持するに際し、適正な把持位置を容易に決定することができる制御装置および把持方法を提供することを目的とする。 The present invention has been made in view of the above, and an object thereof is to provide a control device and a gripping method that can easily determine an appropriate gripping position when gripping an object having an arbitrary shape.

上述した課題を解決し、目的を達成するために、本発明の一態様に係る制御装置は、所定の公転中心まわりに公転可能に設けられた複数の指部によって物体を把持するロボットハンドの制御装置であって、移動制御部と、把持制御部と、を備える。前記移動制御部は、前記公転中心および前記物体の重心位置が重なるように前記ロボットハンドを移動させる。前記把持制御部は、前記公転中心および前記重心位置が重なった状態において、前記公転中心を中心とする円である公転円と前記物体の輪郭線を所定量外側へオフセットさせたオフセット線との交点へ前記指部を位置付け、該指部により前記物体を把持させる。 In order to solve the above-mentioned problems and to achieve the object, a control device according to one aspect of the present invention controls a robot hand that grips an object by a plurality of fingers that are revolvable around a predetermined center of revolution. The device includes a movement control unit and a grip control unit. The movement control unit moves the robot hand such that the center of revolution and the center of gravity of the object overlap. The gripping control unit, in a state in which the center of revolution and the position of the center of gravity overlap, the intersection point of an orbital circle which is a circle centered on the center of revolution and an offset line obtained by offsetting the contour line of the object outward by a predetermined amount. The finger is positioned and the object is held by the finger.

本発明の一態様によれば、任意形状の物体を把持するに際し、適正な把持位置を容易に決定することができる。 According to one aspect of the present invention, an appropriate gripping position can be easily determined when gripping an object having an arbitrary shape.

図1は、実施形態に係るロボットシステムの構成例を示す模式図である。FIG. 1 is a schematic diagram showing a configuration example of a robot system according to an embodiment. 図2は、実施形態に係るハンドの構成例を示す模式図である。FIG. 2 is a schematic diagram showing a configuration example of the hand according to the embodiment. 図3は、実施形態に係るロボットシステムのブロック図である。FIG. 3 is a block diagram of the robot system according to the embodiment. 図4は、実施形態に係る把持位置決定までの動作説明図(その1)である。FIG. 4 is an operation explanatory diagram (part 1) up to the determination of the grip position according to the embodiment. 図5は、実施形態に係る把持位置決定までの動作説明図(その2)である。FIG. 5 is an operation explanatory diagram (part 2) up to the determination of the grip position according to the embodiment. 図6は、実施形態に係る把持位置決定までの動作説明図(その3)である。FIG. 6 is an operation explanatory diagram (No. 3) up to the determination of the grip position according to the embodiment. 図7は、実施形態に係る把持位置決定までの動作説明図(その4)である。FIG. 7 is an operation explanatory diagram (part 4) up to the determination of the grip position according to the embodiment. 図8は、変形例に係る把持位置決定の動作説明図(その1)である。FIG. 8 is an operation explanatory diagram (1) of the grip position determination according to the modification. 図9は、変形例に係る把持位置決定の動作説明図(その2)である。FIG. 9 is an explanatory diagram (part 2) of the grip position determination operation according to the modification. 図10は、実施形態に係る制御装置が実行する処理手順を示すフローチャートである。FIG. 10 is a flowchart showing a processing procedure executed by the control device according to the embodiment.

以下、実施形態に係る制御装置および把持方法について図面を参照して説明する。なお、図面における各要素の寸法の関係、各要素の比率などは、現実と異なる場合がある。図面の相互間においても、互いの寸法の関係や比率が異なる部分が含まれている場合がある。 Hereinafter, a control device and a gripping method according to the embodiment will be described with reference to the drawings. Note that the dimensional relationship of each element in the drawings, the ratio of each element, and the like may differ from reality. Even between the drawings, there may be a case where portions having different dimensional relationships or ratios are included.

また、以下では、実施形態に係るロボット10が、いわゆる垂直多関節ロボットである場合を例に挙げるが、ロボット10の形態を限定するものではなく、ロボット10は、たとえば水平多関節ロボットや、パラレルリンクロボット等に置き換えることができる。 Further, in the following, a case where the robot 10 according to the embodiment is a so-called vertical articulated robot is taken as an example, but the form of the robot 10 is not limited, and the robot 10 may be, for example, a horizontal articulated robot or a parallel articulated robot. It can be replaced with a link robot or the like.

また、以下では、ロボット10の基台部11が据え付けられる設置面側を「基端側」とし、ロボット10を構成する各部材の基端側周辺を「基端部」と呼ぶ場合がある。また、ロボット10が把持することとなる物体O側を「先端側」とし、各部材の先端側周辺を「先端部」と呼ぶ場合がある。 Further, hereinafter, the installation surface side on which the base 11 of the robot 10 is installed may be referred to as a “base end side”, and the periphery of the base end side of each member forming the robot 10 may be referred to as a “base end part”. Further, the object O side to be gripped by the robot 10 may be referred to as a “tip side”, and the periphery of the tip side of each member may be referred to as a “tip portion”.

図1は、実施形態に係るロボットシステム1の構成例を示す模式図である。また、図2は、実施形態に係るハンド14の構成例を示す模式図である。 FIG. 1 is a schematic diagram showing a configuration example of a robot system 1 according to the embodiment. 2 is a schematic diagram showing a configuration example of the hand 14 according to the embodiment.

図1に示すように、実施形態に係るロボットシステム1は、ロボット10と、制御装置20と、カメラ30とを備える。 As shown in FIG. 1, the robot system 1 according to the embodiment includes a robot 10, a control device 20, and a camera 30.

ロボット10は、基台部11と、旋回ベース12と、アーム部13と、ハンド14とを備える。アーム部13は、第1アーム13aと、第2アーム13bと、第3アーム13cとをさらに備える。 The robot 10 includes a base 11, a swivel base 12, an arm 13, and a hand 14. The arm unit 13 further includes a first arm 13a, a second arm 13b, and a third arm 13c.

基台部11は、床面などの設置面に固定される支持ベースである。旋回ベース12は、かかる基台部11上に旋回可能に設けられる。第1アーム13aは、旋回ベース12に対して回転可能に設けられる。 The base portion 11 is a support base fixed to an installation surface such as a floor surface. The swivel base 12 is rotatably provided on the base 11. The first arm 13 a is rotatably provided with respect to the swivel base 12.

第2アーム13bは、第1アーム13aに対して回転可能に設けられる。第3アーム13cは、第2アーム13bに対して回転可能に設けられる。なお、第3アーム13cには、ハンド14が取り付けられる。すなわち、アーム部13は、ハンド14を支持する。 The second arm 13b is rotatably provided with respect to the first arm 13a. The third arm 13c is rotatably provided with respect to the second arm 13b. The hand 14 is attached to the third arm 13c. That is, the arm portion 13 supports the hand 14.

かかるロボット10の構成についてさらに詳しく説明する。図1に示すように、ロボット10は、いわゆる垂直多関節ロボットである。旋回ベース12は、基台部11に対し、軸a1まわりに旋回可能に連結される。 The configuration of the robot 10 will be described in more detail. As shown in FIG. 1, the robot 10 is a so-called vertical articulated robot. The swivel base 12 is connected to the base 11 so as to be swivelable about an axis a1.

第1アーム13aは、旋回ベース12に対し、基端部が軸a1に略垂直な(ねじれの位置を含む)軸a2まわりに回転可能に連結される。第2アーム13bは、第1アーム13aの先端部に対し、基端部が軸a2に略平行な軸a3まわりに回転可能に連結される。 The first arm 13a is rotatably connected to the swivel base 12 about an axis a2 (including a twist position) whose base end is substantially perpendicular to the axis a1. The second arm 13b is rotatably connected to the front end of the first arm 13a about a shaft a3 whose base end is substantially parallel to the shaft a2.

第3アーム13cは、第2アーム13bの先端部に対し、基端部が軸a3に略平行な軸a4まわりに回転可能に連結される。また、第3アーム13cは、先端部において、ハンド14を軸a4に略垂直な(ねじれの位置を含む)軸a5まわりに回転可能に支持する。なお、軸a5は、「公転軸」の一例に相当する。 The third arm 13c is rotatably connected to the tip end of the second arm 13b about the axis a4 whose base end is substantially parallel to the axis a3. Further, the third arm 13c supports the hand 14 at the tip end portion thereof so as to be rotatable about an axis a5 (including a twisted position) substantially perpendicular to the axis a4. The axis a5 corresponds to an example of “revolution axis”.

ハンド14は、いわゆる可動多指ハンドであって、図2に示すように、支持部14aと、複数の指部14bとを備える。なお、図2に示すように、実施形態に係るハンド14は、3本の指部14bを備えるものとするが、指部14bは複数であればよく、2本であってもよいし、4本以上であってもよい。 The hand 14 is a so-called movable multi-fingered hand, and includes a support portion 14a and a plurality of finger portions 14b, as shown in FIG. Note that, as shown in FIG. 2, the hand 14 according to the embodiment includes three finger portions 14b, but the number of finger portions 14b may be two or more, or four. It may be more than a book.

支持部14aは、上述のように第3アーム13cに軸a5まわりに回転可能に支持されるとともに(図中の矢印201参照)、指部14bそれぞれの基端部を支持する。したがって、言い換えれば、指部14bは、軸a5まわりに公転可能に設けられている。 The support portion 14a is rotatably supported by the third arm 13c around the axis a5 as described above (see the arrow 201 in the drawing), and also supports the base end portions of the finger portions 14b. Therefore, in other words, the finger portion 14b is revolvable around the axis a5.

なお、図2では、指部14bが1つの支持部14aにより一括に軸a5まわりに公転する例を示しているが、指部14bのそれぞれが個別に軸a5まわりに公転可能であってもよい。かかる場合の例については、図8および図9を用いた説明で後述する。 Although FIG. 2 shows an example in which the finger portions 14b revolve around the axis a5 collectively by the single support portion 14a, each of the finger portions 14b may individually revolve around the axis a5. .. An example of such a case will be described later with reference to FIGS. 8 and 9.

また、指部14bはたとえば、それぞれ関節部14baを有し、かかる関節部14baによって折り曲げ可能に設けられている(図中の矢印202参照)。かかる折り曲げにより、指部14bが互いに近づくように閉じられることによって、ハンド14は、把持対象となる物体Oを把持することができる。また、指部14bが互いに遠ざかるように開かれることによって、ハンド14は、物体Oの把持を解くことができる。 Further, the finger portions 14b each have, for example, a joint portion 14ba, and are provided so as to be bendable by the joint portion 14ba (see arrow 202 in the figure). By this bending, the fingers 14b are closed so as to approach each other, so that the hand 14 can hold the object O to be held. In addition, the fingers 14b are opened so as to move away from each other, so that the hand 14 can release the grip of the object O.

なお、図2の例では、指部14bそれぞれが1つの関節部14baを有しているが、関節部14baの数を限定するものではなく、2つ以上であってもよいし、0であってもよい。0である場合は、たとえば指部14bを互いに近づけたり遠ざけたりすることで指部14bの開閉動作を実現する開閉機構を備えればよい。 In the example of FIG. 2, each finger 14b has one joint 14ba, but the number of joints 14ba is not limited, and may be two or more, or 0. May be. When it is 0, for example, an opening/closing mechanism that realizes the opening/closing operation of the finger portions 14b by moving the finger portions 14b closer to or farther from each other may be provided.

図1に戻る。制御装置20は、ロボット10およびカメラ30と情報伝達可能に接続される。なお、その接続形態は、有線および無線を問わない。制御装置20は、種々の制御機器や演算処理装置、記憶装置等を含んで構成され、ロボット10の動作を制御する。 Returning to FIG. The control device 20 is connected to the robot 10 and the camera 30 so that information can be transmitted. The connection form may be wired or wireless. The control device 20 is configured to include various control devices, arithmetic processing devices, storage devices, and the like, and controls the operation of the robot 10.

たとえば、制御装置20は、図示略の入力装置(プログラミングペンダント等)や図示略の上位装置等を介して取得したジョブプログラムに基づいてロボット10を動作させる動作信号を生成し、ロボット10へ向けて出力することによってロボット10の動作を制御する。 For example, the control device 20 generates an operation signal for operating the robot 10 based on a job program acquired via an input device (not shown) (programming pendant or the like) or a host device not shown, and outputs the operation signal to the robot 10. By outputting, the operation of the robot 10 is controlled.

この動作信号は、たとえばロボット10に搭載され、上述した各軸a1〜a5まわりの回転動作や関節部14baによる折り曲げ動作を実現するサーボモータ(図示略)へのパルス信号として生成される。 This operation signal is generated as a pulse signal to a servo motor (not shown) that is mounted on the robot 10, for example, and that realizes the above-described rotation operation around each of the axes a1 to a5 and the bending operation by the joint portion 14ba.

カメラ30は、任意形状の物体Oの2次元画像を撮像可能な位置、たとえばロボット10の上方に設けられ、物体Oを撮像して、その撮像画像を制御装置20へ出力する。 The camera 30 is provided at a position where a two-dimensional image of the object O having an arbitrary shape can be captured, for example, above the robot 10, captures the object O, and outputs the captured image to the control device 20.

そして、実施形態に係る把持方法は、上述のように構成されたロボットシステム1において、任意形状の物体Oを把持するに際し、容易にかつ適正な把持位置で物体Oを把持させようとするものである。 Then, the gripping method according to the embodiment is such that, when the object O having an arbitrary shape is gripped in the robot system 1 configured as described above, the object O is easily and properly gripped at a gripping position. is there.

このために、実施形態に係る把持方法は、指部14bの公転中心および物体Oの重心位置が重なるようにハンド14を移動させることとした。そして、実施形態に係る把持方法は、上記公転中心および上記重心位置が重なった状態において、上記公転中心を中心とする円である公転円と物体Oの輪郭線を所定量外側へオフセットさせたオフセット線との交点へ指部14bを位置付け、指部14bにより物体Oを把持させることとした。 Therefore, in the gripping method according to the embodiment, the hand 14 is moved so that the center of revolution of the finger portion 14b and the center of gravity of the object O overlap. In the gripping method according to the embodiment, in a state where the center of revolution and the position of the center of gravity overlap, an orbital circle that is a circle centered on the center of revolution and an offset obtained by offsetting the contour line of the object O to the outside by a predetermined amount. The finger portion 14b is positioned at the intersection with the line, and the object O is grasped by the finger portion 14b.

これにより、実施形態に係る把持方法によれば、任意形状の物体Oにつき、重心位置を中心とした安定した適正な把持を行うことが可能となる。 As a result, according to the gripping method according to the embodiment, it is possible to perform stable and proper gripping on the object O having an arbitrary shape with the center of gravity at the center.

また、実施形態に係る把持方法は、上記重心位置および上記オフセット線に基づいて、指部14bを位置付ける把持位置を決定するので、かかる決定処理を物体Oの形状によって分ける必要がない。したがって、実施形態に係る把持方法によれば、物体Oの形状の多様性に関わりなく、容易にかつ適正な把持位置で、物体Oを把持することができる。 Further, in the grasping method according to the embodiment, the grasping position for locating the finger portion 14b is determined based on the center of gravity position and the offset line, and thus the determination process does not need to be divided according to the shape of the object O. Therefore, according to the gripping method according to the embodiment, the object O can be easily gripped at an appropriate gripping position regardless of the variety of shapes of the object O.

なお、上述したオフセットの所定量は、たとえば0とすることもできる。すなわち、実施形態に係る把持方法は、上記公転中心および上記重心位置が重なった状態において、上記公転中心を中心とする円である公転円と上記輪郭線との交点を把持位置として決定してもよい。 The predetermined amount of the above-mentioned offset can be set to 0, for example. That is, in the gripping method according to the embodiment, in the state where the center of revolution and the position of the center of gravity overlap, even if the intersection of the revolution circle that is a circle centered on the center of revolution and the contour line is determined as the gripping position. Good.

以下、上述した実施形態に係る把持方法を適用したロボットシステム1の構成例について、さらに具体的に説明する。 Hereinafter, a configuration example of the robot system 1 to which the gripping method according to the above-described embodiment is applied will be described more specifically.

図3は、実施形態に係るロボットシステム1のブロック図である。なお、図3では、実施形態の特徴を説明するために必要な構成要素のみを表しており、一般的な構成要素についての記載を省略している。 FIG. 3 is a block diagram of the robot system 1 according to the embodiment. It should be noted that FIG. 3 shows only the components necessary for explaining the features of the embodiment, and omits the description of general components.

換言すれば、図3に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。 In other words, each component shown in FIG. 3 is functionally conceptual, and does not necessarily have to be physically configured as shown. For example, the specific form of distribution/integration of each block is not limited to that shown in the figure, and all or part of the block may be functionally or physically distributed/arranged in arbitrary units according to various loads and usage conditions. It can be integrated and configured.

また、図3を用いた説明では、既に説明済みの構成要素については、説明を簡略化するか、省略する場合がある。したがって、図3を用いた説明では、主に制御装置20の構成例について説明する。 Further, in the description using FIG. 3, description may be simplified or omitted for the components already described. Therefore, in the description using FIG. 3, a configuration example of the control device 20 will be mainly described.

図3に示すように、実施形態に係るロボットシステム1は、ロボット10と、制御装置20と、カメラ30とを含む。 As shown in FIG. 3, the robot system 1 according to the embodiment includes a robot 10, a control device 20, and a camera 30.

制御装置20は、記憶部21と、制御部22とを備える。記憶部21は、たとえば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、図3の例では、物体画像21aと、検出情報21bとを記憶する。 The control device 20 includes a storage unit 21 and a control unit 22. The storage unit 21 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. In the example of FIG. The detection information 21b is stored.

物体画像21aは、カメラ30によって撮像される物体Oの撮像画像が格納される。検出情報21bは、後述する検出部22bによって検出される各種データに関する情報であり、物体Oの輪郭線、かかる輪郭線に基づくオフセット線、および、物体Oの重心位置を含む。 The object image 21a stores a captured image of the object O captured by the camera 30. The detection information 21b is information regarding various data detected by the detection unit 22b described later, and includes the contour line of the object O, an offset line based on the contour line, and the position of the center of gravity of the object O.

制御部22は、コントローラ(controller)であり、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、制御装置20内部の記憶デバイスに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部22は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。 The control unit 22 is a controller, and various programs stored in a storage device inside the control device 20 use a RAM as a work area by, for example, a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). It is realized by being executed. Further, the control unit 22 can be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

制御部22は、取得部22aと、検出部22bと、移動制御部22cと、把持制御部22dとを有し、以下に説明する情報処理の機能や作用を実現または実行する。 The control unit 22 includes an acquisition unit 22a, a detection unit 22b, a movement control unit 22c, and a grip control unit 22d, and realizes or executes the functions and actions of information processing described below.

取得部22aは、カメラ30から出力された物体Oの撮像画像を取得し、物体画像21aへ格納する。 The acquisition unit 22a acquires the captured image of the object O output from the camera 30 and stores it in the object image 21a.

検出部22bは、物体画像21aに基づいて画像解析処理を実行し、物体Oの輪郭線、および、物体Oの重心位置を検出して、検出情報21bへ格納する。なお、画像解析処理による輪郭線および重心位置の検出方法については公知であるため、ここでの説明は省略する。 The detection unit 22b executes image analysis processing based on the object image 21a, detects the contour line of the object O and the position of the center of gravity of the object O, and stores the detected information 21b. Since the method of detecting the contour line and the position of the center of gravity by the image analysis processing is known, the description thereof is omitted here.

また、検出部22bは、物体Oの輪郭線を所定量外側へオフセットさせたオフセット線を検出し、検出情報21bへ格納する。 Further, the detection unit 22b detects an offset line obtained by offsetting the contour line of the object O to the outside by a predetermined amount and stores it in the detection information 21b.

移動制御部22cは、検出情報21bに基づいて、指部14bの公転中心および物体Oの重心位置が重なるようにハンド14を移動させる。指部14bの公転中心は、言い換えれば上述の軸a5の軸心位置である。 The movement controller 22c moves the hand 14 based on the detection information 21b such that the center of revolution of the finger 14b and the center of gravity of the object O overlap. In other words, the center of revolution of the finger portion 14b is the axial center position of the axis a5 described above.

具体的には、移動制御部22cは、物体Oの重心位置を、指部14bの公転中心を移動させるべき目標位置とした逆キネマティクス演算を実行し、その演算結果に基づいてロボット10を上述の各軸a1〜a4まわりに回転させる各回転量を導出する。また、移動制御部22cは、導出した各回転量に基づいてロボット10を動作させる動作信号を生成し、ロボット10へ向けて出力する。 Specifically, the movement control unit 22c executes the inverse kinematics calculation with the center of gravity of the object O as the target position to which the center of revolution of the finger 14b should be moved, and based on the calculation result, the robot 10 described above is moved. The respective amounts of rotation about the axes a1 to a4 are derived. Further, the movement control unit 22c generates an operation signal for operating the robot 10 based on each derived rotation amount, and outputs the operation signal to the robot 10.

把持制御部22dは、指部14bの公転中心および物体Oの重心位置が重なった状態において、上記公転中心を中心とする円である公転円と上記オフセット線との交点へ指部14bを位置付け、指部14bにより物体Oを把持させる。 The gripping control unit 22d positions the finger portion 14b at the intersection of the revolution circle, which is a circle having the revolution center as a center, and the offset line in a state where the revolution center of the finger portion 14b and the center of gravity of the object O overlap each other The object O is held by the finger portion 14b.

具体的には、把持制御部22dは、上記公転円と上記オフセット線との交点を、指部14bを移動させるべき目標位置とした逆キネマティクス演算を実行し、その演算結果に基づいてハンド14を上述の軸a5まわりに回転させる回転量を導出する。また、移動制御部22cは、導出した回転量に基づいてロボット10を動作させる動作信号を生成し、ロボット10へ向けて出力する。これにより、指部14bは、目標位置である把持位置へ位置付くこととなる。 Specifically, the grip control unit 22d executes an inverse kinematics operation with the intersection of the revolution circle and the offset line as the target position to which the finger 14b should be moved, and the hand 14 based on the operation result. A rotation amount for rotating the above-mentioned axis a5 is derived. The movement control unit 22c also generates an operation signal for operating the robot 10 based on the derived rotation amount, and outputs the operation signal to the robot 10. As a result, the finger portion 14b comes to the gripping position which is the target position.

そのうえで、把持制御部22dは、指部14bが互いに近づくように、関節部14baにより指部14bを折り曲げる動作信号を生成し、ロボット10へ向けて出力する。これにより、指部14bが互いに近づくように閉じられ、物体Oが把持されることとなる。 Then, the grip control unit 22d generates an operation signal for bending the finger portion 14b by the joint portion 14ba so that the finger portions 14b approach each other, and outputs the operation signal to the robot 10. As a result, the finger portions 14b are closed so as to approach each other, and the object O is gripped.

ここで、これまでの説明を分かりやすくするために、指部14bの把持位置が決定されるまでの具体的な動作例について、図4〜図7を用いて説明する。図4は、実施形態に係る把持位置決定までの動作説明図(その1)である。また、図5は、実施形態に係る把持位置決定までの動作説明図(その2)である。 Here, in order to make the above description easy to understand, a specific operation example until the grip position of the finger portion 14b is determined will be described with reference to FIGS. 4 to 7. FIG. 4 is an operation explanatory diagram (part 1) up to the determination of the grip position according to the embodiment. Further, FIG. 5 is an operation explanatory diagram (part 2) up to the determination of the grip position according to the embodiment.

また、図6は、実施形態に係る把持位置決定までの動作説明図(その3)である。また、図7は、実施形態に係る把持位置決定までの動作説明図(その4)である。なお、図4〜図7では、物体Oを平面視した場合をごく模式的に表している。 FIG. 6 is an operation explanatory diagram (part 3) up to the determination of the grip position according to the embodiment. FIG. 7 is an operation explanatory diagram (4) up to the determination of the grip position according to the embodiment. 4 to 7, the case where the object O is viewed in plan is shown schematically.

図4に示す任意形状の物体O1があったものとする。かかる場合において、まず取得部22aによって取得された物体O1の物体画像21aに基づき、検出部22bが、画像解析処理によって、物体O1の輪郭線CL、オフセット線OL、および、物体O1の重心位置CGを検出する。 It is assumed that there is an object O1 having an arbitrary shape shown in FIG. In such a case, first, based on the object image 21a of the object O1 acquired by the acquisition unit 22a, the detection unit 22b performs image analysis processing to perform the contour line CL of the object O1, the offset line OL, and the center of gravity position CG of the object O1. To detect.

なお、輪郭線CLをオフセットさせる所定量は任意でよいが、たとえば指部14bの太さに対応する。一例としては、指部14bの断面径の1/2程度である。 The predetermined amount by which the contour line CL is offset may be arbitrary, but corresponds to the thickness of the finger portion 14b, for example. As an example, it is about ½ of the cross-sectional diameter of the finger portion 14b.

そして、移動制御部22cが、図5に示すように、指部14bの公転中心である軸a5の軸心位置および重心位置CGが重なるようにハンド14を移動させる(図中の矢印501参照)。これにより、物体O1の重心位置CGを中心とした把持を行うことが可能となる。すなわち、安定した物体O1の把持を行うことが可能となる。 Then, as shown in FIG. 5, the movement control unit 22c moves the hand 14 so that the axial center position of the axis a5, which is the center of revolution of the finger 14b, and the center of gravity position CG overlap (see arrow 501 in the figure). .. This makes it possible to grip the object O1 with the center of gravity CG as the center. That is, it is possible to stably grip the object O1.

そして、把持制御部22dが、軸a5を中心とする公転円RCとオフセット線OLとの交点を探索する。なお、ここでは、指部14bを一括に軸a5まわりに公転させて、すべての指部14bが一斉に位置付け可能な交点の組み合わせを探索するものとする。その結果、交点P1,P2,P3が抽出されたものとする。 Then, the grip control unit 22d searches for an intersection of the revolution circle RC centered on the axis a5 and the offset line OL. Here, it is assumed that the finger portions 14b are collectively revolved around the axis a5 to search for a combination of intersections that can be simultaneously positioned by all the finger portions 14b. As a result, it is assumed that the intersection points P1, P2, P3 are extracted.

すると、把持制御部22dは、図6に示すように、指部14bを軸a5まわりに公転させて、指部14bを交点P1,P2,P3へ位置付ける(図中の矢印601参照)。かかる位置において、把持制御部22dが、指部14bを重心位置CG側へ向けて折り曲げることによって、指部14bにより物体O1が安定的に把持されることとなる。 Then, as shown in FIG. 6, the grip control unit 22d revolves the finger portion 14b around the axis a5 and positions the finger portion 14b at the intersections P1, P2, P3 (see arrow 601 in the figure). At this position, the grip control unit 22d bends the finger portion 14b toward the center of gravity position CG, so that the object portion O1 is stably gripped by the finger portion 14b.

なお、より安定的な把持を行うために、図7に示すように、交点P1,P2,P3は、重心位置CGを中心とした回転対称(同図では120°の回転対称)となる位置のものが抽出され、把持位置とされることが好ましい。したがって、実施形態に係るハンド14の場合、指部14bは、基端部が同一円周上に120°の等間隔で設けられていることが好ましい。 In order to carry out more stable gripping, as shown in FIG. 7, the intersection points P1, P2, P3 are located at positions which are rotationally symmetric with respect to the center of gravity position CG (rotational symmetry of 120° in the figure). It is preferable that the object is extracted and set as the gripping position. Therefore, in the case of the hand 14 according to the embodiment, it is preferable that the base portions of the finger portions 14b are provided on the same circumference at equal intervals of 120°.

また、図7では、把持位置を等間隔としたが、必ずしも等間隔でなくともよい。図8は、変形例に係る把持位置決定の動作説明図(その1)である。なお、図8を用いた説明では、上述したように、指部14bのそれぞれが個別に軸a5まわりに公転可能に設けられているものとする。 Further, in FIG. 7, the gripping positions are set at equal intervals, but they need not be at equal intervals. FIG. 8 is an operation explanatory diagram (1) of the grip position determination according to the modification. In the description using FIG. 8, as described above, each of the finger portions 14b is individually provided so as to be able to revolve around the axis a5.

また、図8の説明の前提として、図5に示したように、移動制御部22cが、ハンド14を移動させ、指部14bの公転中心および重心位置CGが重なった状態であるものとする。 Further, as a premise of the description of FIG. 8, it is assumed that the movement control unit 22c moves the hand 14 and the orbital center of the finger portion 14b and the center of gravity position CG overlap as shown in FIG.

かかる場合に、把持制御部22dは、たとえば公転円RC上のオフセット線OLとの交点を、個別に公転可能である指部14bの本数分、探索する。このとき、把持制御部22dは、たとえば指部14bそれぞれの交点への移動量の総和が最小となるように探索する。その結果、図8に示すように、交点P1,P4,P5が抽出されたものとする。 In such a case, the grip control unit 22d searches, for example, the intersection with the offset line OL on the revolution circle RC by the number of individually revolving finger portions 14b. At this time, the grip control unit 22d searches, for example, so that the total sum of the movement amounts of the finger portions 14b to the intersections becomes the minimum. As a result, it is assumed that the intersection points P1, P4, P5 are extracted as shown in FIG.

すると、把持制御部22dは、図8に示すように、指部14bのそれぞれを軸a5まわりに個別に公転させて、指部14bを交点P1,P4,P5へ位置付ける(図中の矢印801,802,803参照)。かかる等間隔でない把持位置において、把持制御部22dが、指部14bを折り曲げることによっても、重心位置CGを中心とした安定的な把持を行うことができる。 Then, as shown in FIG. 8, the grip control unit 22d revolves each of the finger portions 14b individually around the axis a5 and positions the finger portions 14b at the intersection points P1, P4, P5 (arrow 801 in the figure). 802, 803). At such gripping positions that are not evenly spaced, the gripping control unit 22d can also perform stable gripping around the center of gravity position CG by bending the finger 14b.

また、これまでは、同一形状の物体O1を例に挙げてきたが、物体O1と異なる形状の物体Oについても、同様に把持位置を決定することができる。図9は、変形例に係る把持位置決定の動作説明図(その2)である。 Although the object O1 having the same shape has been taken as an example so far, the gripping position can be similarly determined for the object O having a shape different from the object O1. FIG. 9 is an explanatory diagram (part 2) of the grip position determination operation according to the modification.

図9では、平面視でオーバル状であり、物体O1とは明らかに形状の異なる物体O2を例に挙げる。図9に示すように、物体O2がたとえばオーバル状であっても、これまでと同様に、物体O2の物体画像21aに基づき、検出部22bが、画像解析処理によって、物体O2の輪郭線CL、オフセット線OL、および、物体O2の重心位置CGを検出する。 In FIG. 9, an object O2 having an oval shape in plan view and having a shape obviously different from the object O1 is taken as an example. As shown in FIG. 9, even if the object O2 is, for example, an oval shape, the detection unit 22b performs the image analysis processing on the basis of the object image 21a of the object O2, and the contour line CL of the object O2, The offset line OL and the center of gravity position CG of the object O2 are detected.

そして、移動制御部22cが、指部14bの公転中心および重心位置CGが重なるようにハンド14を移動させる。そのうえで、把持制御部22dが、たとえば公転円RC上のオフセット線OLとの交点を、個別に公転可能である指部14bの本数分、探索する。 Then, the movement control unit 22c moves the hand 14 so that the revolving center of the finger portion 14b and the center of gravity position CG overlap. Then, the grip control unit 22d searches, for example, the intersections with the offset line OL on the revolution circle RC for the number of individually revolvable finger portions 14b.

その結果、たとえば図8に示す交点P6,P7,P8が抽出されたならば、把持制御部22dは、指部14bのそれぞれを軸a5まわりに個別に公転させて、指部14bを交点P6,P7,P8へ位置付ける。そして、把持制御部22dが、かかる把持位置において指部14bを折り曲げることによって、物体O2を、重心位置CGを中心に安定的に把持させることとなる。 As a result, for example, if the intersections P6, P7, P8 shown in FIG. 8 are extracted, the grip control unit 22d revolves each of the finger portions 14b individually around the axis a5, and the finger portion 14b is intersected with the intersection points P6, P6. Position to P7 and P8. Then, the grip control unit 22d bends the finger portion 14b at the grip position, so that the object O2 is stably gripped around the center of gravity position CG.

このように、実施形態に係る把持方法によれば、物体Oの形状の多様性に関わりなく、容易にかつ適正な把持位置で、物体Oを把持することができる。なお、指部14bが1つの支持部14aにより一括に軸a5まわりに公転する場合であっても、指部14bがそれぞれの延在方向を自在に変更可能に設けられていれば、図8や図9に示した例のように指部14bを等間隔でない位置に位置付けることは可能である。 As described above, according to the gripping method according to the embodiment, the object O can be gripped easily and at an appropriate gripping position regardless of the variety of shapes of the object O. Even when the finger portions 14b revolve around the axis a5 collectively by the single support portion 14a, if the finger portions 14b are provided so that their extending directions can be freely changed, FIG. As in the example shown in FIG. 9, it is possible to position the finger portions 14b at positions that are not evenly spaced.

これまでは、指部14bは、関節部が1つであり、閉じる際には、それぞれの指先が一斉に重心位置CGの方へ向けて折れ曲がり、指部14bが、同じ位置に向かう方向へ向けて同様の姿勢で延在することとなる例を挙げた。しかし、これに限らず、たとえば、指部14bそれぞれが多関節を有し、それぞれが異なる姿勢をとって異なる方向へ延在しつつも、指先は把持制御部22dの抽出した交点へ位置付け可能な構成にすることで、対応可能となる。 Until now, the finger portion 14b has only one joint portion, and when closed, each fingertip bends toward the center of gravity position CG all at once, and the finger portion 14b faces toward the same position. As an example, an example in which the robot extends in the same posture is given. However, the present invention is not limited to this, and for example, each of the finger portions 14b has multiple joints, and while each of them has different postures and extends in different directions, the fingertips can be positioned at the intersections extracted by the grip control unit 22d. The configuration makes it possible to deal with it.

また、制御装置20は、記憶部21を有さなくともよい。すなわち、制御装置20は、取得部22aが取得した撮像画像を記憶部21を介することなく検出部22bへ直接渡し、これに基づいて、検出部22bがオフセット線OLおよび重心位置CGを検出してもよい。同様に、検出部22bは、検出したオフセット線OLおよび重心位置CGを記憶部21を介することなく移動制御部22cおよび把持制御部22dへ直接渡し、これに基づいて、移動制御部22cおよび把持制御部22dが処理を進めてもよい。 Further, the control device 20 may not have the storage unit 21. That is, the control device 20 directly transfers the captured image acquired by the acquisition unit 22a to the detection unit 22b without passing through the storage unit 21, and based on this, the detection unit 22b detects the offset line OL and the center of gravity position CG. Good. Similarly, the detection unit 22b passes the detected offset line OL and the center of gravity position CG directly to the movement control unit 22c and the grip control unit 22d without passing through the storage unit 21, and based on this, the movement control unit 22c and the grip control unit 22c. The unit 22d may proceed the processing.

次に、実施形態に係る制御装置20が実行する処理手順について、図10を用いて説明する。図10は、実施形態に係る制御装置20が実行する処理手順を示すフローチャートである。なお、ここでは、物体Oを把持するまでの処理手順を示している。 Next, a processing procedure executed by the control device 20 according to the embodiment will be described with reference to FIG. FIG. 10 is a flowchart showing a processing procedure executed by the control device 20 according to the embodiment. In addition, here, a processing procedure until the object O is gripped is shown.

図10に示すように、まず取得部22aが、物体Oの撮像画像を取得する(ステップS101)。そして、検出部22bが、物体Oの撮像画像に基づいて、オフセット線OLおよび重心位置CGを検出する(ステップS102)。 As shown in FIG. 10, first, the acquisition unit 22a acquires a captured image of the object O (step S101). Then, the detection unit 22b detects the offset line OL and the gravity center position CG based on the captured image of the object O (step S102).

そして、移動制御部22cが、指部14bの公転中心が重心位置CGと重なるようにハンド14を移動させる(ステップS103)。そして、指部14bの公転中心が重心位置CGと重なった状態において、把持制御部22dが、公転円RCとオフセット線OLとの交点へ指部14bを位置付ける(ステップS104)。そして、把持制御部22dが、指部14bにより、物体Oを把持させ(ステップS105)、処理を終了する。 Then, the movement control unit 22c moves the hand 14 so that the center of revolution of the finger portion 14b overlaps with the center of gravity position CG (step S103). Then, in a state where the center of revolution of the finger portion 14b overlaps the center of gravity position CG, the grip control unit 22d positions the finger portion 14b at the intersection of the revolution circle RC and the offset line OL (step S104). Then, the grip controller 22d causes the finger 14b to grip the object O (step S105), and the process ends.

上述してきたように、実施形態に係る制御装置20は、所定の公転中心まわりに公転可能に設けられた複数の指部14bによって物体Oを把持するハンド14(「ロボットハンド」の一例に相当)の制御装置であって、移動制御部22cと、把持制御部22dと、を備える。 As described above, the control device 20 according to the embodiment is a hand 14 (corresponding to an example of a “robot hand”) that grips the object O by the plurality of finger portions 14b that are revolvable around a predetermined center of revolution. The control device includes a movement control unit 22c and a grip control unit 22d.

移動制御部22cは、上記公転中心および物体Oの重心位置CGが重なるようにハンド14を移動させる。把持制御部22dは、上記公転中心および重心位置CGが重なった状態において、上記公転中心を中心とする円である公転円RCと物体Oの輪郭線CLを所定量外側へオフセットさせたオフセット線OLとの交点へ指部14bを位置付け、かかる指部14bにより物体Oを把持させる。 The movement controller 22c moves the hand 14 such that the center of revolution and the center of gravity CG of the object O overlap. The gripping control unit 22d offsets the revolution circle RC, which is a circle centered on the revolution center, and the contour line CL of the object O to the outside by a predetermined amount in a state where the revolution center and the center of gravity position CG overlap. The finger portion 14b is positioned at the intersection with and the object O is gripped by the finger portion 14b.

したがって、実施形態に係る制御装置20によれば、任意形状の物体Oを把持するに際し、適正な把持位置を容易に決定することができる。 Therefore, according to the control device 20 according to the embodiment, an appropriate gripping position can be easily determined when gripping the object O having an arbitrary shape.

また、実施形態に係る制御装置20は、検出部22b、をさらに備える。検出部22bは、物体Oの撮像画像に基づいて、オフセット線OLおよび重心位置CGを検出する。 Further, the control device 20 according to the embodiment further includes a detection unit 22b. The detection unit 22b detects the offset line OL and the center of gravity position CG based on the captured image of the object O.

したがって、実施形態に係る制御装置20によれば、画像解析処理によって検出したオフセット線OLおよび重心位置CGに基づいて、指部14bを位置付ける把持位置を決定することが可能となるので、かかる決定処理を物体Oの形状によって分ける必要がない。これにより、物体Oの形状の多様性に関わりなく、容易にかつ適正な把持位置で、物体Oを把持することが可能となる。 Therefore, according to the control device 20 according to the embodiment, it is possible to determine the gripping position for locating the finger portion 14b based on the offset line OL and the center of gravity position CG detected by the image analysis process. Need not be divided according to the shape of the object O. This makes it possible to easily and easily grip the object O regardless of the variety of shapes of the object O.

また、把持制御部22dは、公転円RCの円周上において重心位置CGに対し対称位置となる複数の交点を抽出し、かかる交点へそれぞれ指部14bを位置付ける。したがって、実施形態に係る制御装置20によれば、任意形状の物体Oにつき、重心位置を中心とした安定した適正な把持を行うことが可能となる。 Further, the grip control unit 22d extracts a plurality of intersections on the circumference of the revolution circle RC that are symmetrical with respect to the center of gravity CG and positions the fingers 14b at the intersections. Therefore, according to the control device 20 according to the embodiment, it is possible to perform stable and proper grasping of the object O having an arbitrary shape with the center of gravity at the center.

また、把持制御部22dは、公転円RCの円周上において等間隔となる複数の交点を抽出し、かかる交点へそれぞれ指部14bを位置付ける。したがって、実施形態に係る制御装置20によれば、任意形状の物体Oにつき、重心位置を中心として均等に力が加えられる、より安定した適正な把持を行うことが可能となる。 Further, the grip control unit 22d extracts a plurality of intersections at equal intervals on the circumference of the revolution circle RC and positions the finger portions 14b at the intersections. Therefore, according to the control device 20 according to the embodiment, it is possible to perform more stable and proper gripping on the object O having an arbitrary shape, in which a force is uniformly applied with the center of gravity as the center.

また、把持制御部22dは、指部14bそれぞれの交点への移動量の総和が最小となる複数の交点を抽出し、かかる交点へそれぞれ指部を位置付ける。したがって、実施形態に係る制御装置20によれば、指部14bの移動量の少ない効率的な把持を行うことが可能となる。 In addition, the grip control unit 22d extracts a plurality of intersections that minimize the total amount of movement to the intersections of the finger portions 14b, and positions the finger portions at the intersections. Therefore, according to the control device 20 according to the embodiment, it is possible to efficiently grip the finger portion 14b with a small amount of movement.

また、検出部22bは、上記所定量を0としてオフセット線を検出する。したがって、実施形態に係る制御装置20によれば、物体Oの輪郭線CLをそのままオフセット線OLとして利用することができるので、画像解析処理の効率化を図ることができる。また、かかる場合、把持制御部22dは、公転円RCとオフセット線OLとの交点へ、指部14bが接するように、指部14bを位置付ければよい。 Further, the detection unit 22b detects the offset line by setting the predetermined amount to 0. Therefore, according to the control device 20 according to the embodiment, the contour line CL of the object O can be directly used as the offset line OL, so that the efficiency of the image analysis process can be improved. Further, in such a case, the grip control unit 22d may position the finger portion 14b so that the finger portion 14b contacts the intersection of the revolution circle RC and the offset line OL.

なお、上述した実施形態では、重心位置CGを中心とした回転対称となる位置、たとえば3本の指部14bが120°間隔で配置されることとなる例を挙げたが、これに限らず、重心位置CGに対する対称位置に、複数の指部14bが対称性をもって配置されればよい。一例として、ハンド14が指部14bを4本有している場合に、重心位置CGを挟んで対向する2点のそれぞれに、指部14bが2つずつ隣接するように配置されてもよい。 In addition, in the above-described embodiment, an example in which the positions that are rotationally symmetric with respect to the center of gravity position CG, for example, three finger portions 14b are arranged at 120° intervals, is not limited to this. It suffices that the plurality of finger portions 14b be arranged symmetrically with respect to the center of gravity position CG. As an example, when the hand 14 has four finger portions 14b, two finger portions 14b may be arranged adjacent to each other at two points facing each other across the center of gravity position CG.

また、上述した実施形態では、カメラ30が、物体Oの2次元画像を撮像する場合について説明したが、カメラ30が、いわゆるRGB−Dカメラであって、RGB情報に加えて深さ方向(Depth)の情報を含む3次元画像を撮像するようにしてもよい。 Further, in the above-described embodiment, the case where the camera 30 captures a two-dimensional image of the object O has been described, but the camera 30 is a so-called RGB-D camera, and in addition to RGB information, the depth direction (Depth). ), a three-dimensional image including the information may be captured.

かかる場合、把持位置の決定に深さ方向を加味することができることで、物体Oを、ハンド14により掴むように把持させるか、または、つまむように把持させるかの選択を含めた制御を行うことが可能となる。したがって、物体Oの高さを含めた、適正な把持位置の決定を行うことができる。 In such a case, since the depth direction can be added to the determination of the gripping position, control including selection of gripping the object O with the hand 14 or gripping with the pinch is performed. Is possible. Therefore, it is possible to determine an appropriate gripping position including the height of the object O.

また、上述した実施形態では言わば、物体Oの形状が変わるごとに、物体Oのオフセット線OLおよび重心位置CGを検出し、これに基づいて指部14bを配置する把持位置をリアルタイムに演算して決定する場合について説明したが、予め物体Oの形状に応じたプリセット情報として設定されていてもよい。 Further, in the above-described embodiment, so to speak, each time the shape of the object O changes, the offset line OL and the barycentric position CG of the object O are detected, and the grip position at which the finger portion 14b is arranged is calculated in real time based on this. Although the case of deciding has been described, it may be preset as preset information according to the shape of the object O.

また、機械学習を用いることとしてもよい。かかる場合、たとえばディープラーニング等を用いることによって、正例となる物体画像21aを用いて予め物体Oの形状およびその形状に応じた把持位置の判別モデルを生成しておく。そして、実運用において、判定対象となる物体画像21aが取得されたならば、かかる物体画像21aを判別モデルへ入力して、判別モデルが出力する出力値に基づいて把持位置を決定するようにしてもよい。 Alternatively, machine learning may be used. In such a case, for example, by using deep learning or the like, a discriminant model of the shape of the object O and a grip position corresponding to the shape is generated in advance using the object image 21a as a positive example. Then, in actual operation, if the object image 21a to be determined is acquired, the object image 21a is input to the discriminant model, and the grip position is determined based on the output value output by the discriminant model. Good.

また、このとき、たとえば判別モデルが、入力された物体画像21aの既存の分類クラスに対する類似度をあわせて出力するようにしておき、かかる類似度が所定の閾値以上に高ければ、判別モデルの出力する把持位置を採用するようにしてもよい。一方、類似度が所定の閾値に満たなければ、上述した実施形態に基づいて把持位置を決定し、さらに該当の物体画像21aに基づいて判別モデルを追加学習するようにしてもよい。 At this time, for example, the discriminant model also outputs the similarity of the input object image 21a to the existing classification class. If the similarity is higher than a predetermined threshold value, the discriminant model is output. The grip position may be adopted. On the other hand, if the degree of similarity does not reach the predetermined threshold value, the grip position may be determined based on the above-described embodiment, and the discriminant model may be additionally learned based on the corresponding object image 21a.

また、上述した実施形態では、ロボット10の軸数が、軸a1〜a5の5つである場合を例に挙げたが、ロボット10の軸数を限定するものではない。 Further, in the above-described embodiment, the case where the number of axes of the robot 10 is five, that is, the axes a1 to a5 has been described as an example, but the number of axes of the robot 10 is not limited.

また、上記実施の形態により本発明が限定されるものではない。上述した各構成素を適宜組み合わせて構成したものも本発明に含まれる。また、さらなる効果や変形例は、当業者によって容易に導き出すことができる。よって、本発明のより広範な態様は、上記の実施の形態に限定されるものではなく、様々な変更が可能である。 Further, the present invention is not limited to the above embodiment. The present invention also includes those configured by appropriately combining the constituent elements described above. Further, further effects and modified examples can be easily derived by those skilled in the art. Therefore, the broader aspect of the present invention is not limited to the above-described embodiment, and various modifications can be made.

14 ハンド(ロボットハンド)、14b 指部、20 制御装置、22b 検出部、22c 移動制御部、22d 把持制御部、a5 軸(公転中心)、CG 重心位置、CL 輪郭線、O 物体、OL オフセット線、RC 公転円 14 hands (robot hand), 14b finger part, 20 control device, 22b detection part, 22c movement control part, 22d grip control part, a5 axis (revolution center), CG center of gravity position, CL contour line, O object, OL offset line , RC revolution circle

Claims (7)

所定の公転中心まわりに公転可能に設けられた複数の指部によって物体を把持するロボットハンドの制御装置であって、
前記公転中心および前記物体の重心位置が重なるように前記ロボットハンドを移動させる移動制御部と、
前記公転中心および前記重心位置が重なった状態において、前記公転中心を中心とする円である公転円と前記物体の輪郭線を所定量外側へオフセットさせたオフセット線との交点へ前記指部を位置付け、該指部により前記物体を把持させる把持制御部と、
を備える、制御装置。
A control device for a robot hand that grips an object with a plurality of fingers that are revolvable around a predetermined center of revolution,
A movement control unit that moves the robot hand such that the center of revolution and the center of gravity of the object overlap.
In a state where the center of revolution and the position of the center of gravity overlap, the finger portion is positioned at the intersection of the revolution circle that is a circle centered on the center of revolution and the offset line obtained by offsetting the contour line of the object outward by a predetermined amount. A grip control unit for gripping the object by the finger unit,
And a control device.
前記物体の撮像画像に基づいて、前記オフセット線および前記重心位置を検出する検出部、
をさらに備える、請求項1に記載の制御装置。
A detection unit that detects the offset line and the position of the center of gravity based on a captured image of the object,
The control device according to claim 1, further comprising:
前記把持制御部は、
前記公転円の円周上において前記重心位置に対し対称位置となる複数の前記交点を抽出し、該交点へそれぞれ前記指部を位置付ける、
請求項1または2に記載の制御装置。
The grip control unit,
On the circumference of the revolution circle, a plurality of intersections that are symmetrical with respect to the position of the center of gravity are extracted, and the fingers are respectively positioned at the intersections.
The control device according to claim 1.
前記把持制御部は、
前記公転円の円周上において等間隔となる複数の前記交点を抽出し、該交点へそれぞれ前記指部を位置付ける、
請求項1、2または3に記載の制御装置。
The grip control unit,
Extracting a plurality of intersections at equal intervals on the circumference of the revolution circle and positioning the finger portions at the intersections,
The control device according to claim 1, 2 or 3.
前記把持制御部は、
前記指部それぞれの前記交点への移動量の総和が最小となる複数の前記交点を抽出し、該交点へそれぞれ前記指部を位置付ける、
請求項1〜4のいずれか一つに記載の制御装置。
The grip control unit,
Extracting a plurality of the intersections where the total sum of movements of the fingers to the intersections is the minimum, and positioning the fingers at the intersections, respectively.
The control device according to claim 1.
前記検出部は、
前記所定量を0として前記オフセット線を検出する、
請求項2に記載の制御装置。
The detection unit,
The offset line is detected by setting the predetermined amount to 0.
The control device according to claim 2.
所定の公転中心まわりに公転可能に設けられた複数の指部によって物体を把持するロボットハンドの制御装置を用いた把持方法であって、
前記公転中心および前記物体の重心位置が重なるように前記ロボットハンドを移動させ、
前記公転中心および前記重心位置が重なった状態において、前記公転中心を中心とする円である公転円と前記物体の輪郭線を所定量外側へオフセットさせたオフセット線との交点へ前記指部を位置付け、該指部により前記物体を把持させる、
ことを含む、把持方法。
A gripping method using a controller for a robot hand that grips an object with a plurality of fingers that are revolvable around a predetermined center of revolution,
The robot hand is moved so that the center of revolution and the center of gravity of the object overlap,
In a state where the center of revolution and the position of the center of gravity overlap, the finger portion is positioned at the intersection of the revolution circle that is a circle centered on the center of revolution and the offset line obtained by offsetting the contour line of the object outward by a predetermined amount. , Holding the object by the finger portion,
A gripping method including:
JP2018215309A 2018-11-16 2018-11-16 Control device and gripping method Pending JP2020082217A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018215309A JP2020082217A (en) 2018-11-16 2018-11-16 Control device and gripping method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018215309A JP2020082217A (en) 2018-11-16 2018-11-16 Control device and gripping method

Publications (1)

Publication Number Publication Date
JP2020082217A true JP2020082217A (en) 2020-06-04

Family

ID=70905470

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018215309A Pending JP2020082217A (en) 2018-11-16 2018-11-16 Control device and gripping method

Country Status (1)

Country Link
JP (1) JP2020082217A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022021147A (en) * 2020-07-21 2022-02-02 株式会社エクサウィザーズ Control apparatus, gripping system, method, and program
US11833691B2 (en) 2021-03-30 2023-12-05 Samsung Electronics Co., Ltd. Hybrid robotic motion planning system using machine learning and parametric trajectories
US11945117B2 (en) 2021-03-10 2024-04-02 Samsung Electronics Co., Ltd. Anticipating user and object poses through task-based extrapolation for robot-human collision avoidance

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022021147A (en) * 2020-07-21 2022-02-02 株式会社エクサウィザーズ Control apparatus, gripping system, method, and program
JP7217727B2 (en) 2020-07-21 2023-02-03 株式会社エクサウィザーズ Controller, gripping system, method and program
US11945117B2 (en) 2021-03-10 2024-04-02 Samsung Electronics Co., Ltd. Anticipating user and object poses through task-based extrapolation for robot-human collision avoidance
US11833691B2 (en) 2021-03-30 2023-12-05 Samsung Electronics Co., Ltd. Hybrid robotic motion planning system using machine learning and parametric trajectories

Similar Documents

Publication Publication Date Title
JP2020082217A (en) Control device and gripping method
RU2700246C1 (en) Method and system for capturing an object using a robot device
US20180085920A1 (en) Robot control device, robot, and robot system
Simão et al. Natural control of an industrial robot using hand gesture recognition with neural networks
Çoban et al. Wireless teleoperation of an industrial robot by using myo arm band
JP6450726B2 (en) Simulation apparatus and simulation method for simulating robot operation
JP7359577B2 (en) Robot teaching device and robot system
JP2015071207A (en) Robot hand and control method thereof
JP2020097073A (en) Control device
CN113183150A (en) Bionic hand control optimization method and system and electronic equipment
JP5868005B2 (en) Imaging apparatus, imaging condition setting method, program
JP6455869B2 (en) Robot, robot system, control device, and control method
US10656097B2 (en) Apparatus and method for generating operation program of inspection system
TWI649169B (en) Holding position and posture teaching device, holding position and posture teaching method, and robot system
Cruciani et al. Dual-arm in-hand manipulation using visual feedback
JP2015226956A (en) Robot, robot system and robot control device
CN108858162B (en) Position determination method and device for four-axis mechanical arm
US20190389052A1 (en) Control apparatus, robot, and robot system
JP7205752B2 (en) ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM
JP2004160594A (en) Control method for robot hand and robot hand
JP2021192944A (en) Robot system, control device, and control method
Zheng et al. A mapping method of grasping posture applying to the metamorphic multi-fingered hand
TWI734237B (en) Automatic control method and automatic control device
JP2013094923A (en) Service robot
JP5939505B2 (en) Robot hand device and control method