JP2013046937A - Object gripping apparatus, object gripping method, and object gripping program - Google Patents

Object gripping apparatus, object gripping method, and object gripping program Download PDF

Info

Publication number
JP2013046937A
JP2013046937A JP2011185629A JP2011185629A JP2013046937A JP 2013046937 A JP2013046937 A JP 2013046937A JP 2011185629 A JP2011185629 A JP 2011185629A JP 2011185629 A JP2011185629 A JP 2011185629A JP 2013046937 A JP2013046937 A JP 2013046937A
Authority
JP
Japan
Prior art keywords
gripping
unit
grip
dimensional
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011185629A
Other languages
Japanese (ja)
Inventor
Shigeo Murakami
繁男 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dainippon Screen Manufacturing Co Ltd filed Critical Dainippon Screen Manufacturing Co Ltd
Priority to JP2011185629A priority Critical patent/JP2013046937A/en
Priority to US13/543,682 priority patent/US20130054030A1/en
Publication of JP2013046937A publication Critical patent/JP2013046937A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39527Workpiece detector, sensor mounted in, near hand, gripper

Abstract

PROBLEM TO BE SOLVED: To provide an object gripping apparatus that can identify an intended gripping position, and can appropriately grip an object.SOLUTION: In this object gripping apparatus, an operation of a gripped part 1 is controlled so as to grip the gripping position 104 of the gripped object 100 based on a three-dimensional position and an attitude of the gripped object 100 and the gripping position 104 that is preliminarily set at each gripped object 100.

Description

本発明は対象物把持装置および対象物把持方法および対象物把持プログラムに関し、特に、ロボットに備えられるハンド部の動作制御に関するものである。   The present invention relates to an object gripping device, an object gripping method, and an object gripping program, and more particularly to operation control of a hand unit provided in a robot.

従来から、対象物を3次元認識することによって、認識した対象物の3次元位置を目標にして、ロボットのハンド部をハンドリングする方法が実施されている。   2. Description of the Related Art Conventionally, a method for handling a robot's hand unit by recognizing a target three-dimensionally and targeting a three-dimensional position of the recognized target is performed.

特許文献1には、3次元CAD(Computer Aided Design)データを用いた、ロボットによる組み立て作業を行う方法が開示されている。具体的にはティーチングにより組み立て作業を行うものであり、ロボットのハンド部によって把持する位置を、組み立ての際に設定する。   Patent Document 1 discloses a method for performing assembly work by a robot using three-dimensional CAD (Computer Aided Design) data. Specifically, the assembly work is performed by teaching, and the position to be gripped by the hand portion of the robot is set at the time of assembly.

また特許文献2には、組み立て作業のシーケンスを作成し、作業性を向上させる方法が開示されている。   Patent Document 2 discloses a method for improving workability by creating an assembly work sequence.

特開2006−350620号公報JP 2006-350620 A 特開2008−46924号公報JP 2008-46924 A

特許文献1に記載の方法では、実際にハンド部で対象物を把持等するためには、認識対象物の形状に対するハンド部の形状の適応度合い等をシミュレーションし、ハンド部のハンドリングをする必要がある。   In the method described in Patent Document 1, in order to actually hold an object with the hand unit, it is necessary to simulate the degree of adaptation of the shape of the hand unit with respect to the shape of the recognition target and handle the hand unit. is there.

このとき、当該シミュレーションで特定された、認識対象物に対するハンド部の位置関係、すなわち、ハンド部で認識対象物を把持する位置等が、認識対象物としての部品等を設計した際の意図したとおりにならない場合がある。部品等の、設計時に把持すべきとされた位置が、シミュレーションにより特定された把持位置とは異なる場合があり、結果として適切に作業が行われないという問題があった。   At this time, the positional relationship of the hand unit with respect to the recognition target object identified by the simulation, that is, the position where the recognition target object is gripped by the hand unit is the same as intended when designing the parts as the recognition target object. It may not be. There is a case where the position of a part or the like that is supposed to be gripped at the time of design is different from the gripping position specified by the simulation, and as a result, there is a problem that the work is not appropriately performed.

また、認識対象物としての部品等を組み合わせて製品を製造するような場合であっても、組み合わせに有効であるとして意図されていた把持位置をシミュレーションでは特定できない場合があり、結果として意図した組み立て状態が実現できない場合があった。   In addition, even when a product is manufactured by combining parts as recognition objects, the gripping position that is intended to be effective for the combination may not be identified by simulation, and as a result the intended assembly There was a case where the state could not be realized.

本発明は、上記のような問題を解決するためになされたものであり、意図した把持位置を特定し、適切に対象物を把持することができる対象物把持装置、およびその方法、プログラムの提供を目的とする。   The present invention has been made to solve the above-described problems, and provides an object gripping apparatus that can specify an intended gripping position and appropriately grip an object, and a method and program thereof. With the goal.

請求項1の発明である対象物把持装置は、把持対象物を把持する把持部と、前記把持部の動作を制御する制御部とを備え、前記制御部が、前記把持対象物の3次元位置および姿勢と、前記把持対象物ごとにあらかじめ設定された把持位置とに基づいて、前記把持対象物の前記把持位置を把持するよう前記把持部の動作を制御することを特徴とする。   The object gripping apparatus according to the first aspect of the present invention includes a gripping unit that grips a gripping target and a control unit that controls the operation of the gripping unit, and the control unit is configured to provide a three-dimensional position of the gripping target. The operation of the gripping unit is controlled so as to grip the gripping position of the gripping object based on the posture and the gripping position preset for each gripping object.

請求項2の発明は、請求項1に記載の対象物把持装置であって、前記把持対象物の視差画像を撮像する撮像部をさらに備え、前記把持対象物の前記3次元位置および姿勢の情報が、前記撮像部において撮像した前記視差画像に基づいて生成されることを特徴とする。   The invention of claim 2 is the object gripping apparatus according to claim 1, further comprising an imaging unit that captures a parallax image of the gripping object, and information on the three-dimensional position and orientation of the gripping object. Is generated based on the parallax image captured by the imaging unit.

請求項3の発明は、請求項2に記載の対象物把持装置であって、前記把持対象物の前記3次元位置および姿勢の情報が、あらかじめ前記把持対象物ごとに用意された3次元モデルと、前記撮像部において撮像した前記視差画像とのマッチングによって生成されることを特徴とする。   The invention of claim 3 is the object gripping device according to claim 2, wherein the information of the three-dimensional position and orientation of the gripping object is prepared in advance for each gripping object, And generated by matching with the parallax image captured by the imaging unit.

請求項4の発明は、請求項3に記載の対象物把持装置であって、前記把持位置の情報が、前記3次元モデルに付加されることを特徴とする。   A fourth aspect of the present invention is the object gripping device according to the third aspect, wherein the information on the gripping position is added to the three-dimensional model.

請求項5の発明は、請求項2〜4のいずれかに記載の対象物把持装置であって、前記撮像部が、前記把持部に取り付けられることを特徴とする。   A fifth aspect of the present invention is the object gripping device according to any one of the second to fourth aspects, wherein the imaging unit is attached to the gripping unit.

請求項6の発明は、請求項1〜5のいずれかに記載の対象物把持装置であって、前記把持位置は、前記把持対象物ごとに1または複数設定されることを特徴とする。   A sixth aspect of the present invention is the object gripping apparatus according to any one of the first to fifth aspects, wherein one or a plurality of the gripping positions are set for each gripping target object.

請求項7の発明は、請求項6に記載の対象物把持装置であって、前記制御部が、前記把持対象物の前記3次元姿勢に応じて、複数設定された前記把持位置のうちから少なくとも1つを選択することを特徴とする。   The invention according to claim 7 is the object gripping apparatus according to claim 6, wherein the control unit is configured to select at least one of the plurality of gripping positions set according to the three-dimensional posture of the gripping object. One is selected.

請求項8の発明は、請求項1〜7のいずれかに記載の対象物把持装置であって、前記把持位置の情報には、前記把持位置に対する前記把持部の進入角度の情報が含まれることを特徴とする。   The invention of claim 8 is the object gripping device according to any one of claims 1 to 7, wherein the information on the gripping position includes information on an approach angle of the gripping part with respect to the gripping position. It is characterized by.

請求項9の発明は、請求項1〜8のいずれかに記載の対象物把持装置であって、複数の前記把持対象物を互いに組み合わせる場合において、前記把持位置は、各前記把持対象物が互いに接触する接触部を避けてあらかじめ設定されることを特徴とする。   The invention of claim 9 is the object gripping apparatus according to any one of claims 1 to 8, wherein when the plurality of gripping objects are combined with each other, the gripping position is such that each gripping object is mutually It is characterized in that it is set in advance so as to avoid the contact portion that contacts.

請求項10の発明は、請求項9に記載の対象物把持装置であって、前記把持位置の情報には、前記把持位置に対する前記把持部の進入角度の情報が含まれ、前記進入角度が、前記把持部の3次元位置が前記接触部を覆わない3次元位置となる進入角度であることを特徴とする。   The invention of claim 10 is the object gripping device according to claim 9, wherein the information on the gripping position includes information on an approaching angle of the gripping part with respect to the gripping position, and the approaching angle is The three-dimensional position of the grip part is an approach angle that is a three-dimensional position that does not cover the contact part.

また、請求項11の発明は、対象物把持方法であって、(a)把持対象物の3次元位置および姿勢の情報を取得する工程と、(b)前記把持対象物ごとにあらかじめ設定された把持位置の情報を取得する工程と、(c)前記把持対象物の3次元位置および姿勢と、前記把持対象物の把持位置とに基づいて、前記把持位置を把持するよう前記把持部の動作を制御する工程とを備えることを特徴とする。   The invention of claim 11 is a method for gripping an object, wherein (a) a step of acquiring information on a three-dimensional position and posture of the gripping object, and (b) preset for each gripping object. A step of acquiring information on a gripping position; and (c) an operation of the gripping unit to grip the gripping position based on the three-dimensional position and posture of the gripping target object and the gripping position of the gripping target object. And a step of controlling.

また、請求項12の発明は、対象物把持プログラムであって、コンピュータにインストールされて実行されることにより、前記把持部を前記コンピュータによって制御する装置を、請求項1〜10のいずれかに記載の対象物把持装置として機能させることを特徴とする。   The invention of claim 12 is an object gripping program, and is installed in a computer and executed, whereby the apparatus for controlling the gripping part by the computer is described in any of claims 1 to 10. It functions as an object gripping device.

請求項1〜10の発明によれば、前記把持対象物のあらかじめ設定した前記把持位置を把持するよう前記把持部の動作を制御することで、意図した把持位置を特定し、適切に把持対象物を把持することができる。   According to the first to tenth aspects of the present invention, the intended gripping position is specified by controlling the operation of the gripping part so as to grip the gripping position set in advance of the gripping target, and the gripping target is appropriately handled. Can be gripped.

特に請求項6〜8の発明によれば、把持位置は進入角度の情報を含み、前記把持対象物ごとに1または複数設定され、3次元姿勢に応じて選択されることにより、把持部および把持対象物の状態ごとに適した把持位置を選択することができる。   In particular, according to the sixth to eighth aspects of the present invention, the gripping position includes information on the approach angle, and one or a plurality of gripping positions are set for each gripping object and selected according to a three-dimensional posture. A gripping position suitable for each state of the object can be selected.

特に請求項9および10の発明によれば、前記接触部を避けてあらかじめ設定される把持位置の情報に前記把持部の進入角度の情報が含まれ、前記進入角度が前記把持部が前記接触部を覆わない進入角度であることにより、組み合わせ動作の際の把持部の3次元位置および姿勢を制御することが可能となり、把持対象物同士を組み合わせる際に、把持部が障害となることがなく、適切に組み合わせ動作を行うことができる。   Particularly, according to the ninth and tenth aspects of the present invention, the information on the approaching angle of the gripping part is included in the information on the gripping position set in advance so as to avoid the contact part, and the approaching angle is determined by the gripping part being the contact part. It is possible to control the three-dimensional position and posture of the gripping part during the combination operation, and the gripping part does not become an obstacle when combining the gripping objects. Combination operations can be performed appropriately.

第1実施形態にかかる対象物把持装置の構成を概念的に示した図である。It is the figure which showed notionally the structure of the target object gripping apparatus concerning 1st Embodiment. 第1実施形態にかかる対象物把持装置のハードウェア構造の例を示す図である。It is a figure which shows the example of the hardware structure of the target object holding | grip apparatus concerning 1st Embodiment. 第1実施形態にかかる対象物把持装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the target object gripping apparatus concerning 1st Embodiment. 第1実施形態にかかる対象物把持装置の動作を説明する図である。It is a figure explaining operation | movement of the target object gripping apparatus concerning 1st Embodiment. 第2実施形態にかかる対象物把持装置の構成を概念的に示した図である。It is the figure which showed notionally the structure of the target object gripping apparatus concerning 2nd Embodiment. 第2実施形態にかかる対象物把持装置のハードウェア構造の例を示す図である。It is a figure which shows the example of the hardware structure of the target object holding | grip apparatus concerning 2nd Embodiment. 第2実施形態にかかる対象物把持装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the target object gripping apparatus concerning 2nd Embodiment. 第2実施形態にかかる対象物把持装置の動作を説明する図である。It is a figure explaining operation | movement of the target object gripping apparatus concerning 2nd Embodiment.

<A.第1実施形態>
<A−1.構成>
図1は、本実施形態にかかる対象物把持装置の構成を概念的に示した図である。図1に示すように本発明にかかる対象物把持装置は、把持対象物100を把持する把持部1(例えばロボットのハンド部)と、把持部1の動作を制御する制御部2とを備える。
<A. First Embodiment>
<A-1. Configuration>
FIG. 1 is a diagram conceptually showing the configuration of the object gripping apparatus according to the present embodiment. As shown in FIG. 1, an object gripping apparatus according to the present invention includes a gripping unit 1 (for example, a robot hand unit) that grips a gripping target 100 and a control unit 2 that controls the operation of the gripping unit 1.

また図1に示すように、把持対象物100の3次元位置および姿勢を認識するために、撮像部3を備えることも可能である。   Further, as shown in FIG. 1, an imaging unit 3 can be provided in order to recognize the three-dimensional position and posture of the grasped object 100.

例えば、ステレオカメラ等の撮像部3を備える場合には、撮像部3において撮像した把持対象物100の視差画像を用いて、あらかじめ用意された把持対象物100の3次元モデルとマッチングを行い、把持対象物100の3次元位置および姿勢を求めることができる。また撮像部3は、把持部1に取り付けられることも可能である。具体的には、把持部1がロボットのハンド部である場合、ハンド部の根元部分(図2参照)に取り付けられることで、より把持対象物100に近い視点から把持対象物100を捉えることができ、より精度の高い3次元位置および姿勢の認識が可能となる。   For example, when the imaging unit 3 such as a stereo camera is provided, the parallax image of the gripping object 100 captured by the imaging unit 3 is used to perform matching with the three-dimensional model of the gripping object 100 prepared in advance. The three-dimensional position and orientation of the object 100 can be obtained. The imaging unit 3 can also be attached to the grip unit 1. Specifically, when the gripping unit 1 is a robot hand unit, the gripping target object 100 can be captured from a viewpoint closer to the gripping target object 100 by being attached to the base portion of the hand unit (see FIG. 2). It is possible to recognize the three-dimensional position and posture with higher accuracy.

なお、撮像部3が備えられない場合であっても、把持対象物100の3次元位置および姿勢がセンサ等から測定できればよいし、また測定した結果が外部等から制御部2へ与えられてもよい。   Even if the imaging unit 3 is not provided, it is sufficient that the three-dimensional position and orientation of the grasped object 100 can be measured from a sensor or the like, and the measurement result may be given to the control unit 2 from the outside. Good.

図2は、本実施形態にかかる対象物把持装置のハードウェア構造の例を示すものである。   FIG. 2 shows an example of the hardware structure of the object gripping apparatus according to this embodiment.

図2に示すように対象物把持装置は、把持対象物100(例えば部品等)を把持する把持部1(ロボットのハンド部1R、ハンド部1Lに対応)と、把持対象物100の3次元位置および姿勢を認識するための撮像部3(ハンド部に取り付けられたカメラ102に対応)と、把持部1の動作を制御する制御部2(CPU103に対応)とを備える。   As illustrated in FIG. 2, the object gripping apparatus includes a gripping unit 1 (corresponding to the robot hand unit 1R and the hand unit 1L) that grips the gripping object 100 (for example, a component) and a three-dimensional position of the gripping target object 100 And an imaging unit 3 for recognizing the posture (corresponding to the camera 102 attached to the hand unit) and a control unit 2 (corresponding to the CPU 103) for controlling the operation of the gripping unit 1.

図2においては、対象物把持装置として双腕のロボットを示しているが、単腕のロボットであってもよい。また、把持対象物100の形状は、図示したものに限られるものではない。   In FIG. 2, a double-arm robot is shown as the object gripping device, but a single-arm robot may be used. Further, the shape of the gripping object 100 is not limited to the illustrated one.

<A−2.動作>
次に、本実施形態にかかる対象物把持装置の制御部2による動作について、図3および図4を用いて説明する。
<A-2. Operation>
Next, operation | movement by the control part 2 of the target object gripping apparatus concerning this embodiment is demonstrated using FIG. 3 and FIG.

まず、カメラ102を用いて、把持対象物100の視差画像を得る(ステップS1)。ここで、画像マッチングによらず把持対象物100の3次元位置および姿勢を認識する場合には、当該動作を省略できる。   First, a parallax image of the grasped object 100 is obtained using the camera 102 (step S1). Here, when recognizing the three-dimensional position and posture of the grasped object 100 regardless of image matching, the operation can be omitted.

次に、把持対象物100に関してあらかじめ準備または測定された3次元モデルと、視差画像とを用いて、3次元マッチングを行う(ステップS2)。ここで、3次元モデルとは、3次元座標情報をそれぞれが有する点群の集合を示すものであり、把持対象物100の各辺、各頂点等に対応する3次元座標情報から構成される。3次元モデルは、所定の記憶部等に記憶され、3次元マッチングを行う際に読み出され、用いられるものである。3次元マッチングによって、把持対象物100の3次元位置および姿勢を認識することができる。   Next, three-dimensional matching is performed using the three-dimensional model prepared or measured in advance with respect to the grasped object 100 and the parallax image (step S2). Here, the three-dimensional model indicates a set of point groups each having three-dimensional coordinate information, and includes three-dimensional coordinate information corresponding to each side, each vertex, and the like of the grasped object 100. The three-dimensional model is stored in a predetermined storage unit or the like, and is read and used when performing three-dimensional matching. The three-dimensional position and posture of the grasped object 100 can be recognized by the three-dimensional matching.

次に、あらかじめ設定された、把持対象物100の把持位置の情報を取得し(ステップS3)、把持対象物100の3次元位置および姿勢における把持位置を特定する。   Next, information on the grip position of the grip target 100 that is set in advance is acquired (step S3), and the grip position in the three-dimensional position and posture of the grip target 100 is specified.

この把持位置の情報とは、例えば図4(a)〜(c)に示すように設定されるもので、ハンド部1Rが把持すべき位置を把持対象物100ごとにあらかじめ特定する情報である。具体的には、把持対象物100ごとに固定されたローカル座標系で記述された、把持位置104を示す3次元座標情報のテキストデータ等である。ハンド部1Rの動作制御に際しては、ロボットの座標系に変換して用いられる。   The grip position information is set as shown in FIGS. 4A to 4C, for example, and is information that specifies in advance for each grip target 100 the position to be gripped by the hand unit 1R. Specifically, it is text data of three-dimensional coordinate information indicating the grip position 104 described in a local coordinate system fixed for each grip object 100. In controlling the operation of the hand unit 1R, it is used after being converted into the coordinate system of the robot.

把持位置104は、ハンド部1Rの状態(ハンド部の形状および大きさ、フィンガーの数、重心の位置等)、ハンド部1Rが把持する位置の把持対象物100の強度等によって複数設定することができる。例えば図4(a)および図4(b)のように、把持対象物100の3次元姿勢が同じである場合に、ハンド部1Rの状態に応じて適した把持位置104を選択することが可能である。具体的には、例えばフィンガーの稼動範囲や把持時の握力、それに対する把持位置の位置間隔や握力耐性等を考慮して、選択することができる。当該選択は、現時点で行ってもよいし、ハンド部1Rが把持対象物100の3次元位置近傍まで移動してから行ってもよい。   A plurality of gripping positions 104 can be set according to the state of the hand unit 1R (the shape and size of the hand unit, the number of fingers, the position of the center of gravity, etc.), the strength of the gripping object 100 at the position gripped by the hand unit 1R, and the like. it can. For example, as shown in FIGS. 4A and 4B, when the three-dimensional posture of the object to be grasped 100 is the same, it is possible to select a suitable grasping position 104 according to the state of the hand unit 1R. It is. Specifically, the selection can be made in consideration of, for example, the operating range of the finger, the gripping force at the time of gripping, the position interval of the gripping position relative to the gripping force, the gripping force resistance, and the like. The selection may be performed at the present time, or may be performed after the hand unit 1R has moved to the vicinity of the three-dimensional position of the grasped object 100.

図4(a)に示す場合には、把持位置104がハンド部1Rの中心3次元位置に対応するようにハンド部1Rの把持動作を制御し、図4(b)に示す場合には、把持位置104がハンド部1Rの各フィンガーの位置に対応するようにハンド部1Rの把持動作を制御する。また図4(c)のように、フィンガーの数に応じて、把持位置104を3点以上に増やすことも可能である。   In the case shown in FIG. 4A, the gripping operation of the hand unit 1R is controlled so that the gripping position 104 corresponds to the central three-dimensional position of the hand unit 1R. In the case shown in FIG. The gripping operation of the hand unit 1R is controlled so that the position 104 corresponds to the position of each finger of the hand unit 1R. Further, as shown in FIG. 4C, the gripping positions 104 can be increased to three or more points according to the number of fingers.

把持位置の情報には、把持する位置の情報の他に、ハンド部1Rが把持位置104に進入する際の角度情報も含むことができる。当該角度情報は、把持対象物100ごとに固定されたローカル座標系で記述された角度(方向)データであり、ハンド部1Rの動作制御に際しては、ロボットの座標系に変換して用いられる。当該角度情報により、ハンド部1Rが把持動作を行う際の、ハンド部1Rの3次元位置および姿勢を制御することも可能となる。   The grip position information can include angle information when the hand unit 1R enters the grip position 104 in addition to the grip position information. The angle information is angle (direction) data described in a local coordinate system fixed for each gripping object 100, and is used after being converted into a robot coordinate system when controlling the operation of the hand unit 1R. Based on the angle information, the three-dimensional position and posture of the hand unit 1R when the hand unit 1R performs a gripping operation can be controlled.

また、把持対象物100に設定される把持位置104は、把持対象物100がどのような3次元姿勢で置かれているかに対応して、複数設定しておくことも可能である。このように設定することによって、異なる3次元姿勢をとる把持対象物100に対して、適切な把持位置104を少なくとも1つ選択し、把持動作に用いることができる。具体的には、把持対象物100の3次元姿勢をできるだけ変化させないような把持位置(例えば、把持対象物100が置かれた状態での、鉛直下方向の面を除く面および辺)を選択したり、逆に、所望の3次元姿勢に変化させるための把持位置を選択したりすることができる。当該選択は、現時点で行ってもよいし、ハンド部1Rが把持対象物100の3次元位置近傍まで移動してから行ってもよい。   A plurality of gripping positions 104 set for the gripping target object 100 can be set in correspondence with what three-dimensional posture the gripping target object 100 is placed. By setting in this way, it is possible to select at least one appropriate gripping position 104 for the gripping object 100 having different three-dimensional postures and use it for the gripping operation. Specifically, a gripping position that does not change the three-dimensional posture of the gripping object 100 as much as possible (for example, a surface and a side excluding a vertically downward surface when the gripping object 100 is placed) is selected. Or, conversely, a gripping position for changing to a desired three-dimensional posture can be selected. The selection may be performed at the present time, or may be performed after the hand unit 1R has moved to the vicinity of the three-dimensional position of the grasped object 100.

この把持位置情報は、把持対象物100の3次元モデルにあらかじめ付加されていることが望ましいが、あらかじめ他の記憶部等に記憶され、把持動作の際に制御部2に与えられるものであってもよい。なお、3次元モデルにあらかじめ付加される場合には、3次元モデルを作成する段階で、各把持対象物100の3次元CADデータに付加されていることが望ましい。このように把持位置情報を付加しておけば、設計時に把持対象物ごとに想定されていた把持に適した位置を把持動作の際に特定することができ、意図した把持動作の実現性が高まる。   This gripping position information is preferably added in advance to the three-dimensional model of the gripping object 100, but is stored in advance in another storage unit or the like, and is given to the control unit 2 during a gripping operation. Also good. In addition, when adding to a three-dimensional model beforehand, it is desirable to add to the three-dimensional CAD data of each gripping object 100 at the stage of creating the three-dimensional model. If gripping position information is added in this way, a position suitable for gripping that is assumed for each gripping object at the time of design can be specified at the time of the gripping operation, and the feasibility of the intended gripping operation is increased. .

次に制御部2は、把持対象物100の3次元位置および姿勢、さらには把持位置104に基づいて、ハンド部1Rを移動させ(ステップS4)、ハンド部1Rに把持対象物100の把持位置104を把持させる(ステップS5)。   Next, the control unit 2 moves the hand unit 1R based on the three-dimensional position and posture of the gripping object 100, and also the gripping position 104 (Step S4), and causes the hand part 1R to grip the gripping position 104 of the gripping object 100. Is gripped (step S5).

把持の際には、ハンド部1Rに備えられたカメラ102を使用して、把持位置の情報が示す把持位置104を適切に把持できているかを確認しながら、把持動作を行うことができる。ハンド部1Rが把持すべき把持位置が1点である場合には、その1点をカメラ102の撮像領域の中心に合わせ、把持動作を行うとよい(この場合、把持位置は把持部1の中心3次元位置に対応して設定されている)。ハンド部1Rが把持すべき把持位置が2点である場合には、その2点の中心位置をカメラ102の撮像領域の中心に合わせ、把持動作を行うとよい。   When gripping, it is possible to perform the gripping operation while confirming whether or not the gripping position 104 indicated by the gripping position information is properly gripped using the camera 102 provided in the hand unit 1R. When the grip position to be gripped by the hand unit 1R is one point, the gripping operation may be performed by aligning the one point with the center of the imaging region of the camera 102 (in this case, the grip position is the center of the grip unit 1). It is set corresponding to the three-dimensional position). When there are two gripping positions to be gripped by the hand unit 1R, the gripping operation may be performed by aligning the center positions of the two points with the center of the imaging region of the camera 102.

<A−3.効果>
本発明にかかる実施形態によれば、対象物把持装置において、把持対象物100の3次元位置および姿勢と、把持対象物100ごとにあらかじめ設定された把持位置104とに基づいて、把持対象物100の把持位置104を把持するよう把持部1の動作を制御することで、意図した把持位置104を特定し、適切に把持対象物100を把持することができる。
<A-3. Effect>
According to the embodiment of the present invention, in the object gripping apparatus, the gripping object 100 is based on the three-dimensional position and posture of the gripping object 100 and the gripping position 104 set in advance for each gripping object 100. By controlling the operation of the gripper 1 so as to grip the gripping position 104, the intended gripping position 104 can be specified and the gripping object 100 can be gripped appropriately.

また、把持対象物100の形状とハンド部1Rの形状とのシミュレーションを行い、その位置関係を確認することを不要とし、動作制御が容易となる。   In addition, it is not necessary to perform a simulation of the shape of the grasped object 100 and the shape of the hand portion 1R and confirm the positional relationship, thereby facilitating operation control.

また、本発明にかかる実施形態によれば、対象物把持装置において、把持位置104の情報が、把持対象物100の3次元モデルに付加されることで、設計時に把持対象物ごとに想定された把持すべき位置をあらかじめ設定でき、意図した部位を把持して作業を行うことができる。   In addition, according to the embodiment of the present invention, in the object gripping apparatus, the information on the gripping position 104 is added to the three-dimensional model of the gripping object 100, and is assumed for each gripping object at the time of design. The position to be grasped can be set in advance, and the work can be performed while grasping the intended part.

また、本発明にかかる実施形態によれば、対象物把持装置において、把持位置104が、把持対象物100ごとに1または複数設定されることで、ハンド部1Rの状態に応じて、適切な把持位置104を選択することができる。   Further, according to the embodiment of the present invention, in the object gripping apparatus, one or a plurality of gripping positions 104 are set for each gripping object 100, so that appropriate gripping can be performed according to the state of the hand unit 1R. The position 104 can be selected.

また、本発明にかかる実施形態によれば、対象物把持装置において、制御部2が、把持対象物100の3次元姿勢に応じて、複数設定された把持位置104のうちから少なくとも1つを選択することで、把持対象物100の状態ごとに適した把持位置を選択することができる。   Further, according to the embodiment of the present invention, in the object gripping device, the control unit 2 selects at least one of the plurality of gripping positions 104 set according to the three-dimensional posture of the gripping object 100. By doing so, it is possible to select a gripping position suitable for each state of the gripping object 100.

また、本発明にかかる実施形態によれば、対象物把持装置において、把持位置104の情報には、把持位置104に対する把持部1の進入角度の情報が含まれることで、把持動作時のハンド部1Rの3次元位置および姿勢を制御することが可能となり、より意図に沿った把持動作が実現可能となる。   Further, according to the embodiment of the present invention, in the object gripping apparatus, the information on the gripping position 104 includes the information on the approach angle of the gripping unit 1 with respect to the gripping position 104, so that the hand unit during the gripping operation can be obtained. It is possible to control the three-dimensional position and orientation of 1R, and it is possible to realize a gripping operation more in line with the intention.

<B.第2実施形態>
<B−1.構成>
図5は、本実施形態にかかる対象物把持装置の構成を概念的に示した図である。図5に示すように、第1実施形態と同様に把持部1、制御部2、撮像部3を備えるが、複数の把持対象物100、把持対象物101の把持を行う点で異なる。なお図5においては、把持対象物は2つ示しているが、2つに限られるものではなく複数であればよい。
<B. Second Embodiment>
<B-1. Configuration>
FIG. 5 is a diagram conceptually showing the configuration of the object gripping apparatus according to the present embodiment. As shown in FIG. 5, the gripping unit 1, the control unit 2, and the imaging unit 3 are provided as in the first embodiment, but differ in that a plurality of gripping objects 100 and gripping objects 101 are gripped. In FIG. 5, two gripping objects are illustrated, but the number is not limited to two and may be plural.

図6は、本実施形態にかかる対象物把持装置のハードウェア構造の例を示すものである。   FIG. 6 shows an example of the hardware structure of the object gripping apparatus according to this embodiment.

図6に示すように対象物把持装置は、把持対象物100(例えば部品等)および把持対象物101(例えば部品等)を把持する把持部1(ロボットのハンド部1R、ハンド部1Lに対応)と、把持対象物100および把持対象物101の3次元位置および姿勢を認識するための撮像部3(ハンド部に備えられたカメラ102に対応)と、把持部1の動作を制御する制御部2(CPU103に対応)とを備える。ここで把持対象物100および把持対象物101は、互いに組み合わせることができる部品等である。   As shown in FIG. 6, the object gripping device includes a gripping unit 1 that grips a gripping target object 100 (for example, a component) and a gripping target object 101 (for example, a component) (corresponding to the robot hand unit 1R and the hand unit 1L). An imaging unit 3 (corresponding to the camera 102 provided in the hand unit) for recognizing the three-dimensional positions and postures of the gripping object 100 and the gripping object 101, and a control unit 2 for controlling the operation of the gripping part 1. (Corresponding to the CPU 103). Here, the gripping object 100 and the gripping object 101 are components that can be combined with each other.

図6に示す対象物把持装置は、把持対象物100および把持対象物101の少なくとも一方を把持し、もう一方の把持対象物に組み合わせて作業を行うことができる。   The object gripping apparatus shown in FIG. 6 can grip at least one of the gripping object 100 and the gripping object 101 and perform the work in combination with the other gripping object.

<B−2.動作>
次に、本実施形態にかかる対象物把持装置の制御部2による動作について、図7および図8を用いて説明する。
<B-2. Operation>
Next, operation | movement by the control part 2 of the target object gripping apparatus concerning this embodiment is demonstrated using FIG. 7 and FIG.

まず、カメラ102を用いて、把持対象物100の視差画像を得る(ステップS11)。 次に、把持対象物100に関してあらかじめ測定された3次元モデルと、視差画像とを用いて、3次元マッチングを行う(ステップS12)。3次元マッチングによって、把持対象物100の3次元位置および姿勢を認識することができる。   First, a parallax image of the grasped object 100 is obtained using the camera 102 (step S11). Next, three-dimensional matching is performed using the three-dimensional model measured in advance with respect to the grasped object 100 and the parallax image (step S12). The three-dimensional position and posture of the grasped object 100 can be recognized by the three-dimensional matching.

次に、あらかじめ設定された、把持対象物100の把持位置の情報、および後述する接触部情報を取得し(ステップS13)、把持対象物100の3次元位置および姿勢における把持位置を特定する。   Next, information on a gripping position of the gripping target object 100 and contact portion information described later are acquired (step S13), and the gripping position in the three-dimensional position and posture of the gripping target object 100 is specified.

ここで当該把持位置は、例えば図8(a)および(b)に示すように、組み合わせの際に接触する面および辺、すなわち接触部aについての情報である接触部情報に基づいて、当該接触部aを避けるように設定される。また、把持位置情報に含まれる、ハンド部1Rが把持位置104に進入する際の進入角度の情報を、ハンド部1Rが接触部aを覆わない進入角度で把持位置104を把持するような進入角度に設定することができる。   Here, for example, as shown in FIGS. 8A and 8B, the gripping position is determined based on the contact part information that is information about the surface and the side that are in contact with each other, that is, the contact part a. It is set so as to avoid the part a. Also, the information on the approach angle when the hand unit 1R enters the grip position 104, which is included in the grip position information, is an entry angle at which the hand unit 1R grips the grip position 104 at an approach angle that does not cover the contact part a. Can be set to

取得される接触部情報は把持位置情報と同様、把持対象物100および把持対象物101の3次元モデルにあらかじめ付加されていることが望ましいが、あらかじめ他の記憶部等に記憶され、把持動作の際に制御部2に与えられるものであってもよい。なお、3次元モデルにあらかじめ付加される場合には、3次元モデルを作成する段階で、各把持対象物の3次元CADデータに付加され、部品構成表(BOM:Bill of Materials)に関連づけられていることが望ましい。   The acquired contact part information is preferably added in advance to the three-dimensional model of the gripping object 100 and the gripping object 101 as in the case of the gripping position information, but is stored in advance in another storage unit or the like, It may be given to the control unit 2 at that time. In addition, when it is added to the 3D model in advance, it is added to the 3D CAD data of each gripping object and associated with a BOM (Bill of Materials) in the stage of creating the 3D model. It is desirable.

また接触部情報は、各把持対象物の組み合わせ方法に対応して、それぞれ複数のパターンが設定されていてもよい。すなわち、図8においては共通の接触部aに対して設定された複数の把持位置104を示しているが、他の接触部aが設定される場合にも、新たな把持位置104をあらかじめ設定することができる。   The contact portion information may be set with a plurality of patterns corresponding to the combination methods of the gripping objects. In other words, FIG. 8 shows a plurality of gripping positions 104 set for the common contact part a, but when another contact part a is set, a new gripping position 104 is set in advance. be able to.

次に制御部2は、把持対象物100の3次元位置および姿勢、さらには把持位置等に基づいて、ハンド部1Rを移動させ(ステップS14)、ハンド部1Rに把持対象物100の把持位置を把持させる(ステップS15)。ここで、把持する対象は把持対象物101の方でもよい。その場合には、上記までの動作を把持対象物101に対して行う。   Next, the control unit 2 moves the hand unit 1R based on the three-dimensional position and posture of the gripping target object 100, the gripping position, and the like (step S14), and sets the gripping position of the gripping target object 100 to the hand part 1R. Grip (step S15). Here, the object to be grasped may be the object to be grasped 101. In that case, the above operation is performed on the grasped object 101.

次に、もう一方の把持対象物101(または把持対象物100)の接触部に、把持対象物100(または把持対象物101)の接触部が接触するように、把持対象物100(または把持対象物101)の3次元位置および姿勢を合わせ、把持対象物101と把持対象物100とを組み合わせる(ステップS16)。   Next, the gripping object 100 (or the gripping object) is so arranged that the contact part of the gripping object 100 (or the gripping object 101) comes into contact with the contact part of the other gripping object 101 (or the gripping object 100). The three-dimensional position and posture of the object 101) are matched, and the gripping object 101 and the gripping object 100 are combined (step S16).

<B−3.効果>
本発明にかかる実施形態によれば、対象物把持装置において、把持位置104が、把持対象物100および把持対象物101が互いに接触する接触部aを避けてあらかじめ設定されることで、把持対象物同士を組み合わせる際に、ハンド部1Rが動作の障害となることがなく、適切に組み合わせ動作を行うことができる。
<B-3. Effect>
According to the embodiment of the present invention, in the object gripping apparatus, the gripping position 104 is set in advance so as to avoid the contact portion a where the gripping object 100 and the gripping object 101 are in contact with each other. When combining each other, the hand unit 1R does not become an obstacle to the operation, and the combination operation can be performed appropriately.

また、本発明にかかる実施形態によれば、対象物把持装置において、把持位置104の情報には、把持位置104に対する把持部1の進入角度の情報が含まれ、進入角度が、把持部1が接触部aを覆わない進入角度であることで、組み合わせ動作の際のハンド部1Rの3次元位置および姿勢を制御することが可能となり、組み合わせ動作の障害とならずにハンド部1Rの動作制御ができる。   Further, according to the embodiment of the present invention, in the object gripping apparatus, the information on the gripping position 104 includes information on the approach angle of the gripper 1 with respect to the gripping position 104, and the approach angle is determined by the gripper 1. Since the approach angle does not cover the contact portion a, it is possible to control the three-dimensional position and posture of the hand unit 1R during the combination operation, and the operation control of the hand unit 1R can be performed without hindering the combination operation. it can.

また、ティーチングによらず容易に把持位置を特定できるので、部品点数が多い場合等、複雑な組み立てが必要なプログラムの作成が容易となる。   In addition, since the gripping position can be easily specified without relying on teaching, it is easy to create a program that requires complex assembly when the number of parts is large.

ロボットを用いた、部品または装置の組み立て作業に用いることができる。   It can be used for assembling parts or devices using a robot.

1 把持部
1L,1R ハンド部
2 制御部
3 撮像部
100,101 把持対象物
102 カメラ
104 把持位置
DESCRIPTION OF SYMBOLS 1 Grip part 1L, 1R Hand part 2 Control part 3 Imaging part 100, 101 Grasping object 102 Camera 104 Gripping position

Claims (12)

把持対象物を把持する把持部と、
前記把持部の動作を制御する制御部とを備え、
前記制御部が、前記把持対象物の3次元位置および姿勢と、前記把持対象物ごとにあらかじめ設定された把持位置とに基づいて、前記把持対象物の前記把持位置を把持するよう前記把持部の動作を制御することを特徴とする、
対象物把持装置。
A gripping part for gripping the gripping object;
A control unit for controlling the operation of the gripping unit,
The control unit is configured to hold the gripping position of the gripping object based on a three-dimensional position and posture of the gripping object and a gripping position set in advance for each gripping object. Controlling the operation,
Object gripping device.
前記把持対象物の視差画像を撮像する撮像部をさらに備え、
前記把持対象物の前記3次元位置および姿勢の情報が、前記撮像部において撮像した前記視差画像に基づいて生成されることを特徴とする、
請求項1に記載の対象物把持装置。
An imaging unit that captures a parallax image of the grasped object;
The information on the three-dimensional position and orientation of the grasped object is generated based on the parallax image captured by the imaging unit.
The object gripping apparatus according to claim 1.
前記把持対象物の前記3次元位置および姿勢の情報が、あらかじめ前記把持対象物ごとに用意された3次元モデルと、前記撮像部において撮像した前記視差画像とのマッチングによって生成されることを特徴とする、
請求項2に記載の対象物把持装置。
The information on the three-dimensional position and orientation of the gripping object is generated by matching a three-dimensional model prepared for each gripping object in advance with the parallax image captured by the imaging unit. To
The object gripping device according to claim 2.
前記把持位置の情報が、前記3次元モデルに付加されることを特徴とする、
請求項3に記載の対象物把持装置。
The grip position information is added to the three-dimensional model.
The object gripping device according to claim 3.
前記撮像部が、前記把持部に取り付けられることを特徴とする、
請求項2〜4のいずれかに記載の対象物把持装置。
The imaging unit is attached to the gripping unit,
The object gripping device according to any one of claims 2 to 4.
前記把持位置が、前記把持対象物ごとに1または複数設定されることを特徴とする、
請求項1〜5のいずれかに記載の対象物把持装置。
The gripping position is set to one or more for each gripping object,
The object gripping device according to any one of claims 1 to 5.
前記制御部が、前記把持対象物の前記3次元姿勢に応じて、複数設定された前記把持位置のうちから少なくとも1つを選択することを特徴とする、
請求項6に記載の対象物把持装置。
The control unit selects at least one of the plurality of gripping positions set according to the three-dimensional posture of the gripping object,
The object gripping device according to claim 6.
前記把持位置の情報には、前記把持位置に対する前記把持部の進入角度の情報が含まれることを特徴とする、
請求項1〜7のいずれかに記載の対象物把持装置。
The information on the grip position includes information on an approach angle of the grip portion with respect to the grip position,
The object gripping device according to any one of claims 1 to 7.
複数の前記把持対象物を互いに組み合わせる場合において、
前記把持位置が、各前記把持対象物が互いに接触する接触部を避けてあらかじめ設定されることを特徴とする、
請求項1〜8のいずれかに記載の対象物把持装置。
When combining a plurality of the gripping objects with each other,
The gripping position is set in advance so as to avoid contact portions where the gripping objects contact each other,
The object gripping device according to claim 1.
前記把持位置の情報には、前記把持位置に対する前記把持部の進入角度の情報が含まれ、
前記進入角度が、前記把持部の3次元位置が前記接触部を覆わない3次元位置となる進入角度であることを特徴とする、
請求項9に記載の対象物把持装置。
The information on the grip position includes information on the angle of approach of the grip portion with respect to the grip position,
The entry angle is an entry angle at which the three-dimensional position of the grip portion is a three-dimensional position that does not cover the contact portion.
The object gripping device according to claim 9.
把持機構を有する所定の把持部を所定の制御部によって制御することによって、把持対象物の把持を前記把持部に行わせる方法であって、
(a)前記把持対象物の3次元位置および姿勢の情報を取得する工程と、
(b)前記把持対象物ごとにあらかじめ設定された把持位置の情報を取得する工程と、
(c)前記把持対象物の3次元位置および姿勢と、前記把持対象物の把持位置とに基づいて、前記把持位置を把持するよう前記把持部の動作を制御部によって制御する工程とを備えることを特徴とする、
対象物把持方法。
A method of causing the gripping unit to grip a gripping object by controlling a predetermined gripping unit having a gripping mechanism by a predetermined control unit,
(A) obtaining information on a three-dimensional position and posture of the grasped object;
(B) obtaining information on a grip position set in advance for each gripping object;
(C) including a step of controlling the operation of the gripping unit by the control unit so as to grip the gripping position based on the three-dimensional position and posture of the gripping target and the gripping position of the gripping target. Characterized by the
Object gripping method.
コンピュータにインストールされて実行されることにより、前記把持部を前記コンピュータによって制御する装置を、請求項1〜10のいずれかに記載の対象物把持装置として機能させることを特徴とする、
対象物把持プログラム。
The apparatus that controls the gripping unit by the computer by being installed in a computer and executed is caused to function as the object gripping device according to any one of claims 1 to 10.
Object gripping program.
JP2011185629A 2011-08-29 2011-08-29 Object gripping apparatus, object gripping method, and object gripping program Withdrawn JP2013046937A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011185629A JP2013046937A (en) 2011-08-29 2011-08-29 Object gripping apparatus, object gripping method, and object gripping program
US13/543,682 US20130054030A1 (en) 2011-08-29 2012-07-06 Object gripping apparatus, object gripping method, and object gripping program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011185629A JP2013046937A (en) 2011-08-29 2011-08-29 Object gripping apparatus, object gripping method, and object gripping program

Publications (1)

Publication Number Publication Date
JP2013046937A true JP2013046937A (en) 2013-03-07

Family

ID=47744810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011185629A Withdrawn JP2013046937A (en) 2011-08-29 2011-08-29 Object gripping apparatus, object gripping method, and object gripping program

Country Status (2)

Country Link
US (1) US20130054030A1 (en)
JP (1) JP2013046937A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015085500A (en) * 2013-11-01 2015-05-07 セイコーエプソン株式会社 Robot, robot system, and control device
JP2016181183A (en) * 2015-03-24 2016-10-13 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2017087326A (en) * 2015-11-06 2017-05-25 キヤノン株式会社 Robot control device and robot control method
WO2021095521A1 (en) * 2019-11-15 2021-05-20 オムロン株式会社 Setting device, setting method, and program

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013111726A (en) * 2011-11-30 2013-06-10 Sony Corp Robot apparatus, method of controlling the same, and computer program
CN103753585A (en) * 2014-01-10 2014-04-30 南通大学 Method for intelligently adjusting manipulator and grasping force on basis of visual image analysis
US9597801B2 (en) * 2014-10-21 2017-03-21 Centurylink Intellectual Property Llc Automated data center
CN111832702A (en) * 2016-03-03 2020-10-27 谷歌有限责任公司 Deep machine learning method and device for robot grabbing
KR102487493B1 (en) 2016-03-03 2023-01-11 구글 엘엘씨 Deep machine learning methods and apparatus for robotic grasping
CN106003036A (en) * 2016-06-16 2016-10-12 哈尔滨工程大学 Object grabbing and placing system based on binocular vision guidance
KR102352559B1 (en) * 2017-05-15 2022-01-19 티에치케이 가부시끼가이샤 grip system
US10967507B2 (en) * 2018-05-02 2021-04-06 X Development Llc Positioning a robot sensor for object classification
EP3838500A1 (en) * 2019-12-17 2021-06-23 Bystronic Laser AG Construction of gripping tools for a laser cutting machine for absorbing parts
WO2021133184A1 (en) * 2019-12-23 2021-07-01 Федеральное Государственное Автономное Образовательное Учреждение Высшего Образования "Московский Физико-Технический Институт (Национальный Исследовательский Университет") Method for performing object manipulation

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015085500A (en) * 2013-11-01 2015-05-07 セイコーエプソン株式会社 Robot, robot system, and control device
JP2016181183A (en) * 2015-03-24 2016-10-13 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2017087326A (en) * 2015-11-06 2017-05-25 キヤノン株式会社 Robot control device and robot control method
WO2021095521A1 (en) * 2019-11-15 2021-05-20 オムロン株式会社 Setting device, setting method, and program
JP2021079464A (en) * 2019-11-15 2021-05-27 オムロン株式会社 Setting device, setting method and program
JP7392409B2 (en) 2019-11-15 2023-12-06 オムロン株式会社 Setting device, setting method and program

Also Published As

Publication number Publication date
US20130054030A1 (en) 2013-02-28

Similar Documents

Publication Publication Date Title
JP2013046937A (en) Object gripping apparatus, object gripping method, and object gripping program
CN109313417B (en) Aiding in robot positioning
JP5685027B2 (en) Information processing apparatus, object gripping system, robot system, information processing method, object gripping method, and program
US9878446B2 (en) Determination of object-related gripping regions using a robot
JP2013099808A (en) Assembling apparatus, and method thereof, assembling operation program
JP6816364B2 (en) Controls, robots, and robot systems
CN106462140B (en) Method for demarcating the tool center point of industrial robot system
JP6499273B2 (en) Teaching apparatus and control information generation method
JP2015071206A (en) Control device, robot, teaching data generation method, and program
JP2012206219A (en) Robot control device and robot system
US20170277167A1 (en) Robot system, robot control device, and robot
JP2013039657A (en) Fast grasp contact computation for serial robot
JP5879704B2 (en) Robot control apparatus, article take-out system, program, and robot control method
WO2017119088A1 (en) Robot system, and control method
JP2015071207A (en) Robot hand and control method thereof
JP6387599B2 (en) Robot, robot system, control apparatus and control method
JP6706777B2 (en) Controller, robot, and robot system
WO2014080652A1 (en) Trajectory generation device of grasping mechanism, trajectory generation method of grasping mechanism, trajectory generation program of grasping mechanism, recording medium, and robot program generation device
JP2015074061A (en) Robot control device, robot system, robot, robot control method and robot control program
WO2013175666A1 (en) Device for generating track for gripping mechanism, method for generating track for gripping mechanism, program for generating track for gripping mechanism, recording medium, and robot program-creating device
JP2015182212A (en) Robot system, robot, control device, and control method
Zhang et al. Vision-guided robot alignment for scalable, flexible assembly automation
TWI807990B (en) Robot teaching system
TWI649169B (en) Holding position and posture teaching device, holding position and posture teaching method, and robot system
WO2016151667A1 (en) Teaching device and method for generating control information

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141104