JP2013046937A - Object gripping apparatus, object gripping method, and object gripping program - Google Patents
Object gripping apparatus, object gripping method, and object gripping program Download PDFInfo
- Publication number
- JP2013046937A JP2013046937A JP2011185629A JP2011185629A JP2013046937A JP 2013046937 A JP2013046937 A JP 2013046937A JP 2011185629 A JP2011185629 A JP 2011185629A JP 2011185629 A JP2011185629 A JP 2011185629A JP 2013046937 A JP2013046937 A JP 2013046937A
- Authority
- JP
- Japan
- Prior art keywords
- gripping
- unit
- grip
- dimensional
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39527—Workpiece detector, sensor mounted in, near hand, gripper
Abstract
Description
本発明は対象物把持装置および対象物把持方法および対象物把持プログラムに関し、特に、ロボットに備えられるハンド部の動作制御に関するものである。 The present invention relates to an object gripping device, an object gripping method, and an object gripping program, and more particularly to operation control of a hand unit provided in a robot.
従来から、対象物を3次元認識することによって、認識した対象物の3次元位置を目標にして、ロボットのハンド部をハンドリングする方法が実施されている。 2. Description of the Related Art Conventionally, a method for handling a robot's hand unit by recognizing a target three-dimensionally and targeting a three-dimensional position of the recognized target is performed.
特許文献1には、3次元CAD(Computer Aided Design)データを用いた、ロボットによる組み立て作業を行う方法が開示されている。具体的にはティーチングにより組み立て作業を行うものであり、ロボットのハンド部によって把持する位置を、組み立ての際に設定する。
また特許文献2には、組み立て作業のシーケンスを作成し、作業性を向上させる方法が開示されている。
特許文献1に記載の方法では、実際にハンド部で対象物を把持等するためには、認識対象物の形状に対するハンド部の形状の適応度合い等をシミュレーションし、ハンド部のハンドリングをする必要がある。
In the method described in
このとき、当該シミュレーションで特定された、認識対象物に対するハンド部の位置関係、すなわち、ハンド部で認識対象物を把持する位置等が、認識対象物としての部品等を設計した際の意図したとおりにならない場合がある。部品等の、設計時に把持すべきとされた位置が、シミュレーションにより特定された把持位置とは異なる場合があり、結果として適切に作業が行われないという問題があった。 At this time, the positional relationship of the hand unit with respect to the recognition target object identified by the simulation, that is, the position where the recognition target object is gripped by the hand unit is the same as intended when designing the parts as the recognition target object. It may not be. There is a case where the position of a part or the like that is supposed to be gripped at the time of design is different from the gripping position specified by the simulation, and as a result, there is a problem that the work is not appropriately performed.
また、認識対象物としての部品等を組み合わせて製品を製造するような場合であっても、組み合わせに有効であるとして意図されていた把持位置をシミュレーションでは特定できない場合があり、結果として意図した組み立て状態が実現できない場合があった。 In addition, even when a product is manufactured by combining parts as recognition objects, the gripping position that is intended to be effective for the combination may not be identified by simulation, and as a result the intended assembly There was a case where the state could not be realized.
本発明は、上記のような問題を解決するためになされたものであり、意図した把持位置を特定し、適切に対象物を把持することができる対象物把持装置、およびその方法、プログラムの提供を目的とする。 The present invention has been made to solve the above-described problems, and provides an object gripping apparatus that can specify an intended gripping position and appropriately grip an object, and a method and program thereof. With the goal.
請求項1の発明である対象物把持装置は、把持対象物を把持する把持部と、前記把持部の動作を制御する制御部とを備え、前記制御部が、前記把持対象物の3次元位置および姿勢と、前記把持対象物ごとにあらかじめ設定された把持位置とに基づいて、前記把持対象物の前記把持位置を把持するよう前記把持部の動作を制御することを特徴とする。 The object gripping apparatus according to the first aspect of the present invention includes a gripping unit that grips a gripping target and a control unit that controls the operation of the gripping unit, and the control unit is configured to provide a three-dimensional position of the gripping target. The operation of the gripping unit is controlled so as to grip the gripping position of the gripping object based on the posture and the gripping position preset for each gripping object.
請求項2の発明は、請求項1に記載の対象物把持装置であって、前記把持対象物の視差画像を撮像する撮像部をさらに備え、前記把持対象物の前記3次元位置および姿勢の情報が、前記撮像部において撮像した前記視差画像に基づいて生成されることを特徴とする。
The invention of
請求項3の発明は、請求項2に記載の対象物把持装置であって、前記把持対象物の前記3次元位置および姿勢の情報が、あらかじめ前記把持対象物ごとに用意された3次元モデルと、前記撮像部において撮像した前記視差画像とのマッチングによって生成されることを特徴とする。
The invention of
請求項4の発明は、請求項3に記載の対象物把持装置であって、前記把持位置の情報が、前記3次元モデルに付加されることを特徴とする。 A fourth aspect of the present invention is the object gripping device according to the third aspect, wherein the information on the gripping position is added to the three-dimensional model.
請求項5の発明は、請求項2〜4のいずれかに記載の対象物把持装置であって、前記撮像部が、前記把持部に取り付けられることを特徴とする。 A fifth aspect of the present invention is the object gripping device according to any one of the second to fourth aspects, wherein the imaging unit is attached to the gripping unit.
請求項6の発明は、請求項1〜5のいずれかに記載の対象物把持装置であって、前記把持位置は、前記把持対象物ごとに1または複数設定されることを特徴とする。 A sixth aspect of the present invention is the object gripping apparatus according to any one of the first to fifth aspects, wherein one or a plurality of the gripping positions are set for each gripping target object.
請求項7の発明は、請求項6に記載の対象物把持装置であって、前記制御部が、前記把持対象物の前記3次元姿勢に応じて、複数設定された前記把持位置のうちから少なくとも1つを選択することを特徴とする。 The invention according to claim 7 is the object gripping apparatus according to claim 6, wherein the control unit is configured to select at least one of the plurality of gripping positions set according to the three-dimensional posture of the gripping object. One is selected.
請求項8の発明は、請求項1〜7のいずれかに記載の対象物把持装置であって、前記把持位置の情報には、前記把持位置に対する前記把持部の進入角度の情報が含まれることを特徴とする。
The invention of claim 8 is the object gripping device according to any one of
請求項9の発明は、請求項1〜8のいずれかに記載の対象物把持装置であって、複数の前記把持対象物を互いに組み合わせる場合において、前記把持位置は、各前記把持対象物が互いに接触する接触部を避けてあらかじめ設定されることを特徴とする。
The invention of claim 9 is the object gripping apparatus according to any one of
請求項10の発明は、請求項9に記載の対象物把持装置であって、前記把持位置の情報には、前記把持位置に対する前記把持部の進入角度の情報が含まれ、前記進入角度が、前記把持部の3次元位置が前記接触部を覆わない3次元位置となる進入角度であることを特徴とする。 The invention of claim 10 is the object gripping device according to claim 9, wherein the information on the gripping position includes information on an approaching angle of the gripping part with respect to the gripping position, and the approaching angle is The three-dimensional position of the grip part is an approach angle that is a three-dimensional position that does not cover the contact part.
また、請求項11の発明は、対象物把持方法であって、(a)把持対象物の3次元位置および姿勢の情報を取得する工程と、(b)前記把持対象物ごとにあらかじめ設定された把持位置の情報を取得する工程と、(c)前記把持対象物の3次元位置および姿勢と、前記把持対象物の把持位置とに基づいて、前記把持位置を把持するよう前記把持部の動作を制御する工程とを備えることを特徴とする。
The invention of
また、請求項12の発明は、対象物把持プログラムであって、コンピュータにインストールされて実行されることにより、前記把持部を前記コンピュータによって制御する装置を、請求項1〜10のいずれかに記載の対象物把持装置として機能させることを特徴とする。
The invention of claim 12 is an object gripping program, and is installed in a computer and executed, whereby the apparatus for controlling the gripping part by the computer is described in any of
請求項1〜10の発明によれば、前記把持対象物のあらかじめ設定した前記把持位置を把持するよう前記把持部の動作を制御することで、意図した把持位置を特定し、適切に把持対象物を把持することができる。 According to the first to tenth aspects of the present invention, the intended gripping position is specified by controlling the operation of the gripping part so as to grip the gripping position set in advance of the gripping target, and the gripping target is appropriately handled. Can be gripped.
特に請求項6〜8の発明によれば、把持位置は進入角度の情報を含み、前記把持対象物ごとに1または複数設定され、3次元姿勢に応じて選択されることにより、把持部および把持対象物の状態ごとに適した把持位置を選択することができる。 In particular, according to the sixth to eighth aspects of the present invention, the gripping position includes information on the approach angle, and one or a plurality of gripping positions are set for each gripping object and selected according to a three-dimensional posture. A gripping position suitable for each state of the object can be selected.
特に請求項9および10の発明によれば、前記接触部を避けてあらかじめ設定される把持位置の情報に前記把持部の進入角度の情報が含まれ、前記進入角度が前記把持部が前記接触部を覆わない進入角度であることにより、組み合わせ動作の際の把持部の3次元位置および姿勢を制御することが可能となり、把持対象物同士を組み合わせる際に、把持部が障害となることがなく、適切に組み合わせ動作を行うことができる。 Particularly, according to the ninth and tenth aspects of the present invention, the information on the approaching angle of the gripping part is included in the information on the gripping position set in advance so as to avoid the contact part, and the approaching angle is determined by the gripping part being the contact part. It is possible to control the three-dimensional position and posture of the gripping part during the combination operation, and the gripping part does not become an obstacle when combining the gripping objects. Combination operations can be performed appropriately.
<A.第1実施形態>
<A−1.構成>
図1は、本実施形態にかかる対象物把持装置の構成を概念的に示した図である。図1に示すように本発明にかかる対象物把持装置は、把持対象物100を把持する把持部1(例えばロボットのハンド部)と、把持部1の動作を制御する制御部2とを備える。
<A. First Embodiment>
<A-1. Configuration>
FIG. 1 is a diagram conceptually showing the configuration of the object gripping apparatus according to the present embodiment. As shown in FIG. 1, an object gripping apparatus according to the present invention includes a gripping unit 1 (for example, a robot hand unit) that grips a
また図1に示すように、把持対象物100の3次元位置および姿勢を認識するために、撮像部3を備えることも可能である。
Further, as shown in FIG. 1, an
例えば、ステレオカメラ等の撮像部3を備える場合には、撮像部3において撮像した把持対象物100の視差画像を用いて、あらかじめ用意された把持対象物100の3次元モデルとマッチングを行い、把持対象物100の3次元位置および姿勢を求めることができる。また撮像部3は、把持部1に取り付けられることも可能である。具体的には、把持部1がロボットのハンド部である場合、ハンド部の根元部分(図2参照)に取り付けられることで、より把持対象物100に近い視点から把持対象物100を捉えることができ、より精度の高い3次元位置および姿勢の認識が可能となる。
For example, when the
なお、撮像部3が備えられない場合であっても、把持対象物100の3次元位置および姿勢がセンサ等から測定できればよいし、また測定した結果が外部等から制御部2へ与えられてもよい。
Even if the
図2は、本実施形態にかかる対象物把持装置のハードウェア構造の例を示すものである。 FIG. 2 shows an example of the hardware structure of the object gripping apparatus according to this embodiment.
図2に示すように対象物把持装置は、把持対象物100(例えば部品等)を把持する把持部1(ロボットのハンド部1R、ハンド部1Lに対応)と、把持対象物100の3次元位置および姿勢を認識するための撮像部3(ハンド部に取り付けられたカメラ102に対応)と、把持部1の動作を制御する制御部2(CPU103に対応)とを備える。
As illustrated in FIG. 2, the object gripping apparatus includes a gripping unit 1 (corresponding to the
図2においては、対象物把持装置として双腕のロボットを示しているが、単腕のロボットであってもよい。また、把持対象物100の形状は、図示したものに限られるものではない。
In FIG. 2, a double-arm robot is shown as the object gripping device, but a single-arm robot may be used. Further, the shape of the
<A−2.動作>
次に、本実施形態にかかる対象物把持装置の制御部2による動作について、図3および図4を用いて説明する。
<A-2. Operation>
Next, operation | movement by the
まず、カメラ102を用いて、把持対象物100の視差画像を得る(ステップS1)。ここで、画像マッチングによらず把持対象物100の3次元位置および姿勢を認識する場合には、当該動作を省略できる。
First, a parallax image of the grasped
次に、把持対象物100に関してあらかじめ準備または測定された3次元モデルと、視差画像とを用いて、3次元マッチングを行う(ステップS2)。ここで、3次元モデルとは、3次元座標情報をそれぞれが有する点群の集合を示すものであり、把持対象物100の各辺、各頂点等に対応する3次元座標情報から構成される。3次元モデルは、所定の記憶部等に記憶され、3次元マッチングを行う際に読み出され、用いられるものである。3次元マッチングによって、把持対象物100の3次元位置および姿勢を認識することができる。
Next, three-dimensional matching is performed using the three-dimensional model prepared or measured in advance with respect to the grasped
次に、あらかじめ設定された、把持対象物100の把持位置の情報を取得し(ステップS3)、把持対象物100の3次元位置および姿勢における把持位置を特定する。
Next, information on the grip position of the
この把持位置の情報とは、例えば図4(a)〜(c)に示すように設定されるもので、ハンド部1Rが把持すべき位置を把持対象物100ごとにあらかじめ特定する情報である。具体的には、把持対象物100ごとに固定されたローカル座標系で記述された、把持位置104を示す3次元座標情報のテキストデータ等である。ハンド部1Rの動作制御に際しては、ロボットの座標系に変換して用いられる。
The grip position information is set as shown in FIGS. 4A to 4C, for example, and is information that specifies in advance for each
把持位置104は、ハンド部1Rの状態(ハンド部の形状および大きさ、フィンガーの数、重心の位置等)、ハンド部1Rが把持する位置の把持対象物100の強度等によって複数設定することができる。例えば図4(a)および図4(b)のように、把持対象物100の3次元姿勢が同じである場合に、ハンド部1Rの状態に応じて適した把持位置104を選択することが可能である。具体的には、例えばフィンガーの稼動範囲や把持時の握力、それに対する把持位置の位置間隔や握力耐性等を考慮して、選択することができる。当該選択は、現時点で行ってもよいし、ハンド部1Rが把持対象物100の3次元位置近傍まで移動してから行ってもよい。
A plurality of
図4(a)に示す場合には、把持位置104がハンド部1Rの中心3次元位置に対応するようにハンド部1Rの把持動作を制御し、図4(b)に示す場合には、把持位置104がハンド部1Rの各フィンガーの位置に対応するようにハンド部1Rの把持動作を制御する。また図4(c)のように、フィンガーの数に応じて、把持位置104を3点以上に増やすことも可能である。
In the case shown in FIG. 4A, the gripping operation of the
把持位置の情報には、把持する位置の情報の他に、ハンド部1Rが把持位置104に進入する際の角度情報も含むことができる。当該角度情報は、把持対象物100ごとに固定されたローカル座標系で記述された角度(方向)データであり、ハンド部1Rの動作制御に際しては、ロボットの座標系に変換して用いられる。当該角度情報により、ハンド部1Rが把持動作を行う際の、ハンド部1Rの3次元位置および姿勢を制御することも可能となる。
The grip position information can include angle information when the
また、把持対象物100に設定される把持位置104は、把持対象物100がどのような3次元姿勢で置かれているかに対応して、複数設定しておくことも可能である。このように設定することによって、異なる3次元姿勢をとる把持対象物100に対して、適切な把持位置104を少なくとも1つ選択し、把持動作に用いることができる。具体的には、把持対象物100の3次元姿勢をできるだけ変化させないような把持位置(例えば、把持対象物100が置かれた状態での、鉛直下方向の面を除く面および辺)を選択したり、逆に、所望の3次元姿勢に変化させるための把持位置を選択したりすることができる。当該選択は、現時点で行ってもよいし、ハンド部1Rが把持対象物100の3次元位置近傍まで移動してから行ってもよい。
A plurality of
この把持位置情報は、把持対象物100の3次元モデルにあらかじめ付加されていることが望ましいが、あらかじめ他の記憶部等に記憶され、把持動作の際に制御部2に与えられるものであってもよい。なお、3次元モデルにあらかじめ付加される場合には、3次元モデルを作成する段階で、各把持対象物100の3次元CADデータに付加されていることが望ましい。このように把持位置情報を付加しておけば、設計時に把持対象物ごとに想定されていた把持に適した位置を把持動作の際に特定することができ、意図した把持動作の実現性が高まる。
This gripping position information is preferably added in advance to the three-dimensional model of the
次に制御部2は、把持対象物100の3次元位置および姿勢、さらには把持位置104に基づいて、ハンド部1Rを移動させ(ステップS4)、ハンド部1Rに把持対象物100の把持位置104を把持させる(ステップS5)。
Next, the
把持の際には、ハンド部1Rに備えられたカメラ102を使用して、把持位置の情報が示す把持位置104を適切に把持できているかを確認しながら、把持動作を行うことができる。ハンド部1Rが把持すべき把持位置が1点である場合には、その1点をカメラ102の撮像領域の中心に合わせ、把持動作を行うとよい(この場合、把持位置は把持部1の中心3次元位置に対応して設定されている)。ハンド部1Rが把持すべき把持位置が2点である場合には、その2点の中心位置をカメラ102の撮像領域の中心に合わせ、把持動作を行うとよい。
When gripping, it is possible to perform the gripping operation while confirming whether or not the
<A−3.効果>
本発明にかかる実施形態によれば、対象物把持装置において、把持対象物100の3次元位置および姿勢と、把持対象物100ごとにあらかじめ設定された把持位置104とに基づいて、把持対象物100の把持位置104を把持するよう把持部1の動作を制御することで、意図した把持位置104を特定し、適切に把持対象物100を把持することができる。
<A-3. Effect>
According to the embodiment of the present invention, in the object gripping apparatus, the
また、把持対象物100の形状とハンド部1Rの形状とのシミュレーションを行い、その位置関係を確認することを不要とし、動作制御が容易となる。
In addition, it is not necessary to perform a simulation of the shape of the grasped
また、本発明にかかる実施形態によれば、対象物把持装置において、把持位置104の情報が、把持対象物100の3次元モデルに付加されることで、設計時に把持対象物ごとに想定された把持すべき位置をあらかじめ設定でき、意図した部位を把持して作業を行うことができる。
In addition, according to the embodiment of the present invention, in the object gripping apparatus, the information on the
また、本発明にかかる実施形態によれば、対象物把持装置において、把持位置104が、把持対象物100ごとに1または複数設定されることで、ハンド部1Rの状態に応じて、適切な把持位置104を選択することができる。
Further, according to the embodiment of the present invention, in the object gripping apparatus, one or a plurality of
また、本発明にかかる実施形態によれば、対象物把持装置において、制御部2が、把持対象物100の3次元姿勢に応じて、複数設定された把持位置104のうちから少なくとも1つを選択することで、把持対象物100の状態ごとに適した把持位置を選択することができる。
Further, according to the embodiment of the present invention, in the object gripping device, the
また、本発明にかかる実施形態によれば、対象物把持装置において、把持位置104の情報には、把持位置104に対する把持部1の進入角度の情報が含まれることで、把持動作時のハンド部1Rの3次元位置および姿勢を制御することが可能となり、より意図に沿った把持動作が実現可能となる。
Further, according to the embodiment of the present invention, in the object gripping apparatus, the information on the
<B.第2実施形態>
<B−1.構成>
図5は、本実施形態にかかる対象物把持装置の構成を概念的に示した図である。図5に示すように、第1実施形態と同様に把持部1、制御部2、撮像部3を備えるが、複数の把持対象物100、把持対象物101の把持を行う点で異なる。なお図5においては、把持対象物は2つ示しているが、2つに限られるものではなく複数であればよい。
<B. Second Embodiment>
<B-1. Configuration>
FIG. 5 is a diagram conceptually showing the configuration of the object gripping apparatus according to the present embodiment. As shown in FIG. 5, the
図6は、本実施形態にかかる対象物把持装置のハードウェア構造の例を示すものである。 FIG. 6 shows an example of the hardware structure of the object gripping apparatus according to this embodiment.
図6に示すように対象物把持装置は、把持対象物100(例えば部品等)および把持対象物101(例えば部品等)を把持する把持部1(ロボットのハンド部1R、ハンド部1Lに対応)と、把持対象物100および把持対象物101の3次元位置および姿勢を認識するための撮像部3(ハンド部に備えられたカメラ102に対応)と、把持部1の動作を制御する制御部2(CPU103に対応)とを備える。ここで把持対象物100および把持対象物101は、互いに組み合わせることができる部品等である。
As shown in FIG. 6, the object gripping device includes a
図6に示す対象物把持装置は、把持対象物100および把持対象物101の少なくとも一方を把持し、もう一方の把持対象物に組み合わせて作業を行うことができる。
The object gripping apparatus shown in FIG. 6 can grip at least one of the
<B−2.動作>
次に、本実施形態にかかる対象物把持装置の制御部2による動作について、図7および図8を用いて説明する。
<B-2. Operation>
Next, operation | movement by the
まず、カメラ102を用いて、把持対象物100の視差画像を得る(ステップS11)。 次に、把持対象物100に関してあらかじめ測定された3次元モデルと、視差画像とを用いて、3次元マッチングを行う(ステップS12)。3次元マッチングによって、把持対象物100の3次元位置および姿勢を認識することができる。
First, a parallax image of the grasped
次に、あらかじめ設定された、把持対象物100の把持位置の情報、および後述する接触部情報を取得し(ステップS13)、把持対象物100の3次元位置および姿勢における把持位置を特定する。
Next, information on a gripping position of the
ここで当該把持位置は、例えば図8(a)および(b)に示すように、組み合わせの際に接触する面および辺、すなわち接触部aについての情報である接触部情報に基づいて、当該接触部aを避けるように設定される。また、把持位置情報に含まれる、ハンド部1Rが把持位置104に進入する際の進入角度の情報を、ハンド部1Rが接触部aを覆わない進入角度で把持位置104を把持するような進入角度に設定することができる。
Here, for example, as shown in FIGS. 8A and 8B, the gripping position is determined based on the contact part information that is information about the surface and the side that are in contact with each other, that is, the contact part a. It is set so as to avoid the part a. Also, the information on the approach angle when the
取得される接触部情報は把持位置情報と同様、把持対象物100および把持対象物101の3次元モデルにあらかじめ付加されていることが望ましいが、あらかじめ他の記憶部等に記憶され、把持動作の際に制御部2に与えられるものであってもよい。なお、3次元モデルにあらかじめ付加される場合には、3次元モデルを作成する段階で、各把持対象物の3次元CADデータに付加され、部品構成表(BOM:Bill of Materials)に関連づけられていることが望ましい。
The acquired contact part information is preferably added in advance to the three-dimensional model of the
また接触部情報は、各把持対象物の組み合わせ方法に対応して、それぞれ複数のパターンが設定されていてもよい。すなわち、図8においては共通の接触部aに対して設定された複数の把持位置104を示しているが、他の接触部aが設定される場合にも、新たな把持位置104をあらかじめ設定することができる。
The contact portion information may be set with a plurality of patterns corresponding to the combination methods of the gripping objects. In other words, FIG. 8 shows a plurality of
次に制御部2は、把持対象物100の3次元位置および姿勢、さらには把持位置等に基づいて、ハンド部1Rを移動させ(ステップS14)、ハンド部1Rに把持対象物100の把持位置を把持させる(ステップS15)。ここで、把持する対象は把持対象物101の方でもよい。その場合には、上記までの動作を把持対象物101に対して行う。
Next, the
次に、もう一方の把持対象物101(または把持対象物100)の接触部に、把持対象物100(または把持対象物101)の接触部が接触するように、把持対象物100(または把持対象物101)の3次元位置および姿勢を合わせ、把持対象物101と把持対象物100とを組み合わせる(ステップS16)。
Next, the gripping object 100 (or the gripping object) is so arranged that the contact part of the gripping object 100 (or the gripping object 101) comes into contact with the contact part of the other gripping object 101 (or the gripping object 100). The three-dimensional position and posture of the object 101) are matched, and the
<B−3.効果>
本発明にかかる実施形態によれば、対象物把持装置において、把持位置104が、把持対象物100および把持対象物101が互いに接触する接触部aを避けてあらかじめ設定されることで、把持対象物同士を組み合わせる際に、ハンド部1Rが動作の障害となることがなく、適切に組み合わせ動作を行うことができる。
<B-3. Effect>
According to the embodiment of the present invention, in the object gripping apparatus, the
また、本発明にかかる実施形態によれば、対象物把持装置において、把持位置104の情報には、把持位置104に対する把持部1の進入角度の情報が含まれ、進入角度が、把持部1が接触部aを覆わない進入角度であることで、組み合わせ動作の際のハンド部1Rの3次元位置および姿勢を制御することが可能となり、組み合わせ動作の障害とならずにハンド部1Rの動作制御ができる。
Further, according to the embodiment of the present invention, in the object gripping apparatus, the information on the
また、ティーチングによらず容易に把持位置を特定できるので、部品点数が多い場合等、複雑な組み立てが必要なプログラムの作成が容易となる。 In addition, since the gripping position can be easily specified without relying on teaching, it is easy to create a program that requires complex assembly when the number of parts is large.
ロボットを用いた、部品または装置の組み立て作業に用いることができる。 It can be used for assembling parts or devices using a robot.
1 把持部
1L,1R ハンド部
2 制御部
3 撮像部
100,101 把持対象物
102 カメラ
104 把持位置
DESCRIPTION OF
Claims (12)
前記把持部の動作を制御する制御部とを備え、
前記制御部が、前記把持対象物の3次元位置および姿勢と、前記把持対象物ごとにあらかじめ設定された把持位置とに基づいて、前記把持対象物の前記把持位置を把持するよう前記把持部の動作を制御することを特徴とする、
対象物把持装置。 A gripping part for gripping the gripping object;
A control unit for controlling the operation of the gripping unit,
The control unit is configured to hold the gripping position of the gripping object based on a three-dimensional position and posture of the gripping object and a gripping position set in advance for each gripping object. Controlling the operation,
Object gripping device.
前記把持対象物の前記3次元位置および姿勢の情報が、前記撮像部において撮像した前記視差画像に基づいて生成されることを特徴とする、
請求項1に記載の対象物把持装置。 An imaging unit that captures a parallax image of the grasped object;
The information on the three-dimensional position and orientation of the grasped object is generated based on the parallax image captured by the imaging unit.
The object gripping apparatus according to claim 1.
請求項2に記載の対象物把持装置。 The information on the three-dimensional position and orientation of the gripping object is generated by matching a three-dimensional model prepared for each gripping object in advance with the parallax image captured by the imaging unit. To
The object gripping device according to claim 2.
請求項3に記載の対象物把持装置。 The grip position information is added to the three-dimensional model.
The object gripping device according to claim 3.
請求項2〜4のいずれかに記載の対象物把持装置。 The imaging unit is attached to the gripping unit,
The object gripping device according to any one of claims 2 to 4.
請求項1〜5のいずれかに記載の対象物把持装置。 The gripping position is set to one or more for each gripping object,
The object gripping device according to any one of claims 1 to 5.
請求項6に記載の対象物把持装置。 The control unit selects at least one of the plurality of gripping positions set according to the three-dimensional posture of the gripping object,
The object gripping device according to claim 6.
請求項1〜7のいずれかに記載の対象物把持装置。 The information on the grip position includes information on an approach angle of the grip portion with respect to the grip position,
The object gripping device according to any one of claims 1 to 7.
前記把持位置が、各前記把持対象物が互いに接触する接触部を避けてあらかじめ設定されることを特徴とする、
請求項1〜8のいずれかに記載の対象物把持装置。 When combining a plurality of the gripping objects with each other,
The gripping position is set in advance so as to avoid contact portions where the gripping objects contact each other,
The object gripping device according to claim 1.
前記進入角度が、前記把持部の3次元位置が前記接触部を覆わない3次元位置となる進入角度であることを特徴とする、
請求項9に記載の対象物把持装置。 The information on the grip position includes information on the angle of approach of the grip portion with respect to the grip position,
The entry angle is an entry angle at which the three-dimensional position of the grip portion is a three-dimensional position that does not cover the contact portion.
The object gripping device according to claim 9.
(a)前記把持対象物の3次元位置および姿勢の情報を取得する工程と、
(b)前記把持対象物ごとにあらかじめ設定された把持位置の情報を取得する工程と、
(c)前記把持対象物の3次元位置および姿勢と、前記把持対象物の把持位置とに基づいて、前記把持位置を把持するよう前記把持部の動作を制御部によって制御する工程とを備えることを特徴とする、
対象物把持方法。 A method of causing the gripping unit to grip a gripping object by controlling a predetermined gripping unit having a gripping mechanism by a predetermined control unit,
(A) obtaining information on a three-dimensional position and posture of the grasped object;
(B) obtaining information on a grip position set in advance for each gripping object;
(C) including a step of controlling the operation of the gripping unit by the control unit so as to grip the gripping position based on the three-dimensional position and posture of the gripping target and the gripping position of the gripping target. Characterized by the
Object gripping method.
対象物把持プログラム。 The apparatus that controls the gripping unit by the computer by being installed in a computer and executed is caused to function as the object gripping device according to any one of claims 1 to 10.
Object gripping program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011185629A JP2013046937A (en) | 2011-08-29 | 2011-08-29 | Object gripping apparatus, object gripping method, and object gripping program |
US13/543,682 US20130054030A1 (en) | 2011-08-29 | 2012-07-06 | Object gripping apparatus, object gripping method, and object gripping program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011185629A JP2013046937A (en) | 2011-08-29 | 2011-08-29 | Object gripping apparatus, object gripping method, and object gripping program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013046937A true JP2013046937A (en) | 2013-03-07 |
Family
ID=47744810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011185629A Withdrawn JP2013046937A (en) | 2011-08-29 | 2011-08-29 | Object gripping apparatus, object gripping method, and object gripping program |
Country Status (2)
Country | Link |
---|---|
US (1) | US20130054030A1 (en) |
JP (1) | JP2013046937A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015085500A (en) * | 2013-11-01 | 2015-05-07 | セイコーエプソン株式会社 | Robot, robot system, and control device |
JP2016181183A (en) * | 2015-03-24 | 2016-10-13 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP2017087326A (en) * | 2015-11-06 | 2017-05-25 | キヤノン株式会社 | Robot control device and robot control method |
WO2021095521A1 (en) * | 2019-11-15 | 2021-05-20 | オムロン株式会社 | Setting device, setting method, and program |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013111726A (en) * | 2011-11-30 | 2013-06-10 | Sony Corp | Robot apparatus, method of controlling the same, and computer program |
CN103753585A (en) * | 2014-01-10 | 2014-04-30 | 南通大学 | Method for intelligently adjusting manipulator and grasping force on basis of visual image analysis |
US9597801B2 (en) * | 2014-10-21 | 2017-03-21 | Centurylink Intellectual Property Llc | Automated data center |
CN111832702A (en) * | 2016-03-03 | 2020-10-27 | 谷歌有限责任公司 | Deep machine learning method and device for robot grabbing |
KR102487493B1 (en) | 2016-03-03 | 2023-01-11 | 구글 엘엘씨 | Deep machine learning methods and apparatus for robotic grasping |
CN106003036A (en) * | 2016-06-16 | 2016-10-12 | 哈尔滨工程大学 | Object grabbing and placing system based on binocular vision guidance |
KR102352559B1 (en) * | 2017-05-15 | 2022-01-19 | 티에치케이 가부시끼가이샤 | grip system |
US10967507B2 (en) * | 2018-05-02 | 2021-04-06 | X Development Llc | Positioning a robot sensor for object classification |
EP3838500A1 (en) * | 2019-12-17 | 2021-06-23 | Bystronic Laser AG | Construction of gripping tools for a laser cutting machine for absorbing parts |
WO2021133184A1 (en) * | 2019-12-23 | 2021-07-01 | Федеральное Государственное Автономное Образовательное Учреждение Высшего Образования "Московский Физико-Технический Институт (Национальный Исследовательский Университет") | Method for performing object manipulation |
-
2011
- 2011-08-29 JP JP2011185629A patent/JP2013046937A/en not_active Withdrawn
-
2012
- 2012-07-06 US US13/543,682 patent/US20130054030A1/en not_active Abandoned
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015085500A (en) * | 2013-11-01 | 2015-05-07 | セイコーエプソン株式会社 | Robot, robot system, and control device |
JP2016181183A (en) * | 2015-03-24 | 2016-10-13 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP2017087326A (en) * | 2015-11-06 | 2017-05-25 | キヤノン株式会社 | Robot control device and robot control method |
WO2021095521A1 (en) * | 2019-11-15 | 2021-05-20 | オムロン株式会社 | Setting device, setting method, and program |
JP2021079464A (en) * | 2019-11-15 | 2021-05-27 | オムロン株式会社 | Setting device, setting method and program |
JP7392409B2 (en) | 2019-11-15 | 2023-12-06 | オムロン株式会社 | Setting device, setting method and program |
Also Published As
Publication number | Publication date |
---|---|
US20130054030A1 (en) | 2013-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013046937A (en) | Object gripping apparatus, object gripping method, and object gripping program | |
CN109313417B (en) | Aiding in robot positioning | |
JP5685027B2 (en) | Information processing apparatus, object gripping system, robot system, information processing method, object gripping method, and program | |
US9878446B2 (en) | Determination of object-related gripping regions using a robot | |
JP2013099808A (en) | Assembling apparatus, and method thereof, assembling operation program | |
JP6816364B2 (en) | Controls, robots, and robot systems | |
CN106462140B (en) | Method for demarcating the tool center point of industrial robot system | |
JP6499273B2 (en) | Teaching apparatus and control information generation method | |
JP2015071206A (en) | Control device, robot, teaching data generation method, and program | |
JP2012206219A (en) | Robot control device and robot system | |
US20170277167A1 (en) | Robot system, robot control device, and robot | |
JP2013039657A (en) | Fast grasp contact computation for serial robot | |
JP5879704B2 (en) | Robot control apparatus, article take-out system, program, and robot control method | |
WO2017119088A1 (en) | Robot system, and control method | |
JP2015071207A (en) | Robot hand and control method thereof | |
JP6387599B2 (en) | Robot, robot system, control apparatus and control method | |
JP6706777B2 (en) | Controller, robot, and robot system | |
WO2014080652A1 (en) | Trajectory generation device of grasping mechanism, trajectory generation method of grasping mechanism, trajectory generation program of grasping mechanism, recording medium, and robot program generation device | |
JP2015074061A (en) | Robot control device, robot system, robot, robot control method and robot control program | |
WO2013175666A1 (en) | Device for generating track for gripping mechanism, method for generating track for gripping mechanism, program for generating track for gripping mechanism, recording medium, and robot program-creating device | |
JP2015182212A (en) | Robot system, robot, control device, and control method | |
Zhang et al. | Vision-guided robot alignment for scalable, flexible assembly automation | |
TWI807990B (en) | Robot teaching system | |
TWI649169B (en) | Holding position and posture teaching device, holding position and posture teaching method, and robot system | |
WO2016151667A1 (en) | Teaching device and method for generating control information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141104 |